首页
资讯
数码
智能车
智库
活动
MEET大会
AIGC
扫码关注量子位
MoE
颜水成袁粒提出新一代MoE架构:专家吞吐速度最高提升2.1倍!
性能全面提升
十三
2024-10-21
MoE
北京大学
袁粒
颜水成
10万美元训出Llama-2级大模型!全华人打造新型MoE,贾扬清SD前CEO围观
消费级GPU即可微调
丰色
2024-04-05
MoE
大模型
新开源之王来了!1320亿参数,还比Llama2-70B快1倍
12T token从头训练
鱼羊
2024-03-28
MoE
开源大模型
多模态大模型学杂了能力反下降?新研究:MoE+通用专家解决冲突
基于指令聚类的稀疏专家多模态大模型
衡宇
2023-12-30
MoE
多模态大模型
首个开源MoE大模型发布!GPT-4同款架构,来自欧洲的OpenAI
梦晨
2023-12-09
Mistral
MoE
大模型
开源
加载更多
热门文章
开源Llama版o1来了,3B小模型反超80B,逆向工程复现OpenAI新Scaling Law
2024-12-17
宇树机器人强化学习代码全面开源,训练到仿真和实操手把手教学
2024-12-17
Scaling Law不总是适用!尤其在文本分类任务中,vivo AI Lab提出数据质量提升解决方法
2024-12-15
Kimi版o1实装上线,这里是我们的一手测试↑
2024-12-16
GPT-4o数学能力跑分直掉50%,上海AI Lab开始给大模型重新出题了
2024-12-18