首页
资讯
数码
智能车
智库
活动
MEET大会
AIGC
扫码关注量子位
MLP
全面超越Transformer!清华蚂蚁纯MLP架构,长短程时序预测大提升
性能和效能双飞升
白交
2024-06-12
MLP
Transformer
时序预测
清华&旷视让全连接层“内卷”,卷出MLP性能新高度
用卷积强化全连接层,可实现多处性能涨点
丰色
2021-06-29
MLP
旷视
清华大学
只需2层线性层,就能超越自注意力机制,清华计图团队又有新突破
Self-Attention:我不要面子的吗?
萧箫
2021-05-07
MLP
清华
自注意力机制
谷歌大脑最新操作玩“复古”:不用卷积注意力,图像分类接近SOTA
没错,就是纯MLP架构
萧箫
2021-05-06
MLP
图像分类
谷歌大脑
加载更多
热门文章
国产之光DeepSeek把AI大佬全炸出来了!671B大模型训练只需此前算力1/10,细节全公开
2024-12-27
生成式AI技术栈排名,沙利文:商汤科技中国第一
2024-12-27
OpenAI科学家:现有模型+后训练足以产生黎曼猜想的新证明
2024-12-27
联想与火山引擎官宣合作,为AI桌面助手接入豆包大模型
2024-12-27
大规模多构型具身智能新数据集和基准:5.5万条机器人轨迹数据,279项不同任务
2024-12-27