首页
资讯
数码
智能车
智库
活动
MEET大会
AIGC
扫码关注量子位
MLP
全面超越Transformer!清华蚂蚁纯MLP架构,长短程时序预测大提升
性能和效能双飞升
白交
2024-06-12
MLP
Transformer
时序预测
清华&旷视让全连接层“内卷”,卷出MLP性能新高度
用卷积强化全连接层,可实现多处性能涨点
丰色
2021-06-29
MLP
旷视
清华大学
只需2层线性层,就能超越自注意力机制,清华计图团队又有新突破
Self-Attention:我不要面子的吗?
萧箫
2021-05-07
MLP
清华
自注意力机制
谷歌大脑最新操作玩“复古”:不用卷积注意力,图像分类接近SOTA
没错,就是纯MLP架构
萧箫
2021-05-06
MLP
图像分类
谷歌大脑
加载更多
热门文章
DeepSeek V3获竞技场最强开源认证!与Claude 3.5 Sonnet实测来了
2024-12-31
赛迪报告:金融行业分布式数据库OceanBase占据第一
2024-12-31
10秒极速出片!还有超多特效模版,国产视频模型又整新活了
2025-01-01
黄仁勋自掏腰包50亿,手把手教AI公司用好GPU
2024-12-31
Grok新生图功能大翻车,画人总是画不对,网友喊话马斯克:给谷歌道歉
2025-01-03