首页
资讯
数码
智能车
智库
活动
MEET大会
AIGC
扫码关注量子位
MLP
全面超越Transformer!清华蚂蚁纯MLP架构,长短程时序预测大提升
性能和效能双飞升
白交
2024-06-12
MLP
Transformer
时序预测
清华&旷视让全连接层“内卷”,卷出MLP性能新高度
用卷积强化全连接层,可实现多处性能涨点
丰色
2021-06-29
MLP
旷视
清华大学
只需2层线性层,就能超越自注意力机制,清华计图团队又有新突破
Self-Attention:我不要面子的吗?
萧箫
2021-05-07
MLP
清华
自注意力机制
谷歌大脑最新操作玩“复古”:不用卷积注意力,图像分类接近SOTA
没错,就是纯MLP架构
萧箫
2021-05-06
MLP
图像分类
谷歌大脑
加载更多
热门文章
DeepSeek V3获竞技场最强开源认证!与Claude 3.5 Sonnet实测来了
2024-12-31
豆包大模型披露2024技术进展,亮相7个月综合能力全面对齐GPT-4o
2024-12-30
赛迪报告:金融行业分布式数据库OceanBase占据第一
2024-12-31
LeCun:对人工智能末日的担忧被夸大了,Meta正在构建超级智能助手
2024-12-30
黄仁勋自掏腰包50亿,手把手教AI公司用好GPU
2024-12-31