失联大神李沐B站复更:领读Llama 3.1论文;竞技场Llama 3.1排第三

还分享了AI八卦

AI大神李沐老师时隔1年多,终于回归B站“填坑”经典论文精读系列了!

没错,最新主角儿还是Llama-3.1:

失联大神李沐B站复更:领读Llama 3.1论文;竞技场Llama 3.1排第三

在这个18分钟左右的视频中,李沐老师手把手教我们读Llama-3.1技术论文,甚至还爆料了一些八卦。(指路7分50秒左右)

他提到,Llama团队在训练最大模型时,其实一开始同时训练了MoE模型和稠密模型,但是前者后来失败了,所以最后只发了一个简单版本。

更多细节大家可以去看原视频,悄咪咪透露,李沐老师刚一上线,播放瞬间破万了。

一大批研究僧们正闻风赶来,瞧瞧热一就知道大家的精神状态了:

失联大神李沐B站复更:领读Llama 3.1论文;竞技场Llama 3.1排第三

(视频地址在文末领取)

与此同时,大模型竞技场排名更新,Llama-3.1-405B代表开源模型首次跻身竞技场前三,仅次于GPT-4o和Claude-3.5-Sonnet。

失联大神李沐B站复更:领读Llama 3.1论文;竞技场Llama 3.1排第三

当然了,这一结果可能并不意外,Meta官方早就暗戳戳地将这几个作了一番比较。

同样是人类评估,Llama-3.1-405B和另外两个打得不分上下。

失联大神李沐B站复更:领读Llama 3.1论文;竞技场Llama 3.1排第三

另外我们看到,Llama-3.1-405B不仅整体能打,在单项(编码、数学、指令遵循、硬提示)中依然牢牢占据前三。

失联大神李沐B站复更:领读Llama 3.1论文;竞技场Llama 3.1排第三

值得一提的是,Llama-3.1-70B也来到了总榜第9,整体置信水平相较之前有了大幅提高。

不过最令人惊喜的是,与此同时,国外网友也对405B的新战绩发来贺电,更有人“贴心”提醒:

405B只接受过“计算最优”训练,他们(指Meta)本来可以继续前进,下一次迭代将会是惊人的

失联大神李沐B站复更:领读Llama 3.1论文;竞技场Llama 3.1排第三

Okk,知道Llama-3.1-405B很腻害了!

这不,仅发布一周,网友们已经玩出花了……

拿来搞生产

搞生产第一步,先在本地跑起来试试~

Open Interpreter(一个让LLMs在用户本地运行的项目)技术社区经理为我们展示了他的成果——

让Llama-3.1-8B在树莓派上运行,仅用到CPU。

【此处无法插入视频,遗憾……可到量子位公众号查看~】

方法嘛,只需在GitHub或Hugging Face下载llamafile文件,配置参数后即可。

据他透露, 这项尝试使用了Raspberry Pi 5(8GB内存)、M.2 Hat和Hailo AI模块,且采用了4-bit quantization(4位量化)。

失联大神李沐B站复更:领读Llama 3.1论文;竞技场Llama 3.1排第三

不过小哥也调侃,这家伙运行几句话就能真·烧干CPU。

失联大神李沐B站复更:领读Llama 3.1论文;竞技场Llama 3.1排第三

接下来,小哥已经在网友的催促下磨刀霍霍向405B了~

除了上面这个例子,还有网友用Llama-3.1-405B在任何GitHub仓库上开始创建聊天机器人

【此处无法插入视频,遗憾……可到量子位公众号查看~】

而且是不花钱那种,Hugging Face免费提供了创建新助手的功能。

失联大神李沐B站复更:领读Llama 3.1论文;竞技场Llama 3.1排第三

不过Groq工程师Rick Lamers在尝试后提出质疑:

当前的RAG管道可能存在问题,容易产生幻觉。

失联大神李沐B站复更:领读Llama 3.1论文;竞技场Llama 3.1排第三

但不管怎样,网友们想尝试的心还是拦不住了~

另外,除了实实在在拿出东西,还有网友拿Llama-3.1-405B放起了烟雾弹。

就在刚刚,网友Hassan宣布:

使用Llama-3.1-405B生成完整的React应用程序。

失联大神李沐B站复更:领读Llama 3.1论文;竞技场Llama 3.1排第三

好家伙,这下开发APP岂不是更简单了!

虽然还未正式开源,但底下网友们已经开始排好队了。

失联大神李沐B站复更:领读Llama 3.1论文;竞技场Llama 3.1排第三

更多玩法欢迎大家自行解锁~

版权所有,未经授权不得以任何形式转载及使用,违者必究。