云计算一哥的生成式AI之道:Choice Matters
为客户提供“多快好省”的选择权
允中 发自 凹非寺
量子位 | 公众号 QbitAI
引言:AI大模型,并不是一个赢家通吃的市场。
自OpenAI在2022年发布ChatGPT以来,无论是科技巨头还是初创公司,各个玩家可以说是纷纷加大投入,试图在模型性能上超越彼此。
似乎追求单一、性能卓越的AI大模型已然成为一种趋势,各类Benchmark上的夺冠也好似一张得到市场认可的入场券。
然而在如此打法成为主流的同时,一个在AI大模型时代以来一直看似低调,也鲜有大声量地高喊“大模型性能第一”的科技巨头,却在时隔两年多之久,以截然不同的方式在大模型市场里惊艳亮相。
它就是云计算一哥——亚马逊云科技。
对于亚马逊云科技在AI大模型时代的定位,目前有一种非常贴切的比喻,叫做“沉睡的雄狮”。
之所以如此,是因为亚马逊云科技此前几乎是以“工厂模式”来推动大模型的发展,在业界声响最大的便是集成各路大模型的Amazon Bedrock。
即便在早期有发布过自研大模型Titan,但有一说一,似乎也是在大模型飞速迭代的浪潮中被淹没。
然而,正当大众以为亚马逊云科技在AI大模型时代会持续扮演一个“工厂”角色之际,就在前不久自家的年度盛宴re:Invent 2024中,它却高调发布了全新的基础模型——Amazon Nova系列。
而且是一口气六款模型,涵盖文本对话、图片生成和视频生成,并且也罕见地把与各类模态主流玩家的PK测评成绩直接亮了出来。
以视频生成模型Amazon Nova Reel为例,效果是这样的:
(视频地址:https://mp.weixin.qq.com/s/9IyjRIbVEGSuw3zFzo5XGQ?token=1038039735&lang=zh_CN)
于是乎,为何在沉寂两年后才会有此动作?亚马逊云科技的打法又是否能符合市场发展?……
种种问题,亟待回答。
亚马逊的“AI步法”:Choice Matters
其实在今年亚马逊云科技的re:Invent中,若是一定要提炼一个关键词,那么Choice(选择),无疑就是最抢眼的那一个。
展开这个关键词,则正是“云计算一哥”在AI大模型时代下的打法:
会做选择,比拥有单一强大的大模型更为重要。
这是因为在亚马逊云科技看来,大模型市场并不是一个赢家通吃的市场;这就与其它公司形成了鲜明对比。
然而,亚马逊选择了一条不同的道路,通过其Bedrock等工具支持来自多个提供商的不同模型,而不是仅仅专注于构建自己的强大模型。
而这种背后蕴含“没有一个模型可以一统天下”的模式似乎也正在被市场所接纳。
根据Menlo Ventures的报告,公司通常在其AI服务中使用3个或更多的基础模型,根据不同的用例或结果路由到不同的模型。
这种趋势表明,即使是市场份额佼佼者的OpenAI,也面临着来自其他采用多模型策略的公司的挑战。
同样是根据Menlo Ventures的报告,一个较有说服力的数据是这样的:
采用亚马逊云科技模式的Anthropic在AI模型市场的份额翻倍至24%,而OpenAI的份额从50%下降到34%。
不过与此同时,自身拥有先进的AI大模型同样也有助于亚马逊云科技吸引更多的AI开发者。
虽然早期亚马逊云科技所推出Titan并没有在大模型圈里泛起太大的浪花,但这一次的Nova系列,确实是以其效果和实力博取了不小的关注。
而这一切的背后,依旧是贯彻亚马逊云科技的根本问题,即客户有所需要。
因此,亚马逊云科技在大模型时代下的“AI步法”就非常清晰了——
为客户提供“多快好省”的选择权,而不是“一统天下”的市场主导权。
那么接下来的一个问题是:
提供了怎样的AI选择权?
就在今天刚结束的re:Invent 2024中国行全国巡展北京站活动中,亚马逊云科技大中华区产品总经理陈晓建对这一问题做了再次的回顾。
在短短90分钟的主题演讲中,露出的“AI可选项”多达30多个,平均下来就是每三分钟一个!
纵观整场活动,最直观的感受,就是这些回顾的“全新发布”涵盖了整个生成式AI的全周期——
从最底层的基础设施,到中间的模型服务,再到顶层的AI应用,是属于全栈的那种。
而之所以如此,陈晓建在现场做出了如下解释:
我们不仅在云的核心服务层面持续创新,更在从芯片到模型,再到应用的每一个技术堆栈取得突破,让不同层级的创新相互赋能、协同进化。
我相信,只有这样全栈联动的大规模创新才能真正满足当今客户的发展需求,加速前沿技术的价值释放,助力各行各业重塑未来。
“全新发布”数量虽然惊人,但按照生成式AI各层级来看脉络也是较为清晰,可以分为五个大亮点:
- 计算
- 存储
- 数据库
- 分析
- AI推理
那么接下来,我们就来再次深入回顾下今年re:Invent中的那些高光时刻。
新款自研基础模型
首先,我们先来看下“AI推理”部分的产品,或许也是大家最感兴趣、最有感知的一个内容——大模型。
亚马逊云科技所发布的新款自研基础模型,名曰Amazon Nova,是有一点点震撼在身上的。
整体来看Amazon Nova共有四个“杯型”,它们分别是:
- Amazon Nova Micro:仅限文本对话,主打一个低价格和低延迟;
- Amazon Nova Lite:低成本的多模态大模型,处理图像、视频和文本输入的速度极快。
- Amazon Nova Pro:高性能的多模态大模型,精度、速度和成本最佳“配方”,可处理广泛的任务。
- Amazon Nova Premier:亚马逊最强多模态大模型,可处理复杂的推理任务,也可用于蒸馏客户定制化的模型。
其中一大亮点便是成本大幅降低。
据了解,在各自智能类别中,Amazon Nova Micro、Lite和Pro应用成本比“模型工厂”Amazon Bedrock中表现最佳的模型至少降低75%,同时也是Amazon Bedrock中对应类别速度最快的模型。
前三者已经上架亚马逊云科技的Amazon Bedrock,而Premier版本则将于2025年第一季度推出。
除此之外,还有Amazon Nova Canvas,主打的是图像生成,用官方的话来说,是达到了“State-of-the-art”(最先进)的水平。
在现场,陈晓建也展示了与DALL·E 3和Stable Diffusion Large 3.5的评估测试上的比较,图像质量等维度上均胜出。
在图像生成之后,亚马逊云科技还发布了视频生成模型——Amazon Nova Reel。
据了解,目前6秒钟时长的视频生成已经正式可用,2分钟版本的也在路上了。
同样的,Amazon Nova Reel与Runway家的Gen-3 Alpha之间的评测比试结果:视频质量胜率61.4%、视频连贯性胜率71.6%。
但这还不算完,Amazon Nova的下一步也已披露——
不仅要Speech-to-Speech,更要Any-to-Any!
一切皆可生成,是值得期待一波了。
而作为承载它们的“模型工厂”Amazon Bedrock,这一次也有不少的升级动作。
首先就是在模型的选择上,新增了多个choices,例如首家提供Luma AI和poolside模型,以及更新的Stability AI最新模型等。
其次,全新发布的Amazon Bedrock Marketplace,可以为客户提供100多个热门、新兴及专业模型。
还有Amazon Bedrock Knowledge Bases,现在支持可以支持GraphRAG等知识库功能增强数据利用能力。
在性能方面,Bedrock还推出了低延迟优化推理,由此,用户可以在使用最先进的大模型基础上,还享受卓越的推理性能。
值得一提的是,Llama 405B和Llama 70B低延迟优化版本,在亚马逊云科技上展现出超越其他云提供商的出色表现。
最后,通过自动推理检查功能和多智能体协作等创新,进一步增强AI安全性并推动智能体发展。
Amazon Q Developer则是引入了三款先进的智能体。
它们能够自动执行单元测试、生成文档和进行代码审查,同时通过与GitLab的深度整合,拓宽了应用范围。
此外,它还推出了新的转型特性,旨在加快Windows.NET、VMware和大型机工作负载的迁移与现代化进程,有效减少转型周期和成本。
同时,Amazon Q Business和Amazon Q in QuickSight的洞察力得到了加强,简化了复杂工作流程自动化的实现方法。
云计算,也全面升级
说完大模型,我们再来看下亚马逊云科技的“老本行业务”——云计算。
这次升级主要围绕三大核心领域展开:计算(Compute)、存储(Storage) 和数据库(Database)。
每一项都可以说是展现出了前所未有的性能提升与成本优化。
在计算(Compute)层面,亚马逊云科技推出了性能全面升级的Amazon EC2 Trn2实例。
Trn2实例搭载第二代Trainium芯片(Trainium2),相比上一代Trn1,性能提升如下:
- 训练速度提升4倍,显著缩短模型训练时间,助力企业更快落地AI应用;
- 内存带宽提升4倍,满足复杂模型对于数据高并发处理的需求;
- 内存容量提升3倍,为大规模参数模型提供强大支持。
更重要的是,Trn2实例的性价比提升显著,相比传统GPU实例(P5e和P5en)高出30-40%,大幅降低了算力成本。
对于超大规模计算需求,亚马逊云科技还推出了Trn2 UltraServer。
每台UltraServer集成了64颗Trainium2芯片,并通过NeuronLink高速互联实现2TB/s带宽和1微秒级延迟。
这款产品为超大规模AI模型训练提供了理想的算力平台。
除此之外,在芯片层面上,亚马逊云科技宣布将在2025年推出Trainium3芯片。
据悉,Trainium3将采用3纳米工艺制造,提供两倍于Trainium2的计算能力,并提升40%的能效。
在存储(Storage)层面,亚马逊云科技发布了专为表格数据设计的Amazon S3 Tables,性能和效率再次升级。
Amazon S3 Tables引入了一种创新的存储解决方案,专门针对表格数据优化,并兼容Amazon Athena、Amazon EMR以及Apache Spark等主流查询工具,以便用户能够便捷地执行数据查询操作。
作为S3的第三种存储类别,表存储桶与通用存储桶和目录存储桶相辅相成,它被设计为一个分析型数据仓库,适合存放多种模式的Iceberg格式表格。
S3 Tables在性能上相较于传统的自管理表格存储有显著提升,查询速度可提高至3倍,事务处理速率可达10倍,且享有全面托管的服务带来的操作便利。
在数据管理中,元数据的作用日益凸显,例如,手机中存储的大量照片能够通过元数据快速定位,使用自然语言即可迅速检索到特定照片。
为满足此类需求,亚马逊云科技推出了Amazon S3 Metadata的测试版,旨在提供更加智能和高效的元数据管理功能。
Amazon S3 Metadata 提供了一种智能化、便捷的元数据管理方案,实现了近乎实时的元数据更新,帮助用户高效地组织、识别和利用S3数据,支持业务分析和实时推理等应用场景。
该功能支持对象元数据管理,既涵盖系统生成的详细信息(如文件大小和来源),也允许用户自定义元数据。用户可以通过标签为对象附加额外信息,如产品SKU、交易ID或内容评级,进一步提升数据的分类与检索效率。
此外,这些元数据信息被无缝整合到 S3 Tables 中,进一步强化了数据的管理与分析能力。
最后一层,便是数据库(Database)了。
亚马逊云科技发布了新型无服务器分布式数据库Amazon Aurora DSQL,旨在解决传统数据库在扩展性和性能方面的挑战,目前可以实现:
- 跨区域强一致性和低延迟;
- 无限扩展,可轻松处理TB至PB级数据;
- 超高可用性,达到99.999%的可靠性。
与此同时,Amazon DynamoDB global tables也增加了多区域强一致性支持,进一步增强了其分布式数据库服务能力。
数据分析能力也是Up Up Up
此次发布的最后一部分,便是分析板块。
亚马逊云科技所发力的点,便是其一站式数据、分析与AI解决方案中心——新一代Amazon SageMaker。
新一代SageMaker的核心是SageMaker Unified Studio。
这是一个单一的数据和AI开发环境,它整合了Amazon Athena、Amazon EMR、AWS Glue、Amazon Redshift、Amazon Managed Workflows for Apache Airflow (MWAA)以及现有的SageMaker Studio中的工具和功能。
其次是Amazon SageMaker Lakehouse,可以统一Amazon S3数据湖、Amazon Redshift数据仓库和第三方及联合数据源。
除此之外,还包括Amazon SageMaker HyperPod的新训练配方功能、灵活训练计划和任务治理功能,以及在Amazon SageMaker中使用亚马逊云科技合作伙伴的热门AI应用。
这些功能将帮助客户更快开始训练流行模型,通过灵活训练计划节省数周时间,并将成本降低高达40%。
以上就是今年亚马逊云科技给予大模型时代客户们的种种新的选择了。
而这种“以客户为中心,逆向工作(work backward)”为基因的云计算巨头,还将以“提供选择权”的方式在这个时代给我们带来怎样的惊喜,是值得期待一波。
- Ilya宣判:预训练即将终结!NeurIPS现场沸腾2024-12-14
- 罕见!云计算一哥CTO,现场不发产品只讲教训2024-12-06
- 清华系初创面壁智能获新一轮数亿元融资2024-12-11
- 马斯克新文生图模型闪现!网友抢时间疯狂实测:人物生成超逼真,可算把赛博皮卡画明白了2024-12-09