亚马逊在大模型上还有更大野心|界面新闻 · 科技

亚马逊在大模型上还有更大野心|界面新闻 · 科技

淳于珊珊 2024-12-05 地植物学 2 次浏览 0个评论

界面新闻记者 | 肖芳

界面新闻编辑 | 文姝琪

在2024 re:Invent全球大会上 ,亚马逊一口气发布了6款大模型。

这些大模型都依托于其发布的推出新一代基础模型Amazon Nova,并集成在Amazon Bedrock中提供服务 。

其中,Amazon Nova系列基础模型包括Micro 、Lite、Pro、Premier四款:Amazon Nova Micro为纯文本生成模型 ,每秒可输出210个token;Amazon Nova Lite和Amazon Nova Pro为多模态模型 ,分别对标OpenAI的GPT-4o mini和GPT-4o,且多项能力在基准测试中表现更优;Amazon Nova Premier同样是多模态大模型,专为复杂推理任务而生。

目前 ,Amazon Nova系列Micro 、Lite 、Pro模型已全部正式可用,Amazon Nova Premier预计将在2025年第一季度可用。

同时,亚马逊还推出了两个全新模型 。Amazon Nova Canvas是图像生成模型 ,性能上优于OpenAI的DALL-E 3和Stable Diffusion,还内置的安全控制措施确保能够追溯每张图像的来源;Amazon Nova Reel是视频生成模型,支持生成六秒的视频 ,未来几个月将支持最长为两分钟的视频生成 。

亚马逊在大模型上还有更大野心|界面新闻 · 科技

亚马逊云科技新任CEO马特・加曼(Matt Garman)在演讲中表示,大模型是一个创新速度极快的领域,几乎每周都会有新版本、新功能、新模型 、新更新以及新的成本变化。尽管有这么多创新和众多模型 ,可实际上要找到一个完全契合自身用例的完美模型依旧十分困难。

正是基于这样的市场洞察,亚马逊云科技试图打造一个专业知识与延迟、成本等因素进行合理组合的大模型服务 。其最近两年在大模型上的动作也均以此为出发点。

Amazon Bedrock去年的使用量已增长5倍

面对市场对大模型的需求痛点,亚马逊在2023年4月推出一项完全托管的服务Amazon Bedrock ,来满足市场需要考量模型专业能力、成本等因素的需求。

通过API集合 ,Amazon Bedrock提供来自AI21 Labs 、Anthropic、Cohere、Meta 、Mistral AI、Stability AI 以及亚马逊自身等多家公司的基础模型 。这些基础模型涵盖了文本生成、图像生成等多种类型,为开发者提供了丰富的选择,以满足不同的应用场景和需求。

马特・加曼(Matt Garman)透露 ,每天都有数以万计的客户在生产应用中使用Amazon Bedrock,其使用量在去年就增长了近5倍。

快速增长的使用量证明了市场对于Amazon Bedrock这种服务模式的认可 。背后的原因也不难理解,大模型在快速迭代升级 ,很多企业并非是想使用一款基础模型,而是针对不用需求选择更合适的模型。Amazon Bedrock集成了越来越多模型,其带来的便捷性不仅吸引了很多企业客户使用 ,还吸引了Salesforce 、SAP和Workday等独立软件供应商(ISV)集成到他们自己的系统上,为下游客户提供生成式AI服务。

Amazon Nova系列模型也是在平衡专业能力、成本和延迟等多方面基础之上推出的 。同时,亚马逊还在Amazon Bedrock中推出模型蒸馏功能 ,帮助企业进一步降低大模型的使用成本。根据马特・加曼(Matt Garman)在演讲中透露的信息,经过蒸馏的模型相比被蒸馏的模型,运行速度能够快500% ,成本还能降低75% ,而且Amazon Bedrock可一站式完成所有相关工作。

亚马逊自研的Nova系列模型还能够与蒸馏功能整合在一起,把大模型的智能“转移 ”到更小的模型中,这些小模型成本效益更高 ,延迟更低 。

亚马逊在2024 re:Invent全球大会上发布的6款模型并不是全部 。根据马特・加曼(Matt Garman)的介绍,亚马逊还将在2025年推出语音到语音模型以及多模态到多模态模型。

其中,语音到语音模型计划在2025年第一季度推出 ,该模型旨在通过理解自然语言的流式语音输入,解释语言和非语言信号(如语调和节奏),提供流畅的类人交互 ,彻底改变对话式AI应用,确保低延迟的双向交流。

多模态到多模态模型是亚马逊在大模型上的一个全新尝试,能够接受文本、图像 、音频和视频作为输入 ,并以任意模态生成输出 。该模型预计在2025年中旬推出,将简化应用开发,使同一模型能够执行多种任务 ,如内容模态转换 、内容编辑 ,以及驱动能够理解和生成所有模态的AI代理。

数十万枚自研芯片落地Anthropic,亚马逊要向微软+OpenAI发起新挑战

在2024 re:Invent全球大会上,AI初创公司Anthropic的联合创始人兼首席计算官Tom Brown宣布了“雷尼尔计划”(Project Rainier) ,该计划也是一个有战略意义的布局。

“雷尼尔计划”的核心内容是,Anthropic未来将使用一个拥有数十万枚亚马逊自研芯片的算力集群 。其芯片数量将是Anthropic现有算力集群的五倍以上。

Anthropic是亚马逊投资的AI初创公司。2023年9月,亚马逊向Anthropic投资40亿美元 。今年11月 ,亚马逊再次向Anthropic追加40亿美元投资。这是亚马逊近30年最大的一笔对外投资。投资之后,Anthropic必须使用亚马逊AWS的云计算服务,其推出的Claude系列模型也已集成在Amazon Bedrock上 。

从模型能力上看 ,Claude系列模型是目前市面上几乎少数可以和OpenAI旗下GPT-4对标的模型。如果“雷尼尔计划 ”能够顺利落地,Anthropic将用上全球规模最大的AI算力集群之一,这对后续模型能力的进一步提升也有积极的帮助。

此举背后 ,我们可以看到亚马逊云在大模型上更大的野心 。一方面,亚马逊云科技联合Anthropic对标微软+OpenAI的模式,和其争夺更多有大模型和云计算使用需求的客户 。

此前 ,微软CEO萨提亚·纳德拉在电话财报会中曾表示 ,超过1.8万家公司正在使用微软的Azure OpenAI服务,这里面有很多是Azure的新客户。并且,其云计算产品Azure的收入增长 ,也有不少是来自微软提供的GPT-4入口。

这意味着OpenAI走红后,其为微软的云服务Azure带来了更多新增客户,亚马逊也可以复制这种已经被验证过的打法 。

另一方面 ,亚马逊通过投资的方式将自研芯片和Anthropic深度绑定,既能够降低自己的算力成本,也能减少其对英伟达、英特尔等芯片供应商的依赖。节省下来的算力成本可以让亚马逊的云计算服务以及生成式AI服务在价格上更有竞争力。

据Synergy Research Group最新公布的数据估算 ,2024 年第三季度,亚马逊在全球云基础设施市场的市场份额达到31%,领先于微软 Azure平台的 20%和谷歌云的11% 。

显然 ,亚马逊云科技并未满足于此,还在试图通过AI大模型带来的增量寻求更多的市场份额。

你可能想看:

转载请注明来自植物生态学报,本文标题:《亚马逊在大模型上还有更大野心|界面新闻 · 科技》

每一天,每一秒,你所做的决定都会改变你的人生!

发表评论

快捷回复:

评论列表 (暂无评论,2人围观)参与讨论

还没有评论,来说两句吧...

Top
网站统计代码