280亿!亚马逊投了OpenAI最大敌人

发布时间:2023-9-26 09:31    发布者:eechina
关键词: 亚马逊 , Anthropic
来源:极客公园

9月25日下午,亚马逊在公司官网公布,向大模型公司 Anthropic 投资至多 40 亿美元,后者以拥有对标 ChatGPT 的聊天机器人 Claude 而闻名。

云计算公司大笔投资大模型公司,微软已经在今年 2 月开了个好头,以 100 亿美元获得 OpenAI 这个微软云 Azure 的大客户,以及 ChatGPT 的优先使用权。现在看来,这笔交易对微软而言,稳赚不赔,2 月以来,微软市值已抬升 40%。

但半年后的现在,大模型领域上下游的关系正在变得复杂,亚马逊投资 Anthropic 绝不仅仅是为 AWS「锁定」客户,甚至不一定是为了大模型。

官方合作细则显示:Anthropic 将使用 AWS Trainium 和 Inferentia 芯片来构建、训练和部署其未来的基础模型。并且,两家公司还将合作开发未来的 Trainium 和 Inferentia 技术。值得注意的是,AWS Trainium 是 2020 年底,AWS 推出的定制 ML(机器学习)训练芯片,Inferentia 芯片是由 AWS 在 2019 年推出的高性能机器学习推理芯片。

通过投资 Anthropic 加深合作,亚马逊意在加速开发自研的AI芯片。

几天前,The information 独家爆料英伟达想从三大云厂商中「收一道手续费」——英伟达想从云厂商手中租赁英伟达服务器,从而可以通过云,而不是服务器或者芯片的方式向 AI 应用者直接提供服务,这些应用者也包括三大云厂商们。

但,只有亚马逊拒绝了这一提议。

现在看来,亚马逊拒绝英伟达的底气在于,想办法加快升级自研 AI 芯片。大模型时代,亚马逊稳住云计算市场第一宝座的核心竞争力在于,AI 芯片。

第一云平台出手 OpenAI 最大敌人

对于这份合作,亚马逊表示,将初步投资 12.5 亿美元购买 Anthropic 的少数股权。作为交易的一部分,亚马逊表示可以选择将对 Anthropic 的投资增加至 40 亿美元。

作为扩大合作的一部分:

Anthropic 将使用 AWS Trainium 和 Inferentia 芯片来构建、训练和部署其未来的基础模型,并受益于 AWS 的价格、性能、规模和安全性。两家公司还将合作开发未来的 Trainium 和 Inferentia 技术。

AWS 将成为 Anthropic 的主要任务关键型工作负载云提供商,包括安全研究和未来基础模型开发。Anthropic 计划在 AWS 上运行大部分工作负载,进一步为 Anthropic 提供全球领先云提供商的先进技术。

Anthropic 做出长期承诺,为世界各地的 AWS 客户提供通过 Amazon Bedrock 访问其下一代基础模型的权限,Amazon Bedrock 是 AWS 的完全托管服务,可提供对业界顶级基础模型的安全访问。此外,Anthropic 还将为 AWS 客户提供早期访问模型定制和微调功能的独特功能。

亚马逊开发人员和工程师将能够通过 Amazon Bedrock 使用 Anthropic 模型进行构建,这样他们就可以将生成式 AI 功能融入到他们的工作中,增强现有应用程序,并在整个亚马逊业务中创造全新的客户体验。

两家公司没有透露亚马逊投资 Anthropic 的估值。

Anthropic 由 OpenAI 前员工 Daniela Amodei 和 Dario Amodei 创办,他们是 OpenAI GPT2 和 GPT3 的核心研发人员。目前,Anthropic 拥有最受欢迎的聊天机器人之一,Claude。

作为 ChatGPT 制造商 OpenAI 的挑战者,Anthropic 今年早些时候获得了谷歌 4 亿美元的投资,并在 3 月份 Spark Capital 的一轮融资后估值超过 40 亿美元。

亚马逊想干什么?

向 Anthropic 至多投资 40 亿美元,亚马逊到底想干什么?

一个显而易见的原因是,为了「抢」客户。大模型厂商和 AI 应用企业作为云计算(未来)最大的客户,成为各大云厂商的必争之地。

今年以来,谷歌、微软、AWS、甲骨文和英伟达心照不宣、不约而同都做了一件事——通过战略投资「锁定」客户(花钱买客户),尽管这一操作在财务上备受争议。

但事实上,Anthropic 自 2021 年以来就一直是 AWS 的客户,AWS 通过 40 亿美元加深与 Anthropic 的合作,旨在更深的合作权益:大模型,以及最重要的——自研AI芯片。

换句话说,通过战略投资这笔学费,亚马逊学习怎么做大模型。也通过和与 OpenAI 对垒的对手切磋,研发甚至颠覆英伟达GPU的AI芯片。毕竟,GPU 并不是为训练神经网络而生,靠 CUDA 和各种技术一个场景一个场景「魔改」是一种选择,但不是最优解。

亚马逊首席执行官安迪·贾西 (Andy Jassy) 的发言侧面印证了这一点,他表示:「相信我们可以通过更深入的合作帮助改善许多短期和长期的客户体验。」

短期和长期的客户体验,对应亚马逊的大模型和自研 AI 芯片。

他进一步补充,「客户对 Amazon Bedrock 以及 AWS 的 AI 训练芯片 AWS Trainium 感到非常兴奋,Amazon Bedrock 是 AWS 的新托管服务,使公司能够使用各种基础模型来构建生成式 AI 应用程序;而 AWS Trainium 是 AWS 的 AI 训练芯片,我们与 Anthropic 的合作应该可以帮助客户获得这两项功能更多的价值。」

事实上,上半年,亚马逊推出了自己的大模型 Titan,并对外宣布了这一大模型的典型客户,但几天后便被这一典型客户跳脚,向媒体被吐露亚马逊大模型不好用。

可见,亚马逊在自研大模型的准备上,并不充分。因此,亚马逊转而向市场大力推广大模型平台 Amazon Bedrock,客户可以在该平台调用其他主流大模型厂商的服务,包括 Anthropic。

另一方面,亚马逊需要稳住云计算的基本盘。

大模型时代,云计算面临不同的工作负载,需要探索新的技术来实现更快的推理能力。在这方面,亚马逊其实也是先行者。自研数据中心芯片和服务器,曾一度被视为 AWS 为「区别于微软和谷歌」所做的「最重要的事情之一」,其服务器拥有更高的速度,并且省电。

在 AI 专有芯片和服务器上,亚马逊也是三大云厂商中(微软云、谷歌云)中布局最早的。但其 AI 芯片的进展和性能一直没有单独对外释放消息,而是通过捆绑在服务器中,通过云服务向客户提供服务。因此,客户直接感知到的只有云计算的性能,而没有其中芯片的性能。

现在,亚马逊需要了解哪些工作负载在哪种处理器上最适合,和 Anthropic 的合作是实现手段之一。

当前,根据 The information 生成式 AI 数据库的 69 家公司中,有 32 家使用 Amazon,26 家使用 Google,13 家使用 Microsoft 作为云提供商。当然,有些公司使用多个云提供商。

大模型时代,云计算、大模型和 AI 应用的合作与竞争正在变得更加复杂。经久未有大变局的云计算产业,也终于迎来的变革的契机。
本文地址:https://www.eechina.com/thread-841771-1-1.html     【打印本页】

本站部分文章为转载或网友发布,目的在于传递和分享信息,并不代表本网赞同其观点和对其真实性负责;文章版权归原作者及原出处所有,如涉及作品内容、版权和其它问题,我们将根据著作权人的要求,第一时间更正或删除。
您需要登录后才可以发表评论 登录 | 立即注册

厂商推荐

关于我们  -  服务条款  -  使用指南  -  站点地图  -  友情链接  -  联系我们
电子工程网 © 版权所有   京ICP备16069177号 | 京公网安备11010502021702
快速回复 返回顶部 返回列表