亚马逊云部门继续扩张数据中心,同时还要争抢英伟达芯片
亚马逊云部门继续扩张数据中心,同时还要争抢英伟达芯片
亚马逊云部门继续扩张数据中心,同时还要争抢英伟达芯片财联社5月(yuè)31日(编辑 赵昊)亚马逊旗下云计算(jìsuàn)部门AWS的负责人表示,公司正在全球范围内加速扩建服务器场,并寻求获得更多英(gèngduōyīng)伟达最新的人工智能芯片。
周五(5月30日),AWS首席执行官Matt Garman告诉(gàosù)媒体,今年早些时候,AWS在墨西哥开设了一个数据中心集群,此外还在智利(zhìlì)、新西兰(xīnxīlán)、沙特阿拉伯等地建设新设施。
亚马逊此前(cǐqián)表示,其人工智能业务有望在全年带来数十亿美元的营收。Garman补充道,这一(zhèyī)数字“来自AWS”,代表的是客户对其按需AI 服务(fúwù)的使用量。
据了解,AWS是全球最大的计算能力与数据存储(cúnchǔ)租赁服务提供商,领先微软的Azure和谷歌云。本月早些时候,亚马逊公布的财报(cáibào)显示,AWS云业务第一季度(dìyījìdù)营收录得292.67亿美元(yìměiyuán),同比增长17%。
但这一增速明显低于微软和谷歌(gǔgē)的竞品。微软此前发布的财报显示,Azure云(yún)业务的收入增长(zēngzhǎng)了21%;谷歌云的收入则增长了28%。
和微软、谷歌一样,亚马逊也在(zài)加快扩充AI运算能力。Garman称AWS正与英伟达合作,扩大(kuòdà)其对这家顶级芯片制造商GB200芯片的储备,目前这些芯片已供AWS客户测试(cèshì)使用。
先前有报道(bàodào)称(chēng),英伟达的供应链合作伙伴——包括富士康、英业达、戴尔、纬创等,已攻克GB200 AI服务器机架的一系列技术难题,其出货量正在迅速(xùnsù)攀升。
GB200人工智能机架包含36个Grace中央处理器和(hé)72个Blackwell图形处理器,通过英(yīng)伟达(wěidá)的NVLink通信系统进行连接。
Garman说道:“需求非常(fēicháng)强劲(qiángjìng)。”Garman长期(chángqī)担任AWS的工程主管,后来担任销售主管,一年前他接替Adam Selipsky出任该部门的CEO。
Garman表示,他欢迎OpenAI的模型能够部署在AWS上,尽管(jǐnguǎn)目前(mùqián)这家AI初创公司的模型运行在微软的服务器上。
不过,OpenAI年内早些时候获得(huòdé)了(le)探索其他合作的许可,前提是微软不愿意自己承接这项业务。
Garman称(chēng),“我们鼓励所有合作伙伴在其他平台也能使用。我非常希望其他公司也采取类似(lèisì)的态度。”
他还表示,如果亚马逊合作伙伴Anthropic所(suǒ)开发的AI模型Claude登陆到微软的云平台上(shàng),“那也没关系”。
“Claude能将服务部署到(dào)别处,这是好事,不过我们看到(kàndào)其绝大多数使用仍发生在AWS上。”Garman说。

财联社5月(yuè)31日(编辑 赵昊)亚马逊旗下云计算(jìsuàn)部门AWS的负责人表示,公司正在全球范围内加速扩建服务器场,并寻求获得更多英(gèngduōyīng)伟达最新的人工智能芯片。
周五(5月30日),AWS首席执行官Matt Garman告诉(gàosù)媒体,今年早些时候,AWS在墨西哥开设了一个数据中心集群,此外还在智利(zhìlì)、新西兰(xīnxīlán)、沙特阿拉伯等地建设新设施。
亚马逊此前(cǐqián)表示,其人工智能业务有望在全年带来数十亿美元的营收。Garman补充道,这一(zhèyī)数字“来自AWS”,代表的是客户对其按需AI 服务(fúwù)的使用量。
据了解,AWS是全球最大的计算能力与数据存储(cúnchǔ)租赁服务提供商,领先微软的Azure和谷歌云。本月早些时候,亚马逊公布的财报(cáibào)显示,AWS云业务第一季度(dìyījìdù)营收录得292.67亿美元(yìměiyuán),同比增长17%。

但这一增速明显低于微软和谷歌(gǔgē)的竞品。微软此前发布的财报显示,Azure云(yún)业务的收入增长(zēngzhǎng)了21%;谷歌云的收入则增长了28%。
和微软、谷歌一样,亚马逊也在(zài)加快扩充AI运算能力。Garman称AWS正与英伟达合作,扩大(kuòdà)其对这家顶级芯片制造商GB200芯片的储备,目前这些芯片已供AWS客户测试(cèshì)使用。
先前有报道(bàodào)称(chēng),英伟达的供应链合作伙伴——包括富士康、英业达、戴尔、纬创等,已攻克GB200 AI服务器机架的一系列技术难题,其出货量正在迅速(xùnsù)攀升。
GB200人工智能机架包含36个Grace中央处理器和(hé)72个Blackwell图形处理器,通过英(yīng)伟达(wěidá)的NVLink通信系统进行连接。
Garman说道:“需求非常(fēicháng)强劲(qiángjìng)。”Garman长期(chángqī)担任AWS的工程主管,后来担任销售主管,一年前他接替Adam Selipsky出任该部门的CEO。
Garman表示,他欢迎OpenAI的模型能够部署在AWS上,尽管(jǐnguǎn)目前(mùqián)这家AI初创公司的模型运行在微软的服务器上。
不过,OpenAI年内早些时候获得(huòdé)了(le)探索其他合作的许可,前提是微软不愿意自己承接这项业务。
Garman称(chēng),“我们鼓励所有合作伙伴在其他平台也能使用。我非常希望其他公司也采取类似(lèisì)的态度。”
他还表示,如果亚马逊合作伙伴Anthropic所(suǒ)开发的AI模型Claude登陆到微软的云平台上(shàng),“那也没关系”。
“Claude能将服务部署到(dào)别处,这是好事,不过我们看到(kàndào)其绝大多数使用仍发生在AWS上。”Garman说。

相关推荐
评论列表
暂无评论,快抢沙发吧~
你 发表评论:
欢迎