吸尘车

华人内卷大模型

图片来源@视觉中国

文 | 最话FunTalk,作者 | 何伊然,编辑 | 刘宇翔

北京时间3月23日晚间,TikTok CEO周受资出席了美国众议院能源与商务委员会听证会,听证会持续了超过5个小时,周受资回答了来自美国议员们的多个尖锐问题。

那场听证会备受全球瞩目,某种程度上影响着TikTok的命运。但如此重要的听证会,字节跳动创始人张一鸣却“缺席”了。有圈内人告诉《最话》,当时张一鸣也在美国,但不是在华盛顿,而是在西海岸,几乎与听证会同一时间,张一鸣没看直播,专心在挖角OpenAI的顶尖华人工程师,开出的价码是“一亿现金+股权”。

这则消息尚未交叉证实,也不清楚天价的价码最后能否挖到心仪的工程师,但圈内人都知道张一鸣对生成式AI有多“痴迷”。

几乎全世界的科技大厂都在重注生成式AI,不但顶尖工程师的价码水涨船高,就连算力的底座GPU也供不应求。

今年3月,已经拥有超强算力的微软宣布已帮助OpenAI建设了一个新计算中心,配置了数万块A100。5月,Google推出了一个拥有2.6万块H100的计算集群ComputeEngineA3,服务想自己训练大模型的公司。在中国,国金证券根据产业链信息,字节跳动今年已订购了超过10亿美元的GPU,字节到货和没到货的A100与H800预计有10万块。另一家大公司今年以来的订单量也达到了万卡级别,金额至少超过10亿元。而腾讯发布的腾讯云新版高性能计算服务中心也采用了上万块H800芯片。

但有赢家就有输家。游戏时代,N卡与A卡孰优孰劣一直是玩家们争吵不休的话题,而在AI时代,由美籍华裔苏姿丰担任的AMD却似乎掉队了,不但缺少对标产品,在股价上英伟达市值万亿美元,而AMD只有1760亿美元,两者差距巨大。

AMD就真的门庭冷落,再也没机会了吗?

反击

“在大型语言模型的推动下,人工智能的市场机会越来越大,到2027年市场潜力可能从目前的300亿美元增加到约1500亿美元。”

当地时间6月13日,AMD在美国旧金山召开了2023年数据中心与人工智能技术新品发布会。

打扮干练的苏姿丰带着自信的神情登台,一口气介绍了多款新品。

在“苏妈”平静的脸色下,或许也有着对AMD未来发展的担忧。

踩在生成式AI的大潮上,英伟达今年股价涨幅200%,是资本市场当红香饽饽。相比之下,AMD同期涨幅仅为英伟达的50%,双方差距在半年时间被明显拉大。

根据2023年一季度财报,AMD营收为53.53亿美元,同比下降9%,这是公司自2023年以来首次营收出现下滑。适用于PC产品的Ryzen处理器销售额仅是2023年同期的三分之一,足以看出消费电子在近两年的窘迫处境。AMD预计,第二季度营收约仍会有19%的同比下滑。

目前,AMD的业务分为四大板块:数据中心、客户端、游戏与嵌入式业务。数据中心包含AMD所有服务器相关收入;客户端收入指的是台式机与个人电脑,曾是AMD最核心业务;游戏板块涉及GPU产品线,索尼和微软的游戏主机是其稳定客源;嵌入式业务主要由2023年收购的赛灵思业务线构成。

在消费电子大起大落后,AMD在近两年旗帜鲜明地选择了数据中心和嵌入式业务优先的战略,强调人工智能是公司 “最大、最具战略意义的长期增长机会”。

苏姿丰介绍了“面向AI和高性能计算的全球首款 APU 加速器” MI300A,该产品将多个CPU、GPU和高带宽内存封在一起。在GPU和CPU领域都是“二把交椅”的AMD充分利用自己双边优势,搞起了互补开发。

根据芯片参数,该APU加速卡拥有13个小芯片,总共包含1460亿个晶体管:24个Zen 4 CPU核心,1个CDNA 3图形引擎和128GB HBM3内存。

本次发布会最重要的产品当属AMD针对大语言模型发布的MI300A优化版本MI300X。

“当你将MI300X与竞争对手进行比较时,你就能发现,MI300X提供了2.4倍的内存和1.6倍的内存带宽,有了这些额外的内存容量,我们对LLM是有巨大优势的,因为可以直接在内存中运行更大的模型。”

作为大模型的最佳算力发动机,GPU对生成式AI有着不可替代的支撑作用。目前,英伟达凭借83.7%的市占率领跑GPU市场,A100芯片价格在近期节节攀升,产量上也供不应求。2023年第一季度,英伟达GPU出货量下降了15.2%。

ChatGPT爆火后,行业内对GPU飞涨的价格充满怨言。

OpenAI创始人山姆·奥尔特曼近期表示,降低成本是ChatGPT当前首要目标。奥尔特曼透露,受到GPU资源的限制才导致ChatGPT目前难以开放更长的上下文窗口、提供微调 API 等服务。他也承认,多数企业根本养不起大模型。

据报道,OpenAI已经花费了微软云超12亿美元。由于将计算资源集中指出ChatGPT,微软其他部门可以使用的服务器受到了限制。此外,GPU训练大模型需要大量的电力来保证这些资源的供应,这就导致了GPU的高能耗,成为了“电老虎”。

在国内市场,华为、京东、百度的高管也都公开抱怨大模型训练高达千万元一次的训练成本。

发布会上,苏姿丰强调随着AMD芯片上内存增加,开发者有望减少GPU使用数量,从而节省成本,这显然迎合了市场的需求。

苏姿丰特意在单个MI300X GPU演示运行了拥有400亿个参数的Falcon-40B大型语言模型,并让它当场实时创作了一首关于旧金山的诗歌。

“梦想之城,总是让你渴望

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至xcc@gmail.com举报,一经查实,本站将立刻删除。