金融杠杆风险 LLM:GPU,还是ASIC?
发布日期:2025-05-03 15:35 点击次数:194

(原标题:LLM:GPU金融杠杆风险,还是ASIC?)
如果您希望可以时常见面,欢迎标星收藏哦~
来源 :内容编译自semiengineering ,谢谢。
OpenAI、Anthropic 和 xAI 的首席执行官有着惊人相似的愿景——人工智能的进步是指数级的,它将改变人类,其影响将超出大多数人的预期。
这不仅仅是猜测。人工智能的市场及其价值如今已是真实存在的:
1、使用 GitHub CoPilot 的人类开发人员借助 AI 可将编码速度提高 55%。
2、GPT-4 在 LSAT 考试中的得分为 88%,而普通人的得分为 50%。
3我个人正在使用 ChatGPT 进行西班牙语会话练习和语法练习
2025 年,OpenAI 的大模型收入将达到约 100 亿美元,Anthropic 的大模型收入将达到 20 亿至 40 亿美元。
四年前,GPT-2 提供的是学龄前儿童的智力。GPT-4 就像一个聪明的高中生。
到2028年左右,大模型(LLM)将提供博士级别的智力。到2030年代,法学硕士的智商将超越人类。
人工智能的经济效益也在不断提升。特定模型的成本每年下降4倍(Anthropic)到10倍(OpenAI)。这是计算能力和算法改进的共同作用。这意味着到2030年,当今模型的运行成本将降至千分之一到十万分之一。
有五家以上的公司有能力和资本做到这一点,其中包括亚马逊、谷歌、微软等巨头。像 OpenAI 和 Anthropic 这样的初创公司,目前的市值都在 1000 亿美元左右,如果它们能够实现目标,市值将达到 1 万亿美元。大模型项目获胜者将成为首家市值 10 万亿美元的公司。
它们的成功将给半导体、封装、数据中心、冷却和电力领域的增长和产能带来巨大压力。到2030年,半导体收入将主要来自人工智能/高性能计算。
GPU vs ASIC?是的:超大规模企业需要更多选择
如今,数据中心 AI 加速器 90% 以上都是 NVIDIA GPU,还有一些 AMD GPU,其余的是定制 ASIC(主要是亚马逊)。
NVIDIA 是唯一一家提供全套解决方案的厂商——涵盖 GPU、NVlink 网络、机架、系统和软件。在 NVIDIA 这一领域,想要匹敌甚至击败 NVIDIA 非常困难。该公司的年营收高达 1600 亿美元。
NVIDIA 有 3 或 4 个客户购买其超过 10% 的产量,每家客户每年的购买量接近 200 亿美元。
但AMD的GPU路线图正在追赶NVIDIA。其M350将在2025年下半年与Blackwell架构相匹配。其M400将与NVIDIA预计的Rubin架构(Blackwell的继任者)相匹配。AMD在软件和互连/系统方面也在迎头赶上,希望到2026年实现年收入100亿美元。
即使AMD不如NVIDIA,大型超大规模计算厂商也有望为其提供业务。他们希望找到NVIDIA的强大替代方案,而这种替代方案能够为超大规模计算厂商提供一些定价优势,并且在NVIDIA供应受限的情况下,能够更快地提升其数据中心的产能。
那么用于 AI 加速器的 ASIC 呢?就在几年前,ASIC 在投资者眼中还是个贬义词——低利润、低增长。现在,它却火了,因为超大规模企业想要更多选择。
亚马逊、谷歌、Meta 和 OpenAI 都在开发自己的 AI 加速器。当然,还有其他公司也在积极布局。例如,博通的 AI 收入在三年内飙升了约 10 倍,约占总销售额的一半。同样,Marvell 的 AI 收入也在同一时期飙升,目前 AI 已成为其最大的业务部门。
在三月初的摩根士丹利技术大会上,Open AI 首席执行官 Sam Altman 表示,如果放弃 GPU 的部分灵活性,特定模型的 ASIC 可以非常高效。别忘了,网络过去使用 x86 处理器。现在则全部使用交换芯片,因为需要处理的数据包类型变化缓慢。
市场正在从以训练为主转向以推理为主。仅用于推理的 ASIC 可以简单得多。关键在于成本和功耗。而仅限于例如 Transformer 模型的推理 ASIC 则可以更简单、更便宜。Alchip 的首席执行官表示,ASIC 的性价比比 GPU 高 40%,并且可以针对客户的特定软件进行优化。
如今的AI加速器通常配备3纳米或2纳米计算引擎,在“更老”、更便宜的节点上,或许还会配备独立的5纳米SRAM和PHY芯片。Alchip首席执行官表示,AI加速器的NRE成本高达5000万美元。博通/Marvell可能正在开发更复杂的加速器,采用更多芯片组和3D封装,开发成本超过1亿美元。超大规模计算厂商将拥有超过100人的架构团队;超过100人负责网络连接,还有更多人负责软件开发。这意味着总成本将在三分之一到五亿美元之间。他们能负担得起吗?
如果一家超大规模厂商每年采购 200 亿美元,由于有其他选择,可以从 NVIDIA 获得 10% 的折扣,那么它就有能力自主研发 ASIC。如果一家超大规模厂商成功打造出一款成本仅为 NVIDIA GPU 一半、功耗更低的 ASIC,那么它就取得了巨大的成功。Alchip 的首席执行官表示,这款 ASIC 的价格可能比 GPU 便宜 40% 左右。
超大规模数据中心运营商可能会部署 NVIDIA 和 AMD 的 GPU 来处理最复杂、变化最快的工作负载,以及外部客户,而内部变化较慢的工作负载则会使用自家的 ASIC。GPU 和 ASIC 的最终组合将取决于相对性能、功耗和可用性。可能是 90% GPU 和 10% ASIC。或者,正如麦肯锡预测的那样,可能是 10% GPU 和 90% ASIC。每年仅花费 10 亿美元的小型客户将不得不使用 GPU。
https://semiengineering.com/gpu-or-asic-for-llm-scale-up/
半导体精品公众号推荐
专注半导体领域更多原创内容
关注全球半导体产业动向与趋势
*免责声明:本文由作者原创。文章内容系作者个人观点,半导体行业观察转载仅为了传达一种不同的观点,不代表半导体行业观察对该观点赞同或支持,如果有任何异议,欢迎联系半导体行业观察。
今天是《半导体行业观察》为您分享的第4019期内容,欢迎关注。
『半导体第一垂直媒体』
实时 专业 原创 深度
公众号ID:icbank
喜欢我们的内容就点“在看”分享给小伙伴哦