CNBC惊呼DeepSeek-V3影响美国AI统治地位.CNBC exclaims DeepSeek-V3 impacts U.S. AI dominance
 [color=rgba(0, 0, 0, 0.9)]12月26日, 国内对冲基金幻方公司发布DeepSeek-V3模型,在2048个H800GPU集群上使用需要3.7天, 用了Llama 405b 等十分之一的算力就训练出不相上下的模型效果.假设H800 GPU的租赁价格为每GPU小时2美元,DeepSeek-V3总训练成本仅为557.6万美元, 这可是将成本降到了百分之一, 太了不起了! [color=rgba(0, 0, 0, 0.9)]CNBC的新闻也惊呼对比于Open o1/o3,亚马逊Anthropic Claude,谷歌的Gemini, Meta的Llama 3 405B 动辄数亿美金的训练成本, DeepSeek-V3 简直一定打破了美国的高端芯片禁运带来的对我国人工智能领域桎梏. 难怪CNBC惊呼DeepSeek-V3影响美国AI统治地位.  [color=rgba(0, 0, 0, 0.9)]DeepSeek-V3 多项评测达到并超过OpenAI GPT-4o 由上图可知DeepSeek-V3已达到或部分超过GPT-4o的性能, 多项评测成绩超越了 Qwen2.5- 72B 和 Llama-3.1-405B 等其他开源模型。在此之前DeepSeek提供API也是国内最具性价比优势的服务之一. 工程优化的魅力发挥的淋漓尽致, 在限制条件下对目标进行优化. 之前OpenAI也发文说过,过去两年模型优化70%来自于工程优化.DeepSeek API服务价格比OpenAI的十分之一还要低而且DeepSeek公司同日宣布全新系列模型 DeepSeek-V3 首个版本上线并同步开源。API 服务同步更新,接口配置无需改动。DeepSeek-V3 随着性能更强、速度更快的 DeepSeek-V3 更新上线,其模型 API 服务定价也将调整为每百万输入 tokens 0.5 元(缓存命中)/ 2 元(缓存未命中),每百万输出 tokens 8 元。对比OpenAI GPT-4o 每百万输入 tokens 5 美元, 输出 15 美元。 无怪OpenAI CEO 看到测评数据也酸了, 发文强调创新的困难 [color=rgba(0, 0, 0, 0.9)]CNBC认为投资者应该考虑前沿模型是否为一项好的投资?  前几日,金融时代文章《相对于竞争对手, 微软购买了两倍英伟达GPU芯片》报道了互联网巨头们在AI领域疯狂竞争. 根据科技咨询公司Omdia的估计, 包括字节跳动在内的互联网巨头, 在算力&数据中心投入最多的前五名总规模就达千亿美元. 据报道摩根士丹利的分析师估算,亚马逊、谷歌、Meta和微软这四大科技巨头在2024年的资本支出将达到约3000亿美元,其中大部分资金流向了AI领域。 由下图可知,2024年虽然微软以300多亿美元的投入领先,但与亚马逊和谷歌的差距并不大. 国内大厂还是字节和腾讯上榜. 微软大约购买了 48.5 万张,字节跳动 23万张, 腾讯 23万张(国内大厂受美国监管限制, 购买的为低性能版H20). 亚马逊虽然只买了英伟达19.6万张GPU,但其有自家Trainium和 Inferentia芯片130万张,算力&数据中心支出260亿美元. 谷歌买了英伟达16.9万张,但同样有自家TPU芯片150万张.  [color=rgba(0, 0, 0, 0.9)]DeepSeek-V3的发布, 却证明了最先进的大模型开发并不局限于科技巨头。而且中国人足够聪明找到不一样的技术路径. [color=rgba(0, 0, 0, 0.9)]然并不影响英伟达的营收 [color=rgba(0, 0, 0, 0.9)]在GB200和B200发布6个月后,英伟达就宣布将推出全新的GPU GB300和B300: 显存容量:从192GB升级到288GB 架构微创新,在CPU和GPU之间动态分配功率,使得B300浮点运算比B200高50%,GB300和B300的热设计功耗分别达到1.4KW和1.2KW比B200更高。 [color=rgba(0, 0, 0, 0.9)]这完全为了迎合市场上需求, 在OpenAI 发布o3模型,用o3完成100个测试任务的成本高达2,012美元,而测试全部400个公开任务的成本更是高达6,677美元。这种成本对于应用来是没有意义的. 但笔者一直强调, 目前是斗争的市场, 在大厂和投资人看来, 未来必将范式革命, 高端芯片是美国仅有的优势产业之一, 再高的估值都是值得的。 [color=rgba(0, 0, 0, 0.9)]  [color=rgba(0, 0, 0, 0.9)]圣诞节前,马斯克旗下AI初创公司xAI官宣融资60亿美元。紧接着其员工就发文称,将要建20万GPU的集群. 训练下一代GPT5, 百万GPU集群对大厂来说势在必行, 所以DeepSeek-V3的发布并不影响英伟达的营收.
|