记者问:“中美AI差距到底有多大?”梁文锋毫不避讳、一针见血地回答:“表面上中国AI与美国可能仅有一两年的技术代差,但真实的差距是原创和模仿之差。如果这个差距不改变,中国永远只能是追随者,所以有些探索是逃不掉的。” 2025年中国大模型数量冲到全球第一,1500多个的规模乍一看着实唬人,但掰开了看就会发现,90%以上的模型都在踩着2017年谷歌提出的Transformer架构上。 当然这绝非贬低咱们的工程能力,中国AI企业在技术落地和成本控制上的本事确实实打实。 深度求索推出的V3模型就是典型例子,6710亿参数的模型训练成本仅557.6万美元,还不到OpenAIGPT-4训练成本的十分之一, 而Meta类似规模的Llama-3.1更是动用了超过16000张英伟达H100GPU,成本高达数亿美元,反观DeepSeek只用2048张性能减半的H800GPU就完成了同等水平的训练,连特斯拉前AI总监AndrejKarpathy都忍不住点赞这种“资源有限下的黑科技”。 在海外应用层面,阿里云的通义千问也交出了亮眼成绩单,AI图像社区LiblibAI借助它实现了多模型并发调用和推理成本控制,通义千问不仅能帮用户改写中英提示词、识别参考图片风格,还能在高峰时段调度百炼平台API生成长视频。 这套组合拳让LiblibAI的海外上线效率提升60%,全球访问量突破1亿,创作者超过200万,日均生成图像500万次,足以见得中国大模型在应用落地和商业化层面的竞争力。 但工程能力的精湛终究掩盖不了原创力的短板,过去十年AI领域真正改变游戏规则的突破性进展,没有一个源自中国。 2012年AlexNet开启深度神经网络时代,2017年谷歌Transformer架构奠定大模型基础,2022年OpenAI提出RLHF让模型对齐人类意图,2024年O1模型实现推理能力的质的飞跃,这四个里程碑式的突破构建了整个现代AI的技术框架,而中国企业始终在这个框架内做着修修补补的工作。 就像康奈尔大学博士生JackMorris观察到的,AI进步的核心驱动力往往是新数据源的利用而非理论革新,美国企业定义了“用什么框架”“用什么方法”,中国企业则擅长“如何用更低成本用”“如何用得更广泛”,这种分工看似互补,实则让中国AI始终处于追随者位置。 中国已经成为全球AI专利最大拥有国,2024年专利申请量占比接近60%,但这些专利大多集中在应用层和优化层,比如模型压缩、并行训练、多模态适配等,真正涉及基础架构、核心算法的原创专利少之又少,就像建房子时我们擅长装修和家具摆放,却没有自己的建筑图纸。 这种原创缺失的差距在细节中体现得淋漓尽致,当美国团队在探索“验证器驱动的推理训练”这种下一代技术时,国内大多企业还在Transformer的基础上做参数扩容和数据投喂。 当OpenAI为GPT-4.5的能力提升瓶颈发愁时,我们还在为“国产模型性能接近GPT-4”而欢呼;当Meta、谷歌在学术会议上公开分享底层技术突破时,国内更多是在比拼“谁的模型参数更大”“谁的训练数据更多”。 不是说参数和数据不重要,而是这种路径依赖会让差距逐渐拉大,就像跑步时别人在制定规则、铺设赛道,我们却只顾着打磨跑鞋、训练体能,即便跑得再快,也始终在别人设定的赛道上。 深度求索的低成本训练技术再厉害,本质上还是在优化“如何跑得更省”,通义千问的海外应用再广泛,也还是在使用别人发明的核心架构,这种“术”层面的精进,终究难以弥补“道”层面的缺失。 中国AI的1500多个大模型就像1500种不同口味的饮料,包装、甜度、配方略有差异,但核心原料都是别人研发的浓缩液,即便市场占有率再高,也无法改变“原料依赖”的本质。

弹指刹那
好文章