中美差距到底有多大? 梁文锋毫不避讳、一针见血地回答:“表面上中国AI与美国可能仅有一两年的技术代差,但真实的差距是原创和模仿之差。如果这个差距不改变,中国永远只能是追随者,所以有些探索是逃不掉的。” 说出这话时,梁文锋的办公桌上还摊着团队刚完成的技术报告,37岁的他深耕AI领域12年,从谷歌DeepMind的研究员到回国创办智能算法公司,亲眼见证了两国行业的冰火两重天。 2023年,他的团队曾想基于Transformer架构做优化创新,却发现底层代码的核心逻辑始终绕不开谷歌的专利壁垒,“我们能把应用体验做到极致,却在最基础的架构设计上连修改的余地都没有”,那段时间,团队熬夜优化的模型性能再亮眼,也摆脱不了“在别人地基上盖房子”的尴尬。 很多人被专利数量的数字迷了眼!中国AI专利申请量占全球45%,是美国的四倍之多,但海外被认可的比例只有4%,远低于美国的32%。 梁文锋翻出公司的专利台账,“我们去年申请了23项专利,全是应用层的优化,比如智能客服的话术匹配、物流路径的算法调整,真正能影响行业走向的核心算法专利,一项都没有”。这不是个例,全球AI核心专利集中在芯片、底层算法领域,而中国55%的专利都扎堆在自动驾驶、机器人等应用场景,基础层专利占比仅12%,比全球平均水平还低4个百分点。 基础研究的差距更让人揪心。梁文锋每年都会带团队参加NeurIPS顶会,他发现,全球引用率最高的十项AI基础研究,美国占了五席,中国仅有两项。“不是我们的研究员不努力,而是资源倾斜根本不在一个量级”,他算了笔账,2024年美国私营AI投资总额达1091亿美元,中国仅93亿美元,不及美国的十二分之一。 美国巨头敢花上百亿美金赌一个底层框架的突破,中国企业却更倾向于做见效快的应用项目,“基础研究可能十年都出不了成果,没人愿意承担这个风险”。更现实的是算力限制,OpenAI训练GPT-4动用了2.5万块英伟达H100芯片,而中国企业只能拿到性能受限的H800或H20,即便华为昇腾910C能逼近H100的70%性能,生态兼容的短板仍让很多团队望而却步。 人才流动的壁垒进一步拉大了差距。梁文锋的母校清华大学,培养了中国半数以上的顶级AI初创企业创始人,但这些团队里,能留在基础研究领域的人少之又少。 美国高校与企业间的人才流动率达37%,产学研形成良性循环,而中国仅15%,高校的科研成果很难快速转化为产业竞争力。“我们曾想和高校合作研发自主框架,却发现教授们的研究更偏向理论,和产业需求脱节严重”,他记得有次对接一个自然语言处理的项目,高校团队的论文引用量很高,却解决不了实际应用中的多模态兼容问题。 但差距并非不可逾越,一些积极的变化正在发生。2025年国务院出台的“人工智能+”行动,明确将基础研究纳入重点支持领域,梁文锋的团队也拿到了首批政策扶持资金,专门用于底层算法的研发。 月之暗面发布的Kimi k1.5模型,凭借原创的long2short技术,在多模态推理上大幅超越GPT-4o;DeepSeek的R1模型也实现了对OpenAI o1的对标,这些突破让行业看到了原创的可能。更重要的是,越来越多的企业开始转变思路,百度在深度学习领域的专利申请量稳居全球第一,其文心5.0模型在核心技术上实现了自主化,打破了对国外框架的依赖。 梁文锋现在常对团队说,应用创新是生存之本,但原创能力才是立足之根。中国AI的优势在于超大规模的市场和丰富的应用场景,这些场景能为原创技术提供最好的试验田。当政策支持、企业投入、人才培养形成合力,当我们不再满足于“把别人的技术用得更好”,而是敢于探索“没人走过的路”,原创与模仿的差距自然会逐步缩小。 AI竞争从来不是短跑冲刺,而是一场需要耐力和远见的马拉松。承认差距不是自卑,而是为了找准方向发力。中国AI已经走过了模仿追赶的阶段,接下来,唯有扎根基础研究、坚持自主创新,才能真正从追随者变成引领者。 各位读者你们怎么看?欢迎在评论区讨论。
