扫码关注官方微信公众号

李国杰院士:10年内AI最大潜力是成为“爱迪生”而非“爱因斯坦”

2025-12-25





11 月 15 日,信百会学术委员,中国工程院院士李国杰院士围绕“‘AI+科学技术’(AI+ST)的进展、趋势、挑战和发展政策建议”这一主题,在信百会 2025 年度研讨会上进行了主题发言。

他指出,AI+ST正推动科研从“人类力量延伸”跃升至“人类智能延伸”,未来 10 年将成为科研“必要模式”,“AI 提供选择+人类解释判断”将成主流范式。

李国杰指出,AI 的本质是达到预期目标的优化技术,目前的人工智能主要还是一种使能(enable)技术,即 1 N 的锦上添花技术,“AI+ST”的重点应放在把“认知红利”转化为“生产力红利”上。AI 的本质不是“洞见真理”,而是“优化行动”。在可预见的 10 年内,AI 的最大潜力是成为“爱迪生”而非“爱因斯坦”。

他认为,我们要关注“AI+ST”的长远影响和战略作用,但一定要兼顾当前和长远发展,当前 AI 技术在各行业落地是更加紧迫的任务,近几年应在解决“卡脖子”的技术攻关上多下功夫,AI+ 制造业应当是“重中之重”。

围绕发展“AI+ST”,李国杰提出了 4 条政策建议:建立以全要素生产率(TFP)为导向的评价机制;参考美国 NAIRR,实施给大学与科研单位提供 AI 研究资源的专项计划,鼓励 AI 龙头企业参与合作;打造自主可控的开源生态,降低 AI 科研成本;借鉴“专利”思路,破解行业稀缺的高价值数据共享难题。


undefined



以下为李国杰院士发言内容整理。

国务院发布的《关于深入实施“人工智能+”行动的意见》中,“人工智能+科学技术”被列为六大重点领域之首。相较于业界常用的“AI for Science”,“人工智能+科学技术(AI+ST)”这一表述更为全面、准确——它不仅涵盖人工智能对基础研究的推动作用,还包含其在技术研发、技术发明乃至哲学社会科学领域的应用价值。

我曾倡导采用“智能化科研(AI for Research)”这一术语,但语言传播存在“先入为主”的规律,“AI for Science”已成为惯用表述。长期以来,我国存在科学与技术概念混淆的问题。若将“AI for Science”仅理解为人工智能应用于数学、理论物理等纯基础研究,可能会导致忽视人工智能在推动技术发明与工程开发方面的重要作用,产生负面影响。

因此,建议除语境明确的特殊场合外,在探讨人工智能对科技领域的影响时,应尽量统一表述口径,采用国务院文件中“人工智能+科学技术”的规范说法,其英文对应表述为“AI+ST”。


PART 01
“AI+ST”重大成果案例

(一)深度势能原子间势函数预训练模型(DPA-1)


北京大学鄂维南教授是国内最早提出“AI for Science”理念的科学家,他牵头创建北京科学智能研究院并担任首任院长。该研究院联合深势科技等单位研发的深度势能原子间势函数预训练模型(DPA-1),被誉为自然科学界的“GPT”。作为覆盖元素周期表近 70 种元素的深度学习模型,DPA-1 实现了 100 亿原子规模的第一性原理精度分子动力学模拟——模拟精度接近密度泛函理论(DFT)级别,模拟时间尺度推进至微秒(μs)级别,较传统研究方法效率提升百万倍。

该模型的螺旋状元素分布可视化结果与元素周期表高度契合,充分验证了其可解释性。目前,DPA-1 已开源至 DeepModeling 社区,为材料、生命、能源等领域的科学研究提供基础设施级支撑,有效加速了科学发现进程。

(二)AI 辅助控制核聚变


核聚变作为极具前景的新能源方向,此前长期被认为需二三十年才能实现实用化,这一预判在数年间未发生实质性改变。近年来,人工智能技术在核聚变控制领域的应用,大幅加速了相关研发进程,使核聚变实现关键性突破的时间窗口前移至未来 5-10 年,推动其更快迈向实用化阶段。一旦核聚变技术取得根本性突破,将彻底解决人类能源问题,同时对气候变化治理、大气污染防治及二氧化碳减排产生决定性作用。

2022 年,DeepMind 与瑞士等离子体研究所合作,首次实现强化学习在核聚变装置中的端到端控制,使等离子体形状控制精度提升 65%2024 2 月,普林斯顿等离子体物理实验室(PPPL)在《自然》(Nature)发表研究成果:通过强化学习算法实时调整磁场分布,等离子体能量约束时间提升 30%,温度突破 1.5 亿摄氏度,控制响应速度较传统 PID 控制系统快 1000 倍。该系统已应用于 ITER 国际热核实验堆,显著提升了商业化聚变发电的可行性。

(三)RNA 病毒发现模型 LucaProt


人工智能在生物领域的标志性成果包括蛋白质结构预测(如 ARF2ARF3),而在病毒研究领域同样取得重大突破。阿里云与中山大学联合研究团队利用 LucaProt 模型,对全球 10487 份生物环境样本进行系统分析,新发现 180 RNA 病毒超群(较原有认知扩容 8 倍)及超过 16 万种全新 RNA 病毒(较原有认知扩充 30 倍)。

LucaProt 模型展现出极高的性能优势——假阳性率仅 0.014%,假阴性率低至 1.72%,确保了研究结果的可靠性。该模型能够有效捕捉被称为“暗物质”的未知病毒,推动人类对病毒圈的认知边界持续外扩;其新病毒检测成功率超 95%,显著优于传统检测方法。相关研究成果已登上国际顶级期刊《细胞》(Cell)封面。

在应用价值方面,AI 技术可通过预测病毒抗原表位、优化 mRNA 序列设计,加速新发疫情的疫苗研发响应;在药物研发领域,通过靶点筛选、分子设计、毒性预测等环节的 AI 赋能,可将候选药物优化周期缩短 50% 以上。

(四)材料学领域的 AI 突破


近年来,人工智能在材料科学领域的贡献尤为突出,其中 DeepMind 研发的 GNoME 模型影响深远。2023 年,该模型一次性预测出超过 220 万种热力学稳定的新型无机晶体材料,其中约 38 万种被判定为“高置信度”稳定新材料。这一成果使人类已知的稳定晶体材料数量增加两个数量级,相当于在数月内完成了传统方法需数百年才能达成的研究工作量。

在新能源材料领域,传统液态电池存在易爆炸风险,固态电池成为研发热点,但现有锂电池对稀有金属锂的依赖度较高,降低锂用量成为关键研发方向。2024 年,微软公司联合美国能源部西北太平洋国家实验室(PNNL)发布研究成果:通过 AI 技术发现一种可减少 70% 锂用量的新型固态电池电解质材料。微软 Azure Quantum Elements 平台仅用 80 小时就完成了 3200 万种材料组合的模拟计算,将候选范围缩小至 18 种,最终合成出最优候选材料——氯化锂钠钇。目前,该材料已成功应用于电子发光器件,若后续研发顺利,有望在数年内成为实用化的新型固态电池材料,推动能源领域实现重大突破。

在高温超导材料研究中,佛罗里达大学团队开发的 BEE-NET 机器学习系统,从庞大的材料数据库中筛选出 741 种热力学稳定的富氢化合物,并预测其中至少 130 种在常压或高压环境下可能具备超导性(临界温度 Tc > 5 K),且已有至少两种材料通过合成验证了超导特性。这是 AI 在超导材料领域实现端到端、可信闭环发现的重大成果。

(五)AI 驱动创新药研发


目前全球有上百种新药研发项目引入人工智能技术,其中进度最快的是英矽智能公司(注册地上海,总部位于香港)研发的 ISM001-055Rentosertib),该药物有望成为全球首个上市的 AI 驱动创新药。2024 8 月,ISM001-055 在中国成功完成 IIa 期临床试验;2025 4 月,获中国国家药品审评中心(CDE)突破性疗法认定——这一认定是加速药物上市的关键环节。

ISM001-055 用于治疗特发性肺纤维化(IPF),这是一种慢性、进行性且致命的肺部疾病。依托 AI 技术优势,该药物的靶点发现(TNIK 抑制剂)至分子设计全过程均由 Pharma.AI 平台驱动,研发周期仅 18 个月,远短于传统新药研发的数年周期。2025 年,该药物的 IIa 期试验结果发表于《自然·医学》(Nature Medicine),在双盲、安慰剂对照试验中初步验证了其安全性与有效性。若 III 期临床试验顺利推进,ISM001-055 有望在 2026-2027 年实现上市,开启 AI 制药的新纪元。随着更多 AI 辅助研发新药进入管线,该领域的战略价值将愈发凸显。

(六)工程领域的 AI 应用:全自动 RISC-V CPU 设计


人工智能在技术与工程领域同样展现出强大能力。2022 5 月,中科院计算所利用 AI 技术成功设计出全球首款全自动生成的 32 RISC-V CPU——“启蒙 1 号”,设计周期缩短至传统方法的 1/1000,仅用 5 小时便生成 400 万逻辑门。

2025 6 月,中科院计算所与软件所联合发布“启蒙 2 号”系统,其全自动设计的 RISC-V CPU 芯片规模已达 1700 万个逻辑门,性能与 ARM Cortex A53 相当。该系统可实现从芯片硬件到系统软件的全链条全自动设计,包括自动配置操作系统、编译程序及高性能算子库,性能已超越人类专家设计水平。

芯片设计被誉为科技界的“皇冠明珠”,该研究成果有望改变处理器芯片软硬件的设计范式,大幅提升研发效率,是“AI for Technology”的里程碑式突破。项目采用的 BSD 方法,其设计精度随设计节点数量与数据采样次数的增加单调递增;目前芯片设计精度已达 13 个“9”,理论上可实现 100% 正确率。这一技术路径为我国突破芯片领域“卡脖子”问题提供了重要解决方案。


PART 02
AI+ST”的发展趋势

AI+ST”使科研的目的从“人类力量的延伸”升到“人类智能的延伸”,人工智能革命让思维本身成为可工程化的对象。未来 10 年内“AI+ST”将不是单纯的“科研辅助工具”,而是会步演变为科研的“必要模式”,“AI 提供选择+人类做出解释和判断”将成为科研工作的主流范式。

当前取得重大科学发现越来越困难,一旦人工智能推动基础研究取得原理性的重大突破,如核聚变等,人类社会可能发生革命性变。也就是说,先用人工智能推动科学技术研究,再用新的科学技术推动经济和社会发展,比在人类的生产和生活中直接应用现在的人工智能技术,可能会获得更大的长期效益

但是,AI 的本质是达到预期目标的优化技术,目前的人工智能主要还是一种使能enable技术,1 N 的锦上添花技术,“AI+ ST”的重点应放在把“认知红利”转化为“生产力红利”上。

多数经济学家认为,AI 是未来经济增长最强的新动能之一,但其影响处于“潜力转化期”,宏观统计证据表明 AI 技术已广泛影响生产率提升。

2025 年著名咨询公司普华永道PwC)发文预测,AI 可能在未来十年内将全球经济规模提升 15 个百分点,但社会信任降低或 AI 部署缓,到 2035 AI 的十年累计增益仅为 1%MIT Acemoglu 教授是全球最著名的经济学家之一,他测算未来十年内,AI GDP 的累计提升在 0.931.56% 之间,对应的年均全要素生产率(TFP)提升仅约 0.064%。也就是人工智能虽然很厉害,但到底对经济会不会产生重大的影响,还有很多不确定性。

当前全球关注的问题是AI 改变近十几年来 TFP 导致的生产率增长放缓的局面人工智能究产生多大的经济影响,取决于我们能在技术狂奔中构建合理的治理架,制度与环境能适应 AI 技术的发展。

我曾将 AI for Research 称为“科研的第五范式”,但现在的 AI 4R 虽然与第四范式有区别,但数据驱动的味道仍然很浓,只能认为是“第四范式的智能化升级和高级阶段”。真正进入以 AI 为特征的“第五范式”还有一段路要走。

真正的“科研第五范式”不是靠“更多数据”驱动,而是更好的结构与约束表达。互联网语料可以撑起 ChatGPT,但撑不起“AI+ST”。

当前人工智能大量用的模型都是 TransformerTransformer 是一个黑箱模型,虽然强大,但其推理过程不透明、不可验证、不可重复,与科学研究的三大原则可解释、可验证、可复现相冲突。长期而言,科学与技术不会接受“只能预测、不能解释”的结果;未来十年,“AI+ST”的“燃料”将不再是样本量,而是结构性信息。这些结构信息本质上是知识而非数据。未来的“AI+ST”将不再是数据驱动,而是原理驱动、结构驱动、因果驱动。

2025 6 20 日,麦肯锡官网发表的一篇重要文章The next innovation revolution-powered by AI。文章预测 AI 对不同行业的 R&D 产出的提升比

当前“AI+科学技术”应重点考两大类行业一是产品开发过程接近科学发现的行业,如制药、化学品、合金、复合材料等行业;二是需要多学科集成的复杂制造产品行业,如电子、医疗技术、半导体、汽车等。数学、理论物理等纯基础研究领域目前不作为 AI+ST 的重点方向。真正的“原理性假设”还要靠人类科学家的想象力。

AI 的本质不是“洞见真理”,而是“优化行动”。AI 最擅长的不是建立宇宙的统一方程,而是在资源约束下,找到最有效的技术路径。在可预见的 10 年内,AI 的最大潜力是成为“爱迪生”而非“爱因斯坦”。

除了“人工智能+科学技术”之外,国务院“人工智能+”行动意见还包括“人工智能+产业发展”等大方向,“AI+科学技术”主要及经济的长远发展,AI 技术在各行业落地是更加紧迫的任务。我们要关注“AI+ST的长远影响和战作用,但一定要兼顾当前和长远发展,一只手抓科技,另一只手抓经济,两手都要硬。

AI 驱动的基础研究一般要 5-10 年以上才能见到经济效益,AI 4T AI 4E一般 2-5 年就能见到实际成效。近几年应在解决“卡脖子”的技术关上多下功夫。我国制造业年增加值有 30 万亿元,AI+ 制造业应当是“重中之重”。


PART 03
“AI+ST”面临的障碍与挑战

(一)认识层面:方法论兼容问题


人工智能的核心目标是追求效能优化,而科学研究的核心诉求是实现可解释性,二者在方法论层面存在天然的不兼容性

二)知识层面:缺乏通用科学语言模型


现有数学方程、逻辑体系难以有效融入神经网络模型,学术界尚未形成适用于“AI+ST”的通用科学语言模型,导致知识传递与转化存在显著壁垒。

(三)数据层面:高质量数据稀缺且难以共享


科学技术研究所需的数据往往具有稀缺性、非公开性特征,优质高价值数据的获取难度大,且难以实现规模化积累与共享

(四)模型层面:“黑箱”特性与科学验证难题


当前主流 AI 模型的“黑箱”特性,使其缺乏物理一致性,难以满足科学研究的验证标准,无法形成完整的科学研究闭环。

(五)人才层面:跨界合作壁垒突出


人工智能领域学者大多缺乏科学研究背景,而科研工作者多数对 AI 技术认知有限,导致跨界合作难以深入推进。

(六)思维层面:还原论思维定势的束缚


开展“AI+ST”研究,需打破还原论的传统思维定势。机器的“理解方式”与人类存在本质差异,这种差异恰恰为人机认知合作提供了巨大空间。若仅将人工智能视为人类的辅助工具,将难以突破原有科研范式的局限。未来,我们应确立“人工智能是人类科研伙伴与合作者”的认知定位——对“机器理解”的认知深度,将直接决定“AI 4S”(AI for Science)的发展高度与广度。

PART 04
“AI+ST”发展的政策建议

(一)建立以全要素生产率(TFP)为导向的科研绩效评价机制


习近平总书记指出,发展新质生产力要以全要素生产率的大幅提升为核心标志。从图表数据可见,我国研发投入强度(蓝线)近年来持续增长,2024 年已达 2.68%,但全要素生产率(TFP)增长率(红线)却呈下降趋势,近年已降至 2% 以下。这一投入增长、效率放缓的反差表明,我国亟需建立以全要素生产率为核心导向的科研绩效评价机制,通过构建创新生态、加速科技成果扩散、重构制度体系与激励机制,倒逼科研效率提升。


(二)构建国家级 AI 研究共享基础设施平台


美国为解决 AI 基础设施瓶颈,由国家科学基金会(NSF)牵头,联合能源部、航天局、国防部、国立卫生研究院(NIH)等 10 个联邦机构,以及微软、英伟达、亚马逊等 25 家私营企业、非营利组织和慈善机构,共同打造国家人工智能研究资源(NAIRR)平台。该平台的核心目标是构建共享的国家研究基础设施,为广大研究群体(尤其是资源有限的高校与小型研究机构)提供接触顶级 AI 资源的渠道。

在试点阶段,NAIRR 的硬件峰值算力已达 3.77exaFLOPS,相当于约 5000 H100 GPU;项目计划为期三年,年度预算高达 8 亿美元,总计投入约 24 亿美元,2024 1 月已启动试点,涵盖开放、安全、软件、教学四大模块。

我们可以参考美国 NAIRR 平台的建设经验,实施给大学与科研单位提供 AI 研究资源的专项计划,鼓励 AI 龙头企业参与合作。

(三)打造自主可控的开源生态,降低 AI 科研成本


美国将 AI 发展重心放在扩大电力供应与算力规模上,重点发展小模块核电(SMR),但无限制地增加算力电力)来换取人工智能服务能力肯定不符合绿色发展的理念,我国一定要走低成本发展人工智能的新路。

AI+ST 能否真正见到成效,要看从研发到应用全流程的总成本是否足够低。要让广大的科研人员都能使用人工智能技术,必须提供丰富且使用方便的智能软件工具,大幅度降低 AI 的使用门槛。

我国的大学包括二本大学)的教师大都以承担多少国家自然科学基金项目和发表多少论文为考核指标,这种一刀切的评价标准不利于发挥一般大学在科研上的作用。国家可以统一组织全国一般大学有能力的教师和学生,开发类似 CUDA 的智能开发工具链。国务院《深入实施“人工智能+”行动意见》中,提出“鼓励高校将开源贡献纳入学生学分认证和教师成果认定”,认真落实这一评价指标将大大促进我国的 AI 开源生态建设。

(四)借鉴“专利”思路,破解行业稀缺的高价值数据共享难题


目前主流的人工智能是基于大数据的智能,数据的质量和多少基本上决定智能水平的高低。但越有价值的数据越难获得,更难共享。负面的可占有性会抵消数据作用的有效发挥。

数据只有在使用中才能确定它的价值。如果在使用之前,非要人为认定不能确定的价值很可能耽误使用,这已成为当前数据资源体系建设的主要障碍。数据交易的主要对象应是数据产品和服务而不是原始数据,应强调“使用是检验数据价值的标准”,这是数字经济与工业经济的主要区别,也是数据资源体系建设的重要原则。

数据有很强的外部性,既像“私有资产”,又有点像“公共品”。世界范围内正在逐步走向“数据像知识产权一样管理”的方向。专利制度的核心是有限期公开换取独占权。欧盟的《数据法案》非常接近“强制许可十合理补偿”的专利逻辑。我国可参照专利的思想,探索数据管理的新路子。



内容来源|信百会