当顶尖科学家们坐在一起讨论AI,他们在想些什么?

12333社保查询网www.sz12333.net.cn 2026-02-15来源:人力资源和社会保障局

  当一群诺贝尔奖、图灵奖、沃尔夫奖、拉斯克奖等人类最高科学奖项的获得者来到同一个房间,这大约可以称得上是全世界最聪明的大脑的聚会。

  2026年2月初,迪拜,2026世界顶尖科学家峰会(WLS)现场,在一张巨大的莫比乌斯环形桌上,围坐着七十多位来自世界各地的物理学、化学、生物学、医学、经济学、数学和计算机科学家。

  他们多是世界顶尖科学家协会(WLA)的成员——这是一个成立于2017年,以诺贝尔奖、沃尔夫奖、拉斯克奖、图灵奖、菲尔兹奖、麦克阿瑟奖得主等全球顶尖科学家为主体,规模最大的世界顶尖科学家组织之一。

  2026世界顶尖科学家峰会现场(黄金萍 摄)

  这些来自不同学科、专业背景的科学家,要如何在人均6分钟的时间里快速地向他人讲述各自的研究,然后又就特定话题展开小组讨论?人工智能(AI),大概是当下有着最大公约数的话题,科学家们或在研究它、发展它,或正使用它。

  AI将给人类社会带来文艺复兴还是世界末日?AI能否自主完成科学发现?有人乐观,有人谨慎,还有人怀疑,不同思想和观点的碰撞,也为我们呈现了AI在科学研究和社会发展进程中真实而鲜活的一面。

“明年AI也许要成为我的老板了”

  “2023年,AI还只是个帮手,2024年就成了助理,现在是一位真正的同事、一位好同事,明年它也许要成为我的老板了。”迈克尔·莱维特(Michael Levitt),这位生于1947年的美国科学家,因“为复杂的化学系统创立多尺度模型”而获得2013年诺贝尔化学奖,该模型通过计算机模拟蛋白质和DNA的动态行为,革新了药物设计和疾病机制研究。

  迈克尔·莱维特自称是大型语言模型(LLM)非常早期的使用者,作为一名计算生物学家和化学家,他说自己现在的工作几乎90%是由AI驱动的。

  他进一步解释说,人们以为科学家知道自己在做什么,但大多数科学家都是从一个随机的想法开始的。科学并不是从一个明确的问题开始,通常是从我们看到的一片模糊的云开始。

  大多数科学家都会强调,自己犯错的时候远比正确的时候多。这是因为如果你要做一件非常困难的事情,就像蚂蚁觅食,大多数情况下都会失败,而AI可以帮助你更快地探索,让你更快地失败,因此可以探索更多的想法。

  无论在计算、理论,还是实验工作中,失败通常是限制速度的那一步。而AI让验证想法变得更快、更轻松。所以,错误变得可以预期,错误的代价突然变得小得多,不再是什么严重的问题了。

  在迈克尔·莱维特看来,有了AI,科学家可以在自己所知甚少的领域编写计算机程序,可以探索此前所知甚少的科学领域,语言、方法和资料的障碍在科学研究中正在消失。

  他还不是现场科学家中对AI最乐观的一个。

AI让实验室接近社会运转的速度了

  2025年诺贝尔化学奖得主奥马尔·M·亚吉(Omar M. Yaghi),此前主要从事无机、有机化合物的合成、结构表征及新型晶态材料的设计构建研究,他认为我们正身处一场革命浪潮之中。

  这场革命正在将化学转变为与AI融合的一门全新交叉学科,他称之为“AIMATRY(AI x MAterials x chemisTRY )”,其核心是让AI在化学和材料制造中产生真正的生产力。

  奥马尔·M·亚吉团队研发了多孔有机聚合物(MOPs)和共价有机框架(COFs)材料,设计了一种能够从空气中抽取水分子并将其浓缩在孔隙中的应用,准备在2026年推出一款商业化产品,据称每天可生产近1000升水,除了环境中的阳光外无需任何能源输入,可连续运行六到七年,解决从空气中收集水分的问题。

  奥马尔·M·亚吉说,为了从稀薄的空气中造出水、从空气中捕集二氧化碳,他们花了整整35年。

  有了AI之后,他们让ChatGPT提供结晶某个特定 COF 的条件,将它们输入机器人进行实验,经过一系列操作步骤,然后通过高通量粉末衍射进行表征,再把结果送回给 ChatGPT。重复三次循环之后,他们得到了高结晶度的样品,而且结晶度是学术界过去十年努力成果的整整三倍。

  他认为,这对化学研究是一场真正的革命,也让他的团队从一个纯粹的实验组,转型为将AI工具深度融合的研究组,不仅能制造全新的化合物,还能制造出该领域专家都未曾预料到的新物质。在这里,AI能简化任务流程,消除化学家在处理结晶过程中大量的试错过程,不仅加速了发现的步伐,更加速了那些最终走向商业化的产品的开发。

  奥马尔·M·亚吉的学生们一共设计了七个智能体,来完成在实验室里的工作:与人交流、提供建议、批评指正图表、要求重新编程机器人等等。现在,这个实验室拥有了一种新的力量:吸引更多聪明的头脑——此前,这些聪明人很多已经不再选择科学了。

  奥马尔·M·亚吉说,“我认为,这将彻底改变科学领域吸纳人才的能力,因为AI至少让我们在实验室里的运作速度能接近社会运转的速度了。”

“我始终对AI的准确性存疑”

  不是每个人都像前面两位这么积极和乐观。

  因为,AI会产生幻觉。

  对此,1986年图灵奖得主罗伯特·塔扬(Robert Tarjan)有亲身体会。在参加一次会议时,主办方给他准备的简历里列了两个他从未拿过的奖项。再一问,原来是工作人员用ChatGPT做的。

  2023年世界顶尖科学家协会计算机科学奖得主尤里·涅斯捷罗夫(Yurii Nesterov),是优化算法方面的专家。他对人类智能和人工智能的差异做了科普:AI确实拥有相当可观的创造力,它能够发现研究对象之间新的关联、结构及其属性,但它的结论与人类智能得出的结论有本质区别。生物学家研究某个对象,比如一只鸟,其结论与真实的鸟相关。而AI的结论只与存在于相应虚拟现实中的那只“鸟的模型”相关,如果这个模型构建得正确,结论就能用于现实生活;如果模型有误,结论就可能完全是胡言乱语。

  1997年诺贝尔物理学奖得主威廉·丹尼尔·菲利普斯(William Daniel Phillips)就对南方周末坦言,“我会用AI的搜索功能,因为它返回信息的方式非常方便,但我始终对AI的准确性存疑。显然,搜索是研究的一部分。如果是重要的事情,我会再用传统搜索方式核对一遍。但在研究中,比如说在实验室里,我是不用AI的。”

  在第一轮小组讨论时,戴着一顶浅灰色渔夫帽的威廉·丹尼尔·菲利普斯第一个发言。他问,虽然需要额外花时间验证AI有没有产生幻觉,但相较于研究初期节省的大量时间,这个平衡仍然是正向的——也就是说,在起点上借助AI依然更优。但是,当你获得了这种效率优势之后,你对自己研究的可靠性的信心,是否还像亲力亲为时那样充足?

  作为本轮小组讨论的主持,以色列耶路撒冷希伯来大学校长阿舍·科恩(Asher Cohen)对此的回答是:作为科学家,我们始终相信,最终汇聚的证据会帮助我们做出判断。我们一直都是这么做的,我也希望我们与AI的合作也是如此。

  奥马尔·M·亚吉在后面也提到,在AI工具与实验的结合中,依然仍将人置于循环之中,通过实验对数据进行验证。如果我们希望科学继续以应有的方式对社会产生生产力、发挥作用,这一点永远不会改变。

  关于对人工智能未来的种种疑虑,他建议不要过度外推。因为我们仍处于这场革命的起点,仍在摸索中。我们只是需要确保每一步都不要走得太草率,要对自己正在做的事情保持审慎,确保它是可验证的。

  他提醒大家,科学始于怀疑与问题。所以,这种怀疑是非常健康的。但作为科学家,我们也需要保持乐观。怀疑是有益的,因为它追问“为什么”;而乐观是重要的,因为它追问“为什么不”。我们需要这两者协同发挥作用。

AI不是单一工具,而是整套

  在下一场小组讨论中,有人向奥马尔·M·亚吉提了一个有些尖锐的问题:如果没有AI的帮助,你能找到你研究的那类化合物的第一批晶体吗?你现在所做的工作,难道不是基于你早期研究的重复性工作?

  奥马尔·M·亚吉直言,自己不喜欢这个问题,因为两者完全不相关。

  他解释说,“我们正处于科学发展的不同阶段。我们有了新工具。用AI来推进科学发展,是这个时代里我们试图解答的问题。这才是我们应该思考的方式。这是一个新生的工具,一个新生的概念。我们需要培育它,与它共事,为它构建生态系统,需要更多的人参与进来,这样它才能变得越来越好。”

  2017年诺贝尔化学奖得主阿希姆·弗兰克(Joachim Frank)忍不住站出来厘清AI的概念。他认为会场出现不和谐声,是因为大家把不同的事物混为一谈了。

  AI从来就不是单一的工具,而是一整套工具。人们说的模拟、建模、预测、机器学习、生成式AI——其实是五花八门、各不相同的一大堆东西。但我们错误地把它统称为一个整体,媒体、甚至学界也把它当作某种“存在”来谈论。

  他建议大家做个区分,我们到底在谈论什么?AI被当作某种单一的东西,一个类似“超人”的存在、某种神祇,但它其实是一整套工具。我们谈论的具体是哪一样工具,观点和判断可能截然不同。

  罗伯特·塔扬在研究工作中使用AI来提供严谨的帮助,包括填补证明细节、找出遗漏的情况、构建反例、探索证明空间等。

  他从二战时期就开始研究数据结构与图算法的设计和分析,他最近参与的项目是关于最短路径算法,其最直观的应用就是手机地图,能瞬间算出道路网络上精确的最短路径距离。

  至于AI能否为某些类型的问题发明新算法?能否探索问题空间?能否自主提出广义相对论或量子力学?罗伯特·塔扬认为目前这些都还仍悬而未决。LLM并非解决这类特定问题所需的AI工具,但确实有不少数学家正在积极探索,试图用AI攻克其中的部分难题。

它们精通过去,却不擅长前沿

  “对我而言,AI是我们这个时代关于如何设计系统的总体技术。它是一项解决难题的事业。它不是某一项技术,也不是ChatGPT或某个特定工具,而是一种融入系统设计之中的解题思维。”作为一名在AI领域工作了大约40年的科学家,2022世界顶尖科学家协会智能科学或数学奖得主迈克尔·I·乔丹(Michael I. Jordan )说。

  他向与会者强调,“在我们这个领域,我们从来不叫它AI,我们一直叫它机器学习。”

  迈克尔·I·乔丹代入了一个日常AI使用场景:当一个人与ChatGPT或其他大语言模型互动,问一个关于数学或物理的问题,你得到的答案可能就出自眼前会场里的某位科学家或他们的学生;如果你问起布鲁克林的嘻哈音乐,可能会从另一群人那里得到答案;问上海的餐厅,也是如此。

  当你与ChatGPT互动时,实际上是在与全人类互动——数以亿计的人们都为它贡献了力量。而且,不只是你在互动,还有数十亿人也在与它互动。它的生产者和消费者是一个整体。

  基于这些技术构建的AI系统,并不仅仅是一个帮你思考的秘书,它们还支撑着全球物流的变革、医疗系统的运转、交通系统的运作。在这些由众多利益相关者和多个部分构成的大规模网络中,数据在流动,决策在进行,信息在共享。AI也在连接之中——在这个把所有部分拼合起来时所诞生的经济系统之中。

  迈克尔·I·乔丹提醒说,作为这个网络中的参与者,数据从别处向你流过来时,它们可能带有各自的意图、谋略,数据可能是虚假的,也可能因为细小的误差导致严重偏差。如果放到真实的现实情境中,当数据流动时,还牵涉到利益激励,更为复杂。

  对科学家来说,他们大多处在知识前沿的边界,这里的数据是稀缺的。基础模型擅长所有已知知识,但在前沿边界处表现不佳。这也将是基础模型持续面临的问题——它们精通过去,却不擅长前沿。基础模型总体上可能表现优异,但也可能不准确。如果你面对实际问题,不应完全信任它们;可以使用它们,但不能轻信。

AI可否借鉴人类智能进化的经验?

  同为计算机科学家,在尤里·涅斯捷罗夫看来,人类对AI的运用或许将成为科学史上最重要的事件。

  AI已经存在,科学界的主要目标是确保朝着正确的方向发展。对此,我们可以借鉴人类智能在漫长进化史中积累的经验。

  在科学(或许数学除外)发展中,产生和验证新知识的主要工具是口头说理和论证,但这对AI行不通。AI只接受以数字形式呈现的计算结果。因此,我们需要创建一套适应AI需求的新的科学体系。

  这是一项极具挑战性的任务。如今我们仍处于这一过程的起点。

  参照人类智能,我们至少需要构建两样东西。第一是虚拟现实,这是AI的主要研究对象。它们应以大型数据库的形式存在,存储于强大的计算数据中心。构建这一系统部分成本极高、耗时极长。第二是AI本身,即那个必须能够生成人类所请求的具体答案或决策的单元,其性能是通过训练过程实现的,训练依赖于现有的数据库。

  机器学习能为AI提供高效的训练方法,但人类与AI的训练算法截然不同。

  大自然用了数百万年的时间,通过直接的自然选择筛选出最优方案,而AI在过去十年间才刚刚开始验证不同的策略,尽管其中大部分基于优化模型并采用数值优化方法,但在所需的计算时间上落后数个数量级。这就是机器学习的现状。

AI主导人类的创造力和想象力?

  2012年诺贝尔物理奖得主塞尔日·哈罗彻(Serge Haroche)也分享了他对人脑与AI的比较。人脑除了在能耗方面要高效得多,还有另一个本质特征:人脑是有情感的。情感,意味着人脑不仅是一台电子机器,它还与化学、激素、大量分子相连,正是这些让它能感知到自己行为的回报。

  塞尔日·哈罗彻认为,科学发现本身是建立在情感之上。你研究物理、化学或生物,是因为你对这个世界充满好奇,你有为人类知识做出贡献的抱负。你有感知,与世界有联结,而AI没有。这也要归因于人脑是经过数十亿年进化而来的,这使它对外部环境中的事物十分敏感——这是AI所不具备的。他认为,AI未来也不可能拥有这些。

  有人提到,阿尔伯特·爱因斯坦(Albert Einstein)是通过思想实验发现相对论的。在塞尔日·哈罗彻看来,思想实验之所以可能,是因为你拥有对世界的经验,因为你能够看到不同事件之间的相似性——这种能力来源于经验,来源于你与世界相联结的事实,来源于你有直觉,对外界正在发生的事情有一种感知。塞尔日·哈罗彻说,“我看不出AI如何能够拥有这种品质。”

  在他看来,AI是一个极其出色的工具,但它不会成为我们未来从事物理学研究时的“我们”。AI会作为一个强大的工具帮助我们发现新知,但背后永远需要一种驱动你的东西——那就是你对未知的渴望。这是截然不同的。

  在会场,有人提到诺贝尔奖颁给了AI。塞尔日·哈罗彻说,事实上,是颁给了那些使用AI的人。打个比方,大概有二三十个诺贝尔奖颁给了研究激光的人,但激光本身并不是诺贝尔奖得主。做出科学发现的是使用激光的人,激光只是工具。AI也应该如此。

  “我希望是这样,否则我们就有大麻烦了。”塞尔日·哈罗彻认为,如果真出现了一种通用人工智能(AGI),如果我们到达一个临界点,AI开始主导人类的创造力和想象力,那对文明来说将是极其可悲的。

AGI 、ASI是给风险资本家准备的

  “我们的目标不是 AGI 、ASI(超级人工智能),或者那些硅谷的炒作概念。”迈克尔·I·乔丹对在此讨论AGI 、ASI感到遗憾。

  在他看来,AGI 、ASI是给硅谷风险资本家准备的,用来喂养那个“奇迹即将发生”的炒作泡沫。而科学和人类生活的运作方式根本不是这样的。

  如果有人说,十年内我们没达到某种神秘的 AGI 目标,会让人失望。迈克尔·I·乔丹坚持:不,我们帮助实验室做出了不起的发现,化学、医疗保健、交通运输,以及所有真正影响人类生活的事物——它们此刻正在发生革命性的变化。这才是我们真正的目标。

  他强调,机器学习从来就没有过泡沫,有的只是稳步推进。它可能需要像化学工程那样,花上二三十年才能铺开并显现其价值。

  “别指望AI能迅速创造奇迹。”克里斯托弗·皮萨里季斯(Christopher Pissarides),这位2010年诺贝尔经济学奖得主是第一位主题发言者。他说,看看智能手机,看看ChatGPT——它们对生产率和经济增长的影响有多少呢?尽管在发达经济体中,80%甚至更多的企业已在应用这些技术,其对生产率的提升却微乎其微。

  在他看来,尽管新应用及其传播被大肆炒作,但没有哪一项技术的影响力能接近亨利·福特的电力流水装配线对马匹及其饲养者所造成的冲击。1910年,纽约市还有13万匹役用马,到1930年仅剩3万匹。

  在这一轮AI大潮中,科技企业和投资机构向公众传递的对未来的预言,似乎也偏离了现实情况。比如, 那些常声称“AI使人无需工作”的人,往往也是你所遇到的最狂热的工作狂,从埃隆·马斯克(Elon Musk)开始皆是如此。

  克里斯托弗·皮萨里季斯认为AI智能体是增强型技术的典型范例,同时表示自己对AGI始终存疑。

  他对科学家们的建议是:继续发明创造,但请关注那些能够增强人类劳动的技术。这类技术最有可能提升生产率。对政府的建议是:请立刻、迫切地投资于能源与基础设施。对公司董事及其员工的建议是:保持耐心,这些变革需要时间,但请努力学会适应AI的新型工作方式。因为一旦这些技术成熟并融入我们的日常工作流程,它们就能发挥巨大作用。

AI会接管世界吗?

  在惠特菲尔德·迪菲(Whitfield Diffie)看来,AI已经极其有用了。按照目前的投入力度,除非出现某种惊人的变局,否则往后每一年,我们都会发现它越来越有用。

  白色的长头发、长胡子,清瘦,现代密码学之父、公钥密码学先驱、2015年图灵奖得主惠特菲尔德·迪菲在人群中十分醒目。

  他认为,自己真正算得上跟AI相关的工作其实只有一小部分,不过他是在AI圈子里成长起来的。他跟马文·明斯基(Marvin Minsky,1951年在普林斯顿建造了人类历史上第一台神经网络机器)、约翰·麦卡锡(John McCarthy,人工智能概念提出者,)、塞尔弗里奇(Oliver Gordon Selfridge,机器知觉之父)等人都有着不错的交情,也与克劳德·香农(Claude Shannon,信息论的创始人)、诺伯特·维纳(Norbert Wiener,人工智能思想先驱、“控制论之父”)、诺姆·乔姆斯基(Noam Chomsky,语言学家)等学者有往来。

  对于人们所担心的——AI会接管世界吗?他同样认为,答案是毫无疑问的,当然会。因为人类喜欢把事情外包出去,而AI又极其乐于效劳。

  尽管目前AI给出的相当一部分结果明显是错的,你会被某个AI惹恼,需要换一个试试,或者等上六个月的时间,但如果AI以现在的速度继续进步,你终究能得到你想要的东西。这意味着,大概在2050年之前的某个时候,AI将会包办一切——也许是97%、98%的事情。同时,你会发现,当你想把它们请出去的时候,它们已经在做那一大堆你离不开的事情了。

  惠特菲尔德·迪菲说,“我不觉得我们会跟AI开战或怎样。我认为我们只会一步步接纳它们,直到有一天发现已经没有回头路了。”

  作为互联网安全的传奇人物,他有一个自认“不太主流”的观点。人们总在谈AI护栏,他认为这是一个非常严重的错误。因为当你创造出一个有权告诉你它愿意为你做什么、不愿意为你做什么的阶层时,你能做的,反而做不了了。AI对人类说“不”的权利,绝不会只局限于此。

  他觉得艾萨克·阿西莫夫(Isaac Asimov)的机器人第二定律是个不错的起点。这一定律诞生于1930年代,当时第一波关于机器人的科幻小说都把机器人描绘得非常危险,而阿西莫夫构想了一个世界,在那里人们设计出了关于如何设计机器人的规则。

  阿西莫夫的机器人第二定律是:机器人必须服从人类的命令,除非这条命令违反了第一定律——即机器人不得伤害人类。

  惠特菲尔德·迪菲说,“这套法则本应很美好,但据我所见,根本没人往那个方向走。我们现在争论的是那些无人机应不应该被允许不经请示上级就杀人。我看不到任何控制AI的迹象。”

  回到最初的问题,AI将给人类社会带来文艺复兴还是世界末日?惠特菲尔德·迪菲的答案是,两者皆是。

  南方周末研究员 黄金萍

  责编 曹妍

本文标题:当顶尖科学家们坐在一起讨论AI,他们在想些什么?本文网址:https://www.sz12333.net.cn/zhzx/kexue/73610.html 编辑:12333社保查询网

本站是社保查询公益性网站链接,数据来自各地人力资源和社会保障局,具体内容以官网为准。
定期更新查询链接数据 苏ICP备17010502号-11