上个月,谷歌宣布推出“AI联合科学家”,声称这种AI工具旨在帮助科学家创建假设和研究计划。谷歌将其宣传为一种发现新知识的方式,但专家认为,这一工具及其类似产品远未达到其宣传的效果。

麻省理工学院的计算机视觉研究员Sara Beery告诉TechCrunch:“这个初步工具虽然有趣,但似乎不太可能得到科学界的认真使用。我不确定科学界是否对这种类型的假设生成系统有需求。”
谷歌是最新一家提出人工智能将大大加快科学研究速度的科技巨头,尤其是在生物医学等文献密集的领域。OpenAI首席执行官Sam Altman在今年早些时候的一篇文章中表示,“超级智能”AI工具可以“极大地加速科学发现和创新”。Anthropic首席执行官Dario Amodei也大胆预测,AI可以帮助制定大多数癌症的治疗方法。
然而,许多研究人员并不认为当前的AI在指导科学过程方面特别有用。他们认为,像谷歌的AI联合科学家这样的应用程序更像是炒作,缺乏经验数据的支持。
科学界的质疑
谷歌在其描述AI联合科学家的博客文章中表示,该工具已经在急性髓性白血病(一种影响骨髓的血癌)的药物再利用等领域显示出潜力。然而,亚利桑那州西北医疗中心-图森的病理学家Favia Dubyk表示,结果过于模糊,以至于“没有合法的科学家会认真对待这些结果”。
Dubyk告诉TechCrunch:“这可以作为研究人员的一个很好的起点,但缺乏细节令人担忧,我不敢相信它。缺乏提供的信息使得很难理解这是否真的有帮助。”
这并不是谷歌第一次因夸大AI突破而受到科学界的批评。2020年,谷歌声称其用于检测乳腺肿瘤的AI系统取得了比人类放射科医生更好的结果。然而,哈佛大学和斯坦福大学的研究人员在《自然》杂志上发表反驳文章,称谷歌研究中缺乏详细的方法和代码“削弱了其科学价值”。
AI在科学中的局限性
科学家们还指责谷歌掩盖了其AI工具在材料工程等科学学科中的局限性。2023年,谷歌声称在其AI系统GNoME的帮助下合成了约40种“新材料”。然而,外部分析发现,实际上没有一种材料是全新的。
罗切斯特理工学院软件工程助理教授Ashique KhudaBukhsh表示:“在对不同科学学科进行严格、独立的评估之前,我们无法真正了解像谷歌的‘联合科学家’这样的工具的优势和局限性。AI通常在受控环境中表现良好,但在大规模应用时可能会失败。”
科学过程的复杂性
开发AI工具以帮助科学发现的部分挑战在于预测数不清的混杂因素。AI可能在需要广泛探索的领域派上用场,例如缩小大量可能性的范围。但目前尚不清楚AI是否能够实现那种导致科学突破的开箱即用的问题解决方式。
KhudaBukhsh指出:“纵观历史,我们已经看到,一些最重要的科学进步,比如mRNA疫苗的开发,是由人类的直觉和面对怀疑的毅力驱动的。就目前而言,AI可能不太适合复制这一点。”
AI的真正价值
日本索尼计算机科学实验室的AI研究员Lana Sinapayen认为,像谷歌的AI联合科学家这样的工具专注于错误的科学跑腿工作。她认为,AI的真正价值在于自动化技术上困难或乏味的任务,例如总结新的学术文献或格式化工作以满足资助申请的要求。然而,她指出,科学界对能够生成假设的AI合作科学家的需求并不大,因为许多研究人员从这项任务中获得智力上的满足。
Sinapayen表示:“对于许多科学家来说,包括我自己在内,提出假设是这份工作中最有趣的部分。为什么我想把我的乐趣外包给电脑,然后只剩下我自己做艰苦的工作呢?总的来说,许多生成式AI研究人员似乎误解了人类为什么要做他们所做的事情,我们最终提出了一些产品,这些产品可以自动化我们从中获得乐趣的部分。”
AI的风险
AI的技术缺陷和风险(例如容易产生幻觉)也使科学家们对认可它进行严肃的工作持谨慎态度。KhudaBukhsh担心,AI工具最终只会在科学文献中产生噪音,而不是提升进步。
最近的一项研究发现,AI捏造的“垃圾科学”已经充斥谷歌学术搜索。KhudaBukhsh指出:“AI生成的研究,如果不仔细监测,可能会让科学领域充斥着质量较低甚至具有误导性的研究,使同行评审过程不堪重负。在计算机科学等领域,不堪重负的同行评审过程已经是一个挑战,在这些领域的顶级会议上,提交的材料呈指数级增长。”
Sinapayen也表示,即使是设计良好的研究最终也可能被行为不端的AI所玷污。虽然她喜欢一种可以协助文献综述和综合的工具的想法,但她不相信当前的AI能够可靠地执行这项工作。









