“到 2050 年,要让 AI 凭自己的科研成果拿下诺贝尔奖!”
索尼计算机科学实验室首席执行官北野弘明博士,为了开发匹敌顶尖科学家头脑的 AI,提出了诺贝尔图灵挑战计划。
这是一次人工智能与自然科学领域的梦幻联动。
人类的力量太有限了,那就创造出 AI 来替人类实现无限可能。
“当 AI 强大到能处理复杂现象时,就有机会探索人类科学家当下无法理解的事物。”
他们计划,将 AI 的算力优势应用于无穷的科学发现中,利用强大的信息处理能力,帮助人类进行科学发现,找到新的研究突破。
AI 的优势在哪?和人类相比,人工智能拥有的算力,可以实现对多领域、庞大信息量的快速处理,这远远超出人类对信息的处理能力。
而人类科学家常常会局限在个体的知识范围内,所以在科学探索中,存在一定的劣势。
科学探索就是不断试错的过程,一些突破性的重大发现,往往来源于“失误”。
比如导电聚合物聚乙炔薄膜,它诞生于一次实验失误,合成过程中错误地使用了比正常浓度高一千倍的催化剂。
人类科学家不会去做这种超出常理的实验,而这样的设计却可能被 AI 实现。
看似关系不大的领域,背后的联系却可以借助 AI 来抽丝剥茧,扩展更丰富的科学假设。
对这些假设的验证筛选,同样离不开机器学习训练。
基于 AI 科学家的已有发现不断探索假设空间,生成详细的证明或论据,以评估新生成假设的有效性和重要性。在这样的假设验证过程中,AI 不断进行着自我强化学习。
比如已经被成功应用到实际场景中的 AI 工具 Adam-Eve,就在酵母基因组学和药物开发领域发挥了重要作用。
Adam 成功预测了酵母菌新功能,找到了芽殖酵母中的孤儿酶;Eve 则发现了三氯生成分可以靶向抑制 DHFR 酶来治疗疟疾。
科学家 AI 的发展当然,现在 AI 科学家最受质疑的,就是其本身的“黑盒”特性。
为了让科学 AI 系统建立并维持可信度,就要避免黑盒效应,消除数据偏见。
“要让 AI 做出的科学发现被科学界接受,就必须拥有令人信服的证据,和背后逻辑清晰的推理。”
类似 Adam-Eve 这类闭环实验室自动化系统,AI 能够在人类具体的指令中,完成复杂的实验,以高效的机器处理取代人类低效的实验步骤。
例如,借助 AlphaFold 预测蛋白质结构,仅仅一周时间就预测出了 % 的人类蛋白质。大大加速了蛋白质组学的研究进程。
而利物浦大学的“移动化学家”,则具备了自主发现高活性催化剂的能力。
北野弘明对 AI 科学家未来的发展方向做出大胆假设。随着系统自主性的提高,人类的指令将变得抽象,AI 科学家对要测试的假设以及要执行实验的优先级独立决策。
理想中的 AI 科学系统,是一个结合了软件工具、数据访问和嵌入闭环实验体系的多重多智能体系统,具有高度交互性、互用性和可扩展性。
构成它的多个 AI 系统专注于各自领域,能够更广泛地探索假设空间,将独立领域互相结合起来。
关于 AI 科学家,另一个引起社会关注的话题,就是伦理问题。
整个发展阶段中,AI 可以一直作为工具被人类应用。但是随着 AI 自治程度的不断提高,人类更多地充当起监督者的角色,以防止系统被滥用。当然也可以允许 AI 高度自治,以产生更有突破性的科学假设。
AI 参与到科学研究领域中,对于科研成果的归属界定,同样也是需要严肃对待的社会问题。
DABUS“人工神经系统”的开发者曾为其申请专利权,欧英美专利机构均以“不是自然人”为由驳回申请。然而近期澳大利亚法院开创先例,做出裁决,承认了 DABUS 系统的专利发明人身份。
随着人工智能的不断发展,相应的社会规则也应当逐步完善,为 AI 科学家提供适宜的社会环境。不过,在对人类做出极大贡献的科学研究面前,发明者是人类或是 AI,似乎都不是十分重要的事了。