【AI世代编者按】《麻省理工科技评论》近期刊登了艾伦人工智能研究所CEO、华盛顿大学计算机科学教授奥林·艾奇奥尼(Oren Etzioni)的文章,分析了超级人工智能出现的可能性。艾奇奥尼的研究结论是,超级智能在可预见的未来还不会出现。
《斯坦福大学:2030年的人工智能与生活》最近的一份报告也探讨过该话题,关注“AI世代”微信号(tencentAI),回复“斯坦福”,可获取报告下载链接。
《麻省理工科技评论》中发表的文章与报告观点基本类似,以下为文章全文:
如果你了解过关于人工智能的各种观点,那么可能会非常担心“超级智能”,或者说“杀手人工智能”的出现。近期英国《卫报》警告称,“我们就像是在玩炸弹的小孩”,《新闻周刊》则指出“人工智能正在到来,有可能彻底消灭我们”。
在伊隆·马斯克(Elon Musk)和史蒂芬·霍金(Stephen Hawking)等人观点的支撑下,许多媒体都有过这样的报道。实际上,这种观点来自一个人的研究成果:英国教授尼克·博斯特罗姆(Nick Bostrom),哲学著作《超级智能:道路、危险和策略》的作者。
博斯特罗姆是牛津大学哲学家,而对风险的量化评估则是保险精算学的领域。他或许被认为是全球首位“精算哲学家”。考虑到哲学是一种概念论证学科,而风险评估则是由数据驱动的统计学工作,因此这样的头衔显得很矛盾。
那么,数据告诉我们什么?2011年,作为希腊人工智能协会的成员,博斯特罗姆参加了在希腊塞萨洛尼基举办的“人工智能哲学和理论”大会。当时,他整理了4项调查的结果,并给出了人脑水平人工智能在不同时间点出现的可能性:
2022年:10%。
2040年:50%。
2075年:90%。
关于人脑水平人工智能的发展,博斯特罗姆撰写了一份300页的哲学论证,而这4项调查是最主要的数据来源。
为了更准确地评估行业领先研究者的意见,我寻求了美国人工智能协会(AAAI)会士们的帮助。这些研究员对人工智能的研究做出了重要而持续的贡献。
2016年3月初,AAAI帮我发出了一份匿名调查问卷,向193名会士提出了以下问题:“在他的书中,尼克·博斯特罗姆将超级智能定义为‘在各个实际领域,包括科学创造力、一般常识和社会技能等方面,比最出色人脑还要更聪明的智能’。你们认为,我们何时将会看到超级智能?”
在随后的一周多时间里,80名会士做出了回复(回复比例为41%)。他们的回复总结如下:
92.5%的受访者认为,在可预见的未来超级智能不会出现。这一观点也得到了许多会士书面内容的支持。
即使调查是匿名的,44名会士仍决定实名回复。这其中包括深度学习先驱吉奥夫·辛顿(Geoff Hinton)、来自斯坦福大学的图灵奖获得者埃德·菲恩鲍姆(Ed Feigenbaum)、领先的机器人专家罗尼·布鲁克斯(Rodney Brooks),以及谷歌(微博)的皮特·诺维格(Peter Norvig)。
受访者也给出了更多看法,摘录如下:
“可能还需要超过25年时间。更有可能还要几个世纪。但不可能永远无法实现。”
“我们正在与人脑数百万年的进化展开竞争。我们可以编写单一目的程序,匹敌人类,有时甚至胜过人类。然而,世界并不是由多个单一问题组成的。”
“尼克·博斯特罗姆是职业恐慌传播者。他的研究所扮演的角色就是寻找人类的现存威胁。他在各种地方都能看出威胁来。我倾向于将他称作人工智能领域的特朗普。”