【AI世代编者按】谈到机器人的行为准则,你肯定会想起阿西莫夫(Isaac Asimov)著名的“机器人三原则”:不伤害人类,服从人类指挥,保护自己。
现在,英国标准协会(简称BSI)正式发布了一个官方指南,旨在帮助设计者研发符合伦理规范的机器人,就如同给机器人用上了“紧箍咒”。
这份指南的名称叫《机器人和机器系统的伦理设计和应用指南》,读起来像是一本健康安全手册,但它强调的“不良行为”简直就像是从科幻小说里摘录出来的。
指南指出,机器人欺诈问题、机器人成瘾现象,以及自学习系统越俎代庖的行为,这些都是机器人制造商应该考虑的问题。
在英国牛津郡举办的“社会机器人和 AI ”(Social Robotics and AI)大会上,西英格兰大学机器人学教授阿兰•温菲尔德(Alan Winfield)说,这个指南代表了“把伦理价值观注入机器人和AI领域的第一步”。
“据我所知,这是历史上发布的首个关于机器人伦理的设计标准,”温菲尔德表示。 “这比阿西莫夫的机器人三原则更加复杂一些,它规定了如何对机器人进行道德风险评估。”
原则和问题
这份指南一开头就提出了一些宽泛的道德原则:“机器人的主要设计用途不能是杀人或伤害人类;需要对事情负责的是人类,不是机器人;对于任何一个机器人及行为,都应该有找到背后负责人的可能。”
接着,该指南强调了一系列更具争议的问题,比如人与机器人之间的情感纽带是否可取,特别是当一个机器人的设计用途是与儿童或老人互动的时候。
英国谢菲尔德大学的机器人学和AI名誉教授诺埃尔•夏基(Noel Sharkey)说,这类机器人可能会在无意中欺骗我们的感情。 “最近的一项研究,调查了小型机器人在幼儿园里的使用情况,”他说。“孩子们很喜欢这些机器人,而且对它们有了依恋之情。但是在后来的询问中,孩子们显然认为机器人的认知能力比家里的宠物强。”
该指南建议,机器人设计者要以透明性为导向,但科学家说,这一点说起来容易做起来难。“AI系统,尤其是深度学习系统的一件棘手事,就是你不可能知道它们做决定的原因,”温菲尔德说。
在给深度学习技术编程的时候,并不是让它们以固定的方式完成某个特定任务。相反,它们会尝试了数百万次,在这个过程中进行学习 ,然后制定出一个策略来执行任务。有时候,这些策略会出乎人类创造者的预料,让他们无法理解。
对人类的歧视
该指南甚至还暗示会有性别歧视或种族主义倾向的机器人出现,发出了小心机器人“缺乏对文化多样性和多元化的尊重”的警告。
“警方使用的一些技术这已经显示了这种倾向,”夏基说。这些技术的用途是突显可疑人员,方便警方在机场进行拦截。事实证明,这种技术在种族貌相上存在倾向性。
温菲尔德说:“毫不夸张地说,深度学习系统使用了整个互联网上的数据来进行训练,但问题是,这些数据本身就是有偏差的。系统倾向于青睐白人中年男子,这显然是一场灾难。各种人类偏见都有可能被携带到系统中。”
在未来的医疗应用中,系统可能不太擅长为女性或少数族裔做诊断。目前已经有一些语音识别软件识别女声的能力逊色于识别男声,或者是面部识别软件识别黑人比识别白人困难得多。