当前位置:科技 > 业界 > 美通社新闻专栏 > 正文

英国出台历史上首个机器人伦理标准 给机器人上“紧箍咒”

2016-09-20 18:55:06  AI世代    参与评论()人

【AI世代编者按】谈到机器人的行为准则,你肯定会想起阿西莫夫(Isaac Asimov)著名的“机器人三原则”:不伤害人类,服从人类指挥,保护自己。

现在,英国标准协会(简称BSI)正式发布了一个官方指南,旨在帮助设计者研发符合伦理规范的机器人,就如同给机器人用上了“紧箍咒”。

这份指南的名称叫《机器人和机器系统的伦理设计和应用指南》,读起来像是一本健康安全手册,但它强调的“不良行为”简直就像是从科幻小说里摘录出来的。

指南指出,机器人欺诈问题、机器人成瘾现象,以及自学习系统越俎代庖的行为,这些都是机器人制造商应该考虑的问题。

在英国牛津郡举办的“社会机器人和 AI ”(Social Robotics and AI)大会上,西英格兰大学机器人学教授阿兰•温菲尔德(Alan Winfield)说,这个指南代表了“把伦理价值观注入机器人和AI领域的第一步”。

“据我所知,这是历史上发布的首个关于机器人伦理的设计标准,”温菲尔德表示。 “这比阿西莫夫的机器人三原则更加复杂一些,它规定了如何对机器人进行道德风险评估。”

原则和问题

这份指南一开头就提出了一些宽泛的道德原则:“机器人的主要设计用途不能是杀人或伤害人类;需要对事情负责的是人类,不是机器人;对于任何一个机器人及行为,都应该有找到背后负责人的可能。”

接着,该指南强调了一系列更具争议的问题,比如人与机器人之间的情感纽带是否可取,特别是当一个机器人的设计用途是与儿童或老人互动的时候。

英国谢菲尔德大学的机器人学和AI名誉教授诺埃尔•夏基(Noel Sharkey)说,这类机器人可能会在无意中欺骗我们的感情。 “最近的一项研究,调查了小型机器人在幼儿园里的使用情况,”他说。“孩子们很喜欢这些机器人,而且对它们有了依恋之情。但是在后来的询问中,孩子们显然认为机器人的认知能力比家里的宠物强。”

该指南建议,机器人设计者要以透明性为导向,但科学家说,这一点说起来容易做起来难。“AI系统,尤其是深度学习系统的一件棘手事,就是你不可能知道它们做决定的原因,”温菲尔德说。

在给深度学习技术编程的时候,并不是让它们以固定的方式完成某个特定任务。相反,它们会尝试了数百万次,在这个过程中进行学习 ,然后制定出一个策略来执行任务。有时候,这些策略会出乎人类创造者的预料,让他们无法理解。

对人类的歧视

该指南甚至还暗示会有性别歧视或种族主义倾向的机器人出现,发出了小心机器人“缺乏对文化多样性和多元化的尊重”的警告。

“警方使用的一些技术这已经显示了这种倾向,”夏基说。这些技术的用途是突显可疑人员,方便警方在机场进行拦截。事实证明,这种技术在种族貌相上存在倾向性。

温菲尔德说:“毫不夸张地说,深度学习系统使用了整个互联网上的数据来进行训练,但问题是,这些数据本身就是有偏差的。系统倾向于青睐白人中年男子,这显然是一场灾难。各种人类偏见都有可能被携带到系统中。”

在未来的医疗应用中,系统可能不太擅长为女性或少数族裔做诊断。目前已经有一些语音识别软件识别女声的能力逊色于识别男声,或者是面部识别软件识别黑人比识别白人困难得多。

“对于机器人,我们需要一个可以打开和检查的黑匣子,”夏基所述。 “如果一个机器人警察有种族主义倾向,我们可以关闭它,把它从街头移除。”

过分依赖机器人

该指南还提出了更加广泛的社会问题,比如“过分依赖的机器人”,但是在这些问题上应该采取怎样的做法,它没有给设计者指出清楚的方针。

“过分依赖机器人的一种形式是自动化偏见,当你和一台机器打交道的时间比较长,它每次都为你提供了正确的答案时,你就会开始信任它,自己不再去验证答案。而在这时,机器人可能会给你提供一些十分愚蠢的答案,”夏基说。

也许以更加长远的目光来看,这份指南提醒我们,流氓机器人“可能会制定出新的或者更改后的行动计划......可能带来无法预料的后果”。

丹•帕尔默(Dan Palmer)是BSI制造业的主管,他说:“使用机器人及自动化技术来提高制程的效率、灵活性和适应性,这是制造业增长的重要组成部分。要让人们接受这种趋势,就必须识别和应对机器人的伦理问题和风险,比如人类变得过分依赖于机器人等等。这份指南提供为机器人和自主系统领域的设计者和用户提供了帮助。”

对经济和就业的影响

温菲尔德认为,机器人对经济的影响绝对是积极的,但围绕机器人和就业机会展开的争论则太过两极分化。他的看法是,简单地说“机器人一定会抢走我们的工作”,或者“新工作一定会比旧工作更多”是没有意义的,这得取决于具体情况,总之这是一个相当微妙的问题。

在影响就业方面,温菲尔德更担心的是AI,而不是有形的机器人。他认为,知识工作者(律师、呼叫中心工作人员、翻译、数据分析师)被AI取代的风险,比体力劳动者被机器人取代的风险更大,因为机器人技术的成熟和部署远远更加困难。而且人们已经发现,在机器人可以发挥优势的地方,都需要人类和机器人并肩工作,因为现在的体力工作无法完全自动化。那些可以完全自动化的体力工作,早就已经自动化了。

温菲尔德认为,机器人可以创造出新的岗位类型。过去20年的数字化经历提供了一个教训:你很难预测这些工作是什么。关键在于,新技术开辟了创造的新途径。我们显然需要更多的人来维护机器人,但是新技术也催生了新的创业领域。比如Open Bionics的 3D打印假肢,当初谁能想到机器人可以用这种方式来使用!随着技术的改进,可穿戴机器人将会变得普遍。不仅是残障人士,老年人也可以用它们来代替轮椅。

关于特斯拉的自主驾驶系统

温菲尔德认为,还需要很长一段时间,我们才会在道路上看到无人驾驶汽车和卡车,因为这项技术还没有做好上路的准备。

一个重要的问题在于:这种车是需要人工辅助,还是应该完全自主驾驶。最近发生的特斯拉事故致死案表明,让人类参与自动驾驶任务是一个非常糟糕的做法。

如果驾驶者在车上无事可干,那么他的注意力就很难集中在道路上,所以,如果你觉得自动驾驶系统一旦遇到问题,驾驶者就可以马上接手,恢复人工控制,这也想得太简单了一些。

特斯拉的事故还说明机器人的感知能力仍不够好。在行驶过程中,机器人有很多时候都不太了解状况,因为它们在感和和认知上存在缺陷。

温菲尔德表示,如果一个公司要想获得成功,他们的目标应该是获得“盖章认定”,证明他们的机器人符合相关标准。

监管是政府给我们提供的一颗定心丸。为什么我们会相信商业客机?因为那是一个高度监管的行业,标准定得非常高。

商用飞机的经验也应该用在机器人领域。特斯拉就是一个需要进行监管的例子。他们的自动驾驶仪没有公布正式的标准,所以不能信他们。(综合/Kathy)

推荐:获取更多人工智能与机器人内容,请关注“AI世代”微信号(tencentAI)。

 

社会文史娱乐汽车科技旅游城市文化

新闻 军事 论坛 娱乐

新闻频道
国内国际社会评论文史专题经济新闻图库老照片
军事频道
军事要闻中国军情国际军情军事历史网友原创军事专题军事图库武器装备军事文化
汽车频道
车闻Update漫话车型漫记车映像实拍解析行业动态新车资讯独家评测汽车生活人文之旅
教育频道
留学移民高考中小学拒讲堂师说商道商论
游戏频道
游点意思网络游戏网页游戏单机游戏手机游戏军事游戏游戏产业发号中心游戏美女图说游戏囧游囧事
科技频道
业界互联网行业通信数码手机平板IT硬件相机笔记本家电产品库
旅游频道
X旅行视界目的地 美图发现社区
文化频道
专题非遗沙龙历史艺文博览读书图库书画禅文化
书画频道
资讯收藏展览在线展厅艺术家视觉专题
体育频道
国际足球中国足球NBACBA 综合体育图片汇总专题策划
视频频道
新闻军事中华出品原创娱乐纪录片微电影决胜海陆空
娱乐频道
明星电影电视音乐专题图库论坛
公益频道
老兵出镜老兵动态老兵资料库关爱老兵在行动公益组织公益人物
城市频道
城市聚焦城市设计城市生活城市策划城 市图赏城市加盟城市论坛
社区频道
中华论坛网上谈兵中华拍客社会时政国际风云生活消费休闲旅游美丽女人娱乐八卦经济风云情感世界文学天地
好医生频道
保健养生疾病防治行业资讯名医谈健康 医生专栏食疗跑步
经济频道
国内宏观海外经济产经商贸时尚消费电商眼球儿企业故事专栏评说识局经济