当然闲聊并不是Cortana的重点所在。目前团队期望进一步扩展Cortana的上下文理解能力,令其具备更为自然的表达和交互,甚至能够预知用 户未来可能的行程。微软研究院目前也正在致力于提升Cortana的短期和长期记忆表现。比如说用户在对Cortana提到最近才说过的内容 时,Cortana也能识别出来,这是Cortana未来需要进一步深造的。
陷入恐怖谷理论的危机
恐怖谷理论是一个关于人类对机器人和非人类机器设备感觉的假设,最早在1970年时就提出了,基本内容大致上是说当机器人与人类相像的程度超过一个 较高的临界值之后,哪怕它与人类有一点点差别都会显得非常显眼刺目和令人感觉到厌恶。Cortana在人格化的道路上似乎愈有往这方面靠拢的迹象。微软研 究院的Eric Horvitz博士及其团队主要参与Cortana的AI开发部分,他就提到,虽说不至于到恐怖谷那么严重,但现如今的Cortana相比早前实验室中的 原型产品确实有陷入这一危机的表现。
“当这些系统愈加强大之后,它们的缺点也就会暴露得越多。”比如他特别指出Cortana目前缺乏像人一样的短时记忆,即便这会成为团队未来开发 Cortana的重要目标。不过在Harrison看来,人们则完全不必担心此类困扰:“这和星际迷航电影是不一样的,生化人Data期望能够更加像人, 结果却事与愿违。而在Cortana看来如果她能在人类和AI之间做个选择的话,她会选AI,而且她很乐于接受这一切。”