一个国际研究小组,包括柏林马克斯·;普朗克人类发展研究所人类与机器中心主任伊亚德·;拉万(Iyad Rahwan),试图找出如果机器声称是人类,人类与机器之间的合作是否有所不同。他们进行了人类与机器人互动的实验。在《自然机器智能》上发表的研究中,科学家们证明,在某些人机交互中,机器人比人类更成功-但前提是必须允许他们隐藏非人类身份。

  Siri,Alexa或Google的虚假声音,以及它们通常笨拙的响应,毫无疑问地表明我们不是在与真实的人交谈。结合了人工智能和看似逼真的人类声音的最新技术突破,现在使机器人有可能像人类一样冒充自己。这导致了新的道德问题:机器人对人类的模仿是否是欺骗的案例?透明度应该是强制性的吗?

  

  先前的研究表明,人类不愿与智能机器人合作。但是,如果人们甚至没有注意到他们正在与一台机器进行交互,因此两者之间的合作更加成功,那么在某些情况下保持这种欺骗是没有道理的吗?

  在《自然机器智能》上发表的研究中,来自阿拉伯联合酋长国,美国和德国的研究小组与马克斯·;普朗克人类发展研究所人类与机器中心主任伊亚德·;拉万(Iyad Rahwan)进行了互动,在线上邀请了近700名参与者与人类或人工伴侣互动的合作游戏。在被称为囚徒困境的游戏中,玩家可以自私地采取行动剥削另一位玩家,或者在双方有利的情况下进行合作。

  实验的关键在于,研究人员向某些参与者提供了有关其游戏伙伴身份的虚假信息。一些与人互动的参与者被告知他们正在玩机器人,反之亦然。这使研究人员能够研究人类是否对他们选择机器人的游戏伙伴有偏见,并且如果他们承认自己是机器人,这是否会影响机器人的效率。

  研究结果表明,模仿人类的机器人在说服游戏伙伴合作方面更加成功。但是,一旦他们泄露了自己的真实身份,合作率就会下降。将其转换为更现实的情况可能意味着,例如,如果允许机器人伪装成人类,则由漫游器运行的帮助台可能能够更快,更有效地提供帮助。研究人员说,社会将必须就需要透明的人机交互案例与以效率为关键的案例之间的区别进行谈判。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如有侵权行为,请第一时间联系我们修改或删除,多谢。