热门书籍:为什么我们需要像对待工具一样对待未来的机器人

不要被未来人工智能的悦耳拨号音及其奇点的海妖之歌所左右。无论人工智能和机器人在外观和行为上多么接近人类,它们永远不会真正像人类一样。 be 加州大学圣塔芭芭拉分校杜卡家族技术管理教授 Paul Leonardi 和哈佛商学院 Naylor Fitzhugh 工商管理教授 Tsedal Neeley 在他们的新书中指出,“人类” 数字思维:在数据、算法和人工智能时代蓬勃发展真正需要什么 - 因此不应该像人类一样对待。两人在下面的摘录中认为,这样做会阻碍与先进技术的互动并阻碍其进一步发展。

数字思维封面

哈佛商业评论出版社

经哈佛商业评论出版社许可转载。 摘自 数字思维:在数据、算法和人工智能时代蓬勃发展真正需要什么 作者:保罗·莱昂纳迪 (Paul Leonardi) 和齐达尔·尼利 (Tsedal Neeley)。版权所有 2022 哈佛商学院出版公司。版权所有。


像机器一样对待人工智能,即使它看起来像人类一样

我们习惯于以视觉方式与计算机交互:按钮、下拉列表、滑块和其他功能允许我们向计算机发出命令。然而,人工智能的进步正在将我们与数字工具的交互转向更自然、更人性化的交互。所谓的对话式用户界面 (UI) 使人们能够通过书写或交谈来使用数字工具,这更像是我们与其他人互动的方式,例如伯特·斯旺森 (Burt Swanson) 与助理艾米的“对话”。当你说“嘿 Siri”、“你好 Alexa”和“OK Google”时,这就是一个对话式 UI。由对话式用户界面控制的工具的增长是惊人的。每次您拨打 800 号码并被要求拼写您的姓名时,请回答“是”,或者说出您的社会安全号码的最后四位数字,您正在与使用对话式 UI 的 AI 进行交互。会话机器人已经变得无处不在,部分原因是它们具有良好的商业意义,部分原因是它们使我们能够更有效、更方便地访问服务。

例如,如果您通过 Amtrak 预订了火车旅行,您可能已经与 AI 聊天机器人进行了交互。它的名字叫 Julie,每年回答超过 5 万乘客提出的超过 30 万个问题。您只需说出您的目的地和时间,即可与 Julie 预订铁路旅行。 Julie 可以在 Amtrak 的调度工具上预先填写表格,并在其余预订过程中提供指导。 Amtrak 在 Julie 的投资获得了 800% 的回报。通过让 Julie 解答低级、可预测的问题,Amtrak 每年节省超过 1 万美元的客户服务费用。预订量增加了 25%,通过 Julie 完成的预订比通过网站进行的预订产生的收入多了 30%,因为 Julie 擅长向客户追加销售!

Julie 成功的原因之一是 Amtrak 向用户明确表示 Julie 是一名人工智能代理,他们会告诉你为什么他们决定使用人工智能而不是直接与人类联系。这意味着人们将其视为机器,而不是错误地将其视为人。他们不会对此抱有太多期望,而且他们倾向于以能得到有用答案的方式提出问题。 Amtrak 的决定可能听起来有悖常理,因为许多公司试图将他们的聊天机器人冒充真人,而像人一样与机器交互似乎应该正是获得最佳结果的方法。数字化思维需要 shift 我们如何思考我们与机器的关系。即使它们变得更加人性化,我们也需要将它们视为机器——需要明确的指令并专注于狭窄的任务。

x.ai 是一家开发会议安排程序 Amy 的公司,您只需通过电子邮件向 Amy(或她的同事 Andrew)发送您的请求,就可以安排工作会议,或邀请朋友参加您孩子的篮球比赛,就像他们是现场私人助理。然而,该公司首席执行官丹尼斯·莫滕森 (Dennis Mortensen) 观察到,该公司服务台收到的 90% 以上的询问都与人们试图使用自然语言与机器人交互但难以获得良好结果有关。

也许这就是为什么安排一次与新熟人的简单会面对斯旺森教授来说如此烦人,他一直试图使用非正式对话中的口语和惯例。除了他说话的方式之外,他还对自己与艾米的互动做出了许多完全有效的假设。他认为艾米可以理解他的日程安排限制,并且“她”能够从对话的上下文中辨别出他的偏好。斯旺森是非正式的、随意的——机器人不明白这一点。它不明白,当要求别人花时间时,尤其是当他们帮你一个忙时,频繁或突然改变会议安排是没有效果的。事实证明,与智能机器人随意互动比我们想象的要困难。

研究人员已经验证了这样的观点:像对待机器一样对待机器比尝试像人类一样对待机器更有效。斯坦福大学教授克利福德·纳斯 (Clifford Nass) 和哈佛商学院教授 Youngme Moon 进行了一系列研究,其中人们与拟人化的计算机界面进行交互。 (拟人化,或者将人类属性赋予无生命的物体,是人工智能研究中的一个主要问题。)他们发现,个人倾向于过度使用人类社会类别,将性别刻板印象应用于计算机,并对计算机代理进行种族认同。他们的研究结果还表明,人们表现出过度学习的社会行为,例如对计算机的礼貌和互惠。重要的是,人们倾向于参与这些行为——将机器人和其他智能代理视为人——即使他们知道自己正在与计算机而不是人类进行交互。似乎我们与人交往的集体冲动常常渗透到我们与机器的互动中。

当通过对话式用户界面与人工智能代理交互时,将计算机误认为人类的问题变得更加复杂。以我们与两家公司进行的一项研究为例,这两家公司使用人工智能助手来为日常业务查询提供答案。其中一个使用了类似人类的拟人化人工智能。另一个则不然。

使用拟人化代理的公司员工通常会因为代理没有返回有用的答案而对代理生气。他们经常说这样的话:“他糟透了!”或在提到机器给出的结果时“我希望他做得更好”。最重要的是,他们改善与机器关系的策略反映了他们与办公室其他人使用的策略。他们会更礼貌地提出问题,他们会用不同的词语重新表述,或者他们会尝试策略性地安排提问时间,用一个人的话来说,就是当他们认为代理“不那么忙”时。这些策略都不是特别成功。

相比之下,另一家公司的员工对他们的经历表示更加满意。他们像在一台计算机上一样输入搜索词,并详细地拼写出内容,以确保无法“读懂字里行间”并辨别细微差别的人工智能能够注意到他们的偏好。第二组经常表示,当他们的查询返回有用甚至令人惊讶的信息时,他们感到多么惊讶,并且他们将出现的任何问题都归咎于计算机的典型错误。

在可预见的未来,数据是明确的:将技术(无论它们看起来多么像人类或智能)视为与机器交互时成功的关键。问题的一个重要部分是他们为用户设定了期望,他们会以类似人类的方式做出反应,他们让我们假设他们可以推断出我们的意图,而实际上他们两者都做不到。与对话式用户界面成功交互需要一种数字思维方式,这种思维方式要了解我们距离与技术进行有效的类人交互还有一段距离。认识到人工智能代理无法准确推断您的意图意味着阐明该过程的每个步骤并明确您想要完成的任务非常重要。

Engadget推荐的所有产品均由我们的编辑团队选择,独立于我们的母公司。 我们的一些故事包括会员链接。 如果您通过这些链接之一购买商品,我们可能会获得会员佣金。

来源