Hitting the Books: Warum wir die Roboter von morgen wie Werkzeuge behandeln müssen

Lassen Sie sich nicht von den sanften Wähltönen der KIs von morgen und ihren Sirenengesängen der Singularität beeinflussen. Egal wie sehr künstliche Intelligenzen und Androiden Menschen ähneln und sich auch so verhalten, sie werden es nie wirklich sein be Menschen, argumentieren Paul Leonardi, Duca Family-Professor für Technologiemanagement an der University of California Santa Barbara, und Tsedal Neeley, Naylor Fitzhugh-Professor für Betriebswirtschaftslehre an der Harvard Business School, in ihrem neuen Buch Die digitale Denkweise: Was es wirklich braucht, um im Zeitalter von Daten, Algorithmen und KI erfolgreich zu sein – und sollten daher nicht wie Menschen behandelt werden. Das Paar macht im folgenden Auszug geltend, dass dadurch die Interaktion mit fortschrittlicher Technologie behindert und deren weitere Entwicklung behindert werde.

Digital Mindset-Cover

Harvard Business Review Press

Nachdruck mit Genehmigung der Harvard Business Review Press. Auszug aus DIE DIGITALE MINDSET: Was es wirklich braucht, um im Zeitalter von Daten, Algorithmen und KI erfolgreich zu sein von Paul Leonardi und Tsedal Neeley. Copyright 2022 Harvard Business School Publishing Corporation. Alle Rechte vorbehalten.


Behandeln Sie KI wie eine Maschine, auch wenn sie sich wie ein Mensch zu verhalten scheint

Wir sind es gewohnt, auf visuelle Weise mit einem Computer zu interagieren: Schaltflächen, Dropdown-Listen, Schieberegler und andere Funktionen ermöglichen es uns, dem Computer Befehle zu erteilen. Allerdings verlagern Fortschritte in der KI unsere Interaktion mit digitalen Werkzeugen hin zu Interaktionen, die sich natürlicher und menschenähnlicher anfühlen. Eine sogenannte Conversational User Interface (UI) gibt Menschen die Möglichkeit, mit digitalen Werkzeugen durch Schreiben oder Sprechen zu agieren. Das ist viel mehr die Art und Weise, wie wir mit anderen Menschen interagieren, wie Burt Swansons „Gespräch“ mit Amy, der Assistentin. Wenn Sie „Hey Siri“, „Hallo Alexa“ und „OK Google“ sagen, handelt es sich um eine Konversations-Benutzeroberfläche. Das Wachstum von Tools, die durch Conversational UIs gesteuert werden, ist atemberaubend. Jedes Mal, wenn Sie eine 800-Nummer anrufen und aufgefordert werden, Ihren Namen zu buchstabieren, mit „Ja“ zu antworten oder die letzten vier Ziffern Ihrer Sozialversicherungsnummer zu sagen, interagieren Sie mit einer KI, die eine Konversations-Benutzeroberfläche verwendet. Konversations-Bots sind allgegenwärtig geworden, teils weil sie wirtschaftlich sinnvoll sind, teils weil sie uns einen effizienteren und bequemeren Zugriff auf Dienste ermöglichen.

Wenn Sie beispielsweise eine Zugfahrt über Amtrak gebucht haben, haben Sie wahrscheinlich mit einem KI-Chatbot interagiert. Sein Name ist Julie und er beantwortet jährlich mehr als 5 Millionen Fragen von mehr als 30 Millionen Passagieren. Sie können eine Bahnreise mit Julie buchen, indem Sie einfach angeben, wohin und wann Sie reisen. Julie kann Formulare im Planungstool von Amtrak vorab ausfüllen und Sie durch den weiteren Buchungsprozess begleiten. Amtrak hat eine Rendite von 800 Prozent für seine Investition in Julie erzielt. Amtrak spart jedes Jahr mehr als 1 Million US-Dollar an Kundendienstkosten ein, indem Julie für die Beantwortung einfacher, vorhersehbarer Fragen eingesetzt wird. Die Buchungen sind um 25 Prozent gestiegen, und über Julie getätigte Buchungen generieren 30 Prozent mehr Umsatz als Buchungen über die Website, weil Julie gut darin ist, Kunden zu verkaufen!

Ein Grund für den Erfolg von Julie ist, dass Amtrak den Benutzern klar macht, dass Julie eine KI-Agentin ist, und ihnen erklärt, warum sie sich für den Einsatz von KI entschieden haben, anstatt Sie direkt mit einem Menschen zu verbinden. Das heißt, der Mensch orientiert sich daran als Maschine und nicht fälschlicherweise als Mensch. Sie erwarten nicht zu viel davon und neigen dazu, Fragen auf eine Weise zu stellen, die hilfreiche Antworten hervorruft. Die Entscheidung von Amtrak mag kontraintuitiv klingen, da viele Unternehmen versuchen, ihre Chatbots als echte Menschen auszugeben, und es den Anschein hat, dass die Interaktion mit einer Maschine, als wäre sie ein Mensch, genau das Mittel sein sollte, um die besten Ergebnisse zu erzielen. Eine digitale Denkweise erfordert a shift in der Art und Weise, wie wir über unsere Beziehung zu Maschinen denken. Auch wenn sie menschlicher werden, müssen wir sie als Maschinen betrachten, die explizite Anweisungen benötigen und sich auf eng begrenzte Aufgaben konzentrieren.

x.ai, das Unternehmen, das den Meetingplaner Amy entwickelt hat, ermöglicht es Ihnen, ein Meeting bei der Arbeit zu planen oder einen Freund zum Basketballspiel Ihrer Kinder einzuladen, indem Sie Amy (oder ihrem Gegenüber Andrew) einfach eine E-Mail mit Ihrer Anfrage senden, als wären sie ein Live-persönlicher Assistent. Doch Dennis Mortensen, CEO des Unternehmens, stellt fest, dass mehr als 90 Prozent der Anfragen, die der Helpdesk des Unternehmens erhält, damit zusammenhängen, dass Menschen versuchen, mit den Bots natürliche Sprache zu verwenden, und Schwierigkeiten haben, gute Ergebnisse zu erzielen.

Vielleicht war das der Grund, warum es für Professor Swanson so ärgerlich war, ein einfaches Treffen mit einem neuen Bekannten zu vereinbaren, der immer wieder versuchte, umgangssprachliche Ausdrücke und Konventionen aus informellen Gesprächen zu übernehmen. Zusätzlich zu der Art, wie er redete, machte er viele völlig berechtigte Annahmen über seine Interaktion mit Amy. Er ging davon aus, dass Amy seine zeitlichen Einschränkungen verstehen konnte und dass „sie“ in der Lage sein würde, seine Vorlieben aus dem Kontext des Gesprächs zu erkennen. Swanson war informell und locker – das versteht der Bot nicht. Es versteht nicht, dass es nicht effektiv ist, die Besprechungslogistik häufig oder plötzlich zu ändern, wenn Sie um die Zeit einer anderen Person bitten, insbesondere wenn diese Ihnen einen Gefallen tut. Es stellt sich heraus, dass es schwieriger ist, mit einem intelligenten Roboter zu interagieren, als wir denken.

Forscher haben die Idee bestätigt, dass es besser funktioniert, Maschinen wie Maschinen zu behandeln, als zu versuchen, mit ihnen menschlich umzugehen. Stanford-Professor Clifford Nass und Professor Youngme Moon von der Harvard Business School führten eine Reihe von Studien durch, in denen Menschen mit anthropomorphen Computerschnittstellen interagierten. (Anthropomorphismus oder die Zuweisung menschlicher Eigenschaften an unbelebte Objekte ist ein großes Thema in der KI-Forschung.) Sie fanden heraus, dass Einzelpersonen dazu neigen, menschliche soziale Kategorien übermäßig zu verwenden, Geschlechterstereotypen auf Computer anzuwenden und sich ethnisch mit Computeragenten zu identifizieren. Ihre Ergebnisse zeigten auch, dass Menschen übererlernte soziale Verhaltensweisen wie Höflichkeit und Gegenseitigkeit gegenüber Computern an den Tag legen. Wichtig ist, dass Menschen dazu neigen, sich auf diese Verhaltensweisen einzulassen – Roboter und andere intelligente Agenten so zu behandeln, als wären sie Menschen –, selbst wenn sie wissen, dass sie mit Computern und nicht mit Menschen interagieren. Es scheint, dass sich unser kollektiver Impuls, mit Menschen in Beziehung zu treten, oft in unsere Interaktion mit Maschinen einschleicht.

Dieses Problem, Computer mit Menschen zu verwechseln, verschärft sich, wenn mit künstlichen Agenten über Konversations-UIs interagiert wird. Nehmen wir zum Beispiel eine Studie, die wir mit zwei Unternehmen durchgeführt haben, die KI-Assistenten einsetzten, die Antworten auf routinemäßige Geschäftsfragen lieferten. Einer verwendete eine anthropomorphisierte KI, die menschenähnlich war. Der andere war es nicht.

Mitarbeiter des Unternehmens, die den anthropomorphen Agenten verwendeten, wurden regelmäßig wütend auf den Agenten, wenn dieser keine nützlichen Antworten gab. Sie sagten routinemäßig Dinge wie: „Er ist scheiße!“ oder „Ich würde erwarten, dass er es besser macht“, wenn es um die von der Maschine gelieferten Ergebnisse geht. Am wichtigsten ist, dass ihre Strategien zur Verbesserung der Beziehungen zur Maschine die Strategien widerspiegelten, die sie auch gegenüber anderen Personen im Büro anwenden würden. Sie würden ihre Frage höflicher stellen, sie mit anderen Worten umformulieren oder sie würden versuchen, ihre Fragen strategisch so zu stellen, dass sie dachten, der Agent sei, um es mit den Worten einer Person auszudrücken, „nicht so beschäftigt“. Keine dieser Strategien war besonders erfolgreich.

Im Gegensatz dazu gaben die Mitarbeiter des anderen Unternehmens an, dass sie mit ihrer Erfahrung viel zufriedener waren. Sie tippten Suchbegriffe ein, als wäre es ein Computer, und buchstabierten die Dinge sehr detailliert, um sicherzustellen, dass eine KI, die nicht „zwischen den Zeilen lesen“ und Nuancen erkennen konnte, ihre Vorlieben beachtet. Die zweite Gruppe bemerkte regelmäßig, wie überrascht sie war, wenn ihre Anfragen mit nützlichen oder sogar überraschenden Informationen beantwortet wurden, und sie ordnete alle aufgetretenen Probleme typischen Fehlern in einem Computer zu.

Für die absehbare Zukunft sind die Daten eindeutig: Der Umgang mit Technologien – egal wie menschlich oder intelligent sie erscheinen – wie Technologien ist der Schlüssel zum Erfolg bei der Interaktion mit Maschinen. Ein großer Teil des Problems besteht darin, dass sie die Erwartungen an die Benutzer wecken, dass sie auf menschenähnliche Weise reagieren, und dass sie uns davon ausgehen lassen, dass sie auf unsere Absichten schließen können, obwohl sie beides nicht können. Die erfolgreiche Interaktion mit einer Konversations-Benutzeroberfläche erfordert eine digitale Denkweise, die versteht, dass wir von einer effektiven, menschenähnlichen Interaktion mit der Technologie noch weit entfernt sind. Wenn Sie wissen, dass ein KI-Agent Ihre Absichten nicht genau erkennen kann, ist es wichtig, jeden Schritt des Prozesses genau zu formulieren und klar zu machen, was Sie erreichen möchten.

Alle von Engadget empfohlenen Produkte werden von unserer Redaktion unabhängig von unserer Muttergesellschaft ausgewählt. Einige unserer Geschichten enthalten Affiliate-Links. Wenn Sie etwas über einen dieser Links kaufen, verdienen wir möglicherweise eine Partnerprovision.

Quelle