Colpire i libri: perché dobbiamo trattare i robot di domani come strumenti

Non fatevi influenzare dai toni delicati delle IA di domani e dai loro canti delle sirene della singolarità. Non importa quanto le intelligenze artificiali e gli androidi possano assomigliare e comportarsi come esseri umani, in realtà non lo faranno mai be umani, sostengono Paul Leonardi, Duca Family Professor of Technology Management presso l’Università della California Santa Barbara, e Tsedal Neeley, Naylor Fitzhugh Professor of Business Administration presso la Harvard Business School, nel loro nuovo libro La mentalità digitale: cosa serve davvero per prosperare nell’era dei dati, degli algoritmi e dell’intelligenza artificiale – e quindi non dovrebbero essere trattati come esseri umani. La coppia sostiene nell'estratto seguente che, così facendo, ciò ostacola l'interazione con la tecnologia avanzata e ne ostacola l'ulteriore sviluppo.

Copertina di Mentalità digitale

Pressa dell'esame di affari di Harvard

Ristampato con il permesso di Harvard Business Review Press. Estratto da LA MENTALITÀ DIGITALE: cosa serve veramente per prosperare nell’era dei dati, degli algoritmi e dell’intelligenza artificiale di Paul Leonardi e Tsedal Neeley. Copyright 2022 Harvard Business School Publishing Corporation. Tutti i diritti riservati.


Tratta l’intelligenza artificiale come una macchina, anche se sembra comportarsi come un essere umano

Siamo abituati a interagire con un computer in modo visivo: pulsanti, elenchi a discesa, cursori e altre funzionalità ci permettono di impartire comandi al computer. Tuttavia, i progressi nell’intelligenza artificiale stanno spostando la nostra interazione con gli strumenti digitali verso interazioni più naturali e simili a quelle umane. Quella che viene chiamata interfaccia utente conversazionale (UI) offre alle persone la capacità di agire con strumenti digitali scrivendo o parlando, molto più simile al modo in cui interagiamo con altre persone, come la "conversazione" di Burt Swanson con Amy l'assistente. Quando dici "Ehi Siri", "Ciao Alexa" e "OK Google", si tratta di un'interfaccia utente conversazionale. La crescita degli strumenti controllati dalle interfacce utente conversazionali è sconcertante. Ogni volta che chiami un numero 800 e ti viene chiesto di scrivere il tuo nome, rispondi "Sì" o pronuncia gli ultimi quattro numeri del tuo numero di previdenza sociale, stai interagendo con un'intelligenza artificiale che utilizza l'interfaccia utente conversazionale. I bot conversazionali sono diventati onnipresenti in parte perché hanno un buon senso dal punto di vista commerciale e in parte perché ci consentono di accedere ai servizi in modo più efficiente e conveniente.

Ad esempio, se hai prenotato un viaggio in treno tramite Amtrak, probabilmente hai interagito con un chatbot AI. Si chiama Julie e risponde ogni anno a più di 5 milioni di domande poste da più di 30 milioni di passeggeri. Puoi prenotare un viaggio in treno con Julie semplicemente dicendo dove vai e quando. Julie può precompilare i moduli sullo strumento di pianificazione di Amtrak e fornire indicazioni durante il resto del processo di prenotazione. Amtrak ha registrato un ritorno dell'800% sul proprio investimento in Julie. Amtrak risparmia ogni anno più di 1 milione di dollari in spese per il servizio clienti utilizzando Julie per rispondere a domande prevedibili e di basso livello. Le prenotazioni sono aumentate del 25% e le prenotazioni effettuate tramite Julie generano il 30% in più di entrate rispetto alle prenotazioni effettuate tramite il sito Web, perché Julie è brava a vendere ai clienti!

Uno dei motivi del successo di Julie è che Amtrak chiarisce agli utenti che Julie è un agente dell'intelligenza artificiale e ti spiegano perché hanno deciso di utilizzare l'intelligenza artificiale anziché connetterti direttamente con un essere umano. Ciò significa che le persone lo considerano una macchina e non erroneamente un essere umano. Non si aspettano troppo da esso e tendono a porre domande in modo da ottenere risposte utili. La decisione di Amtrak può sembrare controintuitiva, dal momento che molte aziende cercano di far passare i propri chatbot per persone reali e sembrerebbe che interagire con una macchina come se fosse un essere umano dovrebbe essere proprio il modo per ottenere i migliori risultati. Una mentalità digitale richiede a shift nel modo in cui pensiamo al nostro rapporto con le macchine. Anche se diventano più umani, dobbiamo pensarli come macchine, che richiedono istruzioni esplicite e si concentrano su compiti ristretti.

x.ai, l'azienda che ha creato la pianificatrice di riunioni Amy, ti consente di pianificare una riunione di lavoro o invitare un amico alla partita di basket dei tuoi figli semplicemente inviando un'e-mail ad Amy (o alla sua controparte, Andrew) con la tua richiesta come se fossero un assistente personale dal vivo. Eppure Dennis Mortensen, CEO dell'azienda, osserva che oltre il 90% delle richieste che riceve l'help desk dell'azienda sono legate al fatto che le persone cercano di utilizzare il linguaggio naturale con i bot e faticano a ottenere buoni risultati.

Forse è per questo che programmare un semplice incontro con una nuova conoscenza divenne così fastidioso per il professor Swanson, che continuava a cercare di usare espressioni colloquiali e convenzioni da conversazioni informali. Oltre al modo in cui parlava, faceva molte ipotesi perfettamente valide sulla sua interazione con Amy. Dava per scontato che Amy potesse comprendere i suoi vincoli di programmazione e che "lei" sarebbe stata in grado di discernere quali fossero le sue preferenze dal contesto della conversazione. Swanson era informale e disinvolto: il bot non lo capisce. Non capisce che quando si chiede il tempo di un'altra persona, soprattutto se ti sta facendo un favore, non è efficace cambiare frequentemente o improvvisamente la logistica della riunione. Si scopre che è più difficile di quanto pensiamo interagire casualmente con un robot intelligente.

I ricercatori hanno convalidato l’idea che trattare le macchine come macchine funziona meglio che cercare di essere umani con loro. Il professore di Stanford Clifford Nass e il professore della Harvard Business School Youngme Moon hanno condotto una serie di studi in cui le persone hanno interagito con interfacce di computer antropomorfe. (L’antropomorfismo, o l’assegnazione di attributi umani a oggetti inanimati, è un problema importante nella ricerca sull’intelligenza artificiale.) Hanno scoperto che gli individui tendono a abusare delle categorie sociali umane, applicando stereotipi di genere ai computer e identificandosi etnicamente con gli agenti informatici. I loro risultati hanno anche mostrato che le persone mostrano comportamenti sociali troppo appresi, come la gentilezza e la reciprocità nei confronti dei computer. È importante sottolineare che le persone tendono ad assumere questi comportamenti – trattando robot e altri agenti intelligenti come se fossero persone – anche quando sanno che stanno interagendo con i computer, piuttosto che con gli esseri umani. Sembra che il nostro impulso collettivo a relazionarci con le persone spesso si insinui nella nostra interazione con le macchine.

Il problema di confondere i computer con gli esseri umani si aggrava quando si interagisce con agenti artificiali tramite interfacce utente conversazionali. Prendiamo ad esempio uno studio che abbiamo condotto con due aziende che utilizzavano assistenti IA che fornivano risposte a domande aziendali di routine. Uno utilizzava un'intelligenza artificiale antropomorfizzata simile a quella umana. L'altro no.

I lavoratori dell'azienda che utilizzavano l'agente antropomorfo si arrabbiavano regolarmente con l'agente quando l'agente non forniva risposte utili. Dicevano abitualmente cose del tipo: "Fa schifo!" oppure “mi aspetterei che facesse meglio” riferendosi ai risultati forniti dalla macchina. Ancora più importante, le loro strategie per migliorare le relazioni con la macchina rispecchiavano le strategie che avrebbero utilizzato con altre persone in ufficio. Ponevano la domanda in modo più educato, la riformulavano con parole diverse o cercavano di programmare strategicamente le loro domande per quando pensavano che l'agente sarebbe stato, per dirla con una persona, "non così occupato". Nessuna di queste strategie ha avuto particolare successo.

Al contrario, i lavoratori dell’altra azienda hanno riferito una soddisfazione molto maggiore per la loro esperienza. Hanno digitato i termini di ricerca come se fossero un computer e hanno spiegato le cose in modo molto dettagliato per assicurarsi che un’intelligenza artificiale, che non poteva “leggere tra le righe” e cogliere le sfumature, prestasse attenzione alle loro preferenze. Il secondo gruppo sottolineava abitualmente la propria sorpresa quando le loro domande venivano restituite con informazioni utili o addirittura sorprendenti e attribuivano eventuali problemi sorti a tipici bug di un computer.

Per il prossimo futuro, i dati sono chiari: trattare le tecnologie – non importa quanto sembrino umane o intelligenti – come tecnologie è la chiave del successo quando si interagisce con le macchine. Gran parte del problema è che stabiliscono le aspettative per gli utenti che risponderanno in modi simili a quelli umani e ci fanno presumere che possano dedurre le nostre intenzioni, quando non possono fare nessuna delle due cose. Interagire con successo con un'interfaccia utente conversazionale richiede una mentalità digitale che comprenda che siamo ancora lontani da un'efficace interazione simile a quella umana con la tecnologia. Riconoscere che un agente AI non può dedurre con precisione le tue intenzioni significa che è importante precisare ogni fase del processo ed essere chiari su ciò che desideri ottenere.

Tutti i prodotti consigliati da Engadget sono selezionati dal nostro team editoriale, indipendentemente dalla nostra società madre. Alcune delle nostre storie includono link di affiliazione. Se acquisti qualcosa tramite uno di questi link, potremmo guadagnare una commissione di affiliazione.

Fonte