Hitting the Books: por qué debemos tratar a los robots del mañana como herramientas

No se deje llevar por los dulces tonos de marcación de las IA del mañana y sus cantos de sirena de la singularidad. No importa lo cerca que las inteligencias artificiales y los androides lleguen a verse y actuar como humanos, en realidad nunca be humanos, argumentan Paul Leonardi, profesor de gestión tecnológica de la familia Duca en la Universidad de California Santa Bárbara, y Tsedal Neeley, profesor Naylor Fitzhugh de administración de empresas en la Escuela de Negocios de Harvard, en su nuevo libro La mentalidad digital: lo que realmente se necesita para prosperar en la era de los datos, los algoritmos y la IA — y por lo tanto no deben ser tratados como humanos. La pareja sostiene en el extracto a continuación que, al hacerlo, dificulta la interacción con la tecnología avanzada y obstaculiza su desarrollo posterior.

portada mentalidad digital

Prensa de Harvard Business Review

Reimpreso con permiso de Harvard Business Review Press. Extraído de LA MENTALIDAD DIGITAL: lo que realmente se necesita para prosperar en la era de los datos, los algoritmos y la IA de Paul Leonardi y Tsedal Neeley. Copyright 2022 Harvard Business School Publishing Corporation. Reservados todos los derechos.


Trate a la IA como una máquina, incluso si parece actuar como un ser humano

Estamos acostumbrados a interactuar con una computadora de manera visual: los botones, las listas desplegables, los controles deslizantes y otras funciones nos permiten dar órdenes a la computadora. Sin embargo, los avances en IA están moviendo nuestra interacción con herramientas digitales a interacciones más naturales y similares a las humanas. Lo que se llama una interfaz de usuario (IU) conversacional brinda a las personas la capacidad de actuar con herramientas digitales escribiendo o hablando, es mucho más la forma en que interactuamos con otras personas, como la "conversación" de Burt Swanson con Amy, la asistente. Cuando dices "Hola Siri", "Hola Alexa" y "OK Google", es una interfaz de usuario conversacional. El crecimiento de herramientas controladas por interfaces de usuario conversacionales es asombroso. Cada vez que llama a un número 800 y se le pide que deletree su nombre, responda "Sí" o diga los últimos cuatro números de su número de seguro social, está interactuando con una IA que usa una interfaz de usuario conversacional. Los bots conversacionales se han vuelto omnipresentes en parte porque tienen sentido comercial y en parte porque nos permiten acceder a los servicios de manera más eficiente y conveniente.

Por ejemplo, si reservó un viaje en tren a través de Amtrak, probablemente haya interactuado con un chatbot de IA. Su nombre es Julie y responde anualmente a más de 5 millones de preguntas de más de 30 millones de pasajeros. Puede reservar un viaje en tren con Julie simplemente diciendo adónde va y cuándo. Julie puede completar formularios en la herramienta de programación de Amtrak y brindar orientación durante el resto del proceso de reserva. Amtrak ha visto un retorno del 800 por ciento de su inversión en Julie. Amtrak ahorra más de $1 millón en gastos de servicio al cliente cada año al utilizar a Julie para responder preguntas predecibles y de bajo nivel. Las reservas han aumentado en un 25 por ciento, y las reservas realizadas a través de Julie generan un 30 por ciento más de ingresos que las reservas realizadas a través del sitio web, ¡porque Julie es buena vendiendo más a los clientes!

Una de las razones del éxito de Julie es que Amtrak deja en claro a los usuarios que Julie es un agente de IA, y te dicen por qué han decidido usar IA en lugar de conectarte directamente con un ser humano. Eso significa que las personas lo ven como una máquina, no erróneamente como un ser humano. No esperan demasiado de él y tienden a hacer preguntas de manera que obtengan respuestas útiles. La decisión de Amtrak puede sonar contraria a la intuición, ya que muchas empresas intentan hacer pasar sus chatbots por personas reales y parecería que interactuar con una máquina como si fuera un ser humano debería ser precisamente la forma de obtener los mejores resultados. Una mentalidad digital requiere una shift en cómo pensamos acerca de nuestra relación con las máquinas. Incluso cuando se vuelven más humanos, debemos pensar en ellos como máquinas, que requieren instrucciones explícitas y se enfocan en tareas limitadas.

x.ai, la empresa que creó a la programadora de reuniones Amy, le permite programar una reunión en el trabajo o invitar a un amigo al partido de baloncesto de sus hijos simplemente enviando un correo electrónico a Amy (o a su contraparte, Andrew) con su solicitud como si fueran un asistente personal en vivo. Sin embargo, Dennis Mortensen, director ejecutivo de la empresa, observa que más del 90 % de las consultas que recibe el servicio de asistencia técnica de la empresa están relacionadas con el hecho de que las personas intentan utilizar el lenguaje natural con los bots y luchan por obtener buenos resultados.

Tal vez por eso programar una simple reunión con un nuevo conocido se volvió tan molesto para el profesor Swanson, quien seguía tratando de usar coloquialismos y convenciones de conversaciones informales. Además de la forma en que habló, hizo muchas suposiciones perfectamente válidas sobre su interacción con Amy. Asumió que Amy podía entender sus limitaciones de programación y que "ella" podría discernir cuáles eran sus preferencias a partir del contexto de la conversación. Swanson era informal y casual, el bot no entiende eso. No entiende que al pedir el tiempo de otra persona, especialmente si te está haciendo un favor, no es efectivo cambiar frecuentemente o de repente la logística de la reunión. Resulta que es más difícil de lo que pensamos interactuar casualmente con un robot inteligente.

Los investigadores han validado la idea de que tratar a las máquinas como máquinas funciona mejor que tratar de ser humanos con ellas. El profesor de Stanford, Clifford Nass, y el profesor de la Escuela de Negocios de Harvard, Youngme Moon, realizaron una serie de estudios en los que las personas interactuaban con interfaces de computadora antropomórficas. (El antropomorfismo, o la asignación de atributos humanos a objetos inanimados, es un tema importante en la investigación de IA). Descubrieron que las personas tienden a abusar de las categorías sociales humanas, aplicando estereotipos de género a las computadoras e identificándose étnicamente con los agentes informáticos. Sus hallazgos también mostraron que las personas exhiben comportamientos sociales sobreaprendidos, como la cortesía y la reciprocidad hacia las computadoras. Es importante destacar que las personas tienden a participar en estos comportamientos, tratando a los robots y otros agentes inteligentes como si fueran personas, incluso cuando saben que están interactuando con computadoras y no con humanos. Parece que nuestro impulso colectivo de relacionarnos con las personas a menudo se cuela en nuestra interacción con las máquinas.

Este problema de confundir computadoras con humanos se agrava cuando se interactúa con agentes artificiales a través de interfaces de usuario conversacionales. Tomemos, por ejemplo, un estudio que realizamos con dos empresas que utilizaron asistentes de inteligencia artificial que proporcionaron respuestas a consultas comerciales de rutina. Uno usó una IA antropomorfizada que era similar a la humana. El otro no lo era.

Los trabajadores de la empresa que usaban el agente antropomórfico se enfadaban rutinariamente con el agente cuando este no devolvía respuestas útiles. Rutinariamente decían cosas como "¡Él apesta!" o “Yo esperaría que lo hiciera mejor” al referirse a los resultados que da la máquina. Lo que es más importante, sus estrategias para mejorar las relaciones con la máquina reflejaban las estrategias que usarían con otras personas en la oficina. Hacían su pregunta de forma más cortés, la reformulaban con otras palabras o intentaban programar estratégicamente sus preguntas para cuando pensaran que el agente estaría, en términos de una persona, "no tan ocupado". Ninguna de estas estrategias fue particularmente exitosa.

En contraste, los trabajadores de la otra empresa reportaron una satisfacción mucho mayor con su experiencia. Escribieron los términos de búsqueda como si fuera una computadora y explicaron las cosas con gran detalle para asegurarse de que una IA, que no podía "leer entre líneas" y captar matices, prestaría atención a sus preferencias. El segundo grupo comentó de forma rutinaria lo sorprendidos que estaban cuando sus consultas eran devueltas con información útil o incluso sorprendente y atribuían cualquier problema que surgía a errores típicos de una computadora.

Para el futuro previsible, los datos son claros: tratar las tecnologías, sin importar cuán parecidas a las humanas o inteligentes parezcan, como tecnologías es clave para el éxito al interactuar con las máquinas. Una gran parte del problema es que establecen expectativas para los usuarios de que responderán de manera humana, y nos hacen suponer que pueden inferir nuestras intenciones, cuando no pueden hacerlo. Interactuar con éxito con una interfaz de usuario conversacional requiere una mentalidad digital que comprenda que todavía estamos lejos de una interacción humana efectiva con la tecnología. Reconocer que un agente de IA no puede inferir con precisión sus intenciones significa que es importante explicar detalladamente cada paso del proceso y tener claro lo que desea lograr.

Todos los productos recomendados por Engadget son seleccionados por nuestro equipo editorial, independiente de nuestra empresa matriz. Algunas de nuestras historias incluyen enlaces de afiliados. Si compra algo a través de uno de estos enlaces, podemos ganar una comisión de afiliado.

Fuente