Acertando os Livros: Por que precisamos tratar os robôs de amanhã como ferramentas

Não se deixe influenciar pelos suaves tons de discagem das IAs de amanhã e por seus cantos de sereia da singularidade. Não importa o quão próximo as inteligências artificiais e os andróides possam parecer e agir como humanos, eles nunca realmente be humanos, argumentam Paul Leonardi, Professor de Gestão de Tecnologia da Família Duca na Universidade da Califórnia em Santa Bárbara, e Tsedal Neeley, Naylor Fitzhugh Professor de Administração de Empresas na Harvard Business School, em seu novo livro A mentalidade digital: o que é realmente necessário para prosperar na era dos dados, algoritmos e IA – e, portanto, não devem ser tratados como humanos. A dupla afirma no trecho abaixo que, ao fazê-lo, isso dificulta a interação com a tecnologia avançada e dificulta o seu desenvolvimento.

Capa da mentalidade digital

Imprensa da Harvard Business Review

Reimpresso com permissão da Harvard Business Review Press. Extraído de A mentalidade digital: o que é realmente necessário para prosperar na era dos dados, algoritmos e IA por Paul Leonardi e Tsedal Neeley. Direitos autorais 2022 Harvard Business School Publishing Corporation. Todos os direitos reservados.


Trate a IA como uma máquina, mesmo que ela pareça agir como um ser humano

Estamos acostumados a interagir com um computador de forma visual: botões, listas suspensas, controles deslizantes e outros recursos nos permitem dar comandos ao computador. No entanto, os avanços na IA estão a mover a nossa interação com ferramentas digitais para interações mais naturais e semelhantes às humanas. O que é chamado de interface de usuário (IU) conversacional dá às pessoas a capacidade de agir com ferramentas digitais por meio da escrita ou da fala, que é muito mais a maneira como interagimos com outras pessoas, como a “conversa” de Burt Swanson com Amy, a assistente. Quando você diz “Ei, Siri”, “Olá Alexa” e “OK Google”, essa é uma interface de usuário conversacional. O crescimento de ferramentas controladas por UIs conversacionais é impressionante. Cada vez que você liga para um número 800 e é solicitado a soletrar seu nome, responder “Sim” ou dizer os últimos quatro números do seu número de seguro social, você está interagindo com uma IA que usa interface de conversação. Os bots de conversação tornaram-se onipresentes, em parte porque fazem sentido para os negócios e, em parte, porque nos permitem acessar serviços de maneira mais eficiente e conveniente.

Por exemplo, se você reservou uma viagem de trem pela Amtrak, provavelmente interagiu com um chatbot de IA. Seu nome é Julie e responde anualmente a mais de 5 milhões de perguntas de mais de 30 milhões de passageiros. Você pode reservar uma viagem de trem com Julie apenas dizendo para onde vai e quando. Julie pode preencher previamente os formulários na ferramenta de agendamento da Amtrak e fornecer orientação durante o restante do processo de reserva. A Amtrak obteve um retorno de 800% sobre seu investimento em Julie. A Amtrak economiza mais de US$ 1 milhão em despesas de atendimento ao cliente a cada ano usando Julie para responder a perguntas previsíveis e de baixo nível. As reservas aumentaram 25% e as reservas feitas através do Julie geram 30% mais receita do que as reservas feitas através do site, porque Julie é boa em vender mais clientes!

Uma razão para o sucesso de Julie é que a Amtrak deixa claro aos usuários que Julie é uma agente de IA, e eles contam por que decidiram usar IA em vez de conectá-lo diretamente a um humano. Isso significa que as pessoas se orientam para ele como uma máquina, e não erroneamente como um ser humano. Eles não esperam muito disso e tendem a fazer perguntas de maneira que obtenham respostas úteis. A decisão da Amtrak pode parecer contra-intuitiva, uma vez que muitas empresas tentam fazer com que os seus chatbots sejam pessoas reais e parece que interagir com uma máquina como se fosse um ser humano deveria ser precisamente a forma de obter os melhores resultados. Uma mentalidade digital requer uma shift na forma como pensamos sobre nosso relacionamento com as máquinas. Mesmo à medida que se tornam mais humanos, precisamos de pensar neles como máquinas – exigindo instruções explícitas e focadas em tarefas limitadas.

x.ai, a empresa que criou a agendadora de reuniões Amy, permite que você agende uma reunião no trabalho ou convide um amigo para o jogo de basquete de seus filhos simplesmente enviando um e-mail para Amy (ou seu colega, Andrew) com sua solicitação, como se eles fossem um assistente pessoal ao vivo. No entanto, Dennis Mortensen, CEO da empresa, observa que mais de 90 por cento das consultas que o suporte técnico da empresa recebe estão relacionadas com o facto de as pessoas estarem a tentar usar linguagem natural com os bots e a lutar para obter bons resultados.

Talvez seja por isso que agendar um simples encontro com um novo conhecido tenha se tornado tão irritante para o professor Swanson, que tentava usar coloquialismos e convenções em conversas informais. Além do modo como falava, ele fez muitas suposições perfeitamente válidas sobre sua interação com Amy. Ele presumiu que Amy poderia entender suas restrições de agendamento e que “ela” seria capaz de discernir quais eram suas preferências a partir do contexto da conversa. Swanson era informal e casual – o bot não entende isso. Ele não entende que ao pedir o tempo de outra pessoa, especialmente se ela estiver lhe fazendo um favor, não é eficaz mudar frequentemente ou repentinamente a logística da reunião. Acontece que é mais difícil do que pensamos interagir casualmente com um robô inteligente.

Os pesquisadores validaram a ideia de que tratar máquinas como máquinas funciona melhor do que tentar ser humano com elas. O professor de Stanford, Clifford Nass, e o professor da Harvard Business School, Youngme Moon, conduziram uma série de estudos em que pessoas interagiam com interfaces antropomórficas de computador. (O antropomorfismo, ou a atribuição de atributos humanos a objectos inanimados, é uma questão importante na investigação da IA.) Eles descobriram que os indivíduos tendem a abusar das categorias sociais humanas, aplicando estereótipos de género aos computadores e identificando-se etnicamente com os agentes informáticos. Suas descobertas também mostraram que as pessoas apresentam comportamentos sociais excessivamente aprendidos, como polidez e reciprocidade em relação aos computadores. É importante ressaltar que as pessoas tendem a adotar esses comportamentos — tratando robôs e outros agentes inteligentes como se fossem pessoas — mesmo quando sabem que estão interagindo com computadores, e não com humanos. Parece que o nosso impulso colectivo de nos relacionarmos com as pessoas muitas vezes se insinua na nossa interacção com as máquinas.

Este problema de confundir computadores com humanos é agravado ao interagir com agentes artificiais por meio de UIs conversacionais. Vejamos, por exemplo, um estudo que conduzimos com duas empresas que usaram assistentes de IA que forneceram respostas a consultas comerciais rotineiras. Um deles usou uma IA antropomorfizada semelhante à humana. O outro não foi.

Os trabalhadores da empresa que usavam o agente antropomórfico ficavam irritados com o agente quando este não retornava respostas úteis. Eles costumavam dizer coisas como: “Ele é uma merda!” ou “Eu esperaria que ele se saísse melhor” quando se refere aos resultados fornecidos pela máquina. Mais importante ainda, suas estratégias para melhorar as relações com a máquina refletiam estratégias que usariam com outras pessoas no escritório. Eles fariam suas perguntas de maneira mais educada, reformulariam a frase em palavras diferentes ou tentariam cronometrar estrategicamente suas perguntas para quando achassem que o agente estaria, nos termos de uma pessoa, “não tão ocupado”. Nenhuma dessas estratégias foi particularmente bem-sucedida.

Em contraste, os trabalhadores da outra empresa relataram uma satisfação muito maior com a sua experiência. Eles digitaram os termos de pesquisa como se fossem um computador e explicaram as coisas detalhadamente para garantir que uma IA, que não conseguia “ler nas entrelinhas” e captar as nuances, atenderia às suas preferências. O segundo grupo comentava rotineiramente como ficavam surpresos quando suas consultas eram retornadas com informações úteis ou mesmo surpreendentes e atribuíam quaisquer problemas que surgissem a bugs típicos de um computador.

Para o futuro próximo, os dados são claros: tratar as tecnologias — por mais humanas ou inteligentes que pareçam — como tecnologias é a chave para o sucesso na interação com máquinas. Uma grande parte do problema é que eles estabelecem expectativas para os usuários de que responderão de maneira humana, e nos fazem presumir que podem inferir nossas intenções, quando não podem fazer nenhuma das duas. Interagir com sucesso com uma UI conversacional requer uma mentalidade digital que entenda que ainda estamos a alguns passos de uma interação humana eficaz com a tecnologia. Reconhecer que um agente de IA não pode inferir com precisão as suas intenções significa que é importante explicar cada etapa do processo e ser claro sobre o que você deseja realizar.

Todos os produtos recomendados pela Engadget são selecionados por nossa equipe editorial, independente da empresa controladora. Algumas de nossas histórias incluem links de afiliados. Se você comprar algo através de um desses links, podemos ganhar uma comissão de afiliado.

fonte