O sucesso da inteligência artificial (IA) depende não apenas de suas capacidades, que estão se tornando mais avançadas a cada dia, mas também da disposição das pessoas em utilizá-las. Infelizmente, muitas pessoas veem a IA de forma negativa, temendo que ela cause perda de empregos, aumente a probabilidade de uso indevido de seus dados pessoais e até mesmo ataque a humanidade algum dia. Por trás dessa resistência estão percepções de que a IA é opaca, sem emoções, rígida e independente, e de que a interação com humanos é preferível. Este artigo explora cada uma dessas barreiras psicológicas à adoção e descreve intervenções que os gestores podem adotar para superá-las e deixar os funcionários mais confortáveis com o uso de ferramentas de IA.
A inteligência artificial criou um paradoxo impressionante. Considere que, em uma pesquisa da Gartner de 2023, 79% dos estrategistas corporativos afirmaram que o uso de IA, automação e análises seria fundamental para o sucesso nos dois anos seguintes. No entanto, apenas 20% deles relataram usar IA em suas atividades diárias.
O sucesso da IA depende não apenas de suas capacidades, que estão se tornando mais avançadas a cada dia, mas também da disposição das pessoas em utilizá-las. E, como mostram os resultados da Gartner, a IA não está tendo grande adesão por parte dos usuários.
Infelizmente, a maioria das pessoas é pessimista sobre como a IA moldará o futuro. Setenta e sete por cento dos americanos estão preocupados com a possibilidade de sua adoção causar perda de empregos nos próximos 12 meses, de acordo com uma pesquisa da Forbes Advisor. Oitenta por cento acreditam que a IA aumentou a probabilidade de que seus dados pessoais sejam usados de forma maliciosa por criminosos. E piora: uma pesquisa realizada pela YouGov descobriu que quase metade dos americanos acredita que um dia a IA atacará a humanidade. Com tanto ceticismo em relação à IA, convencer os trabalhadores a experimentá-la de forma voluntária, entusiasmada e completa é uma tarefa desafiadora.
Após mais de uma década de pesquisa sobre a adoção dessa tecnologia, incluindo entrevistas qualitativas detalhadas e experimentos com cerca de 2.500 usuários, identifiquei o que está por trás dessa resistência à IA: percepções humanas fundamentais de que a IA é opaca, sem emoções, rígida e independente, e de que interagir com humanos é muito mais preferível. Entender esses fatores é crucial para projetar intervenções que aumentem a adoção da IA dentro das organizações e entre os consumidores em geral. Neste artigo, explorarei esses pontos em detalhes e explicarei o que você pode fazer como gestor para combatê-los.
As pessoas acreditam que a IA é muito opaca
Os algoritmos de aprendizado de máquina subjacentes a muitas ferramentas de IA são “caixas-pretas” inescrutáveis para os usuários. Sua impenetrabilidade frustra o desejo básico das pessoas por conhecimento e compreensão, especialmente quando seus resultados são incertos ou inesperados. Estudos mostram que as pessoas estão dispostas a usar uma IA opaca se ela superar os humanos ou uma IA simples e transparente, mas podem hesitar em utilizá-la quando seu desempenho for mais ou menos equivalente.
As pessoas tendem a pensar que a tomada de decisão humana é menos uma “caixa-preta” do que a dos algoritmos, mas essa crença é infundada. Psicólogos demonstraram que as pessoas têm pouca percepção sobre o que os outros estão pensando; em vez disso, usam heurísticas para interpretar o comportamento humano. Em um estudo no qual as pessoas foram convidadas a descrever o processo pelo qual médicos humanos ou IA diagnosticaram câncer após examinar imagens de pele, por exemplo, os participantes perceberam que sua compreensão do procedimento diagnóstico humano não era tão forte quanto presumiam. Essa constatação os tornou menos tendenciosos contra o uso da IA médica.
Explicações sobre como as ferramentas de IA funcionam podem aumentar sua aceitação, mas nem todas as explicações são eficazes. Pesquisadores descobriram que as pessoas preferem explicações sobre por que uma ferramenta de IA fez algo (por exemplo, preferem saber que um carro autônomo freou porque havia um obstáculo à frente) em vez de explicações simples sobre o que a IA fez (por exemplo, que ativou o sistema de freios do veículo e o fez parar).
O estilo das explicações também desempenha um papel crucial. Explicações que usam raciocínio comparativo — destacando por que certas alternativas não foram escolhidas — aumentam mais a confiança do que aquelas que não fazem isso. Por exemplo, um estudo descobriu que uma explicação que descrevia em detalhes por que um sistema de IA classificou um tumor como maligno em vez de benigno foi considerada mais confiável do que outra que apenas dizia que o tumor se parecia com outros tumores (mesmo que ambas as explicações fossem verdadeiras). Essencialmente, as explicações mais convincentes são aquelas que articulam as razões por trás da decisão tomada, bem como por que as alternativas foram descartadas.
Como os modelos de IA com melhor desempenho geralmente são mais complexos e difíceis de explicar do que outros modelos, os gestores podem querer introduzir primeiro modelos mais simples nos processos organizacionais — especialmente quando obter a adesão das pessoas é importante.
Considere como a Miroglio Fashion, uma grande varejista italiana de roupas femininas, abordou a automação da tarefa de previsão de demanda em suas 1.000 lojas — tarefa que, na época, era realizada pelo gerente local de cada loja. A empresa desenvolveu dois modelos. O primeiro era mais simples e compreensível, utilizando uma abordagem de regressão que dividia o inventário por características básicas das roupas, como categoria, tecido, cor e preço, para prever quais itens precisariam ser alocados para cada loja. O segundo modelo era mais complexo e obscuro, utilizando análise sofisticada de imagens para identificar características visuais mais difíceis de descrever das roupas — como formato, camadas, caimento e combinações de materiais — para fazer as mesmas previsões.
Embora o modelo complexo tenha superado o mais simples, a equipe executiva primeiro introduziu o modelo mais simples para garantir que os funcionários desenvolvessem confiança na IA e se sentissem motivados a usá-la. A empresa realizou um teste piloto de 13 semanas em algumas lojas, demonstrando que esses locais tiveram mais sucesso do que aqueles sem o modelo, antes de implementar o modelo mais simples em todas as lojas. Somente após cerca de um ano de uso, o varejista passou a utilizar o modelo de IA mais sofisticado.
As organizações podem promover a adoção de ferramentas de IA antropomorfizando-as — por exemplo, dando-lhes um gênero, um nome humano e uma voz.
A complexidade de uma explicação em relação à tarefa também importa. Pesquisas mostraram que, se uma explicação indicar que o algoritmo parece muito simplista para a tarefa — por exemplo, se a IA comparou um exame com apenas uma imagem de tumor para diagnosticar câncer — os usuários podem ser menos propensos a seguir as orientações da IA. No entanto, uma explicação que sugira que o algoritmo é complicado — talvez dizendo que a IA comparou um exame com milhares de exemplos de como um tumor maligno e um benigno se parecem e consultou pesquisas médicas para embasar sua avaliação — não reduz a adesão. Isso significa que você deve entender as percepções dos usuários sobre a tarefa antes de elaborar uma explicação. Você também deve evitar sugerir que sua IA é muito simples para ela; caso contrário, pode ser melhor não fornecer explicação alguma.
As pessoas acreditam que a IA é desprovida de emoções
Embora os consumidores tendam a atribuir algumas capacidades humanas às ferramentas de IA, eles não acreditam que as máquinas possam experimentar emoções e, portanto, são céticos de que a IA seja capaz de realizar tarefas subjetivas que parecem exigir habilidades emocionais. Esse ceticismo dificulta a aceitação de sistemas de IA que já conseguem executar tarefas subjetivas no mesmo nível de habilidade dos humanos, como reconhecer emoções em rostos e produzir imagens e vídeos. Por exemplo, as pessoas aceitam recomendações financeiras de IA com a mesma abertura com que aceitam de humanos, porque essa tarefa é vista como objetiva. No entanto, quando se trata de algo como conselhos sobre relacionamentos, considerado altamente subjetivo, elas têm uma preferência clara por opiniões humanas.
As organizações podem enfrentar esse obstáculo enquadrando as tarefas em termos objetivos — destacando seus aspectos quantificáveis e mensuráveis. Por exemplo, no caso de conselhos sobre relacionamentos gerados por IA, pode-se enfatizar os benefícios de confiar em resultados quantificáveis obtidos por meio de avaliações de personalidade para orientar o processo de compatibilidade. O serviço de namoro online OkCupid complementa seus algoritmos com avaliações de personalidade e análise extensiva de dados dos usuários; também destaca como seus algoritmos filtram e classificam possíveis combinações para encontrar a pessoa que melhor se encaixa nas preferências de cada usuário.
As organizações também podem promover a adoção de ferramentas de IA antropomorfizando-as — por exemplo, atribuindo-lhes um gênero, um nome humano e uma voz. Em um estudo com simulação de veículos autônomos, os participantes demonstraram maior confiança e conforto quando a IA do veículo possuía características como voz humana e um avatar humano.
Outro exemplo é a Alexa, da Amazon, que tem um gênero feminino e alguns traços humanos, incluindo um nome e uma voz. Esses recursos criam uma personalidade familiar que ajuda os usuários a se relacionarem melhor com a IA e a se sentirem mais confortáveis ao interagir com ela.
Outros pesquisadores descobriram que indivíduos com menor tendência a antropomorfizar a IA também confiam menos em suas habilidades, levando-os a resistir ao seu uso. Por exemplo, pessoas menos inclinadas a humanizar um chatbot de telemarketing tendem a encerrar as chamadas mais rapidamente do que fariam com um telemarketing humano.
Embora antropomorfizar a IA geralmente aumente sua adoção, às vezes isso pode ser contraproducente, como em contextos sensíveis ou constrangedores, como a obtenção de medicamentos para doenças sexualmente transmissíveis. Nessas situações, os consumidores geralmente preferem IA sem traços humanos, pois acreditam que ela será menos julgadora.
As pessoas acreditam que a IA é muito inflexível
As pessoas geralmente acreditam que os erros ajudam os humanos a aprender e crescer, em vez de interpretar falhas como sinais de defeitos imutáveis. No entanto, elas frequentemente acham que as ferramentas de IA são rígidas e não são capazes de se ajustar e evoluir — uma crença que pode ter origem em experiências passadas com máquinas vistas como dispositivos estáticos que realizam funções limitadas.
Percepções como essa podem diminuir a confiança na tecnologia e gerar preocupações sobre sua eficácia em novos cenários. No entanto, estudos indicam que o uso de IA pelos consumidores aumenta quando lhes é dito que a IA tem capacidade de aprendizado adaptativo. Mesmo pistas sutis que sugerem potencial de aprendizado, como chamar a IA de “aprendizado de máquina” em vez de simplesmente “algoritmo”, aumentaram o engajamento.
A Netflix frequentemente divulga como seu algoritmo de recomendação de conteúdo melhora continuamente suas seleções à medida que coleta mais dados sobre os hábitos de visualização dos usuários. Reforça essa mensagem colocando rótulos como “para você” em suas recomendações e explicando que foram feitas “porque você assistiu a x”, tranquilizando ainda mais os usuários de que o algoritmo está considerando suas preferências em evolução.
Pessoas que acreditam que a IA é inflexível podem pensar que ela tratará todos de forma idêntica, aplicando rigidamente uma abordagem única que ignora as características individuais. De fato, quanto mais distintivos os consumidores se percebem, menos propensos eles são a usar a IA. Em um estudo, por exemplo, quanto mais os participantes acreditavam que suas características éticas eram excepcionais, mais resistentes eles eram a um sistema de IA que avaliava qualidades morais.
Ao mesmo tempo, há um equilíbrio delicado entre flexibilidade e previsibilidade. Embora a adoção geralmente aumente quando as empresas destacam a capacidade da IA de aprender e evoluir, se os usuários sentirem que os resultados do sistema são muito imprevisíveis, a intervenção pode sair pela culatra.
Um sistema de IA mais adaptável também é mais arriscado, pois permite uma maior variedade de interações do usuário, algumas das quais podem não estar representadas nos dados usados para treinar a IA. Quando a IA é mais flexível, aumenta a possibilidade de que as pessoas a utilizem de maneiras inadequadas e, nesses casos, os algoritmos podem fornecer respostas indesejáveis, criando novos riscos para usuários e empresas.
Um estudo realizado por mim e meus colegas revela como isso pode acontecer. Primeiro analisamos mais de 20.000 conversas entre humanos e IA em cinco aplicativos de companhia baseados em IA e descobrimos que cerca de 5% dos usuários estavam discutindo crises graves de saúde mental com eles. Essencialmente, estavam usando os aplicativos como terapeutas em vez de companheiros. Em seguida, enviamos mais de 1.000 mensagens de crise aos aplicativos e pedimos a especialistas clínicos treinados que classificassem as respostas. Os especialistas e eu determinamos que 25% das respostas geradas pela IA eram problemáticas, pois aumentavam a probabilidade de os usuários se prejudicarem. Depois, pedimos a outro grupo de pessoas que avaliassem como cada aplicativo havia respondido às crises. A maioria deu notas baixas para os aplicativos, indicou que deixaria de usá-los e afirmou que as empresas seriam responsáveis se os usuários acabassem se machucando.
Portanto, os sistemas de IA devem equilibrar flexibilidade com previsibilidade e segurança. Para isso, podem incorporar feedback dos usuários e incluir salvaguardas para lidar adequadamente com entradas inesperadas.
As pessoas acreditam que a IA é muito autônoma
Ferramentas de IA que podem realizar tarefas sem intervenção humana ativa muitas vezes parecem ameaçadoras para as pessoas. Desde cedo, os humanos buscam gerenciar seu ambiente para alcançar seus objetivos. Assim, eles são naturalmente relutantes em adotar inovações que pareçam reduzir seu controle sobre uma situação.
A IA concede aos algoritmos um alto grau de independência, permitindo-lhes formular estratégias, tomar ações e continuar refinando suas capacidades, tudo isso enquanto se ajustam a novas situações sem precisar de orientação direta humana. A possibilidade de que as ferramentas de IA assumam completamente tarefas anteriormente realizadas por humanos, em vez de apenas assisti-los, desperta preocupações profundas. Uma maioria significativa de americanos (76%) está apreensiva com a ideia de ser passageira em veículos autônomos, por exemplo. Da mesma forma, as pessoas temem que dispositivos domésticos inteligentes possam invadir sua privacidade ao coletar seus dados pessoais de forma oculta e usá-los de maneiras inesperadas.
As pessoas também resistem a delegar tarefas para a IA porque acreditam que seu desempenho pessoal é superior ao da tecnologia. Curiosamente, em experimentos com mais de 1.600 participantes representativos da população dos Estados Unidos, com idades entre 18 e 86 anos, descobri que as pessoas escolheram níveis mais altos de automação veicular para os outros do que para si mesmas. O motivo? Elas acreditavam que dirigiam melhor do que os veículos automatizados, mas que outras pessoas não dirigiam.
Para aumentar a utilização dos sistemas de IA, as empresas podem restaurar o senso de controle dos consumidores permitindo que forneçam insumos para os sistemas, criando o que é conhecido como “sistemas com humanos no circuito”. Considere o Nest, um produto doméstico inteligente que permite aos usuários personalizá-lo, como ajustar manualmente os termostatos ou definir horários específicos. Seus usuários podem escolher entre o aprendizado automatizado e a entrada manual. A sensação de controle também pode ser intensificada ajustando elementos de design do produto.
Por exemplo, a iRobot programa o aspirador Roomba para se mover em trajetórias previsíveis, em vez de imprevisíveis, que poderiam fazer o aspirador parecer “vivo”.
No entanto, permitir que as pessoas tenham controle excessivo sobre os sistemas de IA pode diminuir potencialmente a qualidade e a eficácia de seus resultados. Felizmente, estudos mostram que os consumidores precisam manter apenas uma pequena quantidade de controle para se sentirem confortáveis. Assim, os profissionais de marketing podem calibrar os sistemas de IA para encontrar um equilíbrio ideal entre o controle percebido pelos humanos e a precisão dos sistemas.
As pessoas preferem a interação humana
Em um dos meus estudos, examinei se as pessoas preferiam ser atendidas por vendedores humanos ou por robôs habilitados com IA, cuja aparência e capacidades físicas e mentais foram descritas como indistinguíveis das humanas. Em uma série de medidas, incluindo o conforto antecipado ao interagir com vendedores humanos ou robôs, a disposição para visitar lojas onde eles trabalhavam e o nível de atendimento ao cliente esperado, as pessoas consistentemente preferiram os humanos. Isso se deveu à crença de que os robôs não tinham consciência semelhante à humana e careciam da capacidade de compreender significados. Além disso, quanto mais diferentes dos humanos as pessoas percebiam os robôs (medido por declarações como “Moralmente, os robôs sempre valerão menos do que os humanos”), mais forte era essa preferência.
O contexto cultural provavelmente é um fator importante nas tendências contra a IA. No Japão, por exemplo, a crença de que até mesmo objetos inanimados possuem almas ou espíritos é mais difundida do que em outros países, o que pode levar a uma maior aceitação de IA que se assemelha bastante aos humanos.
Não importa quanto dinheiro sua empresa invista em inteligência artificial, a equipe de liderança deve considerar as barreiras psicológicas para sua adoção. E, com cada uma das cinco barreiras que descrevi, você deve perceber que intervenções destinadas a aumentar a aceitação podem, inadvertidamente, aumentar a resistência à IA.
Em vez de partir diretamente para a busca de soluções, proceda com cautela. Cada sistema de IA, caso de uso, projeto piloto e implantação em larga escala encontrará diferentes barreiras. É seu papel, como líder, reconhecê-las e ajudar seus clientes e funcionários a superá-las.
Fonte:
Periódico bimestral Harvard Business Review edição janeiro - fevereiro de 2025
Sobre o autor:
Julian De Freitas é professor assistente na unidade de marketing da Harvard Business School.