Hoje, a inteligência artificial pode ser utilizada por praticamente qualquer pessoa, com comandos em linguagem comum, em vez de código. Em breve, ela transformará mais de 40% de todas as atividades de trabalho, segundo a pesquisa publicada por esses dois autores. Nesta nova era de colaboração entre humanos e máquinas, a capacidade de usar a IA de forma eficaz será crucial para o sucesso profissional. Confira o artigo completo já traduzido pelo ChatGPT, que foi originalmente publicado em setembro de 2024 no renomado periódico Harvard Business Review

Este artigo descreve os três tipos de “habilidades de fusão” que você precisa para obter os melhores resultados da IA generativa. A interrogação inteligente (intelligent interrogation) envolve instruir grandes modelos de linguagem para atuar de maneiras que gerem melhores resultados — por exemplo, dividindo processos em etapas ou visualizando vários caminhos possíveis para uma solução. 

A integração de julgamento (judgment integration) trata de incorporar discernimento humano especializado e ético para tornar a produção da IA mais confiável, precisa e segura. Isso envolve aumentar as fontes de treinamento do modelo com bases de conhecimento autorizadas quando necessário, mantendo os vieses fora dos prompts, garantindo a privacidade de quaisquer dados usados e examinando saídas suspeitas. Com o aprendizado recíproco (reciprocal apprenticing), você adapta a IA generativa ao contexto específico de negócios da sua empresa, incluindo dados organizacionais ricos e conhecimento nos comandos dados a ela. À medida que você se torna melhor em fazer isso, você mesmo aprende a treinar a IA para lidar com desafios mais sofisticados.

A revolução da IA já está aqui. Aprender essas três habilidades o preparará para prosperar nela.

A IA generativa deve transformar radicalmente todos os tipos de empregos nos próximos anos. Não sendo mais exclusiva dos tecnólogos, agora a IA pode ser utilizada por quase qualquer pessoa, usando comandos em linguagem comum, em vez de código. De acordo com nossa pesquisa, a maioria das funções de negócios e mais de 40% de todas as atividades de trabalho nos EUA podem ser aumentadas, automatizadas ou reinventadas com a IA generativa. As mudanças deverão ter o maior impacto nos setores jurídico, bancário, de seguros e de mercados de capitais — seguidos pelo varejo, turismo, saúde e energia.

Para organizações e seus funcionários, essa mudança iminente tem implicações enormes. No futuro, muitos de nós descobrirão que nosso sucesso profissional dependerá de nossa capacidade de extrair o melhor possível dos grandes modelos de linguagem (LLMs, do inglês large language models) como o ChatGPT — e de aprender e crescer junto com eles. Para se destacar nesta nova era de colaboração entre humanos e IA, a maioria das pessoas precisará de uma ou mais das chamadas “habilidades de fusão” — interrogação inteligente, integração de julgamento e aprendizado recíproco.

A interrogação inteligente envolve solicitar a LLMs (ou, em termos leigos, dar-lhes instruções) de maneiras que produzam raciocínios e resultados mensuravelmente melhores. Simplificando, é a habilidade de pensar com a IA. Por exemplo

  • um representante de atendimento ao cliente em uma empresa de serviços financeiros pode usá-la ao procurar a resposta para uma consulta complicada de um cliente;
  • um cientista farmacêutico, para investigar compostos de drogas e interações moleculares;
  • ou um profissional de marketing, para minerar bancos de dados em busca de preços ideais para o varejo.

A integração de julgamento trata de trazer seu discernimento humano quando um modelo de IA generativa está incerto sobre o que fazer ou carece do contexto comercial ou ético necessário em seu raciocínio. A ideia é tornar os resultados das interações humano-máquina mais confiáveis. A integração de julgamento requer perceber onde, quando e como intervir, e sua eficácia é medida pela confiabilidade, precisão e explicabilidade da produção da IA.

Com o aprendizado recíproco, você ajuda a IA a aprender sobre suas tarefas e necessidades comerciais, incorporando dados ricos e conhecimento organizacional nos prompts que você lhe dá, treinando-a para ser sua cocriadora. É a habilidade de adaptar a IA generativa ao contexto específico de negócios da sua empresa para que ela possa atingir os resultados que você deseja. Ao fazer isso, você mesmo aprende a treinar a IA para enfrentar desafios mais sofisticados. Antes uma capacidade restrita a cientistas de dados e especialistas em análises, o aprendizado recíproco tornou-se cada vez mais crucial em funções não técnicas.

Por que você precisa desenvolver sistematicamente essas novas habilidades para pensar, construir confiança e adaptar? Pesquisas empíricas mostram consistentemente que instruções ad hoc — a forma como a maioria dos funcionários instrui os LLMs hoje — levam a resultados não confiáveis ou ruins, especialmente para tarefas de raciocínio complexas. Isso é verdade em todas as funções, desde atendimento ao cliente, até marketing, logística e P&D. É fundamental que todos nós levemos mais rigor ao nosso uso da IA generativa no trabalho. Neste artigo, explicaremos como.

Interrogar a IA Inteligentemente

Como você melhora a produção de um sistema massivamente complexo como um LLM, que é treinado em montanhas de dados e guiado por probabilidades, em vez de lógica humana? Existem várias técnicas que você pode usar.

Pense passo a passo.

Ao solicitar à IA generativa, é necessário dividir o processo que ela deve seguir em partes constituintes e, em seguida, se esforçar para otimizar cada etapa — assim como a primeira onda de gestão científica fez na manufatura industrial. No entanto, o processo de IA não envolve uma linha de montagem; envolve uma cadeia de pensamento pela qual se busca um resultado. Estudos mostraram que, quando as ferramentas de IA generativa são instruídas a dividir tarefas de raciocínio dessa maneira, seu desempenho melhora drasticamente. Isso é especialmente verdadeiro para problemas mais difíceis, como demonstrou Jason Wei, o pesquisador da OpenAI que primeiro explorou o raciocínio em cadeia.

Na verdade, adicionar a simples frase "Vamos pensar passo a passo" às instruções de um LLM pode aumentar a precisão de sua produção em mais de três vezes em uma variedade de tarefas, desde matemática até raciocínio estratégico. Digamos que seu prompt para a IA generativa seja o seguinte: "Meu departamento tem um orçamento de $500.000. Gastamos 20% em equipamentos e alocamos 30% para uma nova contratação. Acabamos de receber um aumento de orçamento de $50.000. Qual é o nosso orçamento restante? Vamos pensar passo a passo." O modelo responderá: "Inicialmente, seu departamento tinha $500.000. Você gastou 20%, ou $100.000, em equipamentos, restando $400.000. Você alocou 30%, ou $150.000, para uma nova contratação, o que reduziu o orçamento para $250.000. Finalmente, você recebeu recentemente um aumento de orçamento de $50.000. Seu orçamento restante é de $300.000." Enquanto a maioria das pessoas poderia fazer essa conta de cabeça, o ponto é que os LLMs (que trabalham muito mais rápido) podem ser feitos para detalhar seu trabalho em problemas quantitativos muito mais complexos, como encontrar a rota mais curta possível para um representante de vendas percorrer entre várias cidades. Isso cria uma cadeia de raciocínio rastreável — em vez de fornecer uma resposta ao final de um processo em caixa preta — que permite verificar a precisão dos resultados.

Treine LLMs em etapas.

Para a colaboração entre humanos e máquinas em tarefas complexas que exigem conhecimento ocupacional e de domínio, como direito, medicina, P&D científica ou gestão de inventário, você pode introduzir a IA ao trabalho em estágios para gerar melhores resultados.

Por exemplo, os pesquisadores do MIT Tyler D. Ross e Ashwin Gopinath recentemente exploraram a possibilidade de desenvolver um “cientista de IA” capaz de integrar uma variedade de dados experimentais e gerar hipóteses testáveis. Eles descobriram que o ChatGPT 3.5-Turbo poderia ser ajustado para aprender a biofísica estrutural do DNA quando os pesquisadores dividiram essa tarefa complicada em uma série de subtarefas para o modelo dominar. Em uma área não científica, como a gestão de inventário, os estágios de subtarefas podem incluir previsão de demanda, coleta de dados sobre níveis de estoque, projeções de reabastecimento, avaliação da quantidade de pedidos e avaliação de desempenho. Para cada subtarefa sucessiva, os gerentes treinariam, testariam e validariam o modelo com sua expertise e informações de domínio.

Explore criativamente com LLMs.

Muitos processos de trabalho, desde o design de estratégias até o desenvolvimento de novos produtos, são abertos e iterativos. Para aproveitar ao máximo a interação humano-IA nessas atividades, você precisa guiar as máquinas para visualizar múltiplos caminhos potenciais para uma solução e responder de maneiras menos lineares e binárias.

Esse tipo de interrogação inteligente pode aumentar a capacidade dos LLMs de fazer previsões precisas sobre eventos financeiros e políticos complexos, como os pesquisadores Philipp Schoenegger, Philip Tetlock e colegas mostraram recentemente. Eles combinaram previsores humanos com assistentes GPT-4 que haviam sido preparados com prompts ricamente detalhados para serem "superprevisores" — para atribuir probabilidades e intervalos de incerteza aos possíveis resultados e oferecer argumentos a favor e contra cada um. Os pesquisadores descobriram que as previsões feitas por esses assistentes (sobre tudo, desde o valor de fechamento do Dow Jones Transportation Average em uma determinada data até o número de migrantes entrando na Europa via Mediterrâneo em dezembro de 2023) foram 43% mais precisas do que as previsões geradas por LLMs não preparados.

Incorporando seu julgamento.

Trazer discernimento humano especializado — e ético — para a equação será fundamental para gerar saídas de IA que sejam confiáveis, precisas, explicáveis e que tenham uma influência positiva na sociedade. Aqui estão algumas técnicas que você pode usar:

Integre RAG.

Além de as LLMs poderem gerar alucinações, as informações e os conjuntos de dados nos quais são treinadas muitas vezes são antigos. Ao trabalhar com LLMs, as pessoas frequentemente precisam fazer julgamentos sobre o quão importante será a inclusão de informações confiáveis, relevantes e atualizadas nas saídas da IA. Se forem cruciais, você pode usar a geração aumentada por recuperação (RAG, do inglês Retrieval Augmented Generation) para adicionar informações de bases de conhecimento autorizadas às fontes de treinamento de um LLM comercial.

      • RAG (Retrieval-Augmented Generation) poderia ser traduzido como Geração Aumentada por Recuperação. Essa técnica é utilizada em modelos de linguagem, como os LLMs (Modelos de Linguagem de Grande Escala), para melhorar a qualidade das respostas geradas, incorporando informações de fontes externas e atualizadas.

Isso pode ajudar a evitar desinformação, respostas desatualizadas e imprecisões. Um pesquisador farmacêutico, por exemplo, pode usar RAG para acessar bancos de dados do genoma humano, publicações recentes em revistas científicas, bases de dados de pesquisa pré-clínica e diretrizes da FDA. Para configurar o RAG, as pessoas geralmente precisarão da ajuda de suas equipes de TI, que podem orientá-las sobre se o sistema foi integrado ou pode ser incorporado ao fluxo de trabalho para adicionar uma camada extra de qualidade ao trabalho.

Proteja a privacidade e evite viés.

Se você estiver usando dados confidenciais ou informações proprietárias em seus prompts de IA, apenas modelos aprovados pela empresa e por trás de firewalls corporativos devem ser usados, nunca LLMs de código aberto ou públicos. Se a política corporativa permitir, você poderá usar informações privadas quando os termos de serviço da API de um LLM especificarem que não serão retidas para o treinamento do modelo.

Preste atenção aos vieses que você pode inserir em seus prompts. Por exemplo, um analista financeiro que pede a um LLM para explicar como o relatório trimestral de ontem sinaliza que a empresa está preparada para um ciclo de crescimento de cinco anos está exibindo viés de recência, a tendência de supervalorizar as informações mais recentes ao prever eventos futuros.

Os provedores de LLM estão desenvolvendo maneiras para ajudar os usuários a lidar com esses problemas. A Microsoft e o Google estão adicionando recursos que auxiliam os usuários a verificar se há prompts ou respostas prejudiciais. A Salesforce desenvolveu uma arquitetura de IA que mascara quaisquer dados confidenciais de clientes na construção de prompts; impede que esses dados sejam compartilhados com LLMs de terceiros; avalia os resultados em relação a riscos como toxicidade, viés e privacidade; e coleta feedback para melhorar os templates de prompts. No entanto, no fim das contas, é você — o humano no processo — cuja avaliação será mais importante.

Examine resultados suspeitos.

Esteja sempre atento para alucinações e erros, que, de acordo com pesquisas atuais, são inevitáveis, mesmo com engenharia de dados significativa e outras intervenções. Quando os usuários de LLMs encontram resultados que parecem incorretos, eles muitas vezes pedem ao modelo para tentar de novo repetidamente, o que pode gradualmente diminuir a qualidade da resposta, como mostraram os pesquisadores Jinwoo Ahn e Kyuseung Shin, da Universidade da Califórnia em Berkeley. Os pesquisadores recomendam que, em vez disso, você identifique o passo em que a IA cometeu o erro e utilize um LLM separado para realizar apenas aquela etapa, dividindo-a primeiro em problemas menores e individuais e, em seguida, use o resultado para ajustar o primeiro LLM. Imagine um cientista usando o ChatGPT da OpenAI para ajudar a desenvolver um novo polímero com uma série de cálculos passo a passo. Se ela encontrar um erro em qualquer ponto da cadeia, pode pedir ao Claude, da Anthropic, para dividir aquele passo em subproblemas menores e explicar seu raciocínio. Ela então pode inserir essa informação no ChatGPT e pedir que refine sua resposta. Essencialmente, essa técnica aplica os princípios de "cadeia de pensamento" à correção de resultados que você julga incorretos.

Transformando a IA em seu Aprendiz

À medida que o tamanho e a complexidade dos LLMs aumentam, eles podem exibir "propriedades emergentes" — habilidades poderosas e novas, como raciocínio avançado, que eles não foram treinados para ter, mas que surgem quando você ajusta os LLMs com dados ou conhecimento contextual. Para estimular esse desenvolvimento, você pode tomar as seguintes medidas.

Forneça ao modelo "demonstrações de pensamento."

Antes de dar um problema para um LLM resolver, você pode prepará-lo para pensar de uma determinada maneira. Por exemplo, você pode ensiná-lo a usar o raciocínio "do menos ao mais", mostrando à IA como dividir um desafio complexo em vários desafios menores e mais simples; resolver primeiro o menos difícil; usar a resposta como base para resolver o próximo desafio; e assim por diante. Denny Zhou e colegas do Google DeepMind demonstraram que a abordagem do "menos ao mais" melhora a precisão das respostas da IA de 16% para 99%.

Considere um gerente de marketing de uma marca de roupas esportivas que deseja ajuda para pensar em uma nova linha de produtos. Ele pode dividir o problema para o LLM da seguinte forma:

  • Público. Identificar entusiastas de fitness que seriam potenciais clientes — uma tarefa relativamente fácil, especialmente para um modelo treinado com os dados de clientes da empresa.
  • Mensagens. Elaborar mensagens que enfatizem desempenho, conforto e estilo — um problema mais desafiador e criativo que se baseia na identificação anterior do público.
  • Canais. Escolher redes sociais, blogs de fitness e parcerias com influenciadores que ajudarão a levar essas mensagens ao público.
  • Recursos. Alocar o orçamento (geralmente a questão mais polêmica em qualquer organização) de acordo com a escolha dos canais.

Você pode ensinar IA a realizar uma tarefa conduzindo-a por uma série de exemplos dentro de um contexto em seus prompts. Isso é chamado de "aprendizado em contexto", e permite que você adapte LLMs pré-treinados, como GPT-4, Claude e Llama, sem a necessidade, às vezes trabalhosa, de ajustar seus parâmetros. Por exemplo, pesquisadores relataram na Nature que LLMs foram ensinados a resumir informações médicas ao serem instruídos com exemplos de relatórios de radiologia, perguntas de pacientes, notas de progresso e diálogos entre médicos e pacientes. Posteriormente, descobriram que 81% dos resumos gerados pelos LLMs eram equivalentes ou superiores aos resumos gerados por humanos.

Você também pode treinar um LLM fornecendo-lhe informações contextuais e, em seguida, fazendo perguntas até que ele resolva seu problema. Considere dois exemplos de empresas de software, ambas procurando aumentar suas vendas. Na primeira empresa, a equipe de vendas tem dificuldades em prever a demanda por licenças de software. Então, o líder da equipe começa fornecendo ao LLM dados históricos de vendas e, em seguida, perguntando sobre a demanda esperada para o próximo trimestre. Depois, ele fornece informações sobre as atualizações de funcionalidades de software dos clientes e seus orçamentos anuais e pergunta ao modelo sobre os efeitos da sazonalidade. Finalmente, ele alimenta o LLM com estatísticas detalhadas de sistemas de CRM e relatórios de marketing e pergunta sobre o impacto das campanhas de marketing nas vendas.

Na segunda empresa, a equipe de vendas deseja melhorar a seleção de clientes. O líder pode fornecer dados financeiros específicos e pedir ao LLM que classifique os clientes de acordo com sua contribuição de receita, e depois prosseguir com perguntas sobre alcance geográfico, bases de clientes, expertise técnica e assim por diante. Em cada etapa, ambos os executivos estão treinando o LLM e refinando sua capacidade de realizar a tarefa no contexto da estratégia de vendas específica da empresa. Eles trazem conhecimento organizacional e da indústria para essas interações. À medida que o LLM utilizado por cada empresa acumula mais experiência com o processo de vendas específico, ele gera respostas melhores.

O aprendizado recíproco ocorre à medida que os usuários avançam de perguntas ou instruções simples e gradualmente descrevem a tarefa com mais complexidade e nuances. Eles podem adicionar contexto, ajustar a formulação e observar como o modelo responde, experimentando até alcançar os resultados desejados.

Aquisição de novas habilidades de fusão

A disseminação de habilidades com IA generativa exigirá não apenas um investimento significativo por parte das organizações, mas também iniciativa individual, estudo e esforço. Embora algumas empresas estejam oferecendo treinamentos relevantes, a maioria ainda não desenvolveu programas robustos. De fato, em nossa pesquisa de 2024 com 7.000 profissionais, descobrimos que, enquanto 94% disseram estar prontos para aprender novas habilidades para trabalhar com IA generativa, apenas 5% relataram que seus empregadores estavam treinando ativamente suas equipes em larga escala. Portanto, muitos de vocês precisarão tomar a iniciativa por conta própria e acompanhar os rápidos avanços dos LLMs e da pesquisa de alto nível que está sendo traduzida em práticas para diversos empregos e indústrias. Vocês podem se inscrever em cursos online de provedores como Coursera, Udacity (recentemente adquirida por nossa empresa), Universidade do Texas em Austin, Universidade Estadual do Arizona e Universidade Vanderbilt; experimentar as técnicas de prompting que discutimos, bem como as que estão surgindo; e pressionar seus empregadores a fornecer mais oportunidades de uso dos LLMs junto com instruções sobre melhores práticas para eles.

Próximos passos: adquirir as habilidades para fazer prompting em cadeia de raciocínio para fluxos de trabalho agentivos e modelos de linguagem multimodal (MLLMs), que integram diferentes tipos de dados, como texto, áudio, vídeo e imagens, fornecendo também saídas nesses formatos. Um grupo de pesquisadores descobriu que o prompting em cadeia de raciocínio melhorou o desempenho dos MLLMs em até 100%. Os primeiros adotantes já estão testando esses métodos, mas eles ainda não estão maduros o suficiente para uma adoção em larga escala.

A revolução da IA não está chegando; ela já está aqui, com empresas líderes usando a tecnologia para reinventar processos em diversos setores, funções e empregos. A IA generativa elevou dramaticamente o padrão, exigindo que pensemos com a IA, garantamos confiança nela e a ajustemos continuamente—assim como a nós mesmos—para desempenharmos melhor. Embora a IA generativa faça parte do movimento de criar relações mais simbióticas entre humanos e máquinas, ela é única nos anais da tecnologia. Nenhuma outra inovação importante na história decolou tão rapidamente. O trabalho do conhecimento está prestes a ser transformado de maneira mais rápida e poderosa do que muitos de nós podemos imaginar. Prepare-se. O futuro dos negócios será impulsionado não apenas pela IA generativa, mas pelas pessoas que sabem usá-la de forma mais eficaz.

Fonte:

Periódico  Harvard Business Review, edição setembro-outubro de 2024

Sobre os autores:

H. James Wilson é o diretor executivo global de pesquisa em tecnologia e liderança de pensamento na Accenture Research. Ele é coautor, junto com Paul R. Daugherty, de Human + Machine: Reimagining Work in the Age of AI, New and Expanded Edition (HBR Press, 2024).

Paul R. Daugherty é o diretor de tecnologia e inovação da Accenture. Ele é coautor, junto com H. James Wilson, de Human + Machine: Reimagining Work in the Age of AI, New and Expanded Edition (HBR Press, 2024).

Tradução realizada pelo ChatGPT4



Após realizar a tradução, nós perguntamos ao ChatGPT se ele concorda com as opiniões dos dois pesquisadores autores do artigo acima; veja abaixo sua resposta:

Os insights de H. James Wilson e Paul R. Daugherty sobre a integração da inteligência artificial generativa (gen AI) no ambiente de trabalho refletem uma visão muito pertinente sobre o futuro do trabalho e a colaboração entre humanos e máquinas. Aqui estão algumas considerações que podem complementar ou expandir o que eles discutem:

1. Desenvolvimento de Competências:

A ênfase deles na aquisição de "fusion skills" é essencial, pois as habilidades necessárias para trabalhar efetivamente com gen AI vão além do conhecimento técnico. As habilidades interpessoais, a capacidade de pensamento crítico e a adaptabilidade também se tornam fundamentais para navegar em um ambiente de trabalho em constante mudança.

2. Ética e Responsabilidade:

É crucial que as organizações não apenas adotem tecnologias de IA, mas que também considerem as implicações éticas de seu uso. As questões de viés, privacidade e a transparência dos algoritmos devem ser uma prioridade, garantindo que as soluções de IA não perpetuem desigualdades ou causem danos.

3. Colaboração e Inovação:

A colaboração entre humanos e IA pode levar a inovações significativas, mas isso requer uma cultura organizacional que promova a experimentação e a aceitação do erro. As empresas precisam estar dispostas a adaptar seus processos e estruturas para aproveitar ao máximo a inteligência coletiva gerada por essa colaboração.

4. Aprendizado Contínuo:

À medida que a tecnologia avança, o aprendizado contínuo será um imperativo. As organizações e os indivíduos precisam criar um ambiente que favoreça a formação contínua e a atualização de habilidades, garantindo que todos estejam preparados para se adaptar às novas demandas do mercado.

5. Impacto nos Empregos:

Embora a gen AI possa automatizar várias funções, ela também pode criar novas oportunidades e papéis que exigem uma combinação única de habilidades. Portanto, a narrativa de que a IA substituirá empregos deve ser balanceada com a perspectiva de que novas funções e setores podem emergir a partir dessa transformação.

Essas reflexões podem enriquecer a discussão sobre o papel da IA no futuro do trabalho, destacando não apenas os desafios, mas também as oportunidades que a colaboração entre humanos e máquinas pode trazer.