Abraçando a IA Generativa no Trabalho

Resumo do artigo: Hoje, a inteligência artificial pode ser utilizada por praticamente qualquer pessoa, usando comandos em linguagem cotidiana, em vez de código. Em breve, ela transformará mais de 40% de todas as atividades de trabalho, de acordo com a pesquisa dos autores. Nesta nova era de colaboração entre humanos e máquinas, a capacidade de utilizar a IA de forma eficaz será fundamental para o sucesso profissional. 

Este artigo descreve os três tipos de “habilidades de fusão” necessárias para obter os melhores resultados com IA generativa. A interrogação inteligente envolve instruir grandes modelos de linguagem a atuar de maneiras que gerem melhores resultados — por exemplo, dividindo processos em etapas ou visualizando vários caminhos potenciais para uma solução. A integração de julgamento trata de incorporar discernimento humano especializado e ético para tornar a saída da IA mais confiável, precisa e segura. Isso implica aumentar as fontes de treinamento do modelo com bases de conhecimento autoritativas quando necessário, mantendo os vieses fora dos prompts, garantindo a privacidade de quaisquer dados utilizados pelos modelos e examinando saídas suspeitas. Com o aprendizado recíproco, você adapta a IA generativa ao contexto específico de negócios da sua empresa, incluindo dados organizacionais ricos e know-how nos comandos que você dá a ela. À medida que você se torna melhor nisso, você mesmo aprende a treinar a IA para enfrentar desafios mais complexos.

A revolução da IA já está aqui. Aprender essas três habilidades o preparará para prosperar nela.

A inteligência artificial generativa deve transformar radicalmente todos os tipos de empregos nos próximos anos. Não mais exclusiva dos tecnólogos, a IA agora pode ser utilizada por praticamente qualquer pessoa, usando comandos em linguagem cotidiana em vez de código. De acordo com nossa pesquisa, a maioria das funções empresariais e mais de 40% de toda a atividade de trabalho nos EUA podem ser ampliadas, automatizadas ou reinventadas com IA generativa. As mudanças devem ter o maior impacto nos setores jurídico, bancário, de seguros e de mercados de capitais — seguidos pelos setores de varejo, viagens, saúde e energia.

Para as organizações e seus funcionários, essa mudança iminente tem implicações massivas. No futuro, muitos de nós descobrirão que o sucesso profissional dependerá da capacidade de obter o melhor resultado possível de grandes modelos de linguagem (LLMs) como o ChatGPT — e de aprender e crescer junto com eles. Para se destacar nesta nova era de colaboração entre humanos e IA, a maioria das pessoas precisará de uma ou mais das chamadas “habilidades de fusão” — interrogação inteligente, integração de julgamento e aprendizado recíproco.

A interrogação inteligente envolve dar comandos aos LLMs (ou, em termos simples, dar instruções a eles) de maneiras que produzam raciocínios e resultados mensuravelmente melhores. Simplificando, é a habilidade de pensar junto com a IA. Por exemplo, um representante de atendimento ao cliente em uma empresa de serviços financeiros pode usá-la ao procurar a resposta para uma consulta complexa de um cliente; um cientista farmacêutico, ao investigar compostos de medicamentos e interações moleculares; um profissional de marketing, ao analisar conjuntos de dados para encontrar o preço ideal de varejo.

A integração de julgamento trata de trazer o discernimento humano quando um modelo de IA generativa está incerto sobre o que fazer ou carece do contexto empresarial ou ético necessário em seu raciocínio. A ideia é tornar os resultados das interações entre humanos e máquinas mais confiáveis. A integração de julgamento exige perceber onde, quando e como intervir, e sua eficácia é medida pela confiabilidade, precisão e explicabilidade das respostas da IA.

Com o aprendizado recíproco, você ajuda a IA a aprender sobre suas tarefas e necessidades empresariais ao incorporar dados ricos e conhecimento organizacional nos comandos que dá a ela, treinando-a assim para ser sua co-criadora. É a habilidade de adaptar a IA generativa ao contexto empresarial específico da sua empresa para que ela possa alcançar os resultados desejados. Ao fazer isso, você mesmo aprende como treinar a IA para lidar com desafios mais sofisticados. Uma vez uma capacidade restrita a cientistas de dados e especialistas em análises que construíam modelos de dados, o aprendizado recíproco tornou-se cada vez mais crucial em funções não técnicas.

  • Por que você precisa desenvolver sistematicamente essas novas habilidades para pensar, construir confiança e adaptar?

Pesquisas empíricas mostram consistentemente que instruções improvisadas — a maneira como a maioria dos funcionários usa os LLMs hoje — levam a resultados pouco confiáveis ou de baixa qualidade, especialmente para tarefas de raciocínio complexo. Isso é verdade em diversas funções, desde o atendimento ao cliente até o marketing, a logística e a pesquisa e desenvolvimento. É fundamental que todos nós sejamos mais rigorosos no uso da IA generativa no trabalho. Neste artigo, explicaremos como.

Interrogando a IA de Forma Inteligente

Como melhorar a saída de um sistema massivamente complexo como um LLM, que é treinado em montanhas de dados e guiado por probabilidades em vez de lógica humana? Existem várias técnicas que você pode usar.

Pense passo a passo.

Ao instruir a IA generativa, você precisa dividir o processo que ela deve seguir em partes constituintes e, em seguida, tentar otimizar cada etapa — assim como a primeira onda de gestão científica fez na manufatura industrial. No entanto, o processo da IA não envolve uma linha de montagem; ele envolve uma cadeia de raciocínio pela qual se busca um resultado. Estudos mostraram que, quando ferramentas de IA generativa são instruídas a dividir as tarefas de raciocínio dessa maneira, seu desempenho melhora dramaticamente. Isso é especialmente verdadeiro com problemas mais difíceis, como demonstrou Jason Wei, o pesquisador da OpenAI que primeiro explorou o raciocínio em cadeia.

Na verdade, adicionar a simples frase “Vamos pensar passo a passo” às instruções de um LLM pode aumentar a precisão de sua saída em mais de três vezes em uma gama de tarefas, desde matemática até raciocínio estratégico. Digamos que seu prompt de IA generativa seja este: “Meu departamento tem um orçamento de $500.000. Gastamos 20% em equipamentos e alocamos 30% para uma nova contratação. Acabamos de receber um aumento de orçamento de $50.000. Qual é o nosso orçamento restante? Vamos pensar passo a passo.” O modelo responderá: “Inicialmente, seu departamento tinha $500.000. Você gastou 20%, ou $100.000, em equipamentos, deixando $400.000. Você alocou 30%, ou $150.000, para uma nova contratação, o que reduz o orçamento para $250.000. Finalmente, você recebeu recentemente um aumento de orçamento de $50.000. Seu orçamento restante é de $300.000.” Embora a maioria das pessoas possa fazer essa matemática de cabeça, a questão é que os LLMs (que trabalham muito mais rápido) podem ser feitos para detalhar seu trabalho em problemas quantitativos muito mais complexos, como encontrar a rota mais curta para um representante de vendas entre várias cidades. Isso cria uma cadeia de raciocínio rastreável — em vez de simplesmente fornecer uma resposta ao final de um processo de “caixa preta” — que permite verificar a precisão dos resultados.

Treine LLMs em etapas.

Para a colaboração humano-máquina em tarefas complexas que exigem expertise ocupacional e de domínio, como direito, medicina, P&D científica ou gestão de inventário, você pode introduzir a IA ao trabalho em etapas para gerar melhores resultados.

Por exemplo, os pesquisadores do MIT Tyler D. Ross e Ashwin Gopinath exploraram recentemente a possibilidade de desenvolver um “cientista de IA” capaz de integrar uma variedade de dados experimentais e gerar hipóteses testáveis. Eles descobriram que o ChatGPT 3.5-Turbo poderia ser ajustado para aprender a biofísica estrutural do DNA quando os pesquisadores dividiram essa tarefa complicada em uma série de subtarefas para o modelo dominar. Em uma área não científica, como a gestão de inventário, as etapas de subtarefas poderiam incluir previsão de demanda, coleta de dados sobre níveis de inventário, projeções de reabastecimento, avaliação de quantidade de pedidos e avaliação de desempenho. Para cada subtarefa sucessiva, os gerentes treinariam, testariam e validariam o modelo com sua expertise de domínio e informações.

Explore de forma criativa com LLMs.

Muitos processos de trabalho, desde o design de estratégias até o desenvolvimento de novos produtos, são abertos e iterativos. Para aproveitar ao máximo a interação humano-IA nessas atividades, é necessário guiar as máquinas para visualizar múltiplos caminhos potenciais para uma solução e responder de maneiras menos lineares e binárias.

Esse tipo de interrogação inteligente pode aumentar a capacidade dos LLMs de produzir previsões precisas sobre eventos financeiros e políticos complexos, como os pesquisadores Philipp Schoenegger, Philip Tetlock e colegas mostraram recentemente. Eles emparelharam previsores humanos com assistentes GPT-4 que haviam sido preparados com prompts ricamente detalhados para serem “superprevisores” — atribuindo probabilidades e intervalos de incerteza a possíveis desfechos e oferecendo argumentos a favor e contra cada um. Os pesquisadores descobriram que as previsões feitas por esses assistentes (sobre tudo, desde o valor de fechamento do índice Dow Jones Transportation Average em uma determinada data até o número de migrantes entrando na Europa pelo Mar Mediterrâneo em dezembro de 2023) foram 43% mais precisas do que as previsões geradas por LLMs não preparados.

Incorporando seu julgamento.

Trazer o discernimento humano especializado — e ético — para a equação será fundamental para gerar saídas de IA que sejam confiáveis, precisas, explicáveis e tenham uma influência positiva na sociedade. Aqui estão algumas técnicas que você pode usar:

Integre o RAG.

Os LLMs não apenas podem alucinar, mas as informações e os conjuntos de dados em que são treinados muitas vezes têm vários anos de idade. Ao trabalhar com LLMs, as pessoas devem frequentemente tomar decisões de julgamento sobre a extensão em que informações confiáveis, relevantes e atualizadas nas saídas serão críticas. Se forem, você pode usar a geração aumentada por recuperação (RAG) para adicionar informações de bases de conhecimento autoritativas às fontes de treinamento de um LLM disponível no mercado. Isso pode ajudar a prevenir desinformação, respostas desatualizadas e imprecisões. Um pesquisador farmacêutico, por exemplo, pode usar o RAG para acessar bancos de dados do genoma humano, publicações recentes em revistas científicas, bases de dados sobre pesquisas pré-clínicas e diretrizes da FDA. Para configurar o RAG, as pessoas geralmente precisarão da ajuda de suas equipes de TI, que podem informá-las se ele foi ou pode ser integrado ao fluxo de trabalho para adicionar uma camada extra de qualidade ao trabalho.

Proteja a privacidade e evite vieses.

Se você estiver usando dados confidenciais ou informações proprietárias em seus prompts de IA, apenas modelos aprovados pela empresa por trás de firewalls corporativos devem ser usados, nunca LLMs de código aberto ou públicos. Se a política corporativa permitir, você pode usar informações privadas quando os termos de serviço da interface de programação de um LLM especificarem que elas não serão retidas para treinamento do modelo.

Preste atenção aos vieses que você pode incorporar em seus prompts. Por exemplo, um analista financeiro que pede a um LLM para explicar como o relatório trimestral de ontem indica que a empresa está pronta para um ciclo de crescimento de cinco anos está mostrando um viés de recência, a tendência de dar peso excessivo às informações mais recentes ao prever eventos futuros.

Os fornecedores de LLM estão descobrindo maneiras de ajudar os usuários a enfrentar esses problemas. Microsoft e Google estão adicionando recursos que ajudam os usuários a verificar por prompts e respostas prejudiciais. Salesforce desenvolveu uma arquitetura de IA que mascara qualquer dado confidencial de clientes na construção de prompts; impede que esses dados sejam compartilhados com LLMs de terceiros; avalia as saídas quanto a riscos como toxicidade, viés e privacidade; e coleta feedback sobre como melhorar os templates de prompts. No entanto, no final das contas, é você — o humano no processo — cujo julgamento será o mais importante.

Examine cuidadosamente saídas suspeitas.

Fique em alerta para alucinações e erros, que, de acordo com pesquisas atuais, são inevitáveis, mesmo com engenharia de dados significativa e outras intervenções. Quando os usuários de LLM encontram uma saída que parece incorreta, eles costumam, de forma reflexiva, solicitar ao modelo que tente novamente várias vezes, o que pode diminuir gradualmente a qualidade da resposta, como mostraram os pesquisadores Jinwoo Ahn e Kyuseung Shin, da Universidade da Califórnia em Berkeley. Em vez disso, os pesquisadores recomendam identificar o ponto em que a IA cometeu um erro e usar um LLM separado para executar essa etapa, dividindo-a em problemas menores. Depois, use a saída para ajustar o primeiro LLM. Imagine um cientista usando o ChatGPT da OpenAI para desenvolver um novo polímero com uma série de cálculos passo a passo. Se ele encontrar um erro em algum ponto da cadeia, pode pedir ao Claude, da Anthropic, para dividir essa etapa em subproblemas menores e explicar seu raciocínio. Em seguida, pode alimentar essa informação no ChatGPT e pedir que ele refine sua resposta. Essencialmente, essa técnica aplica os princípios de “cadeia de pensamento” para a correção de saídas que você julga incorretas.

Transformando a IA em seu aprendiz

À medida que o tamanho e a complexidade dos LLMs aumentam, eles podem exibir “propriedades emergentes” — novas habilidades poderosas, como raciocínio avançado, que não foram treinados para desenvolver, mas que ainda assim aparecem após você adaptar os LLMs fornecendo dados contextuais ou conhecimento. Para estimular esse desenvolvimento, você pode seguir os seguintes passos.

Forneça ao modelo “demonstrações de pensamento”.

Antes de apresentar um problema a um LLM para resolver, você pode prepará-lo para pensar de uma determinada maneira. Por exemplo, você pode ensiná-lo a usar o raciocínio “do mais fácil para o mais difícil”, mostrando à IA como dividir um desafio complexo em vários desafios menores e mais simples; abordar primeiro o menos difícil; usar a resposta como base para resolver o próximo desafio; e assim por diante. Denny Zhou e colegas do Google DeepMind mostraram que a abordagem do mais fácil para o mais difícil melhora a precisão das saídas da IA de 16% para 99%.

Considere um gerente de marketing de uma marca de roupas fitness que deseja ajuda para pensar em uma nova linha de produtos. Ele pode dividir o problema para o LLM da seguinte forma:

Público

Identifique entusiastas do fitness que seriam potenciais clientes — uma tarefa relativamente fácil, especialmente para um modelo treinado com os dados de clientes da empresa.

Mensagens

Crie mensagens que enfatizem desempenho, conforto e estilo — um problema mais desafiador e criativo que se baseia na identificação anterior do público.

Canais

Escolha mídias sociais, blogs de fitness e parcerias com influenciadores que ajudarão a levar essas mensagens ao público.

Recursos

Alocar o orçamento (geralmente a questão mais controversa em qualquer organização) de acordo com a escolha dos canais.

Treine seus LLMs para aprender novos processos.

Você pode ensinar uma IA a executar uma tarefa ao guiá-la por um conjunto de exemplos dentro de um contexto em seus prompts. Isso é chamado de “aprendizado em contexto” e permite que você adapte LLMs pré-treinados, como GPT-4, Claude e Llama, sem a necessidade, por vezes trabalhosa, de ajustar seus parâmetros. Por exemplo, pesquisadores relataram na revista Nature que LLMs foram ensinados a resumir informações médicas ao serem treinados com exemplos de relatórios de radiologia, perguntas de pacientes, notas de progresso e diálogos entre médicos e pacientes. Posteriormente, descobriram que 81% dos resumos gerados pelos LLMs eram equivalentes ou superiores aos resumos feitos por humanos.

Você também pode treinar um LLM fornecendo informações contextuais e, em seguida, fazendo perguntas até que ele resolva seu problema. Considere duas empresas de software, ambas buscando aumentar as vendas. Na primeira empresa, a equipe de vendas tem dificuldades para prever a demanda por licenças de software. O líder da equipe começa fornecendo ao LLM dados históricos de vendas e, em seguida, pergunta sobre a demanda esperada para o próximo trimestre. Depois, ele fornece ao modelo informações sobre as atualizações de recursos do software dos clientes e seus orçamentos anuais e pergunta sobre os efeitos da sazonalidade. Finalmente, ele alimenta o modelo com estatísticas detalhadas dos sistemas CRM e relatórios de marketing e pergunta sobre o impacto das campanhas de marketing nas vendas.

Na segunda empresa, a equipe de vendas quer melhorar a seleção de clientes. Seu líder pode fornecer dados financeiros específicos e instruir um LLM a classificar os clientes com base na contribuição de receita, avançando em seguida para perguntas complementares sobre alcance geográfico, bases de clientes, expertise técnica, e assim por diante. Em cada etapa, ambos os executivos estão treinando o LLM e refinando sua capacidade de executar a tarefa no contexto da estratégia de vendas específica da empresa. Eles trazem conhecimento organizacional e da indústria para essas interações. À medida que o LLM usado por cada um acumula mais experiência com o processo de vendas específico da empresa, ele gera respostas melhores.

O aprendizado recíproco ocorre à medida que os usuários avançam de perguntas ou instruções simples para descrever gradualmente a tarefa com mais complexidade e nuance. Eles podem adicionar contexto, ajustar a redação e observar como o modelo responde, experimentando até atingir os resultados desejados.

Adquirindo novas habilidades de fusão

A aquisição generalizada de habilidades em IA generativa exigirá não apenas um investimento significativo por parte das organizações, mas também iniciativa individual, estudo e trabalho árduo. Embora algumas empresas estejam oferecendo treinamentos relevantes, a maioria ainda não desenvolveu programas robustos. De fato, em nossa pesquisa de 2024 com 7.000 profissionais, descobrimos que, embora 94% afirmassem estar prontos para aprender novas habilidades para trabalhar com IA generativa, apenas 5% relataram que seus empregadores estavam treinando suas equipes ativamente em larga escala. Portanto, muitos de vocês precisarão assumir a responsabilidade por conta própria — e acompanhar os rápidos avanços nos LLMs e nas pesquisas de ponta sendo traduzidas em práticas para uma variedade de empregos e indústrias. Vocês podem se inscrever em cursos online de provedores como Coursera, Udacity (recentemente adquirida por nossa empresa), Universidade do Texas em Austin, Universidade Estadual do Arizona e Universidade Vanderbilt; experimentar as técnicas de prompting discutidas, bem como outras emergentes; e pressionar seus empregadores a oferecer mais oportunidades para usar LLMs, junto com instruções sobre as melhores práticas para eles.

O próximo passo: adquirir as habilidades para fazer prompting de “cadeia de pensamento” para fluxos de trabalho agentivos e modelos de linguagem multimodal de grande escala (MLLMs), que integram diferentes tipos de dados, como texto, áudio, vídeo e imagens, além de fornecer saídas nesses formatos. Um grupo de pesquisadores descobriu que o prompting de cadeia de pensamento melhorou o desempenho dos MLLMs em até 100%. Os primeiros a adotar essas técnicas já estão testando esses métodos, mas eles ainda não estão suficientemente maduros para adoção generalizada.

A revolução da IA não está chegando; ela já está aqui, com empresas líderes usando a tecnologia para reinventar processos em diversos setores, funções e empregos. A IA generativa elevou dramaticamente os padrões, exigindo que pensemos com a IA, confiemos nela e continuamente a ajustemos — e a nós mesmos — para desempenhar melhor. Embora a IA generativa faça parte do movimento mais amplo para criar relações mais simbióticas entre humanos e máquinas, ela também é única nos anais da tecnologia. Nenhuma outra inovação importante na história teve uma adoção tão rápida. O trabalho do conhecimento está prestes a ser transformado de maneira mais rápida e poderosa do que muitos de nós podem imaginar. Prepare-se. O futuro dos negócios será impulsionado não apenas pela IA generativa, mas pelas pessoas que souberem usá-la da maneira mais eficaz.

Fonte:

Periódico Harvard Business Review, edição de setembro – outubro
de 2024

Sobre os autores:

H. James Wilson é o diretor-geral global de pesquisa em tecnologia e liderança de pensamento na Accenture Research. Ele é coautor, junto com Paul R. Daugherty, de *Human + Machine: Reimagining Work in the Age of AI, New and Expanded Edition* (HBR Press, 2024).

Paul R. Daugherty é o diretor de tecnologia e inovação da Accenture. Ele é coautor, junto com H. James Wilson, de *Human + Machine: Reimagining Work in the Age of AI, New and Expanded Edition* (HBR Press, 2024).