Para garantir que o seu seja bem-sucedido, considere estes cinco passos.
- Seleção
- Desenvolvimento
- Avaliação
- Adoção
- Gerenciamento
Quando trabalhei como cientista de dados no LinkedIn em 2018 e 2019, a IA era de interesse apenas para uma pequena equipe de pessoas na organização de ciência de dados com diplomas avançados em estatística ou ciência da computação. A IA — e especialmente sua mais nova estrela, a IA generativa — agora é um tema central nas salas de reuniões corporativas, discussões de liderança e conversas informais entre funcionários ansiosos para aumentar sua produtividade.
O tópico é tão fundamental que “Data Science for Managers”, um curso que ajudei a criar para ensinar alunos de MBA a desenvolver, aproveitar e gerenciar IA, agora é um requisito do primeiro ano na Harvard Business School.
Infelizmente, por trás das manchetes aspiracionais e do potencial tentador, está uma realidade sóbria: a maioria dos projetos de IA falha. Algumas estimativas colocam a taxa de falha em até 80% — quase o dobro da taxa de falhas de projetos de TI corporativos uma década atrás.
No entanto, existem maneiras de aumentar as chances de sucesso. Através da minha experiência na indústria e na academia e do meu trabalho de consultoria, descobri que as empresas podem reduzir significativamente o risco de falha navegando cuidadosamente por cinco etapas críticas que todo projeto de IA atravessa no caminho para se tornar um produto: seleção, desenvolvimento, avaliação, adoção e gestão.
Este artigo não é apenas sobre a prevenção de falhas, mas também sobre o desenvolvimento do que chamo de processos de “operações de ciência de dados e IA” que podem ajudar as empresas a competir e sobreviver em um cenário de negócios cada vez mais impulsionado pela IA.
1 – Seleção
Embora a priorização e sequenciamento eficaz de projetos seja uma tarefa familiar para a maioria dos líderes, os projetos de IA têm algumas idiossincrasias que requerem consideração cuidadosa ao avaliar seu impacto e viabilidade.
Comece considerando projetos voltados para o interno e o externo separadamente. Projetos voltados para o interno são projetados para ajudar os funcionários de uma empresa a desempenhar seus trabalhos. Por exemplo, as organizações agora regularmente dependem de IA para fornecer às suas equipes de vendas insights sobre quais clientes-alvo e quais produtos oferecer; para melhorar sua gestão da cadeia de suprimentos por meio de análises preditivas; e para simplificar funções de RH usando chatbots inteligentes para consultas de funcionários, entre muitas outras coisas. Projetos voltados para o externo desenvolvem e implementam IA para usuários finais que são os clientes da empresa. Eles são as aplicações mais visíveis da IA e foram pioneirados por empresas de tecnologia; exemplos incluem o mecanismo de recomendação da Netflix, os resultados de busca do Google e o algoritmo de correspondência do Uber. A seguinte lista de verificação é útil no processo de seleção.
Alinhamento estratégico:
O projeto está alinhado com a estratégia e os objetivos gerais da organização? Isso pode parecer óbvio, mas na realidade, os cientistas de dados muitas vezes não têm uma compreensão abrangente da estratégia da empresa e, portanto, focam em projetos que provavelmente não trarão mudanças transformadoras e valor significativo. Como os cientistas de dados e outros especialistas técnicos costumam estar isolados, raramente interagindo com o restante dos negócios, superar essa barreira pode ser desafiador.
Algumas empresas, como a Procter & Gamble, incorporam temporariamente cientistas de dados nas unidades de negócios. Outras, como o LinkedIn, mantêm uma estrutura de reporte centralizada, mas têm equipes que espelham as unidades de negócios específicas e estão fisicamente colocalizadas com elas para aumentar a colaboração. Estratégias de incorporação como essas tornam mais fácil para os especialistas técnicos aprenderem o negócio e selecionar projetos alinhados estrategicamente.
Impacto mensurável:
Podemos avaliar objetivamente os benefícios financeiros e operacionais potenciais do projeto? Considere explicitamente o propósito e a direção do projeto. Ao especificar como o sucesso será medido, os líderes podem alinhar as equipes em torno de objetivos concretos e responsabilizá-las por alcançá-los.
Uma estrutura útil para escolher tais medidas é o paradigma “se, então, até, porque”: Se este projeto for implementado, então este resultado de negócios ou indicador-chave de desempenho melhorará tendo este impacto antecipado porque há esta justificativa que apoia o impacto antecipado. Empresas com culturas robustas baseadas em dados defendem essa abordagem científica baseada em hipóteses. Quantificar o impacto também permite a comparação direta entre vários projetos — um exercício que contraria a tendência das equipes técnicas de focar na adoção das tecnologias mais recentes e avançadas e ajuda a priorizar projetos que provavelmente terão um impacto substancial.
Aumentar ou substituir:
Isso aumentará as operações humanas atuais ou substituirá um processo manual existente? Responder a esta pergunta requer entender o custo de cometer erros (ou erros de previsão). Quando o custo é baixo, a automação geralmente é viável; quando o custo é alto, é melhor aumentar o sistema de IA com um tomador de decisão humano. Pegue a recomendação de produtos: o custo de propor um item que um cliente não está interessado em comprar é relativamente pequeno, então é seguro automatizar essa tarefa. No entanto, o risco associado a um diagnóstico impreciso de uma doença grave é extremamente alto, razão pela qual os médicos consultam recomendações de IA, mas mantêm a palavra final.
A avaliação do impacto guiará os líderes enquanto buscam entender o potencial de cada projeto e os ajudará a selecionar os esforços que prometem gerar valor substancial para os negócios. Além disso, as informações geradas podem ser disseminadas entre várias equipes e divisões dentro da organização, promovendo um entendimento compartilhado e a polinização cruzada de ideias.
Você também deve avaliar a viabilidade de um projeto de IA: Obtenha uma estimativa básica de custo e determine se sua organização tem os recursos necessários para implementar o projeto. Este processo consiste em explorar quatro coisas.
Natureza do problema:
Este é um problema que a IA pode resolver? A IA é ótima para encontrar tendências, identificar padrões e fornecer previsões para problemas bem formulados, mas falha em entender o contexto, praticar inteligência emocional e exercer julgamento moral ou ético. Portanto, use-a judiciosamente. Por exemplo, ela é ótima para identificar um prospecto de vendas, mas seria ruim para fechar um negócio.
Disponibilidade de dados:
A organização tem acesso aos dados necessários? O sucesso de uma aplicação de IA depende da disponibilidade, quantidade, atualidade e qualidade geral dos dados subjacentes. Pegue uma empresa que pretende construir uma ferramenta de priorização de leads para sua força de vendas. Ela precisaria de dados abrangentes sobre clientes potenciais — cargo, indústria e tamanho da empresa — bem como informações básicas como nome e número de telefone.
Capacidade tecnológica e habilidades:
A organização possui a infraestrutura e o conjunto de habilidades necessários para construir, implantar e escalar o projeto? A infraestrutura tecnológica é específica do projeto, mas, no mínimo, as empresas devem ter capacidades de armazenamento e gerenciamento de dados, recursos computacionais suficientes para treinar e executar uma IA, e sistemas para proteger os dados que entram e saem dela. As habilidades necessárias variam, mas geralmente são necessários funcionários versados em ciência de dados e engenharia de dados.
Considerações éticas:
Todas as implicações éticas foram totalmente consideradas? É crucial identificá-las e formular um plano para abordá-las durante a fase de desenvolvimento. Se isso não acontecer, os custos podem ser altos — em termos de danos à reputação, multas governamentais e tempo de engenharia necessário para ajustar o sistema para lidar com elas.
A ética da IA é um tópico amplo que geralmente inclui três temas centrais:
- viés;
- privacidade;
- transparência.
O viés ocorre quando os dados de treinamento disponíveis não representam com precisão a população que a IA pretende servir. Isso pode diminuir a precisão de um modelo e levar a resultados injustos — ou seja, fazer com que ele sistematicamente tenha um desempenho inferior para, ou essencialmente discrimine, grupos ou indivíduos específicos.
Considere uma empresa de biotecnologia que avalia a viabilidade de desenvolver uma IA para diagnosticar um tipo de câncer que afeta homens e mulheres de várias raças. Se a empresa tiver dados apenas sobre homens brancos, os modelos resultantes fornecerão resultados tendenciosos ou imprecisos para mulheres e pessoas de cor.
A privacidade exige que os modelos de IA protejam os dados pessoais e forneçam garantias de que eles não serão vazados. Adotar princípios de “privacidade por design” — desenvolvidos por Ann Cavoukian, uma ex-comissária de informação e privacidade de Ontário — em combinação com tecnologias emergentes, como a privacidade diferencial (que fornece uma medida matemática de privacidade de dados) pode ajudar as empresas a proteger adequadamente as informações dos clientes.
Quanto à transparência, os usuários precisam entender como um modelo de IA funciona, avaliar sua funcionalidade e conhecer seus pontos fortes e limitações. Identificar o grau desejado de transparência antes de iniciar um projeto é vital, porque os modelos de IA fazem uma troca inerente: aqueles que são mais transparentes e mais fáceis de explicar tendem a ser menos precisos, enquanto os que são difíceis de explicar muitas vezes apresentam desempenho superior.
Após concluir a análise do impacto e da viabilidade dos projetos potenciais, as empresas podem classificar cada projeto como alto ou baixo nesses dois aspectos. Isso permitirá que os gerentes estimem o retorno sobre o investimento e determinem quais projetos devem ser selecionados e como devem ser sequenciados.
Projetos com alto impacto, mas baixa viabilidade, devem ser investigados mais a fundo para verificar a causa raiz da baixa viabilidade; isso pode ajudar os gerentes a identificar oportunidades para fortalecer sua infraestrutura e dados.
Projetos de baixo impacto e alta viabilidade geralmente devem ser ignorados, a menos que a implementação seja barata o suficiente para justificar seu pequeno impacto ou forneçam um ambiente adequado para testar a infraestrutura e novas tecnologias.
2 – Desenvolvimento
Uma vez que um potencial projeto de IA tenha sido aprovado, o complexo e demorado trabalho de desenvolvimento começa. É essencial que os usuários pretendidos sejam envolvidos ao longo deste processo para garantir que o produto atenda às suas necessidades, facilitando sua adoção.
Os cientistas de dados frequentemente passam por múltiplas iterações de encontrar e limpar dados, realizar análise exploratória de dados, treinar e avaliar modelos de IA, parando apenas quando um modelo com o nível desejado de precisão é desenvolvido ou o projeto é abandonado. O próximo passo é construir os meios para integrar as saídas do modelo nos processos de negócios apropriados. Essa integração, que transforma o modelo de IA em um produto de IA, normalmente envolve desenvolver software para transportar dados para o modelo para processamento e, em seguida, enviar a saída para onde será usada. Pode também ser necessário desenvolver interfaces de usuário personalizadas ou integrar a IA com outros sistemas de TI, como ferramentas de gerenciamento de relacionamento com clientes (CRM).
A maioria das empresas conduz esse processo de maneira ad hoc, com pouca padronização ou especialização, resultando em um processo ineficiente e propenso a falhas. Algumas empresas de tecnologia procuraram criar uma abordagem melhor. LinkedIn, Netflix e Uber estão entre aquelas que desenvolveram ferramentas internas para gerenciar todo o processo de desenvolvimento de IA, desde a análise exploratória de dados até a implantação do produto.
Empresas de software como Databricks e Snowflake, juntamente com os grandes provedores de computação em nuvem, oferecem essa camada de automação como um serviço. Para aproveitar isso, no entanto, uma empresa deve construir um repositório de dados centralizado.
Meus colegas Marco Iansiti e Karim Lakhani chamaram essa automação e padronização de “a fábrica de IA”. Uma fábrica de IA aumenta a velocidade com que os produtos de IA são desenvolvidos e padroniza partes chave do processo, permitindo mais monitoramento e supervisão. Além disso, uma fábrica de IA pode melhorar a qualidade geral dos modelos sendo desenvolvidos.
De fato, um experimento que conduzi em 2022 mostrou que fornecer aos cientistas de dados ferramentas para automatizar partes do processo de desenvolvimento levou a uma melhoria de 30% na precisão do modelo final. O mesmo experimento mostrou que, ao incorporar conhecimento de desenvolvimento de IA em ferramentas, uma fábrica de IA também reduz as habilidades necessárias para desenvolver um produto.
Ainda é cedo para saber até que ponto as ferramentas de IA generativa que podem produzir texto, imagens e código podem melhorar o processo de desenvolvimento. Mas um experimento controlado envolvendo o GitHub Copilot sugere que engenheiros de software usando-o para gerar código podem esperar um aumento significativo na produtividade, com os menos experientes colhendo os maiores benefícios.
A lição para os líderes é que eles devem criar um centro de excelência para construir uma fábrica de IA fácil de usar e fornecer aos seus funcionários treinamento e educação específicos para as ferramentas. Além disso, eles devem garantir que quaisquer questões éticas identificadas durante a fase de seleção tenham sido abordadas.
3 – Avaliação
Depois que um produto de IA foi desenvolvido, seu impacto deve ser avaliado antes de incentivar a adoção em larga escala. A experimentação científica, cuja forma mais simples é o teste A/B, é o padrão-ouro para quantificar o efeito de um novo modelo de IA. Especificamente, testes A/B colocam a oferta existente contra uma versão alternativa, atribuindo aleatoriamente os usuários a cada versão e medindo engajamento, satisfação e outras métricas relevantes.
As empresas frequentemente usam plataformas de experimentação—desenvolvidas internamente ou compradas de fornecedores como LaunchDarkly, Optimizely e Split—para executar esses testes e analisar seus resultados. A experimentação também deve desempenhar um papel central no crescimento e adoção da IA generativa, analisando como os usuários respondem às suas várias saídas.
Produtos de IA—mesmo aqueles que apresentam incrível precisão preditiva durante o desenvolvimento—podem não entregar valor suficiente por quatro razões comuns.
Primeiro, a IA não existe isoladamente: ela interage com outros produtos, sistemas e processos dentro da organização, levando a conflitos ou problemas não aparentes durante o desenvolvimento. Por exemplo, um novo sistema de recomendação de conteúdo impulsionado por IA pode aumentar o engajamento do usuário, reduzindo anúncios exibidos e, assim, diminuindo a lucratividade da empresa. Tais mudanças podem anular os benefícios potenciais de implantar um sistema.
Segundo, os dados usados para treinar a IA podem não representar os usuários reais. Quando um modelo de IA é apresentado a cenários não cobertos nos dados de treinamento, ele tenta extrapolar o melhor que pode, mas seu desempenho geral geralmente é afetado negativamente. Isso é parte do motivo pelo qual os carros autônomos estão se mostrando desafiadores de desenvolver: existem tantas situações únicas de condução que é impossível reunir dados que cubram todas elas.
Terceiro, a implantação de um modelo de IA pode inadvertidamente criar ciclos de feedback negativos. Por exemplo, um sistema de recomendação de conteúdo impulsionado por IA que mostra apenas conteúdos muito semelhantes ao que os usuários já interagiram pode ser aceitável uma ou duas vezes, mas, na 20ª vez, os usuários podem achar as recomendações entediantes e abandonar a plataforma.
Finalmente, alguns modelos falham em se adaptar às mudanças no mundo real. Por exemplo, um modelo de precificação treinado em dados históricos de vendas pode não antecipar tendências, mudanças súbitas no mercado (como uma pandemia global ou alta inflação) ou os motivos pelos quais os consumidores compram um item específico em vez de outro, como disponibilidade do produto ou políticas de devolução e troca da loja (ver “A Step-by-Step Guide to Real-Time Pricing,” de Marshall Fisher, Santiago Gallino, e Jun Li, nesta edição).
Além de quantificar o impacto de um modelo de IA, a experimentação fornece feedback rápido dos usuários que pode ajudar a identificar por que um projeto não entrega valor adequado. Esse feedback inicial pode melhorar substancialmente o produto final.
Em um estudo que conduzi com o LinkedIn em 2021, estimamos que incorporar esses dados resulta em uma melhoria de 20% nos resultados de negócios. Em um caso, uma equipe do LinkedIn descobriu que um modelo de IA teve desempenho inferior para alguns usuários porque os dados de treinamento não eram representativos de todos os usuários reais. A equipe expandiu o modelo para permitir mais personalização—uma mudança simples que melhorou drasticamente o desempenho do modelo.
A experimentação também reduz os riscos da inovação ao diminuir o número de usuários expostos a experiências potencialmente ruins ou negativas. Novos métodos estatísticos permitem até mesmo o monitoramento contínuo automatizado que interrompe experimentos assim que são percebidos efeitos negativos significativos ou consequências não intencionais. Em um caso, reanalisamos um experimento que a Netflix havia realizado por duas semanas e mostramos que esse método teria interrompido o teste após um único dia.
Além das armadilhas típicas, que Guillaume Saint-Jacques, Martin Tingley e eu discutimos nesta revista, testar alguns projetos de IA pode ser difícil por duas razões. Primeiro, a base de usuários pretendida pode ser muito pequena. Esse desafio é especialmente comum com projetos projetados para apenas algumas empresas ou funcionários. Uma estratégia para superá-lo é escalonar a exposição dos usuários ao produto sendo testado—comparando suas reações antes e depois da adoção—o que reduz o viés de eventos idiossincráticos.
Segundo, implantar o projeto de IA para um subconjunto de usuários pode ser impossível ou impraticável, particularmente com IA que realiza otimização global—um processo para encontrar a melhor solução entre todas as escolhas possíveis. Otimização da cadeia de suprimentos, agendamento da força de trabalho e otimização da mistura de produtos exigem otimização global. Um teste A/B com um subconjunto de usuários poderia levar a uma solução inferior e talvez não refletir todas as vantagens potenciais. Nesse caso, experimentos de alternância que alternam intermitentemente todos os usuários entre operar com e sem o sistema de IA podem ser úteis.
4 – Adoção
Depois que um projeto de IA foi avaliado e mostrou adicionar valor suficiente, é hora de focar em incentivar a adoção em larga escala. Quando estava no LinkedIn, liderei a equipe que lançou uma ferramenta interna para análise de dados impulsionada por IA. A ferramenta automatizou grandes partes do processo de desenvolvimento e tornou desnecessário escrever código, permitindo que os cientistas de dados descrevessem o estudo que desejavam realizar por meio de uma interface simples; nossa parte de trás impulsionada por IA lidava com o resto.
Experimentações iniciais mostraram que essa abordagem reduzia drasticamente o tempo de análise de dias para algumas horas. E, no entanto, após o nosso lançamento, poucas pessoas usaram o produto. Em vez disso, continuaram a fazer o que sempre fizeram: realizar análises personalizadas em seus computadores pessoais.
Isso ocorreu porque os usuários pretendidos não entendiam nosso produto, não tinham certeza se a IA foi projetada para funcionar para eles e não sabiam quem seria responsável se a análise fornecesse conclusões incorretas. Em poucas palavras, eles não confiavam em nosso produto, então não o usavam.
Em minha experiência, a confiança em produtos de IA tem três pilares: o algoritmo, o desenvolvedor e o processo. As pessoas tendem a confiar na IA quando acreditam que está funcionando efetivamente, têm fé no desenvolvedor e pensam que o processo foi projetado para capacitá-las sem riscos desnecessários.
A falha em adotar um produto de IA quase sempre pode ser rastreada até a falta de confiança em pelo menos um dos três. A solução é conversar com pessoas que experimentaram o produto, mas escolheram não usá-lo para identificar o motivo de sua desconfiança.
Aqui estão algumas perguntas que usuários céticos podem ter e uma explicação de como interpretá-las.
- Como o produto de IA funciona?
- Está livre de viés?
- Quais foram as suposições que entraram nele?
- Por que o produto faz essas previsões?
Perguntas como essas indicam uma falta de confiança no algoritmo. Comece focando em sua eficácia. Possivelmente, certas formas de viés foram ignoradas durante as etapas de desenvolvimento e avaliação. Em seguida, passe para perguntas mais difíceis de responder sobre compreensão, transparência e explicação. Como a IA muitas vezes é complicada, os usuários pretendidos provavelmente não entenderão o funcionamento interno do algoritmo. Portanto, explique as suposições codificadas no algoritmo para mostrar que a saída está alinhada com sua intuição e lógica de negócios. Explique os dados nos quais o algoritmo foi treinado para demonstrar a amplitude e profundidade do conhecimento incorporado nele. Forneça casos de uso para mostrar como o produto se comporta em cenários do mundo real.
A causa raiz da falta de confiança dos usuários no produto do LinkedIn que ajudei a desenvolver foi que, em nosso esforço para torná-lo o mais simples possível, criamos uma caixa preta. Então, desenvolvemos materiais educacionais para descrever o funcionamento interno do produto e explicar nossas suposições.
- O desenvolvedor tinha alguma intenção oculta?
- O desenvolvedor me ouviu e entendeu minhas necessidades?
- O algoritmo está substituindo uma tarefa que eu gostava de fazer e considero valiosa para desempenhar meu trabalho?
O desenvolvedor pode ser uma organização, uma equipe específica dentro de uma empresa ou um indivíduo. A falta de confiança no desenvolvedor geralmente ocorre quando os usuários pretendidos não fizeram parte do processo de desenvolvimento, caso em que duas coisas podem dar errado: Os usuários pensam que o desenvolvedor tem uma agenda oculta para substituir seus empregos por um algoritmo, ou eles assumem que o desenvolvedor não entende ou não se importa com suas necessidades e não entregará um produto que as aborde. Superar ambas as preocupações requer comunicação clara e explicações transparentes sobre o propósito do produto.
No LinkedIn, minha equipe recebeu contribuições de vários usuários pretendidos durante todo o processo de desenvolvimento. Devido à nossa parceria próxima, essas pessoas confiavam em nós. Infelizmente, outros usuários em potencial pularam para a conclusão de que nosso produto foi personalizado para resolver apenas alguns problemas específicos e não era flexível o suficiente para lidar com os deles. Para superar a falta de confiança, identificamos usuários potenciais com problemas distintos e os ajudamos a usar nosso produto. Embora isso tenha exigido muito tempo e energia, demonstrou a flexibilidade do produto.
- Se a IA der uma recomendação incorreta que eu seguir, sou responsável ou a IA?
- Tenho autoridade para anular o algoritmo se achar que está errado?
Produtos de IA são inerentemente aleatórios e cometem erros. Compreender como reagir é vital para garantir confiança no processo. Quando a IA está auxiliando um tomador de decisão humano, crie um ciclo de feedback e diretrizes claras para resolver divergências entre a IA e seus usuários. Quando a IA está automatizando um processo, garanta que foram estabelecidas proteções fortes para identificar e corrigir erros.
Para construir confiança no processo no LinkedIn, criamos um conselho de certificação para revisar os resultados e recomendações subsequentes antes que quaisquer insights derivados pudessem ser compartilhados. Assim, a responsabilidade por erros encontrados após o processo de certificação recaía sobre o conselho de revisão, e não sobre os usuários.
Depois de tomarmos todas essas medidas para instilar confiança entre os usuários, o produto foi rapidamente adotado em toda a organização. Cinco anos depois, ainda está em uso.
5 – Gerenciamento
A jornada está longe de terminar quando um produto de IA é adotado. Garantir o sucesso contínuo requer uma estratégia de gerenciamento diligente e proativa para sustentar e aprimorar os resultados. Um requisito básico é fornecer suporte técnico — para corrigir bugs, por exemplo — e monitorar o produto em busca de mudanças de desempenho.
A causa mais comum de queda de desempenho de um produto de IA é que os dados de treinamento se tornaram desatualizados.
Considere, por exemplo, uma empresa que desenvolveu uma IA para prever o comportamento de compra do cliente. Se as preferências dos clientes ou as condições de mercado mudarem ao longo do tempo, as previsões do modelo serão menos precisas. É importante reter regularmente os modelos com dados atualizados, mas como isso pode ser caro, muitas empresas optaram por construir mecanismos que monitoram e alertam os gerentes sobre mudanças significativas no desempenho do modelo que possam indicar a necessidade de re-treinamento.
Além do monitoramento, as empresas devem realizar auditorias de IA para buscar consequências não intencionais, questões éticas e falhas de segurança.
Por exemplo, em um estudo publicado em 2022 na revista Science, meus coautores e eu descobrimos que o algoritmo “Pessoas que você pode conhecer” do LinkedIn, projetado para ampliar a rede de um usuário sugerindo novas conexões potenciais, inadvertidamente alterou as perspectivas de carreira dos usuários. Esse efeito foi devido em parte à relação entre as redes sociais das pessoas e seu acesso a informações sobre novos empregos e oportunidades. Embora neste caso a mudança tenha sido benéfica, projetos de IA podem ter o efeito oposto, tornando as auditorias essenciais.
O gerenciamento bem sucedido não se trata apenas de manter o status quo. Também envolve melhoria contínua para garantir que o produto evolua de acordo com as tecnologias e as necessidades em constante mudança dos usuários. Isso envolve um processo cíclico de coleta de mais dados, refinamento de algoritmos e promoção de aumento de uso. Os cinco passos que descrevi podem aumentar significativamente as chances de os líderes escolherem os projetos de maior valor a serem perseguidos e podem cumprir sua promessa.
Fonte:
Periódico Harvard Business Review, novembro – dezembro de 2023
Sobre o autor:
IAVOR BOJINOV, ex-cientista de dados no LinkedIn, é professor assistente de administração de empresas e bolsista na Harvard Business School.