A excitação em torno dos grandes modelos de linguagem (LLMs) impulsiona os gastos em IA, mas a pergunta crucial para líderes empresariais continua sendo: Qual é o retorno dos nossos investimentos em ciência de dados? No curto prazo, análise avançada e aprendizado de máquina são as tecnologias essenciais para criar valor significativo a partir dos ativos de dados. Não que isso seja fácil; as empresas enfrentam inúmeros desafios ao longo do caminho.
Muito do risco da IA se torna aparente quando os sistemas estão em produção, então uma IA verdadeiramente responsável não é apenas uma preocupação no início do processo de desenvolvimento. Cathy O’Neil, que levantou questões difíceis sobre as consequências não intencionadas da tomada de decisão algorítmica em seu livro de 2016, Weapons of Math Destruction, foi pioneira na prática de auditoria algorítmica. O’Neil e seus coautores Jake Appel e Sam Tyner-Monroe guiam os leitores por sua abordagem e discutem como ela pode ser aplicada também às ferramentas de IA generativa.
O dilema entre usar dados para insights e proteger os dados pessoais dos clientes se torna ainda mais difícil à medida que os maus atores aprimoram suas técnicas para reidentificar conjuntos de dados anonimizados. Gregory Vial, Julien Crowe e Patrick Mesana explicam por que lidar com esse desafio exigirá que cientistas de dados adquiram um entendimento mais sofisticado da proteção de dados e obrigue as equipes de cibersegurança a aprender uma gama mais ampla de técnicas de proteção. Eles extraem lições das práticas emergentes no National Bank of Canada, onde cientistas de dados, proprietários de dados e equipes de cibersegurança estão colaborando para aplicar práticas de proteção de dados que não tornem os dados inutilizáveis para análise.
No entanto, quando projetos de aprendizado de máquina recebem luz verde, muitas iniciativas falham após a adoção porque os cientistas de dados não compreenderam completamente o problema de negócios original. Para descobrir onde tais esforços estão falhando, Dusan Popovic, Shreyas Lakhtakia, Will Landecker e Melissa Valentine estudaram projetos de ciência de dados que foram arquivados. Eles descobriram que convencer os cientistas de dados a abandonar suas suposições e começar a fazer perguntas mais fundamentais aos seus colegas de negócios é crucial para evitar falhas em projetos de aprendizado de máquina.
Por fim, assim como as corporações estão experimentando com LLMs para descobrir onde podem agregar valor com risco relativamente baixo, as equipes de análise avançada podem estar explorando como incorporar IA generativa na prática. Pedro Amorim e João Alves veem promessa para LLMs assumirem parte da rotina da ciência de dados e para suas interfaces de linguagem natural tornarem mais fácil para gestores de negócios colaborarem no processo de desenvolvimento e entenderem os resultados.
Confira os 4 artigos publicados pelo periódico trimestral MIT Sloan Business Review de Junho de 2024 que abordam os desafios no avanço da Inteligência Artificial:
Realizando auditorias de risco em algorítmos
Evitando falhas no Aprendizado de Máquina (Machine learning). Como fazer as perguntas certas?
Como a IA Generativa pode apoiar a prática de análise avançada
Gerenciando o risco de privacidade de dados em análises avançadas