Como a IA pode distorcer nosso senso de responsabilidade

Pesquisas mostram como o uso de um sistema aprimorado por IA pode afetar a percepção humana de sua própria intuição e responsabilidade.

À medida que a inteligência artificial desempenha um papel cada vez maior em sistemas automatizados e processos de tomada de decisão, a questão de como ela afeta o senso de agência das pessoas está se tornando menos teórica e mais urgente. Continuar lendo Como a IA pode distorcer nosso senso de responsabilidade

GE e a necessidade de inovar em uma organização tradicional

Kevin Nolan, engenheiro por formação e veterano de 28 anos da GE, é o presidente e CEO da GE Appliances. Ele se tornou CTO da empresa em 2006, 10 anos antes de sua aquisição pelo grupo multinacional chinês Haier. O periódico MIT Sloan Management Review publicou em junho de 2024 uma entrevista com Nolan sobre a evolução da empresa e do setor, e o que é necessário para ser uma empresa inovadora hoje. Esta entrevista foi editada para maior clareza e concisão.

Continuar lendo GE e a necessidade de inovar em uma organização tradicional

Superando os problemas difíceis para avançar na prática de IA

A excitação em torno dos grandes modelos de linguagem (LLMs) impulsiona os gastos em IA, mas a pergunta crucial para líderes empresariais continua sendo: Qual é o retorno dos nossos investimentos em ciência de dados? No curto prazo, análise avançada e aprendizado de máquina são as tecnologias essenciais para criar valor significativo a partir dos ativos de dados. Não que isso seja fácil; as empresas enfrentam inúmeros desafios ao longo do caminho.

Muito do risco da IA se torna aparente quando os sistemas estão em produção, então uma IA verdadeiramente responsável não é apenas uma preocupação no início do processo de desenvolvimento. Cathy O’Neil, que levantou questões difíceis sobre as consequências não intencionadas da tomada de decisão algorítmica em seu livro de 2016, Weapons of Math Destruction, foi pioneira na prática de auditoria algorítmica. O’Neil e seus coautores Jake Appel e Sam Tyner-Monroe guiam os leitores por sua abordagem e discutem como ela pode ser aplicada também às ferramentas de IA generativa.

O dilema entre usar dados para insights e proteger os dados pessoais dos clientes se torna ainda mais difícil à medida que os maus atores aprimoram suas técnicas para reidentificar conjuntos de dados anonimizados. Gregory Vial, Julien Crowe e Patrick Mesana explicam por que lidar com esse desafio exigirá que cientistas de dados adquiram um entendimento mais sofisticado da proteção de dados e obrigue as equipes de cibersegurança a aprender uma gama mais ampla de técnicas de proteção. Eles extraem lições das práticas emergentes no National Bank of Canada, onde cientistas de dados, proprietários de dados e equipes de cibersegurança estão colaborando para aplicar práticas de proteção de dados que não tornem os dados inutilizáveis para análise.

No entanto, quando projetos de aprendizado de máquina recebem luz verde, muitas iniciativas falham após a adoção porque os cientistas de dados não compreenderam completamente o problema de negócios original. Para descobrir onde tais esforços estão falhando, Dusan Popovic, Shreyas Lakhtakia, Will Landecker e Melissa Valentine estudaram projetos de ciência de dados que foram arquivados. Eles descobriram que convencer os cientistas de dados a abandonar suas suposições e começar a fazer perguntas mais fundamentais aos seus colegas de negócios é crucial para evitar falhas em projetos de aprendizado de máquina.

Por fim, assim como as corporações estão experimentando com LLMs para descobrir onde podem agregar valor com risco relativamente baixo, as equipes de análise avançada podem estar explorando como incorporar IA generativa na prática. Pedro Amorim e João Alves veem promessa para LLMs assumirem parte da rotina da ciência de dados e para suas interfaces de linguagem natural tornarem mais fácil para gestores de negócios colaborarem no processo de desenvolvimento e entenderem os resultados.

Confira os 4 artigos publicados pelo periódico trimestral MIT Sloan Business Review de Junho de 2024 que abordam os desafios no avanço da Inteligência Artificial:

Realizando auditorias de risco em algorítmos

Evitando falhas no Aprendizado de Máquina (Machine learning). Como fazer as perguntas certas?

Como a IA Generativa pode apoiar a prática de análise avançada

Gerenciando o risco de privacidade de dados em análises avançadas

Gerenciando o risco de privacidade de dados em análises avançadas

Técnicas de ciber segurança que mantêm dados pessoais seguros podem limitar seu uso para análises — mas cientistas de dados, proprietários de dados e profissionais de TI podem colaborar mais estreitamente para encontrar um meio-termo. Como podemos proteger a privacidade dos dados pessoais de nossos clientes enquanto utilizamos esses dados por meio de IA e análises?

Essa pergunta reflete um dilema interno crescente à medida que as empresas buscam análises avançadas e inteligência artificial.

Continuar lendo Gerenciando o risco de privacidade de dados em análises avançadas

Por que gerentes territoriais sufocam a inovação — e o que fazer a respeito

Gerentes que se sentem inseguros sobre seu status tendem a não encorajar ideias novas de seus funcionários. Fomentar sua identificação com a organização pode mudar esse comportamento.

Dilip tem trabalhado arduamente em uma ideia revolucionária para um novo produto. Mas quando ele, animadamente, aborda seu chefe para compartilhar a ideia e obter aprovação para um maior desenvolvimento e testes, sua proposta é rapidamente rejeitada. Em vez de oferecer um feedback construtivo sobre como tornar a ideia viável, seu chefe menciona vagamente a falta de orçamento e desencoraja Dilip de seguir adiante com outras ideias.

Soa familiar? Infelizmente, tais cenários são muito comuns em muitas organizações. Continuar lendo Por que gerentes territoriais sufocam a inovação — e o que fazer a respeito