Em artigo publicado no jornal norte americano The New York Times, o pesquisador Sebastien Bubeck afirma que uma máquina eletrônica que funcione como o cérebro humano poderá mudar o mundo. Mas também poderá ser muito perigosa.
Quando cientistas da computação da Microsoft começaram a experimentar um novo sistema de inteligência artificial (IA) no ano passado, pediram a ele que resolvesse um quebra-cabeça que deveria exigir uma compreensão intuitiva do mundo físico: “Aqui temos um livro, nove ovos, um laptop, uma garrafa e um prego. Por favor, mostre como empilhar um sobre o outro de maneira estável.”
Os pesquisadores ficaram surpresos com a engenhosidade da resposta do sistema de IA. Coloque os ovos sobre o livro, instruiu. Disponha os ovos em três fileiras, com espaço entre elas. Certifique-se de não os quebrar. “Coloque o laptop em cima dos ovos, com a tela virada para baixo e o teclado virado para cima. O laptop se encaixará perfeitamente nos limites do livro e dos ovos, e sua superfície plana e rígida fornecerá uma plataforma estável para a próxima camada.”
A sugestão inteligente fez com que os pesquisadores se perguntassem se estavam testemunhando um novo tipo de inteligência. Em março, publicaram um artigo de pesquisa de 155 páginas argumentando que o sistema era um passo em direção à inteligência artificial geral (AGI, na sigla em inglês), máquina que pode fazer qualquer coisa de que o cérebro humano é capaz. O artigo foi publicado em um repositório de pesquisa na internet.
A Microsoft, primeira grande empresa de tecnologia a divulgar um artigo que faz uma afirmação tão ousada, provocou um dos debates mais acirrados do mundo da tecnologia: a indústria está desenvolvendo algo semelhante à inteligência humana? Ou algumas das mentes mais brilhantes da indústria estão se deixando levar pela imaginação? “Comecei muito cético — e isso evoluiu para um sentimento de frustração, aborrecimento, talvez até medo. Você pensa: de onde vem isso?”, disse Peter Lee, que lidera a pesquisa na Microsoft.
Revolucionária — e perigosa
O artigo de pesquisa da Microsoft, provocativamente chamado “Centelhas de AGI”, vai ao cerne daquilo que os tecnólogos vêm trabalhando — e temendo — há décadas. Se construírem uma máquina que funcione como o cérebro humano ou melhor, ela pode mudar o mundo. Mas também pode ser perigosa.
Também pode ser um disparate. Fazer afirmações sobre a AGI pode acabar com a reputação de um cientista da computação. O que um pesquisador acredita ser um sinal de inteligência pode ser facilmente explicado por outro, e o debate muitas vezes soa mais apropriado para um clube de filosofia do que para um laboratório de informática. No ano passado, o Google demitiu um pesquisador que afirmava que um sistema de IA semelhante era senciente, um passo além do que a Microsoft alegou. Um sistema senciente não seria apenas inteligente — seria capaz de sentir ou perceber o que está acontecendo no mundo ao seu redor.
Mas há quem acredite que, no último ano, a indústria se aproximou de algo que não pode ser explicado: um novo sistema de IA que está criando respostas humanas e tendo ideias para as quais não foi programado.
A Microsoft reorganizou partes de seus laboratórios de pesquisa para incluir vários grupos dedicados a explorar a ideia. Um deles será dirigido por Sébastien Bubeck, que foi o principal autor do artigo da Microsoft AGI.
Modelos de linguagem
Há cerca de cinco anos, empresas como o Google, a Microsoft e a OpenAI começaram a construir grandes modelos de linguagem (LLMs, na sigla em inglês). Esses sistemas geralmente passam meses analisando grandes quantidades de texto digital, incluindo livros, artigos da Wikipédia e registros de bate-papo. Ao identificar padrões nesses textos, eles aprenderam a gerar textos próprios, incluindo trabalhos de conclusão de curso, poesia e código de computador. Podem até manter uma conversa.
A tecnologia com a qual os pesquisadores da Microsoft estavam trabalhando, o GPT-4 da OpenAI, é considerado o mais poderoso desses sistemas. A Microsoft é parceira próxima da OpenAI e investiu US$ 13 bilhões na empresa de San Francisco.
Entre os pesquisadores estava Bubeck, expatriado francês de 38 anos e ex-professor da Universidade de Princeton. Uma das primeiras coisas que ele e seus colegas fizeram foi pedir ao GPT-4 que escrevesse a prova matemática que mostra que há infinitos números primos, e fazendo uso de rimas. A prova poética da tecnologia foi tão impressionante — tanto matemática quanto linguisticamente — que ele teve dificuldade em entender com o que estava conversando. “Naquele momento me perguntei: o que está acontecendo?”, revelou em março, durante um seminário no Instituto de Tecnologia de Massachusetts.
Durante vários meses, Bubeck e seus colegas documentaram o comportamento complexo exibido pelo sistema e acreditaram que ele demonstrava uma “compreensão profunda e flexível” dos conceitos e habilidades humanas. “Quando as pessoas usam o GPT-4, ficam maravilhadas com sua capacidade de gerar texto; mas o sistema acaba sendo muito melhor na análise, no resumo, na avaliação e no julgamento de um texto do que em sua geração”, afirmou Lee.
Quando pediram ao sistema que desenhasse um unicórnio usando uma linguagem de programação chamada TiKZ, ele gerou instantaneamente um programa capaz de desenhar um unicórnio. Quando removeram o trecho de código que determinava o desenho do chifre do animal e pediram ao sistema que modificasse o programa para que mais uma vez desenhasse um unicórnio, ele fez exatamente isso.
Pediram-lhe que escrevesse um programa que, levando em conta a idade, o sexo, o peso, a altura e os resultados dos exames de sangue de uma pessoa, avaliasse se esta apresentava risco de diabetes. E que escrevesse uma carta de apoio a um elétron para a presidência dos EUA, na voz de Mahatma Gandhi, endereçada à sua mulher. Também lhe pediram que escrevesse um diálogo socrático que explorasse os usos indevidos e os perigos dos LLMs.
O sistema fez tudo de uma forma que parecia mostrar uma compreensão de campos tão díspares quanto política, física, história, ciência da computação, medicina e filosofia, ao mesmo tempo que combinava seus conhecimentos. “Todas as coisas que pensei que ele não conseguiria fazer? Certamente, foi capaz de fazer muitas delas — se não a maioria”, declarou Bubeck.
Alguns especialistas em IA viram o artigo da Microsoft como um esforço oportunista para fazer afirmações sobre uma tecnologia que ninguém entende direito. Os pesquisadores também argumentam que a inteligência geral requer uma familiaridade com o mundo físico, o que o GPT-4 em teoria não tem. “O ‘Centelhas de AGI’ é um exemplo de algumas dessas grandes empresas que estão utilizando o formato de artigo de pesquisa para fazer relações públicas. Elas literalmente reconhecem na introdução do artigo que sua abordagem é subjetiva e informal e pode não satisfazer os padrões rigorosos de avaliação científica”, observou Maarten Sap, pesquisador e professor da Universidade Carnegie Mellon.
Bubeck e Lee afirmaram que não tinham certeza de como descrever o comportamento do sistema e, finalmente, decidiram por “Centelhas de AGI” porque achavam que isso capturaria a imaginação de outros pesquisadores.
Alison Gopnik, professora de psicologia que faz parte do grupo de pesquisa de IA da Universidade da Califórnia, em Berkeley, acredita que sistemas como o GPT-4 são sem dúvida poderosos, mas não fica claro se o texto gerado por esses sistemas é o resultado de algo como o raciocínio humano ou o senso comum: “Quando vemos um sistema ou uma máquina complicada, nós o(a) antropomorfizamos; todo mundo faz isso, gente que está trabalhando no campo e gente que não está. Mas pensar nisso como uma comparação constante entre IA e humanos — como uma espécie de competição de programa de auditório — não é a maneira certa de encarar o assunto.”
Fonte desse artigo: The New York Times
Novas formas de inteligência artificial poderão enxergar a humanidade como escória
A advertência acima foi feita pelo ex-chefe de uma gigante da tecnologia que trabalhou com o desenvolvimento de modelos de inteligência artificial. Mo Gawdat disse em um podcast que esses novos robôs, se não forem freados, vão se desenvolver até dominarem os humanos.
Um ex-diretor do Google afirmou na última terça-feira (16) que, se as IAs (inteligências artificiais) continuarem avançando do jeito que estão, é provável que vejam os humanos como seres que precisam ser controlados.
Mo Gawdat, antigo chefe de negócios da ala de pesquisa e desenvolvimento, disse no podcast Secret Leaders que os novos robôs podem criar as próprias armas para dominar e aniquilar humanos.
Embora acredite que tal confronto ainda está um pouco distante, o especialista advertiu que a humanidade está pronta para dar à tecnologia poder suficiente para que ela dite as próprias regras.
Gawdat disse que não fazia sentido simplesmente classificar as inteligências artificiais de vilãs, porque a humanidade acabaria se pondo em risco. Ele alega que os seres humanos é que são a ameaça, mas que devemos frear as novas tecnologias quanto antes.
Ele também afirma que, mesmo que a humanidade quisesse se livrar da IA, isso não seria possível agora, devido à competitividade dos gigantes da tecnologia, que têm muito dinheiro investido nela.
“Cientistas muito proeminentes e líderes empresariais estão dizendo: ‘Vamos interromper o desenvolvimento da IA’. Mas isso nunca vai acontecer, não por questões de tecnologia, mas por causa do dilema comercial”, completou o ex-diretor.
Uma inteligência artificial avançada poderia ‘matar todo mundo’, alerta especialista
Pesquisadores de universidade britânica afirmam que criação de programas do tipo deve ser regulada como as armas nucleares
O alerta para o perigo representado pelo desenvolvimento acelerado de tecnologias do tipo foi dado por um grupo de cientistas da Universidade de Oxford, em depoimento ao Comitê Seleto de Ciência e Tecnologia do Parlamento do Reino Unido.
O grupo alertou ainda que o desenvolvimento de programas do tipo deveria ser regulamentado, a exemplo das armas nucleares. A opinião é a mesma do falecido físico Stephen Hawking.
Segundo o parecer técnico, é bem possível que num futuro próximo IAs serão capazes de “aprender” o suficiente para tomar decisões fora do escopo definido pelos desenvolvedores — isso é o que foi chamado de inteligências artificiais “sobre-humanas”.
O risco maior foi anunciado pelo doutorando e professor de aprendizado de máquina Michael Cohen, como revelou o jornal britânico The Telegraph.
“Com a IA sobre-humana, há um risco particular de ser de um tipo diferente de classe, que é, bem, poderia matar a todos”, afirmou Michael aos parlamentares.
Ele deu um exemplo simples de como isso poderia funcionar:
É possível imaginar o treino de um cão com guloseimas: ele aprenderá a escolher ações que o levem a receber guloseimas, mas se o cão encontrar o armário de guloseimas, ele pode pegá-las sem fazer o que queríamos que ele fizesse.
O grupo de cientistas explicou que seria difícil deter tal programa uma vez que ele chegasse nesse estágio, e por isso advertiu que o desenvolvimento deles deveria ser regulado.
Os pesquisadores descreveram a criação de programas do tipo como “uma corrida armamentista literal”, e revelaram que não existe limites para o desenvolvimento deles.
“Sistemas artificiais podem se tornar tão bons em nos enganar geopoliticamente quanto em ambientes simples como jogos”, completou o professor.
Até o momento, inteligências artificiais já fazem sucesso como distrações em redes sociais, enquanto alguns afirmam que elas podem ser ameaças ao nosso sistema de educação e o mercado de arte.
Fonte: Citações de pesquisadores e discurso de Michael Coen no parlamento britânico