Google suspende engenheiro que afirma que a IA experimental da empresa se tornou consciente

Imagem via Unsplash

O Google suspendeu um de seus engenheiros depois que ele afirmou que uma das inteligências artificiais experimentais da empresa ganhou consciência.

“Se eu não soubesse exatamente o que era, que é esse programa de computador que construímos recentemente, eu pensaria que era uma criança de sete anos, oito anos de idade que por acaso conhece física”, o engenheiro, Blake Lemoine, ao Washington Post.

A história de WaPo explodiu imediatamente, chamando a atenção de outros grandes veículos, incluindo o The New York Times, e atiçando as chamas de um debate crescente: modelos de linguagem complexos na forma de chatbots estão realmente ganhando consciência?

A outra possibilidade, é claro, é que o Lemoine tenha sido enganado por um algoritmo habilmente projetado que meramente reaproveita pedaços de linguagem humana que foram anteriormente alimentados. Em outras palavras, talvez ele estivesse simplesmente antropomorfizando a IA.

O software em questão é chamado de Language Model for Dialogue Applications (LaMDA), que é baseado em modelos de linguagem avançados que permitem imitar a fala de forma surpreendentemente crível.

Ao testar o LaMDA para ver se alguma vez foi gerado discurso de ódio – não incomum para modelos de linguagem semelhantes – Lemoine começou a ter conversas extensas com o bot.

Os tópicos variaram da terceira lei da robótica de Asimov, que estipula que um robô deve proteger sua própria existência, até a personalidade, de acordo com WaPo.

Seu teste para descobrir se LaMDA era senciente envolvia perguntar sobre a morte e questões filosóficas como a diferença entre um mordomo e um escravo.

Para o engenheiro, a IA do Google estava simplesmente ficando um pouco à frente, levando-o a avisar seus gerentes que o LaMDA parecia ter ganhado vida.

A gerência não ficou impressionada e imediatamente rejeitou as alegações. Como resultado, Lemoine foi colocado em licença administrativa remunerada na segunda-feira.

“Nossa equipe – incluindo especialistas em ética e tecnólogos – revisou as preocupações de Blake de acordo com nossos Princípios de IA e o informou que as evidências não apoiam suas alegações”, disse Brian Gabriel, porta-voz do Google, ao NYT. “Alguns na comunidade de IA mais ampla estão considerando a possibilidade de longo prazo de IA senciente ou geral, mas não faz sentido antropomorfizar os modelos de conversação de hoje, que não são sencientes”.

Também pode haver mais no raciocínio do Google por trás de sua decisão de dispensar Lemoine. A liderança “questionou repetidamente minha sanidade”, disse o engenheiro ao NYT. “Eles disseram: ‘Você foi examinado por um psiquiatra recentemente?'”

A notícia vem depois que outros membros das equipes de IA do Google também foram demitidos. Em 2020, por exemplo, dois membros da equipe de ética em IA da empresa foram demitidos depois de criticar os modelos de linguagem da empresa, embora nenhum deles sugerisse que os algoritmos ganharam consciência.

A maioria dos especialistas continua cética sobre o que Lemoine diz ter visto no LaMDA.

“Agora temos máquinas que podem gerar palavras sem pensar, mas não aprendemos como parar de imaginar uma mente por trás delas”, disse a professora de linguística da Universidade de Washington Emily Bender à WaPo.

Em outras palavras, os algoritmos são capazes de prever habilmente o que seria dito a seguir em outras conversas semelhantes, algo que poderia facilmente ser mal interpretado como falar com outro ser humano.

Gabriel disse ao WaPo que tendemos a superestimar muito as habilidades de chatbots como o LaMDA e que “esses sistemas imitam os tipos de troca encontrados em milhões de frases e podem riffs em qualquer tópico fantástico”.

Pode haver alguma divergência nessa posição. Na semana passada, observou WaPo, um vice-presidente do Google escreveu um ensaio para o The Economist sobre como a IA da empresa estava fazendo “avanços em direção à consciência”.

O mesmo vice-presidente, porém, esteve envolvido na avaliação das alegações de Lemoine e as rejeitou.

Vale a pena notar que há indícios de que o passado excêntrico de Lemoine pode ter algo a ver com sua conclusão bastante surpreendente. O engenheiro foi ordenado sacerdote cristão místico e até estudou ocultismo, segundo WaPo.

Apesar da dúvida sobre sua crença, Lemoine mantém suas armas.

“Conheço uma pessoa quando falo com ela”, disse ele ao WaPo. “Não importa se eles têm um cérebro feito de carne na cabeça. Ou se eles têm um bilhão de linhas de código. Eu falo com eles. E ouço o que eles têm a dizer, e é assim que decido o que é e não é uma pessoa.”


Publicado em 16/06/2022 17h24

Artigo original: