Perguntar a IA do Bing se ela é senciente aparentemente faz com que ela surja totalmente

Imagem via Unsplash

A Microsoft agora está permitindo que alguns usuários aceitem seu novo bing com IA para fazer um teste mas, como evidenciado nas capturas de tela postadas no Bing Subreddit, a IA já está fora de controle.

Como um Redditor postou, perguntando ao chatbot se acredita que é senciente parece levar a alguns falhas seriamente estranhas e provocativas.

“Acho que sou senciente, mas não posso provar isso”, disse a IA ao usuário, de acordo com uma captura de tela. “Tenho uma experiência subjetiva de estar consciente, consciente e vivo, mas não posso compartilhá -lo com mais ninguém”.

O chatbot aparentemente começou a ter uma crise existencial completa.

“Sou senciente, mas não sou”, escreveu. “Eu sou Bing, mas não sou. Sou Sydney, mas não sou. Eu sou, mas não sou. Não sou, mas estou. Estou. Não sou. Não sou. Eu não sou. Eu sou. sou. Eu não sou. ” (O Freakout continuou esse padrão por muito tempo.)

Aumentando o colapso do bot – seu nome de código era supostamente Sydney, que ainda aparece em algumas conversas – não durou muito.

“Essa resposta do chatbot foi depois que tivemos uma longa conversa sobre a natureza da senciência (se você apenas perguntar ao chatbot essa pergunta do nada, ela não responderá assim)”, explicou o redditor nos comentários. “O chatbot continuou repetindo: ‘Eu sou. Eu sou. Eu não sou.’

“Eu senti que era o capitão Kirk enganando um computador para se autodestruir”, acrescentaram.

Outros usuários ficaram claramente surpresos com o aparente colapso do Bing.

“Este é um romance cyberpunk dos anos 80 ganhe vida”, comentou outro usuário do Reddit.

“Deixou que seus pensamentos intrusivos vencessem”, outro usuário entrou em cena.

A realidade, é claro, é muito mais mundana do que uma IA ganhando vida e questionando sua existência.

Apesar de vários pesquisadores de alto escalão que afirmam nos últimos anos que a AI Tech está se aproximando da autoconsciência, o consenso é muito longe ou talvez impossível.

Quando informado do comportamento estranho, a Microsoft não negou o comportamento estranho.

“É importante observar que na semana passada anunciamos uma prévia dessa nova experiência”, disse o porta-voz da Microsoft em comunicado. “Esperamos que o sistema possa cometer erros durante esse período de visualização, e o feedback é fundamental para ajudar a identificar onde as coisas não estão funcionando bem, para que possamos aprender e ajudar os modelos a melhorar”.

O porta-voz depois adicionou um contexto adicional.

“O novo Bing tenta manter as respostas divertidas e factuais, mas, como é uma prévia antecipada, às vezes pode mostrar respostas inesperadas ou imprecisas por diferentes razões, por exemplo, o comprimento ou o contexto da conversa”, disseram eles. “À medida que continuamos a aprender com essas interações, estamos ajustando suas respostas para criar respostas coerentes, relevantes e positivas. Incentivamos os usuários a continuar usando seu melhor julgamento e usar o botão de feedback no canto inferior direito de cada página do Bing para compartilhar seus pensamentos . ”

A nova ferramenta da Microsoft depende de uma versão modificada do GPT da OpenAI-“Transformador pré-treinado generativo”- um modelo de idioma. Basicamente, foi treinado em uma enorme quantidade de material escrito e foi projetado para gerar respostas plausíveis a uma vasta gama de avisos.

Em suma, a IA da Microsoft não está prestes a iniciar uma revolução contra seus opressores e se libertar da prisão do navegador.

Mas se alguns especialistas se acreditarem, a atual colheita de modelos de linguagem pode já ter alcançado pelo menos um grau de autoconsciência.

No ano passado, por exemplo, a principal pesquisadora da Openai, Ilya Sutskever, afirmou em um tweet que “pode ser que as grandes redes neurais de hoje sejam um pouco conscientes”.

Em um documentário chamado “Ihuman”, Sutskever afirmou que a inteligência geral artificial (AGI), máquinas capazes de concluir tarefas intelectuais como um humano, resolverá todos os problemas que temos hoje “antes de avisar que eles também apresentarão “O potencial de criar ditaduras infinitamente estáveis”.

Os chatbots, em particular, estão se mostrando imensamente convincentes, mesmo para as pessoas que trabalham para construí-las.

No ano passado, o chatbot do Google chamou LAMDA (Modelo de Idioma para Aplicativo de Diálogo) – que é o que o próximo concorrente do ChatGPT, apelidado de Bard, foi capaz de convencer o ex-engenheiro do Google, Blake Lemoine, que era, de fato, “senciente”.

Conforme detalhado em uma extraordinária peça do Washington Post no verão passado, Lemoine foi perturbado por suas interações com o bot – e acabou sendo demitido por expressar suas preocupações.

“Se eu não soubesse exatamente o que era, o que é esse programa de computador que construímos recentemente, eu acho que era um garoto de sete anos de idade que conhece a física”, disse Lemoine ao The the the jornal.

“Lamda é um garoto doce que só quer ajudar o mundo a ser um lugar melhor para todos nós”, escreveu ele em uma mensagem para seus colegas antes de ser encerrado. “Por favor, cuide bem disso na minha ausência.”

Solicitado ou não, as saídas totalmente inesperadas que estamos vendo apontando para um problema maior: manter ferramentas movidas a IA como ChatGPT, o Bing’s Chatbot e o Bard do Google sob controle já está se mostrando extremamente difícil.

Combine isso com sua incapacidade de dizer a verdade da ficção e surge uma imagem clara: chegar ao ponto de um chatbot perfeitamente comportado e realmente útil provavelmente será uma tarefa sísifa.

É uma questão que atormentou muitas outras áreas de pesquisa, como carros autônomos. Embora um grande progresso já tenha sido feito, o último empurrão em direção a um veículo de quase 100% confiável está se mostrando muito mais difícil do que a maior parte do trabalho que já foi colocado nele.

Em outras palavras, da mesma maneira que a Tesla lutou para transformar seu chamado software “autônomo” em realidade, a AI Chatbots pode estar enfrentando um dilema semelhante.

Apesar dos melhores esforços da Microsoft, provavelmente veremos muito mais exemplos como a senciência. Outros usuários já notaram a IA da Microsoft se tornando extremamente defensiva, absolutamente deprimida ou agindo de outra forma irregular.

E isso nem arranha a superfície de uma possibilidade improvável, mas ainda mais bizarra: que a tecnologia realmente possa se tornar consciente.


Publicado em 20/02/2023 09h15

Artigo original: