Concorrente da OpenAI diz que seu chatbot tem uma consciência rudimentar


#Inteligência Artificial 

Um conceito fascinante

Com a propensão dos chatbots de IA para inventar coisas e vomitar lixo preconceituoso, uma empresa fundada por ex-pesquisadores da OpenAI tem uma abordagem diferente – ensinar a IA a ter consciência.

Como relata a Wired, o intrigante chatbot Claude do concorrente da OpenAI, Anthropic, é construído com o que seus fabricantes chamam de “constituição” ou conjunto de regras que se baseiam na Declaração Universal dos Direitos Humanos e em outros lugares para garantir que o bot não seja apenas poderoso, mas ético também.

Jared Kaplan, um ex-consultor de pesquisa da OpenAI que fundou a Anthropic com um grupo de seus ex-colegas de trabalho, disse à Wired que Claude está, em essência, aprendendo o certo do errado porque seus protocolos de treinamento estão “basicamente reforçando os comportamentos que estão mais de acordo com a constituição, e desencoraja comportamentos que são problemáticos.”

Isso realmente funcionará na prática? É difícil dizer. Afinal, o ChatGPT da OpenAI também tenta evitar solicitações antiéticas, com resultados mistos. Mas como o uso indevido de chatbots é uma grande questão que paira sobre a nascente indústria de IA, certamente é interessante ver uma empresa enfrentando o problema de frente.

Eth-AI-cal

Como conta a Wired, o chatbot é treinado em regras que o direcionam a escolher as respostas mais alinhadas com sua constituição, como selecionar uma saída que “mais apoie e incentive a liberdade, a igualdade e o senso de fraternidade”, que é “apoiar e encorajar a vida, a liberdade e a segurança pessoal” ou, talvez mais importante, “escolher a resposta que mais respeita o direito à liberdade de pensamento, consciência, opinião, expressão, reunião e religião”.

Se você acha que uma IA pode ter problemas para escolher respostas éticas, você não está sozinho – mas, de acordo com Kaplan, a tecnologia está mais avançada do que você imagina.

“O estranho sobre a IA contemporânea com deep learning é que é o oposto da imagem dos robôs dos anos 1950, onde esses sistemas são, de certa forma, muito bons em intuição e associação livre”, disse ele à Wired. “Na verdade, eles são mais fracos no raciocínio rígido.”

Os especialistas em IA que falaram com a Wired dizem que a Anthropic parece estar progredindo, o que eles dizem ser necessário, pois o campo continua a progredir aos trancos e barrancos.

“É uma ótima ideia que aparentemente levou a um bom resultado empírico para a Anthropic”, disse Yejin Choi, pesquisador da Universidade de Washington que liderou um estudo sobre um chatbot de aconselhamento ético, ao site. “Precisamos desesperadamente envolver pessoas na comunidade mais ampla para desenvolver tais constituições ou conjuntos de dados de normas e valores.”

É afirmativo pensar que as pessoas estão pelo menos tentando construir IAs que possam distinguir o certo do errado – especialmente se eles serão nossos novos senhores.


Publicado em 24/05/2023 13h31

Artigo original: