Enorme grupo pede pausa temporária em IA mais avançada que GPT-4

Imagem via Unsplash

#GPT 

Até Elon se juntou a eles

Uma carta aberta, assinada por mais de 1.100 especialistas em inteligência artificial, CEOs e pesquisadores – incluindo o CEO da SpaceX, Elon Musk – pede uma moratória de seis meses em “experimentos de IA” que levam a tecnologia além de um ponto em que é mais poderoso do que o OpenAI recentemente. lançou o modelo de linguagem grande GPT-4.

É uma notável expressão de preocupação de um verdadeiro quem é quem entre algumas das mentes mais informadas que trabalham no campo da IA hoje, incluindo pesquisadores da DeepMind da Alphabet e o “padrinho da IA” Yoshua Bengio.

“Sistemas de IA com inteligência competitiva humana podem representar riscos profundos para a sociedade e a humanidade, conforme demonstrado por extensa pesquisa e reconhecido pelos principais laboratórios de IA”, diz a carta, emitida pela organização sem fins lucrativos Future of Life, acrescentando que “IA avançada pode representar uma profunda mudança na história da vida na Terra, e deve ser planejada e gerenciada com cuidados e recursos adequados.”

“Infelizmente, esse nível de planejamento e gerenciamento não está acontecendo”, continua a carta, “embora nos últimos meses tenhamos visto os laboratórios de IA travados em uma corrida descontrolada para desenvolver e implantar mentes digitais cada vez mais poderosas que ninguém – nem mesmo até mesmo seus criadores – podem entender, prever ou controlar de forma confiável.”

A carta questiona se devemos permitir que a IA inunde a internet com “propaganda e falsidade” e tire empregos dos humanos.

Ele também faz referência aos comentários recentes do CEO da OpenAI, Sam Altman, sobre inteligência artificial geral, nos quais ele argumentou que a empresa usará a AGI para “beneficiar toda a humanidade”, sentimentos que foram imediatamente criticados por especialistas.

A pausa de seis meses que os especialistas pedem deve ser usada para “desenvolver e implementar um conjunto de protocolos de segurança compartilhados para design e desenvolvimento avançados de IA que são rigorosamente auditados e supervisionados por especialistas externos independentes”, escrevem eles.

“A pesquisa e o desenvolvimento de IA devem ser reorientados para tornar os sistemas poderosos e de última geração de hoje mais precisos, seguros, interpretáveis, transparentes, robustos, alinhados, confiáveis e leais”, diz a carta.

Esse tipo de preocupação é repetido por governos de todo o mundo, que estão lutando para se antecipar ao problema e abordar a regulamentação da IA de maneira significativa. No ano passado, o presidente dos Estados Unidos, Joe Biden, divulgou um rascunho de uma declaração de direitos da IA, que permitiria aos cidadãos optar por não tomar decisões por algoritmos de IA, mas especialistas criticaram a proposta por ser desdentada.

E não são apenas os governos. Musk, que ajudou a fundar a OpenAI em 2015 antes de deixar as diferenças ideológicas três anos depois, expressou repetidamente preocupação com a IA excessivamente poderosa.

“A IA me estressa”, disse o bilionário aos investidores da Tesla no início deste mês, esclarecendo mais tarde que está “um pouco preocupado” com isso.

“Precisamos de algum tipo de autoridade reguladora ou algo que supervisione o desenvolvimento da IA”, acrescentou Musk na época. “Certifique-se de que está operando no interesse público. É uma tecnologia bastante perigosa. Temo que possa ter feito algumas coisas para acelerá-la.”

Com a OpenAI, uma empresa que se transformou de uma empresa sem fins lucrativos em uma com fins lucrativos depois que Musk saiu, não é difícil ver os perigos potenciais de um modelo de desenvolvimento de IA voltado para o lucro.

Se a empresa está agindo de boa fé ou caçando acordos multibilionários com empresas como a Microsoft para maximizar os lucros, permanece obscuro como sempre.

E o perigo de uma IA descontrolada que faz mais mal do que bem é mais presciente do que se poderia pensar. A atual safra de modelos de IA, como o GPT-4, ainda tem uma tendência preocupante de alucinar fatos e potencialmente enganar os usuários, um aspecto da tecnologia que claramente assusta os especialistas.


Publicado em 01/04/2023 00h26

Artigo original: