O CEO da Anthropic afirma que no próximo ano, os modelos de IA poderão ser capazes de ‘replicar e sobreviver na natureza’

O impacto no equilíbrio do poder militar global é motivo de preocupação – Imagem via Unsplash

#Robô 

Eu poderia estar errado. Mas acho que pode ser uma coisa de curto prazo.

À medida que a IA parece tornar-se mais poderosa a cada dia, uma das principais pessoas que investem em torná-la mais inteligente diz que em breve poderá até tornar-se autossustentável e auto-replicante.

Em uma entrevista em podcast com Ezra Klein, do New York Times, o CEO da Anthropic, Dario Amodei, discutiu o “escalamento responsável? da tecnologia – e como, sem governança, ela pode começar a, bem, se reproduzir.

Como Amodei explicou a Klein, a Anthropic usa os níveis de biossegurança do laboratório de virologia como uma analogia para a IA.

Atualmente, diz ele, o mundo está na ASL 2 – e a ASL 4, que incluiria “autonomia” e “persuasão”, pode estar chegando “A ASL 4 será mais sobre, no lado do uso indevido, permitir que o Estado intervenientes de nível superior aumentem significativamente a sua capacidade, o que é muito mais difícil do que permitir pessoas aleatórias”, disse Amodei.

“Portanto, nos preocuparíamos que a Coreia do Norte, a China ou a Rússia pudessem melhorar significativamente as suas capacidades ofensivas em várias áreas militares com IA, de uma forma que lhes daria uma vantagem substancial a nível geopolítico”.

IA autônoma

No entanto, quando se trata do “lado da autonomia? das coisas, suas previsões ficam ainda mais selvagens.

“Várias medidas desses modelos”, continuou ele, “estão muito perto de serem capazes de replicar e sobreviver na natureza”.

Quando Klein perguntou quanto tempo levaria para chegar a esses vários níveis de ameaça, Amodei – que disse estar acostumado a pensar “em exponenciais? – disse que acha que o nível de “replicar e sobreviver na natureza? poderia ser alcançado “em qualquer lugar de 2025 a 2028.” “Estou realmente falando sobre o futuro próximo aqui.

Não estou falando de 50 anos de distância”, disse o CEO da Anthropic.

“Deus me conceda a castidade, mas não agora.

Mas ‘agora não’ não significa quando eu estiver velho e grisalho.

Acho que pode ser a curto prazo.” Amodei é uma figura séria no espaço.

Em 2021, ele e sua irmã Daniela deixaram a OpenAI por diferenças direcionais após a criação do GPT-3 – que o CEO e cofundador ajudaram construindo – e a parceria da empresa com a Microsoft.

Logo depois, os irmãos fundaram a Anthropic junto com outros expatriados da OpenAI para continuar seus esforços de expansão responsável.

“Não sei”, continuou ele durante a entrevista com Klein.

“Posso estar errado.

Mas acho que pode ser uma coisa de curto prazo.” Embora o discurso apocalíptico sobre IA seja bastante normal atualmente, a perspectiva interna de Amodei acrescenta muito peso ao seu argumento – e faz com que a missão da Anthropic “garantir que a IA transformadora ajude as pessoas e a sociedade a florescer” pareça ainda mais digna.


Publicado em 17/04/2024 10h01

Artigo original: