A Inteligência Artificial realmente destruirá a humanidade?

O grupo Stop Killer Robots descartou explicitamente o cenário Terminator. Imagem via Pixabay

#Inteligência Artificial 

Os alertas vêm de todos os ângulos: a inteligência artificial representa um risco existencial para a humanidade e deve ser contida antes que seja tarde demais.

Mas quais são esses cenários de desastre e como as máquinas devem acabar com a humanidade?

Clipes de papel da desgraça

A maioria dos cenários de desastre começa no mesmo lugar: as máquinas superam as capacidades humanas, escapam ao controle humano e se recusam a ser desligadas.

“Uma vez que tenhamos máquinas com objetivo de autopreservação, teremos problemas”, disse o acadêmico de IA Yoshua Bengio em um evento neste mês.

Mas, como essas máquinas ainda não existem, imaginar como elas poderiam condenar a humanidade costuma ser deixado para a filosofia e a ficção científica.

O filósofo Nick Bostrom escreveu sobre uma “explosão de inteligência” que ele diz que acontecerá quando máquinas superinteligentes começarem a projetar suas próprias máquinas.

Ele ilustrou a ideia com a história de uma IA superinteligente em uma fábrica de clipes de papel.

A IA tem o objetivo final de maximizar a produção de clipes de papel e, assim, “converte primeiro a Terra e depois pedaços cada vez maiores do universo observável em clipes de papel”.

As ideias de Bostrom foram descartadas por muitos como ficção científica, até porque ele argumentou separadamente que a humanidade é uma simulação de computador e apoiou teorias próximas à eugenia.

O filósofo Nick Bostrom teve a ideia de uma IA superinteligente convertendo a Terra em clipes de papel. Imagem via Pixabay

Ele também se desculpou recentemente depois que uma mensagem racista que ele enviou na década de 1990 foi descoberta.

No entanto, seus pensamentos sobre IA foram extremamente influentes, inspirando Elon Musk e o professor Stephen Hawking.

O Exterminador do Futuro

Se as máquinas superinteligentes pretendem destruir a humanidade, elas certamente precisam de uma forma física.

O ciborgue de olhos vermelhos de Arnold Schwarzenegger, enviado do futuro para acabar com a resistência humana por uma IA no filme “O Exterminador do Futuro”, provou ser uma imagem sedutora, principalmente para a mídia.

Mas os especialistas rejeitaram a ideia.

“É improvável que esse conceito de ficção científica se torne realidade nas próximas décadas, se é que algum dia”, escreveu o grupo de campanha Stop Killer Robots em um relatório de 2021.

No entanto, o grupo alertou que dar às máquinas o poder de tomar decisões sobre a vida ou a morte é um risco existencial.

A especialista em robôs Kerstin Dautenhahn, da Universidade de Waterloo, no Canadá, minimizou esses temores.

O estudioso de IA, Stuart Russell, acredita que os verdadeiros robôs assassinos serão pequenos, no ar e virão em enxames.

Ela disse à AFP que é improvável que a IA dê às máquinas capacidades de raciocínio mais altas ou imbua-as do desejo de matar todos os humanos.

“Os robôs não são maus”, disse ela, embora admitisse que os programadores poderiam fazê-los fazer coisas más.

Precisamos proibir armas autônomas letais (assistindo ao vídeo até o final)

Produtos químicos mais mortais

Um cenário menos abertamente de ficção científica vê “maus atores” usando IA para criar toxinas ou novos vírus e liberá-los no mundo.

Grandes modelos de linguagem como o GPT-3, que foi usado para criar o ChatGPT, são extremamente bons em inventar novos agentes químicos horríveis.

Um grupo de cientistas que estava usando IA para ajudar a descobrir novas drogas realizou um experimento em que eles ajustaram sua IA para procurar moléculas nocivas.

Eles conseguiram gerar 40.000 agentes potencialmente venenosos em menos de seis horas, conforme relatado no jornal Nature Machine Intelligence.

A especialista em IA Joanna Bryson, da Hertie School, em Berlim, disse que poderia imaginar alguém trabalhando em uma maneira de espalhar um veneno como o antraz mais rapidamente.

“Mas não é uma ameaça existencial”, disse ela à AFP. “É apenas uma arma horrível, horrível.”

Stephen Hawking argumentou em 2014 que em algum momento no futuro as máquinas superinteligentes superarão as habilidades humanas e, finalmente, nossa espécie não será mais capaz de competir.

Espécie ultrapassada

As regras de Hollywood ditam que os desastres históricos devem ser súbitos, imensos e dramáticos – mas e se o fim da humanidade for lento, silencioso e não definitivo?

“No fim mais sombrio, nossa espécie pode acabar sem sucessor”, diz o filósofo Huw Price em um vídeo promocional para o Centro de Estudos de Risco Existencial da Universidade de Cambridge.

Mas ele disse que havia “possibilidades menos sombrias” onde humanos aprimorados por tecnologia avançada poderiam sobreviver.

“A espécie puramente biológica eventualmente chega ao fim, pois não há humanos por perto que não tenham acesso a essa tecnologia capacitadora”, disse ele.

O apocalipse imaginado é muitas vezes enquadrado em termos evolutivos.

Stephen Hawking argumentou em 2014 que, em última análise, nossa espécie não será mais capaz de competir com máquinas de IA, dizendo à BBC que isso poderia “significar o fim da raça humana”.

Geoffrey Hinton, que passou sua carreira construindo máquinas que se assemelham ao cérebro humano, recentemente para o Google, fala em termos semelhantes de “superinteligências” simplesmente superando os humanos.

Ele disse recentemente à emissora norte-americana PBS que é possível que “a humanidade seja apenas uma fase passageira na evolução da inteligência”.


Publicado em 02/07/2023 20h06

Artigo original: