Superinteligência artificial pode chegar em 2027, prevê cientista

Imagem via Unsplash

#Inteligência Artificial 

É uma previsão ousada.

Podemos ainda não ter alcançado a inteligência artificial geral (AGI), mas como afirma um dos maiores especialistas no campo teórico, ela pode chegar aqui mais cedo ou mais tarde.

Durante seus comentários finais no Beneficial AGI Summit deste ano no Panamá, o cientista da computação e entusiasta de armarinhos Ben Goertzel disse que embora as pessoas provavelmente não construam IA de nível humano ou sobre-humana até 2029 ou 2030, há uma chance de que isso possa acontecer assim que 2027.

Depois disso, disse o fundador da SingularityNET, a AGI poderia então evoluir rapidamente para a superinteligência artificial (ASI), que ele define como uma IA com todo o conhecimento combinado da civilização humana.

“Ninguém criou inteligência artificial geral em nível humano ainda; ninguém tem um conhecimento sólido de quando chegaremos lá”, disse Goertzel ao público da conferência. “Quero dizer, existem incógnitas conhecidas e provavelmente incógnitas desconhecidas.”

“Por outro lado, parece-me bastante plausível que possamos chegar a uma AGI de nível humano, digamos, nos próximos três a oito anos”, acrescentou.

Para ser justo, Goertzel está longe de estar sozinho na tentativa de prever quando a AGI será alcançada.

No outono passado, por exemplo, o cofundador do Google DeepMind, Shane Legg, reiterou sua previsão de mais de uma década de que há uma chance de 50/50 de que os humanos inventem a AGI até o ano de 2028. Em um tweet de maio do ano passado, “AI padrinho” e o ex-Googler Geoffrey Hinton disse que agora prevê, “sem muita confiança”, que a AGI estará dentro de cinco a 20 anos.

Mais conhecido como o criador do robô humanóide Sophia, Goertzel há muito teoriza sobre a data da chamada “singularidade”, ou o ponto em que a IA atinge a inteligência de nível humano e subsequentemente a ultrapassa.

Até os últimos anos, AGI, como Goertzel e sua equipe a descrevem, parecia uma quimera, mas com os avanços do modelo de linguagem grande (LLM) feitos pela OpenAI desde que lançou o ChatGPT ao mundo no final de 2022, essa possibilidade parece cada vez mais fechar – embora ele seja rápido em apontar que os LLMs por si só não são o que levará à AGI.

“Minha opinião é que, uma vez que você chegue à AGI de nível humano, dentro de alguns anos você poderá obter uma AGI radicalmente sobre-humana – a menos que a AGI ameace limitar seu próprio desenvolvimento por causa de seu próprio conservadorismo”, acrescentou o pioneiro da IA. “Acho que uma vez que um AGI possa introspectar sua própria mente, ele poderá fazer engenharia e ciência em um nível humano ou sobre-humano”.

“Deveria ser capaz de criar uma AGI mais inteligente, depois uma AGI ainda mais inteligente e depois uma explosão de inteligência”, acrescentou, presumivelmente referindo-se à singularidade.

Naturalmente, há muitas advertências sobre o que Goertzel está pregando, e a menos importante delas é que, pelos padrões humanos, mesmo uma IA sobre-humana não teria uma “mente” como a nossa. Depois, há a suposição de que a evolução da tecnologia continuaria por um caminho linear, como se estivesse no vácuo do resto da sociedade humana e dos danos que causamos ao planeta.

Mesmo assim, é uma teoria convincente – e dada a rapidez com que a IA progrediu apenas nos últimos anos, os seus comentários não devem ser totalmente desacreditados.


Publicado em 09/03/2024 20h05

Artigo original: