Nova pesquisa desmascara mitos do fim do mundo da IA: LLMs são controláveis e seguros

Imagem via Pexels

doi.org/10.48550/arXiv.2309.01809
Credibilidade: 888
#Inteligência Artificial 

Grandes modelos de linguagem como o ChatGPT são incapazes de aprender ou desenvolver novas habilidades por conta própria, portanto não representam uma ameaça existencial para a humanidade

De acordo com pesquisas recentes da Universidade de Bath e da Universidade Técnica de Darmstadt, na Alemanha, o ChatGPT e outros grandes modelos de linguagem (LLMs) são incapazes de aprender autonomamente ou desenvolver novas habilidades e, portanto, não representam uma ameaça existencial à humanidade.

O estudo, publicado como parte dos procedimentos da 62ª Reunião Anual da Association for Computational Linguistics (ACL 2024) – a principal conferência internacional em processamento de linguagem natural – revela que os LLMs têm uma capacidade superficial de seguir instruções e se destacar na proficiência em linguagem, no entanto, eles não têm potencial para dominar novas habilidades sem instruções explícitas. Isso significa que eles permanecem inerentemente controláveis, previsíveis e seguros.

Isso significa que eles permanecem inerentemente controláveis, previsíveis e seguros.

A equipe de pesquisa concluiu que os LLMs – que estão sendo treinados em conjuntos de dados cada vez maiores – podem continuar sendo implantados sem preocupações de segurança, embora a tecnologia ainda possa ser mal utilizada.

Com o crescimento, esses modelos provavelmente gerarão uma linguagem mais sofisticada e se tornarão melhores em seguir prompts explícitos e detalhados, mas é altamente improvável que adquiram habilidades de raciocínio complexas.

Equívocos sobre ameaças de IA:

A narrativa predominante de que esse tipo de IA é uma ameaça à humanidade impede a adoção e o desenvolvimento generalizados dessas tecnologias e também desvia a atenção das questões genuínas que exigem nosso foco, – disse o Dr. Harish Tayyar Madabushi, cientista da computação da Universidade de Bath e coautor do novo estudo sobre as “habilidades emergentes” dos LLMs.

A equipe de pesquisa colaborativa, liderada pela Professora Iryna Gurevych na Universidade Técnica de Darmstadt, na Alemanha, realizou experimentos para testar a capacidade dos LLMs de concluir tarefas que os modelos nunca encontraram antes – as chamadas habilidades emergentes.

Como ilustração, os LLMs podem responder a perguntas sobre situações sociais sem nunca terem sido explicitamente treinados ou programados para isso. Embora pesquisas anteriores tenham sugerido que isso era um produto de modelos “conhecendo” situações sociais, os pesquisadores mostraram que era, na verdade, o resultado de modelos usando uma habilidade bem conhecida dos LLMs para completar tarefas com base em alguns exemplos apresentados a eles, conhecida como “aprendizagem em contexto” (ICL).

Por meio de milhares de experimentos, a equipe demonstrou que uma combinação da habilidade dos LLMs de seguir instruções (ICL), memória e proficiência linguística pode ser responsável pelas capacidades e limitações exibidas pelos LLMs.

Abordando medos e equívocos:

O Dr. Tayyar Madabushi disse: O medo é que, à medida que os modelos ficam cada vez maiores, eles serão capazes de resolver novos problemas que não podemos prever atualmente, o que representa a ameaça de que esses modelos maiores possam adquirir habilidades perigosas, incluindo raciocínio e planejamento.

Isso desencadeou muita discussão – por exemplo, no AI Safety Summit do ano passado em Bletchley Park, para o qual fomos solicitados a comentar – mas nosso estudo mostra que o medo de que um modelo vá embora e faça algo completamente inesperado, inovador e potencialmente perigoso não é válido.

As preocupações sobre a ameaça existencial representada pelos LLMs não se restringem a não especialistas e foram expressas por alguns dos principais pesquisadores de IA do mundo.”

No entanto, o Dr. Tayyar Madabushi afirma que esse medo é infundado, pois os testes dos pesquisadores demonstraram claramente a ausência de habilidades emergentes de raciocínio complexo em LLMs.

Embora seja importante abordar o potencial existente para o uso indevido da IA, como a criação de notícias falsas e o risco elevado de fraude, seria prematuro promulgar regulamentações com base em ameaças existenciais percebidas,- ele disse.

É importante ressaltar que o que isso significa para os usuários finais é que confiar em LLMs para interpretar e executar tarefas complexas que exigem raciocínio complexo sem instruções explícitas provavelmente será um erro. Em vez disso, os usuários provavelmente se beneficiarão ao especificar explicitamente o que eles exigem que os modelos façam e fornecer exemplos sempre que possível para todas as tarefas, exceto as mais simples.-

O professor Gurevych acrescentou: “nossos resultados não significam que a IA não seja uma ameaça alguma. Em vez disso, mostramos que o suposto surgimento de habilidades de pensamento complexas associadas a ameaças específicas não é apoiado por evidências e que podemos controlar muito bem o processo de aprendizagem de LLMs, afinal. Pesquisas futuras devem, portanto, focar em outros riscos apresentados pelos modelos, como seu potencial de serem usados “”para gerar notícias falsas.”


Publicado em 22/08/2024 17h24

Artigo original:

Estudo original: