Novo método expõe como funciona a inteligência artificial

Imagem via Unsplash

Pesquisadores do Laboratório Nacional de Los Alamos desenvolveram um novo método para comparar redes neurais que analisa a “caixa preta” da inteligência artificial para ajudar os pesquisadores a compreender o comportamento da rede neural. As redes neurais identificam padrões em conjuntos de dados e são utilizadas em aplicações tão diversas quanto assistentes virtuais, sistemas de reconhecimento facial e veículos autônomos.

“A comunidade de pesquisa em inteligência artificial não tem necessariamente uma compreensão completa do que as redes neurais estão fazendo; eles nos dão bons resultados, mas não sabemos como ou por quê”, disse Haydn Jones, pesquisador do grupo de Pesquisa Avançada em Sistemas Cibernéticos em Los Alamos. “Nosso novo método faz um trabalho melhor ao comparar redes neurais, o que é um passo crucial para entender melhor a matemática por trás da IA”.

Pesquisadores de Los Alamos estão procurando novas maneiras de comparar redes neurais. Esta imagem foi criada com um software de inteligência artificial chamado Stable Diffusion, usando o prompt “Peeking into the black box of neural networks”. Crédito:

Laboratório Nacional de Los Alamos


Jones é o principal autor de um artigo recente apresentado na Conferência sobre Incerteza em Inteligência Artificial. O artigo é um passo importante na caracterização do comportamento de redes neurais robustas, além de estudar a similaridade de redes.

As redes neurais são de alto desempenho, mas frágeis. Por exemplo, veículos autônomos empregam redes neurais para reconhecer sinais. Eles são bastante hábeis em fazer isso em circunstâncias perfeitas. A rede neural, no entanto, pode detectar erroneamente um sinal e nunca parar se houver a menor anormalidade, como um adesivo em um sinal de pare.

Portanto, a fim de melhorar as redes neurais, pesquisadores estão buscando estratégias para aumentar a robustez da rede. Um método de ponta envolve “atacar” as redes enquanto elas estão sendo treinadas. A IA é treinada para ignorar anormalidades que os pesquisadores introduzem propositalmente. Em essência, essa técnica, conhecida como treinamento contraditório, torna mais difícil enganar as redes.

Em uma descoberta surpreendente, Jones e seus colaboradores de Los Alamos, Jacob Springer e Garrett Kenyon, bem como o mentor de Jones, Juston Moore, aplicaram sua nova métrica de similaridade de rede a redes neurais treinadas por adversários. Eles descobriram que, à medida que a gravidade do ataque aumenta, o treinamento do adversário faz com que as redes neurais no domínio da visão computacional convirjam para representações de dados muito semelhantes, independentemente da arquitetura da rede.

“Descobrimos que quando treinamos redes neurais para serem robustas contra ataques adversários, elas começam a fazer as mesmas coisas”, disse Jones.

Tem havido um grande esforço na indústria e na comunidade acadêmica em busca da “arquitetura certa” para redes neurais, mas as descobertas da equipe de Los Alamos indicam que a introdução do treinamento contra adversários restringe substancialmente esse espaço de pesquisa. Como resultado, a comunidade de pesquisa de IA pode não precisar gastar tanto tempo explorando novas arquiteturas, sabendo que o treinamento adversário faz com que diversas arquiteturas convirjam para soluções semelhantes.

“Ao descobrir que redes neurais robustas são semelhantes entre si, estamos tornando mais fácil entender como a IA robusta pode realmente funcionar. Podemos até estar descobrindo dicas de como a percepção ocorre em humanos e outros animais”, disse Jones.


Publicado em 25/10/2022 01h20

Artigo original:

Link original: