Os desenvolvedores em Inteligência Artificial muitas vezes ignoram a segurança em busca de um avanço – então, como podemos regulá-los sem bloquear o progresso?

Crédito: bettervector / Shutterstock

Desde que a inteligência artificial (IA) fez a transição da teoria para a realidade, os centros de pesquisa e desenvolvimento em todo o mundo têm se apressado para apresentar o próximo grande avanço da IA.

Esta competição é às vezes chamada de “corrida de IA”. Na prática, porém, existem centenas de “corridas de IA” em direção a objetivos diferentes. Alguns centros de pesquisa estão competindo para produzir IA de marketing digital, por exemplo, enquanto outros estão competindo para emparelhar IA com hardware militar. Algumas corridas são entre empresas privadas e outras entre países.

Como os pesquisadores de IA estão competindo para vencer a corrida escolhida, eles podem ignorar as preocupações com a segurança para ficar à frente de seus rivais. Mas a fiscalização da segurança por meio de regulamentações ainda não foi desenvolvida e a relutância em regulamentar a IA pode na verdade ser justificada: pode sufocar a inovação, reduzindo os benefícios que a IA poderia oferecer à humanidade.

Nossa pesquisa recente, realizada ao lado de nosso colega Francisco C. Santos, procurou determinar quais corridas de IA deveriam ser regulamentadas por razões de segurança, e quais deveriam ser deixadas sem regulamentação para evitar inovações sufocantes. Fizemos isso usando uma simulação de teoria do jogo.

Supremacia da IA

A regulamentação da IA deve considerar os danos e os benefícios da tecnologia. Os danos contra os quais a regulamentação pode buscar legislar incluem o potencial da IA para discriminar comunidades desfavorecidas e o desenvolvimento de armas autônomas. Mas os benefícios da IA, como melhor diagnóstico de câncer e modelagem climática inteligente, podem não existir se a regulamentação da IA for muito pesada. Uma regulamentação sensata de IA maximizaria seus benefícios e mitigaria seus danos.

Mas com os EUA competindo com a China e a Rússia para alcançar a “supremacia da IA” – uma clara vantagem tecnológica sobre seus rivais – os regulamentos ficaram em segundo plano. Isso, de acordo com a ONU, nos empurrou para um “território moral inaceitável”.

Pesquisadores de IA e órgãos de governança, como a UE, pediram regulamentações urgentes para prevenir o desenvolvimento de IA antiética. Ainda assim, o livro branco da UE sobre o assunto reconheceu que é difícil para os órgãos de governança saber qual corrida de IA terminará com IA antiética e qual terminará com IA benéfica.

Olhando para a frente

Queríamos saber quais corridas de IA deveriam ser priorizadas para o regulamento, então nossa equipe criou um modelo teórico para simular corridas de IA hipotéticas. Em seguida, executamos essa simulação em centenas de iterações, ajustando variáveis para prever como as corridas de IA do mundo real poderiam se desenvolver.

Nosso modelo inclui vários agentes virtuais, representando concorrentes em uma corrida de IA – como diferentes empresas de tecnologia, por exemplo. Cada agente foi atribuído aleatoriamente a um comportamento, imitando como esses competidores se comportariam em uma corrida de IA real. Por exemplo, alguns agentes consideram cuidadosamente todos os dados e armadilhas de IA, mas outros assumem riscos indevidos ao ignorar esses testes.

O modelo em si foi baseado na teoria dos jogos evolucionários, que foi usada no passado para entender como os comportamentos evoluem na escala das sociedades, das pessoas ou mesmo dos nossos genes. O modelo assume que os vencedores em um jogo específico – no nosso caso, uma corrida de IA – levam todos os benefícios, como os biólogos afirmam que acontece na evolução.

Ao introduzir regulamentações em nossa simulação – sancionando o comportamento inseguro e recompensando o comportamento seguro – pudemos observar quais regulamentações foram bem-sucedidas em maximizar os benefícios e quais acabaram sufocando a inovação.

Lições de governança

A variável que descobrimos ser particularmente importante foi a “duração” da corrida – o tempo que nossas corridas simuladas levaram para atingir seu objetivo (um produto de IA funcional). Quando as corridas de IA alcançaram seu objetivo rapidamente, descobrimos que os competidores que codificamos para sempre ignorar as precauções de segurança sempre venceram.

Nessas corridas rápidas de IA, ou “corridas de IA”, a vantagem competitiva é obtida por ser rápido, e aqueles que param para considerar a segurança e a ética sempre perdem. Faria sentido regulamentar esses sprints de IA, para que os produtos de IA com os quais eles concluem sejam seguros e éticos.

Por outro lado, nossa simulação descobriu que projetos de IA de longo prazo, ou “maratonas de IA”, exigem regulamentações com menos urgência. Isso porque os vencedores das maratonas de IA nem sempre foram aqueles que negligenciaram a segurança. Além disso, descobrimos que regular as maratonas de IA os impedia de atingir seu potencial. Isso parecia um excesso de regulamentação sufocante – o tipo que poderia realmente funcionar contra os interesses da sociedade.

Dadas essas descobertas, será importante para os reguladores estabelecerem quanto tempo diferentes corridas de IA provavelmente durarão, aplicando diferentes regulamentos com base em seus cronogramas esperados. Nossas descobertas sugerem que uma regra para todas as corridas de IA – de sprints a maratonas – levará a alguns resultados que estão longe do ideal.

Não é tarde demais para criar regulamentos inteligentes e flexíveis para evitar IA antiética e perigosa, ao mesmo tempo que apoia IA que pode beneficiar a humanidade. Mas tais regulamentações podem ser urgentes: nossa simulação sugere que as corridas de IA que devem terminar mais cedo serão as mais importantes de regulamentar.


Publicado em 20/03/2021 16h47

Artigo original:

Estudo original: