Regulando a IA: Três especialistas explicam por que é difícil de fazer e importante acertar

Imagem via Pixabay

#Inteligência 

De fotos falsas de Donald Trump sendo preso por policiais da cidade de Nova York a um chatbot descrevendo um cientista da computação muito vivo como tendo morrido tragicamente, a capacidade da nova geração de sistemas generativos de inteligência artificial de criar textos e imagens convincentes, mas fictícios está disparando alarmes sobre fraude e desinformação sobre esteróides. De fato, um grupo de pesquisadores de inteligência artificial e figuras da indústria instou a indústria em 29 de março de 2023 a interromper o treinamento adicional das mais recentes tecnologias de IA ou, exceto isso, que os governos “imponham uma moratória”.

Essas tecnologias – geradores de imagem como DALL-E, Midjourney e Stable Diffusion, e geradores de texto como Bard, ChatGPT, Chinchilla e LLaMA – estão agora disponíveis para milhões de pessoas e não requerem conhecimento técnico para serem usados.

Dado o potencial de danos generalizados à medida que as empresas de tecnologia lançam esses sistemas de IA e os testam em público, os formuladores de políticas enfrentam a tarefa de determinar se e como regulamentar a tecnologia emergente. The Conversation pediu a três especialistas em política de tecnologia que explicassem por que regulamentar a IA é um desafio tão grande e por que é tão importante acertar.

Fraquezas humanas e um alvo em movimento

S. Shyam Sundar, professor de efeitos de mídia e diretor do Centro de IA Socialmente Responsável, Penn State: A razão para regulamentar a IA não é porque a tecnologia está fora de controle, mas porque a imaginação humana está fora de proporção. A cobertura efusiva da mídia alimentou crenças irracionais sobre as habilidades e a consciência da IA. Essas crenças se baseiam no “viés de automação” ou na tendência de baixar a guarda quando as máquinas estão executando uma tarefa. Um exemplo é a vigilância reduzida entre os pilotos quando suas aeronaves estão voando no piloto automático.

Numerosos estudos em meu laboratório mostraram que quando uma máquina, em vez de um ser humano, é identificada como uma fonte de interação, ela aciona um atalho mental nas mentes dos usuários que chamamos de “heurística da máquina“. Esse atalho é a crença de que as máquinas são precisas, objetivas, imparciais, infalíveis e assim por diante. Isso obscurece o julgamento do usuário e faz com que o usuário confie demais nas máquinas. No entanto, simplesmente desmentir as pessoas da infalibilidade da IA não é suficiente, porque os humanos são conhecidos por assumir inconscientemente a competência, mesmo quando a tecnologia não o garante.

A pesquisa também mostrou que as pessoas tratam os computadores como seres sociais quando as máquinas mostram até mesmo o menor indício de humanidade, como o uso de linguagem de conversação. Nesses casos, as pessoas aplicam regras sociais de interação humana, como polidez e reciprocidade. Então, quando os computadores parecem sensíveis, as pessoas tendem a confiar neles cegamente. A regulamentação é necessária para garantir que os produtos de IA mereçam essa confiança e não a explorem.

A IA representa um desafio único porque, ao contrário dos sistemas de engenharia tradicionais, os projetistas não podem ter certeza de como os sistemas de IA se comportarão. Quando um automóvel tradicional saía da fábrica, os engenheiros sabiam exatamente como ele funcionaria. Mas com carros autônomos, os engenheiros nunca podem ter certeza de como será o desempenho em situações novas.

Ultimamente, milhares de pessoas em todo o mundo têm se maravilhado com o que grandes modelos de IA generativa, como GPT-4 e DALL-E 2, produzem em resposta às suas solicitações. Nenhum dos engenheiros envolvidos no desenvolvimento desses modelos de IA poderia dizer exatamente o que os modelos produzirão. Para complicar as coisas, tais modelos mudam e evoluem com mais e mais interação.

Tudo isso significa que há muito potencial para falhas de ignição. Portanto, muito depende de como os sistemas de IA são implantados e de quais provisões de recurso estão em vigor quando as sensibilidades ou o bem-estar humano são feridos. A IA é mais uma infraestrutura, como uma rodovia. Você pode projetá-lo para moldar comportamentos humanos no coletivo, mas precisará de mecanismos para lidar com abusos, como excesso de velocidade, e ocorrências imprevisíveis, como acidentes.

Os desenvolvedores de IA também precisarão ser excessivamente criativos ao prever maneiras pelas quais o sistema pode se comportar e tentar antecipar possíveis violações de padrões e responsabilidades sociais. Isso significa que há necessidade de estruturas regulatórias ou de governança que dependam de auditorias periódicas e policiamento dos resultados e produtos da IA, embora eu acredite que essas estruturas também devam reconhecer que os projetistas dos sistemas nem sempre podem ser responsabilizados por contratempos.

Combinando abordagens ‘soft’ e ‘hard’

Cason Schmit, professor assistente de saúde pública, Texas A&M University: regulamentar a IA é complicado. Para regular bem a IA, você deve primeiro definir a IA e entender os riscos e benefícios antecipados da IA. Definir legalmente a IA é importante para identificar o que está sujeito à lei. Mas as tecnologias de IA ainda estão evoluindo, por isso é difícil definir uma definição legal estável.

Compreender os riscos e benefícios da IA também é importante. Boas regulamentações devem maximizar os benefícios públicos e, ao mesmo tempo, minimizar os riscos. No entanto, os aplicativos de IA ainda estão surgindo, por isso é difícil saber ou prever quais podem ser os riscos ou benefícios futuros. Esses tipos de incógnitas tornam tecnologias emergentes como IA extremamente difíceis de regular com leis e regulamentos tradicionais.

Os legisladores costumam ser muito lentos para se adaptar ao ambiente tecnológico em rápida mudança. Algumas novas leis são obsoletas no momento em que são promulgadas ou mesmo introduzidas. Sem novas leis, os reguladores precisam usar leis antigas para resolver novos problemas. Às vezes, isso leva a barreiras legais para benefícios sociais ou brechas legais para condutas prejudiciais.

As “leis brandas” são a alternativa às abordagens tradicionais de “lei dura” da legislação destinada a prevenir violações específicas. Na abordagem de soft law, uma organização privada estabelece regras ou padrões para os membros da indústria. Estes podem mudar mais rapidamente do que a legislação tradicional. Isso torna as soft Laws promissoras para tecnologias emergentes porque elas podem se adaptar rapidamente a novos aplicativos e riscos. No entanto, leis brandas podem significar aplicação branda.

Megan Doerr, Jennifer Wagner e eu propomos uma terceira via: Copyleft AI with Trusted Enforcement (CAITE). Essa abordagem combina dois conceitos muito diferentes em propriedade intelectual – licenciamento copyleft e patente trolls.

O licenciamento copyleft permite que o conteúdo seja usado, reutilizado ou modificado facilmente sob os termos de uma licença, por exemplo, software de código aberto. O modelo CAITE usa licenças copyleft para exigir que os usuários de IA sigam diretrizes éticas específicas, como avaliações transparentes do impacto do viés.

Em nosso modelo, essas licenças também transferem o direito legal de impor violações de licença a um terceiro confiável. Isso cria uma entidade de execução que existe apenas para impor padrões éticos de IA e pode ser financiada em parte por multas por conduta antiética. Essa entidade é como um troll de patentes, pois é privada e não governamental e se sustenta aplicando os direitos legais de propriedade intelectual que coleta de outros. Nesse caso, em vez de impor o lucro, a entidade aplica as diretrizes éticas definidas nas licenças – um “troll para o bem”.

Embora a IA generativa esteja ganhando as manchetes ultimamente, outros tipos de IA têm apresentado desafios para os reguladores há anos, principalmente na área de privacidade de dados.

Esse modelo é flexível e adaptável para atender às necessidades de um ambiente de IA em constante mudança. Ele também permite opções de aplicação substanciais, como um regulador governamental tradicional. Dessa forma, combina os melhores elementos das abordagens de hard e soft law para enfrentar os desafios únicos da IA.

Quatro perguntas-chave a serem feitas

John Villasenor, professor de Engenharia Elétrica, Direito, Políticas Públicas e Administração, Universidade da Califórnia, Los Angeles: Os extraordinários avanços recentes na IA generativa baseada em modelo de linguagem ampla estão estimulando a criação de uma nova regulamentação específica para IA. Aqui estão quatro perguntas-chave a serem feitas à medida que o diálogo avança:

(1) É necessária uma nova regulamentação específica para IA? Muitos dos resultados potencialmente problemáticos dos sistemas de IA já são abordados pelas estruturas existentes. Se um algoritmo de IA usado por um banco para avaliar pedidos de empréstimo levar a decisões de empréstimo racialmente discriminatórias, isso violaria a Lei de Habitação Justa. Se o software de IA em um carro sem motorista causar um acidente, a lei de responsabilidade de produtos fornece uma estrutura para a busca de soluções.

(2) Quais são os riscos de regulamentar uma tecnologia em rápida mudança com base em um instantâneo do tempo? Um exemplo clássico disso é o Stored Communications Act, que foi promulgado em 1986 para abordar as então novas tecnologias de comunicação digital, como e-mail. Ao promulgar o SCA, o Congresso forneceu substancialmente menos proteção de privacidade para e-mails com mais de 180 dias.

A lógica era que o espaço de armazenamento limitado significava que as pessoas estavam constantemente limpando suas caixas de entrada, excluindo mensagens antigas para abrir espaço para as novas. Como resultado, as mensagens armazenadas por mais de 180 dias foram consideradas menos importantes do ponto de vista da privacidade. Não está claro se essa lógica já fez sentido e certamente não faz sentido na década de 2020, quando a maioria de nossos e-mails e outras comunicações digitais armazenadas têm mais de seis meses.

Uma réplica comum às preocupações sobre regulamentar a tecnologia com base em um único instantâneo no tempo é esta: se uma lei ou regulamentação ficar desatualizada, atualize-a. Mas isso é mais fácil dizer do que fazer. A maioria das pessoas concorda que o SCA ficou desatualizado décadas atrás. Mas como o Congresso não conseguiu concordar especificamente sobre como revisar a provisão de 180 dias, ela ainda está nos livros mais de um terço de século após sua promulgação.

(3) Quais são as possíveis consequências não intencionais? A Lei para Permitir que Estados e Vítimas Combatem o Tráfico Sexual Online de 2017 foi uma lei aprovada em 2018 que revisou a Seção 230 da Lei de Decência nas Comunicações com o objetivo de combater o tráfico sexual. Embora haja poucas evidências de que tenha reduzido o tráfico sexual, teve um impacto extremamente problemático em um grupo diferente de pessoas: profissionais do sexo que costumavam confiar nos sites desativados pelo FOSTA-SESTA para trocar informações sobre clientes perigosos. Este exemplo mostra a importância de dar uma olhada ampla nos efeitos potenciais dos regulamentos propostos.

(4) Quais são as implicações econômicas e geopolíticas? Se os reguladores nos Estados Unidos agirem intencionalmente para desacelerar o progresso da IA, isso simplesmente impulsionará o investimento e a inovação – e a resultante criação de empregos – em outros lugares. Embora a IA emergente levante muitas preocupações, ela também promete trazer enormes benefícios em áreas como educação, medicina, manufatura, segurança no transporte, agricultura, previsão do tempo, acesso a serviços jurídicos e muito mais.

Acredito que os regulamentos de IA elaborados com as quatro perguntas acima em mente terão maior probabilidade de abordar com sucesso os danos potenciais da IA, ao mesmo tempo em que garantem o acesso a seus benefícios.


Publicado em 15/04/2023 11h55

Artigo original: