A Itália bloqueia temporariamente o ChatGPT por questões de privacidade

O logotipo OpenAI é visto em um telefone celular na frente de uma tela de computador exibindo a saída do ChatGPT, em 21 de março de 2023, em Boston. O órgão de vigilância da privacidade do governo italiano disse na sexta-feira, 31 de março de 2023, que está bloqueando temporariamente o software de inteligência artificial ChatGPT após uma violação de dados. Crédito: AP Photo/Michael Dwyer, arquivo

#ChatGPT 

A Itália está bloqueando temporariamente o software de inteligência artificial ChatGPT após uma violação de dados, enquanto investiga uma possível violação das rígidas regras de proteção de dados da União Europeia, disse o órgão regulador de privacidade do governo na sexta-feira.

A Autoridade Italiana de Proteção de Dados disse que estava tomando medidas provisórias “até que o ChatGPT respeite a privacidade”, incluindo limitar temporariamente a empresa de processar dados de usuários italianos.

A OpenAI, com sede nos EUA, que desenvolveu o chatbot, disse na noite de sexta-feira que desativou o ChatGPT para usuários italianos a pedido do governo. A empresa disse acreditar que suas práticas cumprem as leis de privacidade europeias e espera disponibilizar o ChatGPT novamente em breve.

Embora algumas escolas e universidades públicas em todo o mundo tenham bloqueado o ChatGPT de suas redes locais devido a preocupações com plágio estudantil, a ação da Itália é “a primeira restrição em escala nacional de uma plataforma de IA convencional por uma democracia”, disse Alp Toker, diretor do grupo de defesa. NetBlocks, que monitora o acesso à internet em todo o mundo.

A restrição afeta a versão web do ChatGPT, popularmente usado como assistente de redação, mas é improvável que afete os aplicativos de software de empresas que já possuem licenças com OpenAI para usar a mesma tecnologia do chatbot, como o mecanismo de busca Bing da Microsoft.

Os sistemas de IA que alimentam esses chatbots, conhecidos como grandes modelos de linguagem, são capazes de imitar estilos de escrita humana com base no enorme tesouro de livros digitais e escritos online que eles ingeriram.

O órgão regulador italiano disse que a OpenAI deve relatar em 20 dias quais medidas foram tomadas para garantir a privacidade dos dados dos usuários ou enfrentar uma multa de até 20 milhões de euros (quase US$ 22 milhões) ou 4% da receita global anual.

A declaração da agência cita o Regulamento Geral de Proteção de Dados da UE e apontou para uma recente violação de dados envolvendo as “conversas dos usuários” do ChatGPT e informações sobre pagamentos de assinantes.

A OpenAI anunciou anteriormente que precisava colocar o ChatGPT offline em 20 de março para corrigir um bug que permitia que algumas pessoas vissem os títulos ou linhas de assunto do histórico de bate-papo de outros usuários.

“Nossa investigação também descobriu que 1,2% dos usuários do ChatGPT Plus podem ter dados pessoais revelados a outro usuário”, disse a empresa. “Acreditamos que o número de usuários cujos dados foram realmente revelados a outra pessoa é extremamente baixo e entramos em contato com aqueles que podem ser afetados”.

O órgão de vigilância da privacidade da Itália, conhecido como Garante, também questionou se a OpenAI tinha justificativa legal para sua “coleta e processamento maciço de dados pessoais” usados para treinar os algoritmos da plataforma. E disse que o ChatGPT às vezes pode gerar e armazenar informações falsas sobre indivíduos.

Por fim, observou que não há sistema para verificar a idade dos usuários, expondo as crianças a respostas “absolutamente inadequadas para sua idade e conhecimento”.

A OpenAI disse em resposta que funciona “para reduzir os dados pessoais no treinamento de nossos sistemas de IA, como o ChatGPT, porque queremos que nossa IA aprenda sobre o mundo, não sobre indivíduos particulares”.

“Também acreditamos que a regulamentação da IA é necessária – por isso esperamos trabalhar em estreita colaboração com o Garante e educá-los sobre como nossos sistemas são construídos e usados”, disse a empresa.

A ação do cão de guarda italiano surge no momento em que crescem as preocupações com o boom da inteligência artificial. Um grupo de cientistas e líderes da indústria de tecnologia publicou uma carta na quarta-feira pedindo que empresas como a OpenAI parem o desenvolvimento de modelos de IA mais poderosos até o outono para dar tempo para a sociedade avaliar os riscos.

O presidente da agência de vigilância da privacidade da Itália disse à TV estatal italiana na noite de sexta-feira que foi um dos que assinou o apelo. Pasquale Stanzione disse que o fez porque “não está claro quais objetivos estão sendo perseguidos” por aqueles que desenvolvem IA.

Se a IA “impedir” a “autodeterminação” de uma pessoa, então “isso é muito perigoso”, disse Stanzione. Ele também descreveu a ausência de filtros para usuários com menos de 13 anos como “bastante grave”.

O CEO da OpenAI, com sede em São Francisco, Sam Altman, anunciou esta semana que embarcará em uma viagem por seis continentes em maio para falar sobre a tecnologia com usuários e desenvolvedores. Isso inclui uma parada planejada para Bruxelas, onde legisladores da União Europeia vêm negociando novas regras abrangentes para limitar ferramentas de IA de alto risco, bem como visitas a Madri, Munique, Londres e Paris.

O grupo europeu de consumidores BEUC pediu na quinta-feira que as autoridades da UE e os 27 países membros do bloco investiguem o ChatGPT e outros chatbots de IA semelhantes. A BEUC disse que pode levar anos até que a legislação de IA da UE entre em vigor, então as autoridades precisam agir mais rapidamente para proteger os consumidores de possíveis riscos.

“Em apenas alguns meses, vimos uma aceitação massiva do ChatGPT, e isso é apenas o começo”, disse a vice-diretora geral Ursula Pachl.

Esperar pela Lei de IA da UE “não é bom o suficiente, pois há sérias preocupações crescentes sobre como o ChatGPT e chatbots semelhantes podem enganar e manipular as pessoas”.


Publicado em 07/04/2023 10h00

Artigo original: