Cientistas chineses criaram um ‘promotor’ de Inteligência Artificial que pode denunciar pessoas

Pitiphothivichit/iStock

Na China, uma Inteligência Artificial pode mandar você para a prisão. Pesquisadores no país desenvolveram um algoritmo de máquina que pode acusar pessoas de crimes com a ajuda de inteligência artificial.

Este “promotor” de Inteligência Artificial pode apresentar uma acusação com mais de 97 por cento de precisão com base em uma descrição verbal do caso, de acordo com a equipe. South China Morning Post relatou que a máquina foi construída e testada pela Procuradoria Popular de Shanghai Pudong, a maior e mais movimentada promotoria distrital do país.

De acordo com o professor Shi Yong, diretor do laboratório de big data e gestão do conhecimento da Academia Chinesa de Ciências, e o cientista-chefe do projeto, a tecnologia poderia reduzir a carga de trabalho diária dos promotores, permitindo que eles se concentrassem em tarefas mais difíceis.

Shi e seus colegas disseram que “o sistema pode substituir os promotores no processo de tomada de decisão até certo ponto”, em um artigo publicado este mês na revista especializada Management Review.

Melhor ‘pedido’ necessário

Embora países como a Alemanha agora usem tecnologia de Inteligência Artificial, como reconhecimento de imagem e análise forense digital para aumentar a velocidade e a precisão do processamento de casos, os promotores da China foram os primeiros a adotar quando começaram a usar IA em 2016. Vários deles agora empregam uma ferramenta de IA conhecida como System 206.

A ferramenta pode avaliar a força das evidências, as condições para uma prisão e o quão perigoso um suspeito é considerado para o público.

Mas todas as ferramentas de IA existentes têm um papel limitado, uma vez que “não participam do processo de tomada de decisão de ações e [sugerindo] sentenças”, Shi e seus colegas disseram ao SCMP.

Tomar tais decisões exigiria que uma máquina execute tarefas mais complicadas, como identificar e remover qualquer conteúdo de um arquivo de caso que seja irrelevante para um crime, sem extrair as informações úteis e converter uma linguagem complexa em um formato que um computador possa sondar.

O promotor de Inteligência Artificial desenvolvido pela equipe de Shi pode ser executado em um computador desktop. Para cada suspeito, seria feita uma cobrança com base em 1.000 “características” obtidas a partir do texto de descrição do caso gerado por humanos, a maioria dos quais são muito pequenos ou abstratos para fazer sentido para os humanos. O sistema 206 avaliaria então as evidências.

A máquina foi “treinada” usando mais de 17.000 caixas de 2015 a 2020. Por enquanto, ela pode identificar e apresentar queixa pelos oito crimes mais comuns de Xangai, que incluem fraude de cartão de crédito, operação de jogo, direção perigosa, lesão intencional, obstrução oficial deveres, roubo, fraude e “provocando brigas e provocando problemas” – uma acusação abrangente freqüentemente usada para abafar a dissidência.

Shi e sua equipe disseram que o promotor de IA logo se tornaria mais poderoso com as atualizações. Será capaz de reconhecer crimes menos comuns e apresentar várias acusações contra um suspeito.

Surgem preocupações

O South China Morning Post entrou em contato com um promotor na cidade de Guangzhou, que expressou algumas apreensões sobre o uso de IA na apresentação de acusações. “A precisão de 97 por cento pode ser alta do ponto de vista tecnológico, mas sempre haverá a chance de um erro”, disse o promotor, que pediu para manter o anonimato.

O envolvimento direto da Inteligência Artificial na tomada de decisões também pode afetar a autonomia de um promotor humano. A maioria dos promotores não queria que os cientistas da computação “se intrometessem” em um julgamento legal, disse o promotor.

Nos EUA, estamos muito longe do chamado futuro idealizado prometido pela IA. Ainda estamos trabalhando nos bugs dos algoritmos forenses. Um bom exemplo é o caso do tribunal do Distrito de Columbia de 2017. O caso envolveu um réu anônimo que quase sofreu as consequências de uma programação incorreta apresentada como prova no tribunal.

Para ajudar a resolver isso e outras preocupações relacionadas, o Rep. Takano reintroduziu a Justiça em Algoritmos Forenses, um projeto de lei que visa garantir a proteção dos direitos civis dos réus em processos criminais e estabelecer as melhores práticas para o uso de software de IA forense, no início deste ano com co-patrocinador Dwight Evans (D-Penn.). “Simplesmente não permitimos o argumento de empresas de software de que seus interesses de software proprietário ou segredos comerciais são mais sacrossantos do que os direitos do devido processo dos réus”, disse Takano em uma entrevista à Interesting Engineering.

No entanto, independentemente das imperfeições da IA, a China continua a usar a IA em quase todos os setores do governo para melhorar a eficiência, reduzir a corrupção e fortalecer o controle. Os tribunais chineses têm usado a IA para ajudar os juízes a processar arquivos de casos e tomar decisões como aceitar ou rejeitar um recurso. A maioria das prisões chinesas também adotou a tecnologia de IA para rastrear o estado físico e mental dos prisioneiros, com o objetivo de reduzir a violência.


Publicado em 30/12/2021 06h00

Artigo original: