Nova idéia matemática rédea no viés da IA para fazer escolhas comerciais antiéticas e caras

Credit: CC0 Public Domain

Pesquisadores da Universidade de Warwick, do Imperial College de Londres, da EPFL (Lausanne) e da Sciteb Ltd descobriram um meio matemático de ajudar reguladores e empresas a gerenciar e policiar os vieses dos sistemas de Inteligência Artificial para fazer escolhas comerciais antiéticas e potencialmente muito caras e prejudiciais com olho ético na IA.

A inteligência artificial (IA) é cada vez mais implantada em situações comerciais. Considere, por exemplo, usar a IA para definir preços de produtos de seguros a serem vendidos para um cliente específico. Existem razões legítimas para definir preços diferentes para pessoas diferentes, mas também pode ser proveitoso “brincar” com sua psicologia ou vontade de comprar.

A AI tem um grande número de estratégias em potencial para escolher, mas algumas são antiéticas e incorrem não apenas em custos morais, mas em uma penalidade econômica potencial significativa, pois as partes interessadas aplicarão alguma penalidade se descobrirem que essa estratégia foi usada – os reguladores podem cobrar multas significativas de bilhões de dólares, libras ou euros e os clientes podem boicotar você – ou ambos.

Portanto, em um ambiente em que as decisões são cada vez mais tomadas sem intervenção humana, há, portanto, um incentivo muito forte para saber em que circunstâncias os sistemas de IA podem adotar uma estratégia antiética e reduzir esse risco ou eliminar completamente, se possível.

Matemáticos e estatísticos da Universidade de Warwick, Imperial, EPFL e Sciteb Ltd se uniram para ajudar as empresas e os reguladores a criar um novo “Princípio de Otimização Antiética” e fornecer uma fórmula simples para estimar seu impacto. Eles descreveram todos os detalhes em um artigo com o nome “Um princípio de otimização antiético”, publicado no Royal Society Open Science na quarta-feira, 1º de julho de 2020.

Os quatro autores do artigo são Nicholas Beale, da Sciteb Ltd; Heather Battey, do Departamento de Matemática, Imperial College London; Anthony C. Davison, do Instituto de Matemática, Ecole Polytechnique Fédérale de Lausanne; e o professor Robert MacKay, do Instituto de Matemática da Universidade de Warwick.

O professor Robert MacKay, do Instituto de Matemática da Universidade de Warwick, disse:

“Nosso sugerido” Princípio de otimização antiética “pode ser usado para ajudar reguladores, equipe de conformidade e outras pessoas a encontrar estratégias problemáticas que podem estar ocultas em um amplo espaço estratégico. Espera-se que a otimização escolha desproporcionalmente muitas estratégias antiéticas, cuja inspeção deve mostrar onde os problemas provavelmente surgirão e, portanto, sugerem como o algoritmo de busca da IA deve ser modificado para evitá-los no futuro.

“O Princípio também sugere que pode ser necessário repensar o modo como a IA opera em espaços estratégicos muito grandes, para que resultados antiéticos sejam explicitamente rejeitados no processo de otimização / aprendizagem”.


Publicado em 03/07/2020 06h49

Artigo original:


Achou importante? Compartilhe!


Assine nossa newsletter e fique informado sobre Astrofísica, Biofísica, Geofísica e outras áreas. Preencha seu e-mail no espaço abaixo e clique em “OK”: