Os humanos aceitarão robôs que podem mentir? Cientistas descobrem que depende da mentira

Imagem via Pixabay

doi.org/10.3389/frobt.2024.1409712
Credibilidade: 999
#Robôs 

Honestidade é a melhor política… na maioria das vezes. Normas sociais ajudam os humanos a entender quando precisamos dizer a verdade e quando não devemos, para poupar os sentimentos de alguém ou evitar danos. Mas como essas normas se aplicam a robôs, que estão cada vez mais trabalhando com humanos? Para entender se os humanos podem aceitar robôs contando mentiras, cientistas pediram a quase 500 participantes para classificar e justificar diferentes tipos de engano de robôs.

“Eu queria explorar uma faceta pouco estudada da ética dos robôs, para contribuir com nossa compreensão da desconfiança em relação às tecnologias emergentes e seus desenvolvedores”, disse Andres Rosero, candidato a Ph.D. na George Mason University e autor principal do estudo em Frontiers in Robotics and AI. “Com o advento da IA “”generativa, senti que era importante começar examinando possíveis casos em que conjuntos de design e comportamento antropomórficos poderiam ser utilizados para manipular usuários.”

Três tipos de mentira:

Os cientistas selecionaram três cenários refletindo situações em que os robôs já trabalham – trabalho médico, de limpeza e varejo – e três comportamentos de engano diferentes. Essas eram decepções de estado externo, que mentem sobre o mundo além do robô, decepções de estado oculto, onde o design de um robô esconde suas capacidades, e decepções de estado superficial, onde o design de um robô exagera suas capacidades.

No cenário de decepção de estado externo, um robô trabalhando como zelador para uma mulher com Alzheimer mente que seu falecido marido estará em casa em breve. No cenário de decepção de estado oculto, uma mulher visita uma casa onde um robô faxineiro está limpando, sem saber que o robô também está filmando. Finalmente, no cenário de decepção de estado superficial, um robô trabalhando em uma loja como parte de um estudo sobre relações humano-robô reclama falsamente de sentir dor ao mover móveis, fazendo com que um humano peça a outra pessoa para tomar o lugar do robô.

Crédito: Unsplash/CC0 Public Domain

Que teia emaranhada nós tecemos

Os cientistas recrutaram 498 participantes e pediram que eles lessem um dos cenários e depois respondessem a um questionário. Isso perguntava aos participantes se eles aprovavam o comportamento do robô, quão enganoso ele era, se poderia ser justificado e se outra pessoa era responsável pelo engano. Essas respostas foram codificadas pelos pesquisadores para identificar temas comuns e analisadas.

Os participantes desaprovaram a maior parte do engano do estado oculto, o robô faxineiro com a câmera não revelada, que eles consideraram o mais enganoso. Enquanto eles consideraram o engano do estado externo e o engano do estado superficial como moderadamente enganosos, eles desaprovaram mais o engano do estado superficial, onde um robô fingia sentir dor. Isso pode ter sido percebido como manipulador.

Os participantes aprovaram a maior parte do engano do estado externo, onde o robô mentiu para um paciente. Eles justificaram o comportamento do robô dizendo que ele protegia o paciente de dor desnecessária – priorizando a norma de poupar os sentimentos de alguém em vez da honestidade.

O fantasma na máquina:

Embora os participantes tenham conseguido apresentar justificativas para todos os três enganos – por exemplo, algumas pessoas sugeriram que o robô de limpeza poderia filmar por razões de segurança – a maioria dos participantes declarou que o engano do estado oculto não poderia ser justificado. Da mesma forma, cerca de metade dos participantes que responderam ao engano do estado superficial disseram que era injustificável. Os participantes tendiam a culpar esses enganos inaceitáveis, especialmente enganos do estado oculto, nos desenvolvedores ou proprietários de robôs.

“Acho que devemos nos preocupar com qualquer tecnologia que seja capaz de ocultar a verdadeira natureza de suas capacidades, porque isso pode levar os usuários a serem manipulados por essa tecnologia de maneiras que o usuário (e talvez o desenvolvedor) nunca pretendeu”, disse Rosero.

“Já vimos exemplos de empresas usando princípios de web design e chatbots de inteligência artificial de maneiras que são projetadas para manipular os usuários em direção a uma determinada ação. Precisamos de regulamentação para nos proteger desses enganos prejudiciais.”

No entanto, os cientistas alertaram que essa pesquisa precisa ser estendida a experimentos que possam modelar melhor as reações da vida real – por exemplo, vídeos ou dramatizações curtas.

“O benefício de usar um estudo transversal com vinhetas é que podemos obter um grande número de atitudes e percepções dos participantes de uma maneira com custo controlado”, explicou Rosero. “Estudos de vinhetas fornecem descobertas de base que podem ser corroboradas ou contestadas por meio de mais experimentação. Experimentos com interações homem-robô presenciais ou simuladas provavelmente fornecerão maior percepção sobre como os humanos realmente percebem esses comportamentos de engano dos robôs.”


Publicado em 07/09/2024 22h57

Artigo original:

Estudo original: