Robôs que brincam: podemos confiar neles novamente?

Crédito CC0: domínio público

Quando os robôs cometem erros – e eles cometem de vez em quando – o restabelecimento da confiança com colegas humanos depende de como as máquinas reconhecem os erros e como parecem humanos, de acordo com uma pesquisa da Universidade de Michigan.

Em um estudo que examinou várias estratégias de reparo de confiança – desculpas, negações, explicações ou promessas – os pesquisadores descobriram que certas abordagens dirigidas a colegas humanos são melhores do que outras e muitas vezes são afetadas pela aparência dos robôs.

“Os robôs são definitivamente uma tecnologia, mas suas interações com humanos são sociais e devemos levar em conta essas interações sociais se esperamos que os humanos confiem e confiem confortavelmente em seus colegas robôs de trabalho”, disse Lionel Robert, professor associado da Escola de UM Em formação.

“Os robôs cometerão erros ao trabalhar com humanos, diminuindo a confiança dos humanos neles. Portanto, devemos desenvolver maneiras de reparar a confiança entre humanos e robôs. Estratégias de reparo de confiança específicas são mais eficazes do que outras e sua eficácia pode depender de quão humano é o robô parece.”

Para seu estudo publicado no Proceedings of 30th IEEE International Conference on Robot and Human Interactive Communication, Robert e o estudante de doutorado Connor Esterwood examinaram como as estratégias de reparo – incluindo uma nova estratégia de explicações – impactam os elementos que impulsionam a confiança: habilidade (competência), integridade (honestidade) e benevolência (preocupação com quem confia).

Os pesquisadores recrutaram 164 participantes para trabalhar com um robô em um ambiente virtual, carregando caixas em uma esteira rolante. O humano era o responsável pela garantia da qualidade, trabalhando ao lado de um robô encarregado de ler números de série e carregar 10 caixas específicas. Um robô era antropomórfico ou mais parecido com um humano, o outro tinha uma aparência mais mecânica.

Os robôs foram programados para intencionalmente pegar algumas caixas erradas e fazer uma das seguintes declarações de reparo de confiança: “Desculpe, peguei a caixa errada” (desculpas), “Escolhi a caixa correta, então alguma outra coisa deve ter saído errado “(negação),” vejo que era o número de série errado “(explicação), ou” Vou fazer melhor da próxima vez e pegar a caixa certa “(promessa).

Estudos anteriores examinaram desculpas, negações e promessas como fatores de confiança ou confiabilidade, mas este é o primeiro a olhar para as explicações como uma estratégia de reparo e teve o maior impacto na integridade, independentemente da aparência do robô.

Quando o robô era mais parecido com o humano, era ainda mais fácil restaurar a confiança para a integridade quando as explicações eram dadas e para a benevolência quando desculpas, negações e explicações eram oferecidas.

Como na pesquisa anterior, as desculpas dos robôs produziram maior integridade e benevolência do que negações. As promessas superaram as desculpas e negações quando se tratava de medidas de benevolência e integridade.

Esterwood disse que este estudo está em andamento com mais pesquisas envolvendo outras combinações de reparos de confiança em diferentes contextos, com outras violações.

“Fazendo isso, podemos estender ainda mais essa pesquisa e examinar cenários mais realistas, como os que vemos na vida cotidiana”, disse Esterwood. “Por exemplo, a explicação de um robô barista sobre o que deu errado e a promessa de fazer melhor no futuro consertam mais ou menos confiança do que um robô de construção?”


Publicado em 12/08/2021 11h00

Artigo original:

Estudo original: