Como os humanos podem construir um melhor trabalho em equipes com robôs

Crédito CC0: domínio público

Como a interação humana com robôs e inteligência artificial aumenta exponencialmente em áreas como saúde, manufatura, transporte, exploração espacial, tecnologias de defesa, as informações sobre como os humanos e os sistemas autônomos funcionam dentro das equipes permanecem escassas.

Descobertas recentes da pesquisa de engenharia de sistemas humanos demonstram que a equipe com autonomia humana vem com limitações de interação que podem deixar essas equipes menos eficientes do que equipes totalmente humanas.

O conhecimento existente sobre o trabalho em equipe é baseado principalmente na interação de humano para humano ou de humano para automação, que posiciona os humanos como supervisores de parceiros automatizados.

Mas, à medida que a autonomia desenvolveu cada vez mais habilidades de tomada de decisão com base em avaliações de situação espontâneas, ela pode se tornar um colega de equipe em vez de um servo. Essas interações de decisão compartilhadas são identificadas como equipes com autonomia humana, ou HAT.

Nancy Cooke é psicóloga cognitiva e professora de engenharia de sistemas humanos na Escola Politécnica da Arizona State University (ASU). Ela explora como um agente de inteligência artificial pode contribuir para a falha de comunicação da equipe e como melhorar essas interações, em sua discussão na reunião anual da American Association for the Advancement of Science (AAAS).

Como diretora do Centro de Inteligência Humana, Inteligência Artificial e Equipe de Robôs (CHART) da ASU, uma unidade da Iniciativa de Segurança Global, Cooke aplica sua experiência em trabalho em equipe humano e tomada de decisão para equipes de tecnologia humana.

“Um dos principais aspectos de estar em uma equipe é interagir com os membros da equipe, e muito disso em equipes humanas acontece por meio da comunicação em linguagem natural, que é um pouco um obstáculo para IA e robôs”, disse Cooke.

Sua discussão aborda um estudo no qual equipes de dois humanos e um AI, ou “companheiro de equipe sintético”, voam em um veículo aéreo não tripulado (UAV). A Inteligência Artificial era o piloto, enquanto as pessoas serviam como operador de sensor e navegador.

A IA, desenvolvida pelo Laboratório de Pesquisa da Força Aérea, se comunicava com as pessoas por chat de texto.

“A equipe poderia funcionar muito bem com o agente desde que nada desse errado. Assim que as coisas ficam difíceis ou a equipe tem que ser um pouco adaptável, as coisas começam a desmoronar, porque o agente não é um membro muito bom da equipe.”

A IA foi incapaz de prever as necessidades de seus companheiros de equipe da mesma forma que os humanos fazem. Como resultado, ele não fornecia informações críticas até que fosse solicitado – ele não dava um “alerta”.

“A equipe inteira desmoronou”, disse Cooke. “Os humanos diriam, ‘OK, você não vai me dar nenhuma informação proativamente, eu não vou te dar nenhuma também.’ É cada um por si.”

A apresentação de Cooke abordará a importância do desenvolvimento de companheiros de equipe sintéticos eficazes e de interações HAT aprimoradas, à medida que essas equipes se tornam mais comuns e começam a se envolver em ambientes complexos e dinâmicos além dos parâmetros de estudo de UAV.


Publicado em 09/02/2021 20h54

Artigo original:

Estudo original: