Quando alguém deve confiar nas previsões de um assistente de Inteligência Artificial?

Pesquisadores criaram um método para ajudar os trabalhadores a colaborar com sistemas de inteligência artificial. Imagem: unsplash.com

Pesquisadores criaram um método para ajudar os trabalhadores a colaborar com sistemas de inteligência artificial.

Em um hospital movimentado, uma radiologista está usando um sistema de inteligência artificial para ajudá-la a diagnosticar condições médicas com base nas imagens de raios-X dos pacientes. Usar o sistema de IA pode ajudá-la a fazer diagnósticos mais rápidos, mas como ela sabe quando confiar nas previsões da IA?

Ela não. Em vez disso, ela pode confiar em sua experiência, em um nível de confiança fornecido pelo próprio sistema ou em uma explicação de como o algoritmo fez sua previsão ? o que pode parecer convincente, mas ainda estar errado ? para fazer uma estimativa.

Para ajudar as pessoas a entender melhor quando confiar em um “colega de equipe” de IA, os pesquisadores do MIT criaram uma técnica de integração que orienta os humanos a desenvolver uma compreensão mais precisa das situações em que uma máquina faz previsões corretas e aquelas em que faz previsões incorretas.

Ao mostrar às pessoas como a IA complementa suas habilidades, a técnica de treinamento pode ajudar os humanos a tomar melhores decisões ou chegar a conclusões mais rapidamente ao trabalhar com agentes de IA.

“Propomos uma fase de ensino em que introduzimos gradualmente o humano a esse modelo de IA para que ele possa, por si mesmo, ver suas fraquezas e pontos fortes”, diz Hussein Mozannar, estudante de pós-graduação do programa de doutorado em Sistemas Sociais e de Engenharia do Institute for Data , Systems, and Society (IDSS), que também é pesquisador do Grupo de Aprendizado de Máquina Clínica do Laboratório de Ciência da Computação e Inteligência Artificial (CSAIL) e do Instituto de Engenharia e Ciências Médicas. “Fazemos isso imitando a maneira como o humano interage com a IA na prática, mas intervimos para fornecer feedback para ajudá-los a entender cada interação que estão fazendo com a IA”.

Mozannar escreveu o artigo com Arvind Satyanarayan, professor assistente de ciência da computação que lidera o Grupo de Visualização no CSAIL; e autor sênior David Sontag, professor associado de engenharia elétrica e ciência da computação no MIT e líder do Clinical Machine Learning Group. A pesquisa será apresentada na Associação para o Avanço da Inteligência Artificial em fevereiro.

Modelos mentais

Este trabalho se concentra nos modelos mentais que os humanos constroem sobre os outros. Se o radiologista não tiver certeza sobre um caso, ele pode perguntar a um colega especialista em determinada área. A partir da experiência anterior e de seu conhecimento sobre esse colega, ela tem um modelo mental de seus pontos fortes e fracos que ela usa para avaliar seus conselhos.

Os seres humanos constroem os mesmos tipos de modelos mentais quando interagem com agentes de IA, por isso é importante que esses modelos sejam precisos, diz Mozannar. A ciência cognitiva sugere que os humanos tomam decisões para tarefas complexas lembrando-se de interações e experiências passadas. Assim, os pesquisadores projetaram um processo de integração que fornece exemplos representativos do humano e da IA trabalhando juntos, que servem como pontos de referência que o humano pode usar no futuro. Eles começaram criando um algoritmo que pode identificar exemplos que melhor ensinarão o humano sobre a IA.

“Primeiro aprendemos os preconceitos e pontos fortes de um especialista humano, usando observações de suas decisões anteriores não guiadas pela IA”, diz Mozannar. “Combinamos nosso conhecimento sobre o humano com o que sabemos sobre a IA para ver onde isso será útil confiar na IA. Então obtemos casos em que sabemos que o humano deve confiar na IA e casos semelhantes em que o humano não deve confiar na IA.”

Os pesquisadores testaram sua técnica de integração em uma tarefa de resposta a perguntas baseada em passagens: o usuário recebe uma passagem escrita e uma pergunta cuja resposta está contida na passagem. O usuário então precisa responder à pergunta e pode clicar em um botão para “deixar a IA responder”. O usuário não pode ver a resposta da IA com antecedência, no entanto, exigindo que ele confie em seu modelo mental da IA. O processo de onboarding que eles desenvolveram começa mostrando esses exemplos para o usuário, que tenta fazer uma previsão com a ajuda do sistema de IA. O humano pode estar certo ou errado, e a IA pode estar certa ou errada, mas em ambos os casos, depois de resolver o exemplo, o usuário vê a resposta correta e uma explicação de por que a IA escolheu sua previsão. Para ajudar o usuário a generalizar a partir do exemplo, são mostrados dois exemplos contrastantes que explicam por que a IA acertou ou errou.

Por exemplo, talvez a pergunta de treinamento pergunte qual das duas plantas é nativa de mais continentes, com base em um parágrafo complicado de um livro de botânica. O humano pode responder por conta própria ou deixar o sistema de IA responder. Então, ela vê dois exemplos de acompanhamento que a ajudam a ter uma noção melhor das habilidades da IA. Talvez a IA esteja errada em uma pergunta de acompanhamento sobre frutas, mas certa em uma pergunta sobre geologia. Em cada exemplo, as palavras que o sistema usou para fazer sua previsão são destacadas. Ver as palavras destacadas ajuda o humano a entender os limites do agente de IA, explica Mozannar.

Para ajudar o usuário a reter o que aprendeu, o usuário escreve a regra que deduz desse exemplo de ensino, como “Esta IA não é boa em prever flores”. Ela pode então consultar essas regras mais tarde ao trabalhar com o agente na prática. Essas regras também constituem uma formalização do modelo mental do usuário da IA.

O impacto do ensino

Os pesquisadores testaram essa técnica de ensino com três grupos de participantes. Um grupo passou por toda a técnica de integração, outro grupo não recebeu os exemplos de comparação de acompanhamento e o grupo de linha de base não recebeu nenhum ensinamento, mas pôde ver a resposta da IA com antecedência.

“Os participantes que receberam o ensino se saíram tão bem quanto os participantes que não receberam o ensino, mas puderam ver a resposta da IA. Então, a conclusão é que eles são capazes de simular a resposta da IA como se a tivessem visto”, diz Mozannar.

Os pesquisadores se aprofundaram nos dados para ver as regras que os participantes individuais escreveram. Eles descobriram que quase 50% das pessoas que receberam treinamento escreveram lições precisas sobre as habilidades da IA. Aqueles que tiveram lições precisas acertaram 63% dos exemplos, enquanto aqueles que não tiveram lições precisas acertaram 54%. E aqueles que não receberam ensino, mas puderam ver as respostas da IA, acertaram 57% das perguntas.

“Quando o ensino é bem sucedido, tem um impacto significativo. Essa é a sacada aqui. Quando somos capazes de ensinar os participantes de forma eficaz, eles são capazes de fazer melhor do que se você realmente lhes desse a resposta”, diz ele.

Mas os resultados também mostram que ainda há uma lacuna. Apenas 50% daqueles que foram treinados construíram modelos mentais precisos da IA, e mesmo aqueles que o fizeram estavam certos apenas 63% das vezes. Embora tenham aprendido lições precisas, nem sempre seguiram suas próprias regras, diz Mozannar.

Essa é uma pergunta que deixa os pesquisadores coçando a cabeça ? mesmo que as pessoas saibam que a IA deve estar certa, por que elas não ouvem seu próprio modelo mental? Eles querem explorar essa questão no futuro, bem como refinar o processo de integração para reduzir o tempo que leva. Eles também estão interessados em realizar estudos de usuários com modelos de IA mais complexos, principalmente em ambientes de saúde.

“Quando humanos colaboram com outros humanos, confiamos muito em saber quais são os pontos fortes e fracos de nossos colaboradores ? isso nos ajuda a saber quando (e quando não) contar com a ajuda da outra pessoa. Fico feliz em ver essa pesquisa aplicando esse princípio a humanos e IA”, diz Carrie Cai, cientista de pesquisa da equipe dos grupos People + AI Research e Responsible AI do Google, que não esteve envolvida com essa pesquisa. “Ensinar os usuários sobre os pontos fortes e fracos de uma IA é essencial para produzir resultados positivos conjuntos entre humanos e IA.”

Esta pesquisa foi apoiada, em parte, pela National Science Foundation.


Publicado em 20/01/2022 06h07

Artigo original: