Para construir um ajudante de IA melhor, comece modelando o comportamento irracional dos humanos

O MIT e outros pesquisadores desenvolveram uma estrutura que modela o comportamento irracional ou abaixo do ideal de um ser humano ou de um agente de IA, com base em suas restrições computacionais. Sua técnica pode ajudar a prever as ações futuras de um agente, por exemplo, em partidas de xadrez.

#Inteligência Artificial 

Uma nova técnica pode ser usada para prever as ações de agentes humanos ou de IA que se comportam de maneira abaixo do ideal enquanto trabalham em direção a objetivos desconhecidos.

Para construir sistemas de IA que possam colaborar de forma eficaz com os humanos, é útil ter um bom modelo de comportamento humano para começar.

Mas os humanos tendem a se comportar de maneira abaixo do ideal ao tomar decisões.

Esta irracionalidade, que é especialmente difícil de modelar, muitas vezes se resume a restrições computacionais.

Um ser humano não pode passar décadas pensando na solução ideal para um único problema.

Pesquisadores do MIT e da Universidade de Washington desenvolveram uma forma de modelar o comportamento de um agente, seja humano ou máquina, que leva em conta as restrições computacionais desconhecidas que podem prejudicar as habilidades de resolução de problemas do agente.

Seu modelo pode inferir automaticamente as restrições computacionais de um agente ao ver apenas alguns traços de suas ações anteriores.

O resultado, o chamado “orçamento de inferência? de um agente, pode ser usado para prever o comportamento futuro desse agente.

Num novo artigo, os investigadores demonstram como o seu método pode ser usado para inferir os objetivos de navegação de alguém a partir de rotas anteriores e para prever os movimentos subsequentes dos jogadores em partidas de xadrez.

Sua técnica corresponde ou supera outro método popular para modelar esse tipo de tomada de decisão.

Em última análise, este trabalho poderia ajudar os cientistas a ensinar aos sistemas de IA como os humanos se comportam, o que poderia permitir que estes sistemas respondessem melhor aos seus colaboradores humanos.

Ser capaz de compreender o comportamento de um ser humano e, em seguida, inferir seus objetivos a partir desse comportamento, poderia tornar um assistente de IA muito mais útil, diz Athul Paul Jacob, estudante de graduação em engenharia elétrica e ciência da computação (EECS) e autor principal de um artigo sobre esta técnica.

“Se soubermos que um ser humano está prestes a cometer um erro, tendo visto como ele se comportou antes, o agente de IA poderia intervir e oferecer uma maneira melhor de fazê-lo.

Ou o agente poderia adaptar-se às fraquezas dos seus colaboradores humanos.

Ser capaz de modelar o comportamento humano é um passo importante para a construção de um agente de IA que possa realmente ajudar esse ser humano”, diz ele.

Jacob escreveu o artigo com Abhishek Gupta, professor assistente da Universidade de Washington, e o autor sênior Jacob Andreas, professor associado em EECS e membro do Laboratório de Ciência da Computação e Inteligência Artificial (CSAIL).

A pesquisa será apresentada na Conferência Internacional sobre Representações de Aprendizagem.

Modelando o comportamento

Os pesquisadores vêm construindo modelos computacionais do comportamento humano há décadas.

Muitas abordagens anteriores tentam levar em conta a tomada de decisão abaixo do ideal, adicionando ruído ao modelo.

Em vez de o agente sempre escolher a opção correta, o modelo pode fazer com que esse agente faça a escolha correta 95% das vezes.

No entanto, estes métodos podem não conseguir captar o fato de que os humanos nem sempre se comportam de forma subótima da mesma maneira.

Outros no MIT também estudaram formas mais eficazes de planejar e inferir objetivos face a tomadas de decisão abaixo do ideal.

Para construir seu modelo, Jacob e seus colaboradores inspiraram-se em estudos anteriores de jogadores de xadrez.

Eles notaram que os jogadores levavam menos tempo para pensar antes de agir ao fazer movimentos simples e que os jogadores mais fortes tendiam a gastar mais tempo planejando do que os mais fracos em partidas desafiadoras.

“No final das contas, vimos que a profundidade do planejamento, ou por quanto tempo alguém pensa sobre o problema, é um indicador realmente bom de como os humanos se comportam”, diz Jacob.

Eles construíram uma estrutura que poderia inferir a profundidade do planejamento de um agente a partir de ações anteriores e usar essa informação para modelar o processo de tomada de decisão do agente.

A primeira etapa do método envolve a execução de um algoritmo por um determinado período de tempo para resolver o problema que está sendo estudado.

Por exemplo, se estiverem estudando uma partida de xadrez, poderão deixar o algoritmo de jogo de xadrez rodar por um certo número de etapas.

Ao final, os pesquisadores podem ver as decisões que o algoritmo tomou em cada etapa.

O modelo deles compara essas decisões aos comportamentos de um agente que resolve o mesmo problema.

Ele alinhará as decisões do agente com as decisões do algoritmo e identificará a etapa em que o agente parou de planejar.

A partir disso, o modelo pode determinar o orçamento de inferência do agente, ou por quanto tempo esse agente irá planejar para este problema.

Ele pode usar o orçamento de inferência para prever como aquele agente reagiria ao resolver um problema semelhante.

Uma solução interpretável

Este método pode ser muito eficiente porque os pesquisadores podem acessar o conjunto completo de decisões tomadas pelo algoritmo de resolução de problemas sem realizar nenhum trabalho extra.

Esta estrutura também pode ser aplicada a qualquer problema que possa ser resolvido com uma classe específica de algoritmos.

“Para mim, o mais impressionante foi o fato de este orçamento de inferência ser muito interpretável.

Está dizendo que problemas mais difíceis exigem mais planejamento ou que ser um participante forte significa planejar por mais tempo.

Quando decidimos fazer isso pela primeira vez, não pensamos que nosso algoritmo seria capaz de detectar esses comportamentos naturalmente”, diz Jacob.

Os pesquisadores testaram sua abordagem em três tarefas de modelagem diferentes: inferir objetivos de navegação a partir de rotas anteriores, adivinhar a intenção comunicativa de alguém a partir de suas dicas verbais e prever movimentos subsequentes em partidas de xadrez entre humanos.

Seu método correspondeu ou superou uma alternativa popular em cada experimento.

Além disso, os investigadores constataram que o seu modelo de comportamento humano correspondia bem às medidas de habilidade do jogador (em partidas de xadrez) e à dificuldade da tarefa.

Seguindo em frente, os pesquisadores querem usar essa abordagem para modelar o processo de planejamento em outros domínios, como o aprendizado por reforço (um método de tentativa e erro comumente usado em robótica).

A longo prazo, pretendem continuar a desenvolver este trabalho em direção ao objetivo maior de desenvolver colaboradores de IA mais eficazes.


Publicado em 26/04/2024 19h02

Artigo original: