A IA generativa pode fornecer aconselhamento financeiro fiável?

Imagem via Unsplash

#Inteligência Artificial 

Muitas pessoas que procuram aconselhamento personalizado sobre investimentos recorrem a um consultor financeiro certificado. A IA generativa tem o potencial de alterar essa dinâmica.

A inteligência artificial já é um pilar da tecnologia financeira, onde está subjacente a tudo, desde aplicações de orçamentação a chatbots de atendimento ao cliente. Mas será que a IA pode fornecer aconselhamento financeiro inteligente e personalizado da mesma forma que os consultores financeiros o fazem?

A realidade está mais próxima disso do que se possa pensar, afirmou um professor de finanças do MIT Sloan e diretor do Laboratório de Engenharia Financeira do MIT. Lo apresentou recentemente uma atualização da investigação que está realizando e que esclarece se a IA generativa tem potencial para fornecer aconselhamento financeiro sólido e exclusivo para cada indivíduo.

Muitas pessoas que pretendem aconselhamento financeiro personalizado encontram-se com um consultor financeiro de confiança. Poderão os grandes modelos linguísticos – a base de sistemas de IA como o GPT-4 – substituí-los? Lo está a colaborar num projeto de três partes com as alunas de pós-graduação Jillian Ross e Nina Gerszberg para compreender melhor o papel dos LLM na prestação de aconselhamento financeiro. Lo apresentou suas descobertas até agora na Conferência de IA do MIT 2024, patrocinada pelo Programa de Ligação Industrial do MIT.

“O aconselhamento financeiro, na minha opinião, é um banco de testes ideal porque as apostas são muito altas”, disse Lo. “Há muito dinheiro neste espaço, muitos consultores financeiros e muitos problemas em ter maus conselhos financeiros.”

Eis o que os investigadores aprenderam até agora ao pedir aos modelos de linguagem de grande dimensão que executem determinadas tarefas.

Imagem via Unsplash

Os modelos de linguagem de grande dimensão têm a capacidade de fornecer aconselhamento financeiro, mas apenas com a adição de módulos suplementares.

Os LLM já podem ser utilizados para prestar aconselhamento financeiro. A questão importante, segundo Lo, é saber se os conselhos são bons – ou seja, se reflectem os conhecimentos específicos do domínio que os seres humanos demonstram ao passar no exame CFA e ao obter outras certificações.

Lo disse que a investigação da sua equipe até agora mostra que a IA faz um bom trabalho, desde que seja adicionado um módulo suplementar que incorpore conhecimentos específicos de finanças.

“A análise preliminar é que, com um módulo relativamente leve – sem muitos dados e sem muita análise – somos capazes de gerar conhecimento específico de domínio entre grandes modelos de linguagem”, disse Lo.

Sem um módulo, o ChatGPT “não é bem aprovado, mas está perto”, disse Lo. “Na verdade, está muito perto”. Mas, mesmo assim, Lo prevê que sua pesquisa em andamento descobrirá que módulos suplementares ou LLMs específicos de finanças continuarão sendo necessários para navegar no complexo cenário legal, ético e regulatório do setor.

Imagem via Unsplash

A IA tem o potencial de personalizar o aconselhamento financeiro em termos de tom e conteúdo.

Muitos modelos de linguagem de grande dimensão, como o ChatGPT 4.0, são direcionados para indivíduos com pelo menos um nível de educação universitário, mas Lo e a sua equipe de investigação estão trabalhando para ver se conseguem “reduzi-lo para um nível de ensino secundário, onde, para fins financeiros, isso seria realmente ideal”.

À medida que desenvolvem a capacidade de “falar” tanto com um reformado idoso que nunca terminou o ensino secundário como com um regulador profissional, os LLM não só serão capazes de responder a perguntas de forma satisfatória, mas também de o fazer num tom relacionável, como faria um consultor financeiro humano.

De imediato, os grandes modelos de linguagem adotam um tom neutro ou ligeiramente positivo, mas Lo acredita que este também pode ser personalizado para ajudar a cultivar uma relação com um cliente, o que, por sua vez, pode aumentar a probabilidade de o cliente seguir os conselhos financeiros do LLM.

O trabalho de Lo sobre o tom baseia-se na sua investigação anterior sobre a razão pela qual alguns investidores se “passam” e abandonam o mercado de ações após perdas significativas. “Se o seu cliente é neutro, então deve adotar um tom neutro”, afirmou. “Se o seu cliente for ligeiramente positivo, adopte um tom positivo”.

No entanto, se um cliente estiver a demonstrar um otimismo ou pessimismo selvagem, o consultor deve adotar o tom oposto – com a ideia de atingir um meio-termo.

“Quando estamos envolvidos em reações extremas, é nessas alturas que precisamos deste tipo de reforço oposto para conseguirmos moderar os indivíduos”, afirma Lo. “Quando o investidor é exuberante, queremos trazê-lo de volta ao planeta Terra para que ele não se envolva em nenhum tipo de comportamento extremo de investimento.”

A IA generativa tem o potencial de agir eticamente, mas o preconceito continua sendo uma preocupação.

O último ponto que Lo explorou foi o que ele considera uma “questão complicada” sobre se a IA generativa pode ser confiável. Ela pode aderir a um dever fiduciário de se envolver em um comportamento financeiro ético, como os consultores humanos são obrigados a fazer?

“É uma questão complicada”, disse Lo. “Algumas pessoas argumentariam que a ética financeira é um oximoro, mas eu discordaria disso. Temos de falar sobre a noção de dever fiduciário”.

Para saber mais especificamente o que “agir no melhor interesse dos seus investidores” significa realmente para os LLM, Lo e a sua equipe de investigação recorreram à geração aumentada por recuperação, conhecida como RAG, que recupera dados específicos de um domínio a partir de bases de conhecimento externas. Criaram um RAG que consistia em ações judiciais financeiras intentadas entre uma parte e outra como forma de treinar a tecnologia sobre a forma de adotar um comportamento ético.

“Acontece que, quando se aplica esta configuração a modelos de linguagem de grande dimensão, o ChatGPT 4.0 acaba por ser relativamente justo, mas os outros modelos de linguagem de grande dimensão têm preconceitos – e há uma série de outros preconceitos, incluindo preconceitos de gênero, que os modelos de linguagem de grande dimensão apresentam”, disse Lo.

No seu documento de trabalho, Lo e os seus co-autores referem que “os dados de treino podem provir de todos os cantos da Internet, que contém uma grande quantidade de conteúdos tendenciosos e tóxicos. Quando treinados com base nestes dados, os LLM podem apresentar preconceitos prejudiciais que são difíceis de identificar e controlar preventivamente, tais como ‘papaguear’ preconceitos históricos sobre raça, etnia e gênero, um resultado obviamente indesejável”.

Imagem via Unsplash

Os resultados podem ter implicações em outros setores

Lo afirmou que o estudo da aplicação e da utilidade dos LLM em finanças pode ser aplicado em diferentes setores, tais como as áreas médica, contabilística e jurídica.

“Olhar para aplicações específicas de um domínio é uma forma realmente útil de desenvolver uma melhor apreciação de alguns dos desafios teóricos da IA generativa e da inteligência geral”, disse Lo.


Publicado em 15/04/2024 13h24

Artigo original: