Como o ChatGPT mudará a forma como pensamos e trabalhamos?

Crédito: Unsplash/CC0 Public Domain

Desde seu lançamento público em novembro de 2022, o ChatGPT chamou a atenção do mundo, mostrando a milhões de usuários em todo o mundo o extraordinário potencial da inteligência artificial à medida que produz respostas que soam humanas a solicitações que vão do prático ao surreal. Ele redigiu cartas de apresentação, compôs linhas de poesia, fingiu ser William Shakespeare, criou mensagens para namoro usuários de aplicativos para cortejar correspondências e até artigos de notícias escritos, todos com resultados variados.

Emergindo dessas aplicações promissoras também existem dilemas éticos. Em um mundo cada vez mais dominado por ferramentas baseadas em IA que podem imitar as habilidades humanas de linguagem natural, o que significa ser verdadeiro e autêntico? O estudioso de comunicação de Stanford, Jeff Hancock, tem abordado essa questão e o impacto da IA nas relações interpessoais em sua pesquisa.

Hancock argumenta que a era do teste de Turing acabou: os bots agora soam tão reais que se tornou impossível para as pessoas distinguir entre humanos e máquinas em conversas, o que representa enormes riscos de manipulação e engano em grande escala. Como então essas ferramentas podem ser usadas para o bem e não para o mal é uma questão que preocupa Hancock e outros.

Enquanto ele vê o potencial da IA para ajudar como as pessoas fazem seu trabalho de forma mais eficaz, Hancock também vê armadilhas. Em última análise, diz ele, nosso desafio será desenvolver IA que apoie os objetivos humanos e educar as pessoas sobre a melhor forma de usar essas novas tecnologias de maneira eficaz e ética.

Há vários anos, Hancock examina como a comunicação mediada por IA está transformando – e potencialmente minando – as relações interpessoais.

Esta entrevista foi editada para maior duração e clareza.

Como você vê ferramentas mediadas por IA como o ChatGPT se encaixando na vida das pessoas?

Assim como a calculadora não substituiu a necessidade de estudar matemática ou de as pessoas trabalharem no caixa ou serem contadores, acho que encontraremos maneiras de usar a comunicação mediada por IA como uma ferramenta. Acho que quanto mais pensarmos nisso como um assistente ou uma ferramenta incrivelmente poderosa, mais poderemos imaginar como será útil. Mas é importante observar que esses sistemas não estão prontos para serem plugados e reproduzidos imediatamente. Eles ainda não chegaram lá, e nós também não somos humanos.

O ChatGPT está sendo usado por milhões de pessoas, muitas das quais não têm nenhum treinamento ou educação sobre quando é ético usar esses sistemas ou como garantir que eles não causem danos.

Tecnicamente, sistemas como o ChatGPT são genuinamente muito melhores do que os que tínhamos no passado, mas ainda há muitos problemas. Atualmente, eles não fornecem informações precisas a taxas muito altas. Os melhores produzem informações úteis que são precisas 50% ou 70% do tempo, embora isso

provavelmente mude com novas versões como o iminente GPT4. Eles também podem produzir falsidades ou inventar coisas – o que chamamos de “alucinação”.

Pode dar muito trabalho para realmente fazer com que eles produzam algo bom. Os prompts são difíceis e produzem respostas realmente diferentes.

O que você aprendeu sobre IA e comunicação que pode surpreender as pessoas?

Meu laboratório tem se interessado muito pelas questões humanas em torno da IA. Muitas pessoas dizem: “Não sei sobre esses novos bots – nunca usei um”. Mas a maioria das pessoas experimentou algum tipo de comunicação de IA, sendo as mais comuns as respostas simples e inteligentes em mensagens de e-mail que fornecem opções como “isso parece bom”, “isso é ótimo” ou “desculpe, não posso”.

O que descobrimos é que, mesmo que você não use essas respostas geradas por IA, elas influenciam a forma como você pensa. Essas três opções são primordiais para você. Quando você responde um e-mail, tende a escrever um e-mail mais curto. Você tende a escrever um e-mail mais simples. E não é linguisticamente menos complexo: você tem mais afeto positivo, o que significa que usa mais termos de emoção positiva e menos negativos. Isso porque é assim que as respostas inteligentes são construídas: elas são muito curtas, muito simples e excessivamente positivas. Você nem precisa estar usando esses sistemas para realmente ser afetado por eles.

Existe alguma área em particular em que você vê uma oportunidade para o ChatGPT ajudar as pessoas a melhorar seu trabalho ou a fazê-lo com mais eficiência?

Eu acho que há todo um novo mundo de comunicação que isso vai inaugurar. Realmente parece um ponto de inflexão. Por exemplo, existe um tremendo potencial nos níveis iniciais de terapia e coaching.

Digamos que você esteja procrastinando no trabalho, ou precise de ajuda para negociar, ou esteja tendo alguma ansiedade em seu trabalho. Reunir-se com um conselheiro ou treinador real é difícil e pode ser caro. Esses sistemas oferecem maneiras de obter acesso a esse tipo de ajuda, pelo menos nos estágios iniciais do trabalho em um problema. Acho que a melhor combinação será quando o ChatGPT puder apoiar um treinador real, que possa ajudar mais pessoas de maneira mais eficaz.

O ChatGPT pode ser útil para fazer parte do trabalho de preparação que os coaches fazem ao tentar entender as necessidades de seus clientes. Às vezes, essas são perguntas padrão que um sistema como o ChatGPT poderia ser treinado para fazer ao cliente e depois sintetizar para o coach. Isso poderia potencialmente liberar o coach para se envolver mais profundamente com esse cliente ou para ajudar mais clientes.

Claro, ainda não sabemos como as pessoas vão reagir ao ter bots envolvidos nesse tipo de conversa. Alguns trabalhos que fizemos alguns anos atrás mostraram que os resultados emocionais, relacionais e psicológicos das conversas com bots podem ser semelhantes aos de um ser humano. Existe potencial lá, mas certamente será necessário cuidado ao introduzir esses tipos de sistemas em comunicação como esta.

Uma área que você estuda é confiança e decepção. Como você vê a IA afetando a maneira como as pessoas confiam umas nas outras?

Acho que se a máquina está ajudando você a ser você, então acho que você pode ser autêntico. Os sistemas de IA podem ser otimizados para uma série de coisas e algumas delas podem ser interpessoais. Você pode dizer: “Quero uma descrição de namoro online e quero parecer muito engraçado, caloroso e aberto”. Acabei de fazer um exercício em sala de aula, fazendo com que os alunos usassem o ChatGPT para criar um perfil de namoro online, e fiquei chocado quando todos os alunos disseram que a descrição do ChatGPT era uma representação precisa deles mesmos!

Eles também concordaram que iriam modificá-lo um pouco, mas que era surpreendentemente bom. Isso pode realmente ajudar uma pessoa, especialmente para pessoas que sofrem de ansiedade de comunicação ou não são muito boas em se expressar.

Mas para as pessoas que estão tentando usar essas descrições como sinais de como uma pessoa é, nosso processo usual de formação de impressões falha porque não foi você quem pareceu muito engraçado, caloroso e aberto – foi uma máquina. fazendo isso por você. Teremos muita responsabilidade sobre como vamos usar essas ferramentas. Eu acho que é realmente sobre como nós, como humanos, escolhemos usá-lo.

Podemos confiar nesses sistemas?

Existem muitas questões técnicas, como a forma como a IA foi desenvolvida. Uma preocupação generalizada é que esses sistemas estão contando com dados tendenciosos para treinamento. Mas também há questões filosóficas mais profundas sobre consciência e intenção. O que significa para uma máquina ser enganosa?

Ele pode mentir sobre quem é e falar sobre uma experiência vivida que não teve, o que é enganoso. Mas a maioria das definições de engano inclui a intenção de enganar alguém. Se o sistema não tiver essa intenção, ele é enganoso? Isso volta para a pessoa que estava fazendo as perguntas ou fazendo com que o sistema fosse enganoso? Não sei. Há mais perguntas do que respostas neste momento.

Você também estuda a desinformação. O que o preocupa sobre como a IA pode ser usada para fins nefastos?

Também quero reconhecer que existem perigos reais de uso indevido aqui. Renée DiResta, minha colega e colaboradora no Stanford Internet Observatory, tem um relatório que apresenta algumas das principais maneiras pelas quais esses sistemas podem ser uma ameaça em torno da desinformação e possíveis soluções.

Como Renée e o relatório observam, uma vez que os maus atores são capazes de usar modelos de linguagem para executar campanhas de influência, eles serão capazes de gerar grandes quantidades de conteúdo de forma bastante barata e potencialmente desenvolver novas táticas para persuasão em larga escala. Tem o potencial de transformar e agravar o problema da desinformação e, portanto, precisamos começar a trabalhar em soluções agora.

O que pode ser feito para autenticar a comunicação?

No ano passado, houve uma série de artigos mostrando que esses grandes modelos de linguagem e chatbots não podem mais ser diferenciados de suas contrapartes humanas.

Então, como autenticar a comunicação é uma grande questão. Para parecer autêntico, você poderia dizer: “Isso foi escrito ou parcialmente escrito por IA”. Se você fizer isso, está sendo honesto, mas a pesquisa mostra que as pessoas podem percebê-lo como menos sincero – há um artigo publicado que descobriu que, se você se desculpar e indicar que usou IA para ajudá-lo a escrever seu pedido de desculpas, as pessoas veem como menos sincero.

Em um de nossos artigos, mostramos que se você se candidatar a um emprego e disser que usou IA para ajudar a escrevê-lo, as pessoas o perceberão como menos competente. Há custos se você revelar que usou IA, mas se não divulgar, está parecendo inautêntico? Essas questões sobre autenticidade, engano e confiança serão incrivelmente importantes, e precisamos de muito mais pesquisas para nos ajudar a entender como a IA influenciará a forma como interagimos com outros humanos.


Publicado em 21/02/2023 12h10

Artigo original: