ChatGPT não pode mentir para você, mas você ainda não deve confiar nele, diz filósofo

Credit: Chuan Chuan/Shutterstock

#ChatGPT 

“ChatGPT é uma plataforma de geração de linguagem natural baseada no modelo de linguagem OpenAI GPT-3.”

Por que você acreditou na afirmação acima? Uma resposta simples é que você confia no autor deste artigo (ou talvez no editor). Não podemos verificar tudo o que nos dizem, por isso confiamos regularmente no testemunho de amigos, estranhos, “especialistas” e instituições.

Confiar em alguém pode nem sempre ser o principal motivo para acreditar que o que eles dizem é verdade. (Talvez eu já saiba o que você me disse, por exemplo.) Mas o fato de confiarmos no orador nos dá uma motivação extra para acreditar no que ele diz.

Os chatbots de IA, portanto, levantam questões interessantes sobre confiança e testemunho. Temos que considerar se confiamos no que os geradores de linguagem natural como o ChatGPT nos dizem. Outra questão é se esses chatbots de IA são capazes de serem confiáveis.

Crenças justificadas

Suponha que você me diga que está chovendo lá fora. De acordo com uma maneira pela qual os filósofos veem o testemunho, estou justificado em acreditar em você apenas se tiver razões para pensar que seu testemunho é confiável – por exemplo, você estava do lado de fora – e nenhuma razão preponderante para pensar que não é. Isso é conhecido como a teoria reducionista do testemunho.

Essa visão torna crenças justificadas – suposições que nos sentimos no direito de manter – difíceis de adquirir.

Mas, de acordo com outra visão do testemunho, eu estaria justificado em acreditar que está chovendo lá fora, desde que não tenha motivos para pensar que essa afirmação é falsa. Isso torna as crenças justificadas por meio do testemunho muito mais fáceis de adquirir. Isso é chamado de teoria não reducionista do testemunho.

Observe que nenhuma dessas teorias envolve confiança no falante. Meu relacionamento com eles é de confiança, não de confiança.

Confiança e confiança

Quando confio em alguém ou em algo, faço uma previsão de que fará o que espero. Por exemplo, confio no meu despertador para tocar na hora que eu definir e confio nos outros motoristas para obedecer às regras de trânsito.

Confiança, no entanto, é mais do que mera confiança. Para ilustrar isso, vamos examinar nossas reações à confiança equivocada em comparação com a confiança equivocada.

Se eu confiasse em Roxy para regar minhas tulipas premiadas enquanto estava de férias e ela as deixasse morrer descuidadamente, poderia me sentir traído com razão. Considerando que, se eu confiasse em meu aspersor automático para regar as tulipas e ele não funcionasse, poderia ficar desapontado, mas seria errado me sentir traído.

Em outras palavras, a confiança nos torna vulneráveis à traição, então ser confiável é moralmente significativo de uma forma que ser confiável não é.

A diferença entre confiança e dependência destaca alguns pontos importantes sobre o testemunho. Quando uma pessoa diz a alguém que está chovendo, ela não está apenas compartilhando informações; eles estão se responsabilizando pela veracidade do que dizem.

Em filosofia, isso é chamado de teoria da garantia do testemunho. Um orador oferece ao ouvinte uma espécie de garantia de que o que está dizendo é verdadeiro e, ao fazê-lo, dá ao ouvinte uma razão para acreditar nele. Confiamos no orador, em vez de depender dele, para dizer a verdade.

Se eu descobrisse que você estava adivinhando sobre a chuva, mas felizmente acertou, ainda assim sentiria que minha confiança havia diminuído porque sua “garantia” estava vazia. O aspecto da garantia também ajuda a captar por que as mentiras nos parecem moralmente piores do que declarações falsas. Embora em ambos os casos você me convide a confiar e depois abandone minha confiança, as mentiras tentam usar minha confiança contra mim para facilitar a traição.

Agência moral

Se a visão de garantia estiver correta, o ChatGPT precisa ser capaz de assumir a responsabilidade pelo que diz para ser um orador confiável, em vez de apenas confiável. Embora pareça que podemos atribuir agência à IA para executar tarefas conforme necessário, se uma IA pode ser um agente moralmente responsável é outra questão.

Alguns filósofos argumentam que a agência moral não se restringe aos seres humanos. Outros argumentam que a IA não pode ser considerada moralmente responsável porque, para citar alguns exemplos, ela é incapaz de estados mentais, carece de autonomia ou carece de capacidade de raciocínio moral.

No entanto, o ChatGPT não é um agente moral; não pode assumir a responsabilidade pelo que diz. Quando nos diz algo, não oferece nenhuma garantia quanto à sua veracidade. É por isso que pode dar declarações falsas, mas não mentir. Em seu site, a OpenAI – que construiu o ChatGPT – diz que, como a IA é treinada em dados da Internet, “pode ser imprecisa, falsa e enganosa às vezes”.

Na melhor das hipóteses, é um “medidor de verdade” ou verificador de fatos – e, segundo muitos relatos, não é particularmente preciso. Embora às vezes possamos estar justificados em confiar no que ela diz, não devemos confiar nela.

Caso você esteja se perguntando, a citação de abertura deste artigo foi um trecho da resposta do ChatGPT quando perguntei: “O que é ChatGPT?” Portanto, você não deveria ter acreditado que a afirmação era verdadeira. No entanto, posso garantir que sim.


Publicado em 19/03/2023 15h05

Artigo original: