Sam Altman, da OpenAI, diz que não há nenhum chat GPT-5 para se preocupar… ainda

Imagem via Unsplash

#GPT 

O fundador da tecnologia falou em um evento do MIT e abordou a carta aberta amplamente divulgada pedindo aos laboratórios de IA que se afastem de novos desenvolvimentos por seis meses.

Sam Altman esmagou os rumores de que a OpenAI já está trabalhando no ChatGPT-5, apenas um mês após o lançamento do GPT-4 pela empresa. Atualmente, não há GPT-5 em treinamento, disse Altman ao falar virtualmente em um evento no Instituto de Tecnologia de Massachusetts.

O entrevistador Lex Fridman, pesquisador de IA do MIT, perguntou a Altman sua opinião sobre a carta aberta recentemente lançada e amplamente divulgada exigindo uma pausa na IA. Em resposta, o fundador da OpenAI compartilhou algumas de suas críticas. “Uma versão anterior da carta afirmava que a OpenAI está treinando GPT-5 agora. Não estamos, e não o faremos por algum tempo”, observou Altman. “Então, nesse sentido, [a carta] era meio boba.”

Mas, GPT-5 ou não, a declaração de Altman provavelmente não será particularmente reconfortante para as críticas da IA, conforme apontado pela primeira vez em um relatório do Verge. O fundador da tecnologia seguiu seu anúncio “sem GPT-5” esclarecendo imediatamente que upgrades e atualizações estão em andamento para GPT-4. Existem maneiras de aumentar a capacidade de uma tecnologia além de lançar uma versão oficial de número superior dela.

“Estamos fazendo outras coisas além do GPT-4 que acho que têm todos os tipos de problemas de segurança que são importantes de serem abordados e foram totalmente deixados de fora da carta”, disse Altman – em essência, admitindo que o OpenAI está enviando ajustes de produtos que pode não ser totalmente otimizado para o bem da humanidade ou da segurança do usuário. Por exemplo, no final de março, a empresa lançou um plug-in para GPT-4 que permite que seu grande modelo de linguagem navegue na Internet, o que pode levar a ainda mais privacidade de dados e preocupações com a manipulação do usuário.

Sam Altman, da Open AI, diz que, sob sua orientação, a IA ficará bem. Foto: Stephen Brashear (AP)

Altman fez um pequeno esforço para amenizar os medos da IA. Ele disse que o OpenAI passou mais de seis meses treinando o GPT-4 antes de seu lançamento público. Ele também observou que “dedicar um tempo para realmente estudar a segurança do modelo… isso é importante”.

“À medida que as capacidades se tornam cada vez mais sérias, a barra de segurança precisa aumentar”, acrescentou Altman. “Acho muito importante andar com cautela e um rigor cada vez maior em questões de segurança. A carta, não acho que seja a maneira ideal de endereçá-la.

No entanto, você provavelmente deve aceitar as reivindicações de priorização de segurança do CEO da OpenAI com algum ceticismo. Mesmo na entrevista de quinta-feira ao MIT, nem tudo o que o controverso empresário disse parecia verdade.

Questionado se a OpenAI continuará a ser transparente daqui para frente, Altman disse que “certamente planejamos continuar fazendo isso”. Exceto que a pergunta em si é um softball enganoso. A OpenAI, que já foi uma organização verdadeiramente aberta e sem fins lucrativos, tornou-se uma corporação cada vez mais fechada e com fins lucrativos. GPT-4, especialmente, é uma caixa preta. A empresa não divulgou nenhuma informação sobre os dados de treinamento em que seu chatbot mais recente foi ajustado. Também não compartilhou nenhuma informação sobre a arquitetura, construção ou outros verdadeiros trabalhos internos do GPT-4.

“Dado o cenário competitivo e as implicações de segurança de modelos de grande escala como o GPT-4, este relatório não contém mais detalhes sobre a arquitetura (incluindo tamanho do modelo), hardware, computação de treinamento, construção de conjunto de dados, método de treinamento ou similar,” A OpenAI escreveu no relatório técnico que a empresa publicou junto com o lançamento do GPT-4.

Altman também tinha certeza de se dar uma chance. As coisas que ele diz, bem, ele pode não ter certeza de que estão corretas:

Acho que muitas outras empresas não querem dizer algo até terem certeza de que está certo. Mas acho que essa tecnologia vai impactar tanto a todos nós, que acreditamos que envolver todos na discussão, colocar esses sistemas no mundo – profundamente imperfeitos, embora estejam em seu estado atual – para que as pessoas possam experimentá-los, pense sobre eles, entenda as vantagens e desvantagens; Vale a pena negociar, mesmo que tenhamos a tendência de nos envergonhar em público e mudar de ideia com frequência com novos dados.

Você pode acreditar que os chatbots de IA são o começo do fim da raça humana. Ou você pode pensar que toda essa coisa de “inteligência artificial” é exagerada. Independentemente de onde você esteja na chamada para uma moratória de IA de seis meses, a resposta de Altman à carta aberta é, em última análise, uma espécie de não-resposta.


Publicado em 15/04/2023 14h25

Artigo original: