Nova Inteligência Artificial do Facebook pode replicar as vozes de seus amigos

Imagem via Unsplash

#Inteligência Artificial 

O que será que pode dar errado?

Meta-anteriormente-Facebook revelou uma nova IA de conversão de texto com fala “inovadora” que pode editar o áudio existente, falar em seis idiomas e – em uma reviravolta mais perturbadora – replicar as vozes de seus entes queridos.

Você sabe, apenas no caso de você querer ouvir sua tia, mas na verdade não quer ficar no telefone por uma hora.

“Hoje, estamos anunciando um avanço na IA generativa para fala”, escreveu Meta em um comunicado à imprensa, publicado no final da semana passada. “Desenvolvemos o Voicebox, um modelo de IA de última geração que pode executar tarefas de geração de fala – como edição, amostragem e estilização – para as quais não foi especificamente treinado por meio do aprendizado no contexto”.

Basicamente, tudo o que você precisa fazer para replicar a voz de alguém é alimentar o programa com um clipe de áudio de apenas dois segundos de duração. O Voicebox irá “combinar com o estilo de áudio” e pronto: com pouco mais do que um prompt escrito e o clique de alguns botões, você pode obter uma réplica da voz de seu amigo ou membro da família com inteligência artificial – e as implicações éticas e legais são palpáveis.

Amigo deepfake

Para ser justo, a Meta oferece um caso de uso atraente para essa função específica do modelo, argumentando que a tecnologia poderia “permitir que pessoas com deficiência visual ouvissem mensagens escritas de amigos em suas vozes”. Promover a acessibilidade em tecnologia é essencial, e certamente podemos ver isso sendo útil.

No entanto, o conceito de replicar a voz do seu melhor amigo ainda é um pouco perturbador, para não mencionar o abuso. Afinal, se você puder replicar a voz de um amigo com apenas um clipe de som de dois segundos, poderá praticamente replicar a voz de qualquer pessoa, desde que tenha o áudio.

É um possível lapso de segurança que pode dar lugar a golpes de phishing, desinformação e até mesmo uma versão em áudio de pornografia deepfaked.

Felizmente, a Meta está mais do que ciente disso e está optando por manter o modelo e seu código subjacente fechado por enquanto.

“Existem muitos casos de uso empolgantes para modelos de fala generativa, mas devido aos riscos potenciais de uso indevido, não estamos disponibilizando o modelo ou código do Voicebox publicamente neste momento”, escreveu a empresa em um blog de pesquisa separado.

E isso só pode ser uma coisa boa, dado o grande potencial de abuso.


Publicado em 24/06/2023 10h10

Artigo original: