Microsoft provoca tecnologia de IA de avatar realista, mas não fornece data de lançamento

Os pesquisadores da Microsoft dizem que um modelo de IA que desenvolveram permite que os avatares se envolvam em conversas aparentemente realistas, completas com expressões faciais diferenciadas.

Pesquisadores da Microsoft revelaram uma nova ferramenta artificial que pode criar avatares humanos profundamente realistas – mas não ofereceram nenhum cronograma para disponibilizá-la ao público, citando preocupações sobre a facilitação de conteúdo profundamente falso.

O modelo de IA conhecido como VASA-1, para “habilidades afetivas visuais”, pode criar um vídeo animado de uma pessoa falando, com movimentos labiais sincronizados, usando apenas uma única imagem e um clipe de áudio de fala.

Os pesquisadores de desinformação temem o uso indevido desenfreado de aplicativos alimentados por IA para criar imagens, vídeos e clipes de áudio “profundamente falsos? em um ano eleitoral crucial.

“Nos opomos a qualquer comportamento para criar conteúdos enganosos ou prejudiciais de pessoas reais”, escreveram os autores do relatório VASA-1, divulgado esta semana pela Microsoft Research Asia.

“Estamos empenhados em desenvolver a IA de forma responsável, com o objetivo de promover o bem-estar humano”, afirmaram.

“Não temos planos de lançar uma demonstração online, API, produto, detalhes adicionais de implementação ou quaisquer ofertas relacionadas até que tenhamos certeza de que a tecnologia será usada de forma responsável e de acordo com os regulamentos adequados”.

Os pesquisadores da Microsoft disseram que a tecnologia pode capturar um amplo espectro de nuances faciais e movimentos naturais da cabeça.

“Isso abre caminho para engajamentos em tempo real com avatares realistas que emulam comportamentos de conversação humanos”, disseram os pesquisadores no post.

A VASA pode trabalhar com fotos artísticas, músicas e falas que não sejam em inglês, de acordo com a Microsoft.

Os pesquisadores elogiaram os benefícios potenciais da tecnologia, como o fornecimento de professores virtuais aos alunos ou apoio terapêutico às pessoas necessitadas.

“Não se destina criando conteúdo usado para enganar ou enganar”, disseram.

Os vídeos da VASA ainda possuem “artefatos? que revelam que são gerados por IA, de acordo com o post.

O líder de tecnologia da ProPublica, Ben Werdmuller, disse que ficaria “animado em ouvir sobre alguém usando isso para representá-los em uma reunião Zoom pela primeira vez”.

“Tipo, como foi? Alguém percebeu”” ele disse na rede social Threads.

OpenAI, fabricante do ChatGPT, revelou em março uma ferramenta de clonagem de voz chamada “Voice Engine? que pode essencialmente duplicar a fala de alguém com base em uma amostra de áudio de 15 segundos.

Mas disse que estava “adotando uma abordagem cautelosa e informada para uma divulgação mais ampla devido ao potencial de uso indevido de voz sintética”.

No início deste ano, um consultor que trabalha para um candidato democrata à presidência admitiu que estava por trás de uma imitação de Joe Biden por chamada automática enviada aos eleitores em New Hampshire, dizendo que estava tentando destacar os perigos da IA.

A ligação apresentava o que parecia ser a voz de Biden exortando as pessoas a não votarem nas primárias do estado em janeiro, gerando alarme entre especialistas que temem um dilúvio de desinformação falsa e profunda alimentada por IA na corrida à Casa Branca de 2024.


Publicado em 27/04/2024 01h50

Artigo original: