O médico Drauzio Varella foi vítima de um deep fake, uma tecnologia que permite criar vídeos falsos com a aparência de pessoas reais. No vídeo, que circula nas redes sociais, o médico aparece supostamente indicando gotinhas milagrosas para manter a pele jovem e bonita.
No vídeo, de quase 30 segundos, o médico aparece – em vários momentos sem que se veja a boca dele – narrando os benefícios do suposto medicamento enquanto fotos de pessoas famosas, que supostamente usam o produto, aparecem na tela.
Apesar da voz ser muito semelhante à de Drauzio Varella, o vídeo é falso e se trata de uma montagem com uso de IA para clonar a voz do médico, que é colocada em um vídeo produzido por ele, mas que originalmente abordava outro assunto.
Reação de Drauzio Varella
Drauzio Varella já se manifestou sobre o vídeo, afirmando que é falso e que ele nunca fez propaganda de nenhum produto. O médico também afirmou que está preocupado com o uso de sua imagem para enganar as pessoas.
“Toda hora aparece na internet a minha imagem ou alguma coisa que eu teria dito em defesa de um tratamento especial ou de um medicamento para resolver problemas de saúde e você é jogado para um site onde te vendem alguma coisa. São falsários, gente que não presta. Um bando de bandidos que usa a imagem dos outros para tentar enganar as pessoas”, explicou o médico em entrevista a BBC.
Outros casos de deep fake
Celebridades como Ivete Sangalo, Ana Maria Braga e Xuxa também foram vítimas de deep fake e tiveram suas vozes clonadas e inseridas em vídeos em que supostamente elas indicam colágenos para a pele.
Nesses casos, a tecnologia foi usada também em fotos para envelhecê-las, deixando as personalidades com mais rugas e marcas de expressão e, assim, fazer um comparativo mostrando que o produto realmente funcionaria.
Em outra situação, o jornalista William Bonner, âncora e editor-chefe do Jornal Nacional, também foi vítima de deep fake.
Em um vídeo de poucos segundos, que circula nas redes sociais, o âncora aparece dizendo: “O encontro de dois bandidos“. A gravação corta para imagens do presidente Lula e seu vice, Geraldo Alckmin, se abraçando, com a narração do jornalista: “Perdão, imagem errada. A imagem seria de outro ladrão, digo, de um ladrão de verdade”.
Também foi comprovado que o material se trata de uma montagem feita com o uso dessa tecnologia.
Perigos do deep fake
O uso de deep fake para criar vídeos falsos pode ter uma série de consequências negativas, incluindo:
- Engano e fraude: Os vídeos falsos podem ser usados para enganar as pessoas a comprar produtos ou serviços que não são confiáveis.
- Promoção de desinformação: Os vídeos falsos podem ser usados para espalhar mentiras e desinformação, o que pode ter um impacto negativo na sociedade.
- Difamação: Os vídeos falsos podem ser usados para difamar pessoas, prejudicando sua reputação e imagem pública.
Como se proteger do deep fake
É importante estar atento aos sinais que podem indicar que um vídeo é falso. Alguns desses sinais incluem:
- Qualidade do vídeo: Vídeos falsos geralmente apresentam qualidade inferior aos vídeos reais.
- Inconsistências: Vídeos falsos podem apresentar inconsistências, como movimentos corporais estranhos ou fala desconexa.
- Fonte: É importante verificar a fonte do vídeo antes de compartilhá-lo.
Fonte: BBC