Drauzio Varella é vítima de deep fake

O médico Drauzio Varella foi vítima de um deep fake, uma tecnologia que permite criar vídeos falsos com a aparência de pessoas reais. No vídeo, que circula nas redes sociais, o médico aparece supostamente indicando gotinhas milagrosas para manter a pele jovem e bonita.

No vídeo, de quase 30 segundos, o médico aparece – em vários momentos sem que se veja a boca dele – narrando os benefícios do suposto medicamento enquanto fotos de pessoas famosas, que supostamente usam o produto, aparecem na tela.

Apesar da voz ser muito semelhante à de Drauzio Varella, o vídeo é falso e se trata de uma montagem com uso de IA para clonar a voz do médico, que é colocada em um vídeo produzido por ele, mas que originalmente abordava outro assunto.

Reprodução/TikTok

Reação de Drauzio Varella

Drauzio Varella já se manifestou sobre o vídeo, afirmando que é falso e que ele nunca fez propaganda de nenhum produto. O médico também afirmou que está preocupado com o uso de sua imagem para enganar as pessoas.

Toda hora aparece na internet a minha imagem ou alguma coisa que eu teria dito em defesa de um tratamento especial ou de um medicamento para resolver problemas de saúde e você é jogado para um site onde te vendem alguma coisa. São falsários, gente que não presta. Um bando de bandidos que usa a imagem dos outros para tentar enganar as pessoas”, explicou o médico em entrevista a BBC.

Outros casos de deep fake

Celebridades como Ivete Sangalo, Ana Maria Braga e Xuxa também foram vítimas de deep fake e tiveram suas vozes clonadas e inseridas em vídeos em que supostamente elas indicam colágenos para a pele.

Nesses casos, a tecnologia foi usada também em fotos para envelhecê-las, deixando as personalidades com mais rugas e marcas de expressão e, assim, fazer um comparativo mostrando que o produto realmente funcionaria.

Em outra situação, o jornalista William Bonner, âncora e editor-chefe do Jornal Nacional, também foi vítima de deep fake.

Em um vídeo de poucos segundos, que circula nas redes sociais, o âncora aparece dizendo: “O encontro de dois bandidos“. A gravação corta para imagens do presidente Lula e seu vice, Geraldo Alckmin, se abraçando, com a narração do jornalista: “Perdão, imagem errada. A imagem seria de outro ladrão, digo, de um ladrão de verdade”.

Também foi comprovado que o material se trata de uma montagem feita com o uso dessa tecnologia.

Perigos do deep fake

O uso de deep fake para criar vídeos falsos pode ter uma série de consequências negativas, incluindo:

  • Engano e fraude: Os vídeos falsos podem ser usados para enganar as pessoas a comprar produtos ou serviços que não são confiáveis.
  • Promoção de desinformação: Os vídeos falsos podem ser usados para espalhar mentiras e desinformação, o que pode ter um impacto negativo na sociedade.
  • Difamação: Os vídeos falsos podem ser usados para difamar pessoas, prejudicando sua reputação e imagem pública.

Como se proteger do deep fake

É importante estar atento aos sinais que podem indicar que um vídeo é falso. Alguns desses sinais incluem:

  • Qualidade do vídeo: Vídeos falsos geralmente apresentam qualidade inferior aos vídeos reais.
  • Inconsistências: Vídeos falsos podem apresentar inconsistências, como movimentos corporais estranhos ou fala desconexa.
  • Fonte: É importante verificar a fonte do vídeo antes de compartilhá-lo.

Fonte: BBC

Compartilhe