Zuckerberg é criticado por manter no ar deepfake com Ronaldo; conselho da Meta recomenda exclusão

 


Corte acusou empresa de falhas graves na moderação de conteúdos com inteligência artificial


A Meta de Zuckerberg foi duramente criticada por seu próprio Conselho de Supervisão, conhecido como a “Suprema Corte do Facebook”, após manter no ar por meses um vídeo publicitário enganoso com o uso indevido da imagem e da voz do ex-jogador Ronaldo.


O conteúdo promovia um cassino online chamado Plinko e foi classificado pelos conselheiros como um caso emblemático de deepfake — tecnologia que simula visual e vocalmente pessoas reais por meio de inteligência artificial.


A decisão do conselho, anunciada na última quinta-feira (5), obrigou a remoção do vídeo e recomendou mudanças estruturais nas políticas de moderação da empresa. Segundo os julgadores, o sistema automatizado da Meta não apenas falhou em detectar a fraude, como permitiu sua propagação, expondo os usuários a riscos financeiros consideráveis.


“O protocolo atual coloca os usuários em risco de levar golpes financeiros”, advertiu o Conselho de Supervisão no parecer. Ainda segundo a entidade, a abordagem adotada pela empresa é “particularmente preocupante”, já que conteúdos envolvendo celebridades — como Ronaldo e Cristiano Ronaldo — deveriam contar com mecanismos de verificação reforçados.


O vídeo em questão, publicado originalmente em setembro de 2024, somou mais de 600 mil visualizações antes de ser retirado do ar. Mesmo após mais de 50 denúncias, a Meta inicialmente confiou apenas em seus sistemas automatizados para revisar o conteúdo. Só houve revisão humana quando o caso foi escalado ao conselho.


Durante a análise, foram identificados 3.900 anúncios relacionados ao Plinko, sendo que 3.500 deles utilizavam imagens ou vozes manipuladas de celebridades. A peça estrelada por Ronaldo continha sua imagem misturada a um áudio de voz deepfake dessincronizado, o que reforçou os indícios de manipulação e fraude.


Apesar de ter removido o impulsionamento do conteúdo, alegando “práticas comerciais inaceitáveis”, a Meta só excluiu definitivamente o vídeo após a intervenção do Conselho, ao reconhecer a violação das políticas contra fraudes, golpes e spam.


Em comunicado, a empresa minimizou parte das críticas e afirmou que “muitas das alegações do conselho são simplesmente imprecisas”. A big tech se comprometeu a responder formalmente às recomendações em até 60 dias, como previsto em seu estatuto.


A decisão também cobra que a Meta aumente a participação humana na moderação de conteúdos gerados por inteligência artificial e ofereça mais treinamento aos seus colaboradores. Para o colegiado, a empresa parece evitar aplicar regras de forma rigorosa a conteúdos que envolvem figuras públicas, com receio de interferir em declarações legítimas.


“A Meta provavelmente está permitindo a circulação de quantidades relevantes de conteúdo fraudulento para evitar a possível aplicação excessiva de regras em pronunciamentos genuínos de celebridades”, alertou o órgão.


No mesmo comunicado, a empresa reconheceu que “as fraudes cresceram em escala e complexidade nos últimos anos, impulsionadas por redes criminosas transfronteiriças implacáveis”. Acrescentou ainda que está testando ferramentas de reconhecimento facial e investindo em alertas de segurança para tentar mitigar esse tipo de risco.


A medida do Conselho de Supervisão expõe o crescente desafio das plataformas digitais diante da proliferação de conteúdos falsificados por inteligência artificial — especialmente quando envolvem figuras públicas, cuja imagem é usada indevidamente para enganar usuários e promover produtos ou serviç

os sem consentimento.


Postar um comentário

0 Comentários