O Comitê de Supervisão da Meta avaliou que as ferramentas da empresa para identificar deepfakes são insuficientes para conter a rápida disseminação de desinformação, especialmente em períodos de conflitos armados, como a guerra no Irã. A informação foi revelada em uma reportagem do portal The Verge.
O órgão independente solicitou uma reformulação completa na maneira como o conteúdo gerado por inteligência artificial (IA) é descoberto e rotulado nas plataformas da Meta, incluindo Facebook, Instagram e Threads. Essa cobrança surgiu após a análise de um vídeo falso criado por IA, que mostrava supostos danos a edifícios em Israel e que circulou nas plataformas da companhia no ano passado, acumulando visualizações antes de ser interceptado.
Vulnerabilidades em momentos de crise
A investigação destacou que as lacunas de segurança se agravam quando o conteúdo viraliza em momentos de crise, afetando narrativas globais. O relatório indicou que o arquivo original do vídeo falso surgiu no TikTok antes de atingir as redes da Meta e o X. Atualmente, a Meta adota abordagens baseadas em padrões da indústria, como a Coalition for Content Provenance and Authenticity (C2PA), que exige que os criadores insiram metadados que identifiquem a origem sintética das imagens ou vídeos.
Entretanto, o conselho concluiu que a ampla maioria das publicações com IA circula sem esses marcadores. A estratégia atual da empresa, que depende de denúncias de usuários ou de detecções tardias, falha em acompanhar a velocidade de viralização de vídeos falsos, moldando a percepção pública antes da ação de checadores de fatos.
Recomendações e prazos
Para corrigir essas vulnerabilidades, o Comitê de Supervisão recomendou o desenvolvimento de sistemas proativos de detecção que operem em tempo real. As orientações incluem a aplicação de rótulos mais proeminentes e a construção de sistemas capazes de identificar manipulações mesmo na ausência de metadados voluntários. Além disso, o grupo determinou a melhoria das regras de desinformação vigentes para abranger deepfakes enganosos e a criação de um padrão da comunidade voltado exclusivamente para mídias geradas por IA.
A companhia possui um prazo de 60 dias para responder formalmente às diretrizes do conselho. Embora as decisões do painel de supervisão não sejam tecnicamente obrigatórias, ignorar as orientações pode configurar um risco de relações públicas e atrair intenso escrutínio regulatório.
Opinião
A pressão sobre a Meta reflete a crescente preocupação com a desinformação em um mundo cada vez mais digital e interconectado.






