O Comitê de Supervisão da Meta, um órgão independente, emitiu uma forte cobrança à gigante da tecnologia, afirmando que suas ferramentas para identificar e moderar deepfakes são amplamente insuficientes. A avaliação, divulgada após a análise de um vídeo falso que se espalhou durante um conflito, destaca a incapacidade da empresa de conter a rápida disseminação de desinformação gerada por inteligência artificial (IA) em momentos de crise, especialmente em plataformas como Facebook, Instagram e Threads.
O Alerta Vermelho dos Deepfakes em Conflitos
A urgência da situação veio à tona com a análise de um vídeo falso criado por IA no ano passado, que simulava danos a edifícios em Israel. O material circulou amplamente nas plataformas da Meta e acumulou inúmeras visualizações antes de ser finalmente interceptado. A investigação do comitê revelou que as lacunas de segurança se tornam ainda mais graves quando o conteúdo viraliza em períodos de crise, moldando narrativas globais e influenciando a percepção pública. O relatório aponta que o arquivo original surgiu no TikTok antes de atingir as redes da Meta e o X.
A Ineficácia da Abordagem Atual da Meta
Atualmente, a Meta adota abordagens baseadas em padrões da indústria, como a Coalition for Content Provenance and Authenticity (C2PA), que dependem da inserção voluntária de metadados pelos próprios criadores para identificar a origem sintética de imagens ou vídeos. No entanto, o conselho concluiu que a vasta maioria das publicações de IA circula sem esses marcadores. Além disso, a estratégia da empresa, que aguarda denúncias de usuários ou depende de detecção tardia, falha em acompanhar a velocidade de viralização de vídeos falsos, permitindo que a desinformação se estabeleça antes da ação de checadores de fatos. Essa deficiência técnica é agravada por documentos internos recentes que indicam uma redução nos recursos de moderação da companhia.
As Exigências para uma Moderação Robusta
Para corrigir as vulnerabilidades críticas, o Comitê de Supervisão recomendou uma reformulação completa na maneira como o conteúdo gerado por IA é descoberto e rotulado. As orientações incluem o desenvolvimento de sistemas proativos de detecção que operem em tempo real, a aplicação de rótulos mais proeminentes e a construção de sistemas capazes de identificar manipulações mesmo na ausência de metadados voluntários. O grupo determinou também a melhoria das regras de desinformação existentes para abranger deepfakes enganosos e a criação de um padrão da comunidade voltado exclusivamente para mídias geradas por IA.
O Prazo da Meta e os Riscos de Ignorar as Orientações
A Meta possui um prazo padrão de 60 dias para responder formalmente às diretrizes do conselho. Embora as decisões do painel de supervisão não possuam caráter tecnicamente obrigatório, ignorar as orientações pode configurar um risco significativo de relações públicas para a empresa e atrair intenso escrutínio regulatório. A pressão sobre a Meta aumenta para demonstrar um compromisso eficaz com a integridade da informação em suas plataformas.
Fonte: canaltech.com.br
