O YouTube está finalmente abordando o lado mais arriscado dos vídeos deepfaked

O YouTube está finalmente abordando o lado mais arriscado dos vídeos deepfaked

O YouTube está intensificando sua luta contra um dos usos mais preocupantes da IA: vídeos deepfake que se fazem passar por pessoas reais. A empresa anunciado está expandindo sua tecnologia de detecção de semelhança para um grupo piloto de jornalistas, funcionários do governo e candidatos políticos. É uma medida que visa proteger figuras públicas da falsificação de identidade gerada pela IA.

O recurso funciona como o Content ID para rostos. Os participantes enviam um pequeno vídeo e uma identificação governamental para que o sistema possa saber sua semelhança. Uma vez inscrito, o YouTube verifica os uploads em busca de vídeos gerados por IA que imitem sua aparência. Se tal conteúdo aparecer, o indivíduo poderá revisá-lo e potencialmente solicitar sua remoção.

Um novo escudo contra a personificação da IA

YouTube primeiro introduziu detecção de semelhança para criadores no Programa de Parcerias do YouTube no ano passado. A empresa acredita agora que a próxima prioridade é proteger figuras públicas cujas identidades são frequentemente utilizadas em campanhas de desinformação, especialmente em torno de eleições e discurso político.

Deepfakes tornaram-se cada vez mais realistas graças às ferramentas generativas de IA, tornando mais fácil criar vídeos convincentes de pessoas dizendo ou fazendo coisas que nunca fizeram. Na política e no jornalismo, esse risco pode ter consequências graves, desde a desinformação até danos à reputação. No entanto, o sistema não é um simples “botão excluir”. O YouTube afirma que os pedidos de remoção ainda estarão sujeitos às diretrizes existentes de privacidade e moderação, o que significa que alguns vídeos podem permanecer online se forem qualificados como paródia, sátira ou comentário legítimo.

Curiosamente, o YouTube diz que o lançamento original para os criadores não resultou em muitas remoções. A maior parte do conteúdo detectado revelou-se relativamente benigno, embora a empresa espere que a situação seja diferente para figuras públicas e líderes políticos que enfrentam um risco maior de ataques deepfake direcionados.

Por enquanto, o programa permanecerá limitado a indivíduos influentes e não ao público em geral. Mas a expansão sinaliza uma mudança mais ampla em toda a indústria tecnológica: avançar rapidamente para construir barreiras de proteção antes que a mídia gerada pela IA se torne impossível de distinguir da realidade.

Share this post

Post Comment