Detecção de Imitações no YouTube
Expansão da Tecnologia de Detecção
O YouTube está ampliando sua tecnologia de detecção de imitações, que identifica deepfakes gerados por inteligência artificial (IA), para um grupo piloto de oficiais governamentais, candidatos políticos e jornalistas. A informação foi divulgada pela empresa na terça-feira. Os membros desse grupo piloto terão acesso a uma ferramenta que detecta conteúdo gerado por IA sem autorização e poderão solicitar a remoção caso acreditem que o material viola a política do YouTube.
Lançamento Anterior
Essa tecnologia foi lançada no ano passado para aproximadamente 4 milhões de criadores do YouTube que fazem parte do Programa de Parcerias da plataforma, após testes preliminares. O recurso de detecção de imitações funciona de maneira semelhante ao sistema de Identificação de Conteúdo do YouTube, que detecta material protegido por direitos autorais em vídeos enviados pelos usuários. Essa nova funcionalidade foca em rostos simulados gerados por ferramentas de IA, os quais são, às vezes, utilizados para disseminar desinformação e manipular a percepção das pessoas sobre a realidade. Deepfakes podem fazer com que figuras públicas, como políticos ou outros oficiais governamentais, digam e façam coisas que não ocorreram na vida real.
Objetivos do Programa Piloto
Com o lançamento do novo programa piloto, o YouTube busca equilibrar a liberdade de expressão dos usuários com os riscos associados à tecnologia de IA que é capaz de criar uma imitação convincente de uma figura pública.
"Essa expansão visa realmente a integridade da conversa pública", afirmou Leslie Miller, Vice-Presidente de Assuntos Governamentais e Políticas Públicas do YouTube, em uma coletiva de imprensa antes do lançamento de terça-feira. "Sabemos que os riscos da imitação por IA são particularmente elevados para aqueles que atuam na esfera cívica. Mas enquanto oferecemos esse novo escudo, também estamos sendo cuidadosos sobre como o utilizamos", observou.
Análise das Solicitações de Remoção
Miller explicou que nem todos os casos detectados resultarão na remoção do conteúdo após um pedido. A plataforma avaliará cada solicitação de acordo com suas diretrizes de privacidade existentes, para determinar se o conteúdo é considerado paródia ou crítica política, que são formas protegidas de expressão.
Advocacia por Proteções Federais
A empresa também enfatizou que está defendendo essas proteções em nível federal, apoiando o NO FAKES Act em Washington, D.C., que regularia o uso de IA para criar recriações não autorizadas da voz e da imagem visual de indivíduos.
Uso do Novo Recurso
Para utilizar a nova ferramenta, os testadores do grupo piloto devem primeiro comprovar sua identidade, fazendo o upload de uma selfie e de um documento de identidade emitido pelo governo. Em seguida, poderão criar um perfil, visualizar as correspondências que aparecem e solicitar a remoção opcional de conteúdos indesejados. O YouTube afirma que planeja eventualmente permitir que as pessoas impeçam o upload de conteúdos que violem suas diretrizes antes que se tornem públicos ou, possivelmente, permitir que monetizem esses vídeos, de forma similar ao funcionamento do seu sistema de Identificação de Conteúdo.
Participação de Políticos no Projeto
A empresa não confirmou quais políticos ou oficiais estariam entre os primeiros testadores, mas mencionou que o objetivo é tornar a tecnologia amplamente disponível ao longo do tempo.
Rotulagem dos Vídeos de IA
Os vídeos gerados por IA serão rotulados como tal, embora a distribuição desses rótulos não seja consistente. Para alguns vídeos, o rótulo aparece na descrição, enquanto vídeos que abordam tópicos mais "sensíveis" terão a etiqueta colocada na frente do vídeo. Essa abordagem é a mesma que o YouTube aplica a todo o conteúdo gerado por IA.
"Há muito conteúdo produzido com IA, mas essa distinção na verdade não é material para o conteúdo em si", explicou Amjad Hanif, Vice-Presidente de Produtos para Criadores do YouTube, referindo-se à colocação do rótulo. "Pode ser um desenho animado gerado por IA. E assim, acho que há um julgamento sobre se é uma categoria que talvez mereça um aviso visual", afirmou.
Remoções de Deepfakes
Atualmente, o YouTube não divulga quantas remoções desse tipo de deepfake foram administradas pela tecnologia de detecção nas mãos dos criadores, mas destacou que a quantidade de conteúdo removido até agora tem sido "muito pequena".
"Para muitos criadores, é apenas a conscientização do que está sendo criado, mas o volume de solicitações de remoção é realmente, realmente baixo, porque a maior parte acaba sendo bastante benigna ou benéfica para seus negócios", comentou Hanif.
Até o momento, essa situação pode diferir no caso de deepfakes que envolvem autoridades governamentais, políticos ou jornalistas.
Futuras Aplicações da Tecnologia
Com o tempo, o YouTube pretende expandir sua tecnologia de detecção de deepfakes para outras áreas, incluindo vozes faladas que sejam reconhecíveis e outras propriedades intelectuais, como personagens populares.
