Especialistas estão soando o alarme sobre a ferramenta de detecção de deepfake do YouTube – um novo recurso de segurança que poderia permitir ao Google treinar seus próprios bots de IA com rostos de criadores, de acordo com um relatório.
A ferramenta dá aos usuários do YouTube a opção de enviar um vídeo de seu rosto para que a plataforma possa sinalizar uploads que incluam deepfakes não autorizados de sua imagem.
Os criadores podem então solicitar que os doppelgangers gerados pela IA sejam removidos.
A ferramenta permite que os usuários do YouTube enviem um vídeo de seu rosto para que a plataforma possa sinalizar uploads que incluam deepfakes não autorizados de sua imagem. terovesalainen – stock.adobe.com
Mas a política de segurança também permitiria ao Google, dono do YouTube, treinar seus próprios modelos de IA usando dados biométricos dos criadores, informou a CNBC na terça-feira.
Um porta-voz do YouTube disse à CNBC que a empresa nunca usou dados biométricos dos criadores para treinar modelos de IA e que as imagens dos usuários são usadas apenas para fins de verificação de identidade e detecção de deepfake.
O porta-voz disse que o YouTube está revisando o texto de sua política de inscrição para potencialmente esclarecer qualquer confusão, embora tenha acrescentado que a política em si não mudará.
O Google não respondeu imediatamente ao pedido de comentários do Post.
Os gigantes da tecnologia têm lutado para lançar os modelos de IA mais recentes sem perder a confiança dos usuários online.
Em um esforço para ajudar os criadores a lidar com o uso não autorizado de suas imagens, o YouTube introduziu uma ferramenta de detecção de deepfake em outubro.
O objetivo é expandir o lançamento do recurso para mais de 3 milhões de criadores do Programa de Parcerias do YouTube até o final de janeiro, disse Amjad Hanif, chefe de produto para criadores do YouTube, à CNBC.
Para se inscrever na ferramenta, os usuários devem enviar um documento de identidade governamental e um vídeo de seu rosto, que é usado para examinar centenas de horas de novas imagens postadas no YouTube a cada minuto.
A política de segurança permitiria ao Google, dono do YouTube, treinar seus próprios modelos de IA usando dados biométricos, de acordo com um relatório. Imagens SOPA/LightRocket via Getty Images
Este upload biométrico está sujeito à política de privacidade do Google, que afirma que o conteúdo público pode ser usado “para ajudar a treinar os modelos de IA do Google e construir produtos e recursos como Google Translate, aplicativos Gemini e recursos de IA em nuvem”, observou a CNBC.
Quaisquer vídeos sinalizados como potenciais deepfakes são enviados ao criador, que pode solicitar que a filmagem seja removida.
Hanif disse que as remoções reais permanecem baixas porque muitos criadores ficam “felizes em saber que ele está lá, mas não acham que mereça ser removido”.
“De longe, a ação mais comum é dizer: ‘Eu olhei para isso, mas estou bem com isso’”, disse ele à CNBC.
Mas especialistas em segurança online disseram que os baixos números de remoções são mais prováveis devido à falta de clareza em torno do novo recurso de segurança – não porque os criadores se sintam confortáveis com deepfakes.
Empresas terceirizadas como Vermillio e Loti disseram que seu trabalho ajudando celebridades a proteger seus direitos de imagem aumentou à medida que o uso de IA se tornou mais difundido.
“À medida que o Google corre para competir em IA e os dados de treinamento se tornam ouro estratégico, os criadores precisam pensar cuidadosamente sobre se desejam que seus rostos sejam controlados por uma plataforma em vez de possuídos por eles mesmos”, disse o CEO da Vermillio, Dan Neely, à CNBC.
Para se inscrever na ferramenta de detecção de deepfake do YouTube, os usuários devem enviar uma identificação governamental e um vídeo de seu rosto. Quem é Danny – stock.adobe.com
“Sua imagem será um dos ativos mais valiosos da era da IA e, uma vez que você ceda esse controle, talvez nunca mais o recupere.”
O CEO da Loti, Luke Arrigoni, disse que os riscos da política atual do YouTube em relação aos dados biométricos “são enormes”.
Ambos os executivos disseram que não aconselhariam nenhum de seus clientes a se inscrever na ferramenta de detecção de deepfakes do YouTube.
Criadores do YouTube como Mikhail Varshavski, um médico credenciado que atende pelo nome de “Doutor Mike”, têm visto cada vez mais vídeos deepfake se espalhando on-line com o lançamento de aplicativos como o Sora da OpenAI e o Veo 3 do Google.
Varshavski – que acumulou mais de 14 milhões de assinantes no YouTube ao longo de quase uma década – regularmente desmascara mitos sobre saúde e analisa dramas médicos de TV em busca de imprecisões em seus vídeos.
Todos os vídeos sinalizados como possíveis deepfakes são enviados ao criador, que pode solicitar a remoção da filmagem. phimprapha – stock.adobe.com
Ele disse que viu pela primeira vez um deepfake seu no TikTok, onde parecia estar promovendo um suplemento “milagroso”.
“Isso obviamente me assustou, porque passei mais de uma década investindo para conquistar a confiança do público e dizer-lhes a verdade e ajudá-los a tomar boas decisões sobre cuidados de saúde”, disse ele à CNBC.
“Ver alguém usar minha imagem para induzir alguém a comprar algo que não precisa ou que pode prejudicá-lo, assustou tudo sobre mim naquela situação.”
Atualmente, os criadores não têm como ganhar dinheiro com o uso não autorizado de sua imagem em vídeos deepfake, incluindo conteúdo promocional.
O YouTube no início deste ano deu aos criadores a opção de permitir que empresas terceirizadas usassem seus vídeos para treinar modelos de IA, embora também não sejam remunerados nesses casos.







