Os deepfakes são vídeos que foram manipulados usando inteligência artificial (IA), sendo uma crescente preocupação para governos, agências de autoridade e cidadãos particulares. Estes conteúdos de média sintetizados podem ser muito convincentes e poderão um dia minar a nossa capacidade de confiar nos nossos próprios olhos. Mas o que é a tecnologia deepfake? E porque é tão perigosa?
Tabela de Conteúdo Qual é o propósito dos deepfakes? Como são feitos os vídeos deepfake? Quem pode fazer deepfakes? Os deepfakes são ilegais? Como identificar um deepfake A tecnologia deepfake é uma ameaça? O futuro dos deepfakes
Qual é o propósito dos deepfakes?
Os deepfakes podem ter vários propósitos, desde o rejuvenescimento de atores em produções de sucesso de Hollywood até ao lançamento de perigosas guerras de propaganda contra rivais políticos. A tecnologia deepfake pode criar vídeos convincentes de pessoas, incluindo políticos e celebridades, aparentemente a dizerem e fazerem coisas que na verdade nunca disseram ou fizeram. Os programas deepfake são relativamente acessíveis e fáceis de usar, e podem brevemente desempenhar um papel importante na indústria cinematográfica. Se combinarmos isto com o facto de os sistemas de inteligência artificial conseguirem também recriar o áudio de vozes humanas específicas da mesma maneira, então estaremos perante um bom deepfake transformado numa ferramenta poderosa — e potencialmente perigosa.
Como são feitos os vídeos deepfake?
Os deepfakes são feitos com sistemas de inteligência artificial, que usam um processo chamado deep learning (aprendizagem profunda) para visualizar e recriar conteúdos de média. Em alguns casos, estes sistemas de deep learning usam uma rede contraditória generativa; essencialmente, a rede de IA está dividida em dois componentes rivais, que competem para aprender e melhorar os seus resultados. Um deepfake normalmente envolve imagens de vídeo de uma pessoa, geralmente um ator. Este é apenas o boneco sobre o qual outro rosto vai depois ser projetado. A inteligência artificial visualiza então centenas de imagens de um indivíduo diferente e recria as suas características de forma realista. A imagem do novo rosto é então mapeada nos movimentos do ator, sincronizando expressões e movimentos labiais. Embora a IA deepfake ainda esteja a ser trabalhada e melhorada, está já num nível muito avançado e pode produzir resultados rapidamente com o mínimo de supervisão humana.
Quem pode fazer deepfakes?
Qualquer pessoa pode criar vídeos e imagens deepfake, usando uma variedade de apps gratuitas como a Wombo e a FaceApp. Estes são programas simples que não produzem resultados extremamente convincentes, mas são apenas a ponta do iceberg. Os artistas de efeitos visuais têm procurado formas de rejuvenescer atores mais velhos e até trazer celebridades falecidas de volta aos ecrãs. Vimos tentativas de rejuvenescer Arnold Schwarzenegger em “O Exterminador Implacável: Destino Sombrio” e de ressuscitar Peter Cushing em “Rogue One: Uma História de Star Wars”. Estas não são deepfakes, mas sim reconstruções digitais cuidadosamente trabalhadas por artistas de efeitos visuais. O que é impressionante é que muitos artistas amadores de efeitos visuais fizeram as suas próprias versões de cenas relevantes desses filmes e usaram software deepfake para gerar recriações faciais ainda melhores. Isto demonstra uma utilização interessante e legítima para os deepfakes. Você pode ver alguns destes convincentes vídeos gerados por IA no YouTube, juntamente com vários vídeos falsos de figuras públicas como Donald Trump, Barack Obama e Tom Cruise, todos recriados através desta mesma tecnologia.
Os deepfakes são ilegais?
Os deepfakes estão rapidamente a ganhar uma má reputação como ferramentas de desinformação, fake news (notícias falsas) e conteúdo adulto malicioso. No entanto, eles não são ilegais por si só. Existem utilizações legítimas para os deepfakes – sendo a utilização como efeitos digitais em filmes uma das principais – mas eles também podem ser usados para práticas ilegais, sendo esta uma das principais razões do recente crescimento da consciência pública sobre os mesmos. Os deepfakes são, por vezes, usados para criar vídeos e imagens pornográficas ilegalmente, muitas vezes usando a semelhança de celebridades femininas e figuras públicas. Têm até surgido relatos de bots de nudes deepfake que podem automaticamente gerar este material. Se isto não fosse suficientemente mau, estes vídeos falsos também podem fazer parte da estratégia de propaganda dos governos para tentar minar a confiança nos seus inimigos. {SHORTCODES.blogRelatedArticles}
Como identificar um deepfake
Nem sempre é fácil detetar um deepfake. Embora alguns sejam claramente vídeos falsos, com expressões faciais a demonstrar um efeito estranho, outros são mais sofisticados. Vários fatores podem ajudá-lo a determinar se está perante um convincente vídeo deepfake ou não. Se o vídeo tiver um rosto, foque a sua atenção nele e procure estas pistas:
Manchas suaves ou desfocadas Os pontos de conexão onde a sobreposição do vídeo deepfake encontra o rosto da pessoa por baixo podem por vezes parecer estranhamente suaves e sem textura. Até nos melhores exemplos, quaisquer movimentos repentinos da cabeça ou mudanças na iluminação podem momentaneamente revelar limites faciais desfocados. Características não faciais imprecisas Se o vídeo representar uma figura pública, como um político, você pode encontrar imagens dessa pessoa para comparar. Observe elementos fora das principais características faciais que podem não ter sido alterados: mãos, cabelo, formato do corpo e outros detalhes que não combinam entre o vídeo em questão e fontes visuais mais antigas e confiáveis. Movimentos não naturais Pelo menos por enquanto, os deepfakes parecem mais convincentes quando a pessoa não se move muito. Se o corpo e a cabeça da pessoa parecerem estranhamente rígidos, pode ser um sinal de que os criadores do vídeo estão a tentar tornar mais fácil para a aprendizagem profunda da IA mapear uma imagem no rosto da pessoa sem ter de rastrear muito movimento. Uma voz pouco convincente A tecnologia deepfake está a evoluir rapidamente, mas por agora treinar computadores para criar simulações de áudio parece produzir piores resultados do que sintetizar imagens e vídeos deepfake convincentes. O criador do deepfake tem de escolher entre duas opções se quiser que o seu sujeito fale: usar uma voz gerada por IA ou um ator que possa personificar o material de origem. Você pode comparar a voz com o áudio de uma celebridade ou político a falar e poderá notar algumas diferenças.
A tecnologia deepfake é uma ameaça?
A tecnologia deepfake representa uma série de ameaças muito reais para os cidadãos e para a sociedade em geral. Vídeos deepfake convincentes podem ser extremamente prejudiciais se forem criados como pornografia de vingança (revenge porn) e partilhados online. É por isso que muitos países estão a começar a instituir leis para criminalizar esta atividade. No entanto, várias outras ameaças em crescimento podem advir dos deepfakes, como apresentaremos aqui.
Fake news e propaganda Um vídeo deepfake convincente pode ser usado como propaganda para difamar adversários políticos e governos rivais. Para dar um exemplo, podemos olhar para 2022 quando, pouco depois da invasão da Ucrânia por parte da Rússia, surgiram online vídeos deepfake que mostravam a rendição do presidente ucraniano. Embora este vídeo tenha sido exposto como sendo falso, é fácil de perceber o quão prejudicial esta estratégia pode ser quando a tecnologia passar a ser mais difícil de detetar. Um deepfake pode ser usado para difamar um adversário político e influenciar os eleitores. Em alternativa, a utilização generalizada desta tecnologia pode servir para desacreditar um vídeo genuinamente incriminador. Se detetar um vídeo deepfake se tornar impossível, os média fabricados terão o potencial de aumentar os riscos de fake news e alimentar a desconfiança nos grandes meios de comunicação. Burlas e engenharia social A tecnologia deepfake também pode ser usada para levar as pessoas a expor informações privadas ou até mesmo a dar dinheiro através de ataques de phishing. Se receber uma mensagem no Facebook de um amigo a explicar que está retido no estrangeiro e precisa de ajuda financeira urgente, você deve desconfiar. Talvez você lhe telefone ou envie uma mensagem através de outra app e descubra que a sua conta de Facebook foi hackeada. Agora imagine o mesmo cenário mas, em vez de uma mensagem, recebe um vídeo totalmente convincente do seu amigo. O áudio e o vídeo parecem genuínos; e agora você tem o que parece ser uma prova visual de que ele está realmente retido num aeroporto sem dinheiro suficiente para o bilhete de regresso a casa. Muitas pessoas enviariam o dinheiro, não sentindo a necessidade de pedir mais garantias — mas o que elas acabaram de ver pode ser um deepfake. Graças à crescente sofisticação das redes adversárias generativas e outros sistemas de machine learning, um burlão poderá brevemente usar estes convincentes vídeos para facilitar o roubo de identidade e ajudá-lo em futuras burlas.
O futuro dos deepfakes
Será cada vez mais difícil detetar deepfakes à medida que a tecnologia melhorar. Se atingirmos o ponto em que qualquer pessoa com um computador e um conhecimento básico de software de efeitos visuais possa produzir um vídeo do presidente a dizer algo ultrajante, estaremos em apuros. Já é difícil detetar deepfakes, mas em breve eles poderão ser impossíveis de detetar. Com um sistema político polarizado, não é impossível que um deepfake possa ser usado como parte de uma estratégia de campanha secreta. Embora a utilização desta tecnologia em filmes de programas de TV recentes esteja a ajudar a aumentar a consciencialização do público, muitas pessoas podem ainda ficar desinformadas por um vídeo convincente. Uma medida simples que você pode adotar hoje para combater os riscos apresentados pelos burlões deepfake é limitar quantas imagens publica online. A criação de vídeos convincentes, através de IA, depende do acesso do sistema a fotos e vídeos da pessoa que ele está a tentar recriar. Sugerimos que mantenha os seus perfis das redes sociais privados e evite publicar imagens frequentes do seu rosto.