‘Deepfake’, o novo e terrível patamar das ‘fake news’

Fala de Zuckerberg seria linda se ele fosse CEO dos EUA, não do Facebook
18 de outubro de 2019
Fones sem fio se popularizam e inauguram novíssimos hábitos
19 de outubro de 2019

Imagine por um segundo: um homem com total controle de bilhões de dados roubados. Todos os seus segredos, vida e futuro”, teria dito o criador e CEO do Facebook, Mark Zuckerberg, em um depoimento gravado. “Devo tudo ao Spectre. O Spectre me mostrou que quem controla os dados controla o futuro”, completou. O vídeo supostamente vazado exibe Zuckerberg em um cenário familiar ao de outras de suas declarações — tratando de um assunto que certamente compete a ele. O problema: nada é o que parece ser. Um olhar mais cauteloso entrega a lorota. Ele está com uma postura mais travada que a usual, o rosto levemente desfocado, e faz loas a um tutor, ou seja lá o que for, totalmente desconhecido, o tal Spectre. Resumo da ópera: aquele cara não é Zuckerberg. Trata-se de um avatar criado pelos artistas americanos Bill Posters e Daniel Howemas usando a tecnologia conhecida como deepfake. A técnica lança mão da inteligência artificial (IA) para inserir rostos reais em cenas falsas com o objetivo de criar um vídeo com alguém dizendo algo que não disse. É um novo e péssimo degrau das fake news.

O filme do Zuckerberg de mentirinha viralizou, como quase tudo na internet que incomoda, mas vinha contida nele a ressalva fundamental — é uma contrafação, modo de alardear o perigoso potencial da estratégia de manipulação.

Não há uma data exata de nascimento das deepfakes — termo que junta a palavra fake (falso, em inglês) com a expressão deep learning (aprendizagem profunda; uma técnica de IA). No entanto, a popularização e o aperfeiçoamento do método começaram a ganhar atenção no fim de 2017, quando um vídeo pornô embusteiro, que trazia uma falsa atriz Gal Gadot, de Mulher­-Maravilha (2017), foi publicado no site Reddit. Desde então, uma série dessas maquinações, com celebridades e políticos, pipocou internet afora.

FAJUTO – Gal Gadot, a Mulher-Maravilha (à esquerda): gravação inseriu o rosto dela em uma produção pornô (à direita)Reprodução

Uma análise da empresa de segurança digital Deeptrace, fundada em 2018 para elaborar defesas contra falsificações criadas por IA, revela que o número de deepfakes disponíveis na web quase duplicou entre o fim de 2018 e junho de 2019. De um total de 8 000, saltou para mais de 14 000. A grande maioria — 96% — tem natureza pornográfica.

Do lado, digamos assim, leve de suas promessas, as deepfakes têm potencial para o entretenimento. Tome-­se como exemplo o aplicativo chinês Zao, lançado neste ano. Com apenas uma selfie, ele permite pôr o rosto de usuários em cenas de filmes e séries famosas, ainda que seja perceptível a movimentação artificial da face. Edições satíricas, como a que transformou o ator Alec Badwin no presidente americano Donald Trump, mostram como se pode alcançar ainda maior veracidade. Já com softwares potentes, como o Synthesia, desenvolvido para a indústria cinematográfica e de publicidade, foi possível fazer o ex-jogador de futebol David Beckham falar nove idiomas com extremo realismo, em uma campanha publicitária, em 55 países, que alertava sobre os riscos da malária (leia o quadro abaixo).

( function() {
var func = function() {
var iframe_form = document.getElementById(‘wpcom-iframe-form-3d513203c86d6c7e90f0bd7d961e226d-5da9e280e8a9b’);
var iframe = document.getElementById(‘wpcom-iframe-3d513203c86d6c7e90f0bd7d961e226d-5da9e280e8a9b’);
if ( iframe_form && iframe ) {
iframe_form.submit();
iframe.onload = function() {
iframe.contentWindow.postMessage( {
‘msg_type’: ‘poll_size’,
‘frame_id’: ‘wpcom-iframe-3d513203c86d6c7e90f0bd7d961e226d-5da9e280e8a9b’
}, window.location.protocol + ‘//wpcomwidgets.com’ );
}
}

// Autosize iframe
var funcSizeResponse = function( e ) {
var origin = document.createElement( ‘a’ );
origin.href = e.origin;

// Verify message origin
if ( ‘wpcomwidgets.com’ !== origin.host )
return;

// Verify message is in a format we expect
if ( ‘object’ !== typeof e.data || undefined === e.data.msg_type )
return;

switch ( e.data.msg_type ) {
case ‘poll_size:response’:
var iframe = document.getElementById( e.data._request.frame_id );

if ( iframe && ” === iframe.width )
iframe.width = ‘100%’;
if ( iframe && ” === iframe.height )
iframe.height = parseInt( e.data.height );

return;
default:
return;
}
}

if ( ‘function’ === typeof window.addEventListener ) {
window.addEventListener( ‘message’, funcSizeResponse, false );
} else if ( ‘function’ === typeof window.attachEvent ) {
window.attachEvent( ‘onmessage’, funcSizeResponse );
}
}
if (document.readyState === ‘complete’) { func.apply(); /* compat for infinite scroll */ }
else if ( document.addEventListener ) { document.addEventListener( ‘readystatechange’, function(){
if (document.readyState === ‘complete’) {
func.apply();
}
}, false ); }
else if ( document.attachEvent ) { document.attachEvent( ‘onreadystatechange’, func ); }
} )();

“É necessário, contudo, olhar as deepfakes com a possível progressão de uso de qualquer nova tecnologia. Elas se tornarão sempre melhores e mais acessíveis”, disse a VEJA o engenheiro americano Sam Gregory, diretor da Witness, uma organização sem fins lucrativos que promove o uso de tecnologia na proteção dos direitos humanos. Mas talvez não haja risco maior do que o emprego das enganações animadas nas guerras políticas travadadas dentro das redes sociais. Há onze anos, quando Barack Obama chegou à Presidência dos EUA, um de seus grandes trunfos de campanha foi a forma como atraiu os eleitores jovens por meio dessas plataformas. A equipe do democrata havia descoberto como poderia utilizar os algoritmos para conquistar militantes on-line e pô-los na rua. Obama foi também o primeiro presidente americano a usar o Twitter, o primeiro a fazer uma live no Facebook, e ainda o pioneiro no Snapchat. De lá para cá, a coisa degringolou, dadas a avalanche tecnológica e a dramática polarização entre um lado e outro, a direita e a esquerda.

No Brasil, o uso abusivo das redes foi ferramenta que ajudou na reeleição de Dilma Rousseff , em 2014 — a suspeita de disparo em massa de fake news foi investigada pelo Tribunal Superior Eleitoral (TSE). Bolsonaro navegou na mesma onda e a incrementou, inspirado na fulminante ascensão de Trump em 2016, ao fazer uso de perfis falsos e robôs.

O amanhã que se desenha soa inexorável. “Dá para concluir que as deep­fakes são o próximo passo das manipulações virtuais”, disse a VEJA o alemão Matthias Niesser, professor de computação gráfica da Universidade de Munique. Para ele, as criações digitais são tão convincentes que se tornaram um nó de forte impacto.

NA FICCÇÃO – A série de TV Years and Years, da HBO: a manipulação digital engana eleitores e afeta a eleição na InglaterraHBO

Nos Estados Unidos, o alerta vermelho já está aceso para as eleições do ano que vem. Cerca de 60% dos americanos acreditam que existirá interferência na disputa presidencial de 2020. Os congressistas do país requisitaram oficialmente ao Facebook, ao Twitter e a outras redes que tomem medidas contra os vídeos enganosos.

Entretanto, mesmo que fosse possível proibir as deepfakes, provavelmente já seria tarde demais. É o que constata, em entrevista a VEJA, o engenheiro americano Aviv Ovadya, do Centro de Responsabilidade para Mídias Sociais da Universidade de Michigan (EUA): “A preocupação é com a desinformação criada”. O risco é que ocorra algo como a normalização de fatos absurdos — da crença no terraplanismo a movimentos extremistas. A ficção prevê algo nessa linha. Na série Years and Years (2019), da HBO, as deepfakes têm relevância numa fictícia eleição na Inglaterra, em torno de 2025, e nos anos seguintes.

E, mais uma vez, o aperfeiçoamento de uma nova forma digital de manipulação põe em xeque os alicerces da democracia. Para os especialistas consultados por VEJA, haveria duas maneiras de ao menos mitigar os efeitos: o desenvolvimento de algoritmos, por gigantes como o Facebook e a Google, que barrem os vídeos; e a via judicial, com a punição dos falsários.

Publicado em VEJA de 23 de outubro de 2019, edição nº 2657

Confira os produtos da Etiquetaria Paulista!

Acesse:

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *