>> Garanta seu Planejamento de Estudos clicando aqui <<



No início da tarde última terça-feira (23), um vídeo íntimo de um homem com seis mulheres começou a circular na internet – levantou-se a hipótese de que tratava-se do candidato do PSDB ao Governo de São Paulo, João Doria, nas cenas.

Em questão de minutos, o tema havia se tornado o tópico mais comentado do Twitter no Brasil e se espalhado em diversos grupos de WhatsApp. O vídeo teve mais aderência a essas comunidades por não remover conteúdos sensíveis como pornografia. E, olha, existem muito indícios, como você vai acompanhar a seguir, de que se trata de um vídeo fake.

Era o que faltava para as eleições de 2018 ficassem ainda mais marcadas pela guerra de informações. Se notícias falsas já eram compartilhadas no pleito de 2014, este ano a coisa desandou. Afinal, um texto mentiroso já é capaz de seduzir muita gente, um fato fora de contexto mais ainda. Um vídeo, então, pode ser quase que irrefutável.

Perícias

Já nesta quarta-feira (24), a Veja SP publicou uma matéria divulgando o resultado de uma análise que contratou junto à perita criminal e advogada Roselle Sóglio. A conclusão de Sóglio é de que se trata de uma montagem.

Ela aponta uma série de indícios de manipulação, como a criação de uma espécie de “máscara digital” de João Doria, colando-a sobre as imagens reais do “ator” do vídeo, mas escorrega ao dizer que “em programas como o Adobe Premiere Pro, é possível inserir traços individuais de uma pessoa, como olheiras, papadas e contornos, um a um”. Dificilmente uma alteração digital como essa seria feita a partir do Premiere, mas sim com o auxílio do After Effects.

Apesar disso, destaco alguns pontos da conclusão da perita:

[…]

• O vídeo objeto da análise apresenta máscaras sobrepostas sobre o rosto de outra pessoa, visualizando-se ainda movimentos disruptivos de pescoço, posicionamento ocular e montagens abruptas durante a passagem dos frames;

[…]

• A análise ainda revelou que, o flanco esquerdo do rosto do homem, mais especificamente na região labial, apresenta discrepância quanto a sua estaticidade, mostrando-se uma dinâmica artificial.

• Observou-se na sequência em apreço uma derivação ocular do personagem na cena de movimento, o que evidencia manipulação de filtros específicos para reconstrução do rosto.

[…]

Também na quarta-feira, Doria enviou à Justiça Eleitoral um pedido de investigação sobre autoria do vídeo e apresentou um laudo contestando a veracidade do material. O candidato contratou os peritos criminais Rosa Maria Coronato Melkan, professora da Academia de Polícia Civil do Estado de S.Paulo, e Marcos Olyntho Brandão Godoy, ex-diretor do Núcleo de Engenharia do Instituto de Criminalística de São Paulo, que indicaram que “a peça apresenta características de ser produto de montagem ou de simulação, mediante utilização de aplicativos disponíveis no mercado”. Para dar base à tese, os peritos apontaram as seguintes divergências, conforme reportagem do G1:

• Formato dos dentes
• Corte de cabelo, notadamente na costeleta
• Antagonismo na forma física
• Ausência de pelos no tórax
• Ausência de corrente/cordão no pescoço

Uma rápida análise

Abaixo, há alguns GIFs de trechos do vídeo que estava circulando nas redes.

Colocamos tarjas, mas, mesmo assim, as imagens ainda podem ser inadequadas em algumas situações.

Role a página com cuidado.

Fizemos uma breve análise de um dos dois vídeos que circularam nesta semana – escolhemos o corte de 20 segundos por ter sido o mais popular, além de ser aquele em que o suposto rosto de Doria mais aparece.

A baixa resolução e a péssima iluminação parecem ser propositais, mas apesar disso, ao olhar quadro por quadro, é possível perceber elementos estranhos no vídeo.

Nos primeiros segundos do vídeo, o homem do vídeo aparece sorrindo. Durante nove frames (quadros), a expressão do homem não muda. Fizemos um GIF:

Acompanhe os frames na parte inferior esquerda.

Neste outro ponto do vídeo, repare na definição super esquisita da mão do personagem ao se aproximar do próprio rosto e o borrão que aparece na região enquanto seu rosto está estático:

Pouco depois, podemos perceber que, quando a mulher coloca a mão na frente do homem, a definição da imagem do seu rosto muda completamente e os quadros seguintes parecem apresentar uma imagem estática:

Como o arquivo foi configurado para 30 quadros por segundo, a marca passa dos 00:00:15:29 para 00:00:16:00 – mas trata-se da sequência imediata.

Aqui, há um movimento brusco e não natural na boca:

Por fim, repare como os olhos, nariz e boca do homem são “puxados” para a direita conforme o braço da mulher se aproxima de seu rosto:

Também procuramos alguns especialistas em novas tecnologias de edição audiovisual, conhecidas como deepfake. Alguns veículos de imprensa têm atribuído essa tecnologia à possível edição do vídeo que viralizou, mas é improvável que ela tenha sido empregada neste caso.

Isso porque a tecnologia de deepfake utiliza um vasto banco de dados com imagens do alvo e, utilizando modelos computacionais e inteligência artificial, substitui o rosto original por uma mescla de todas as fotos do banco de dados. É uma técnica que automatiza as alterações digitais. Se o vídeo foi, de fato, alterado digitalmente, o profissional fez tudo na unha.

Hany Farid, professor de ciência da computação no Dartmouth College e especialista em análise de imagens, disse ao Gizmodo Brasil que “analisou os dois vídeos e não viu nenhum evidência de que são resultados de um deepfake”. Farid explica que a tecnologia mais comum de deepfake substitui o rosto de uma pessoa pela imagem de outra a partir da testa até um pouco acima do queixo – no caso do vídeo, o homem tem cabelo e queixo muito similar ao de João Doria.

“Além disso, existem vários frames em que o rosto está parcialmente coberto, mas se mantém consistente com o restante do vídeo – isso seria muito difícil de se conseguir com as atuais aplicações do deepfake que precisam de um rosto visível em cada frame. Por último, até mesmo os melhores deepfakes possuem glitches [falhas] temporais e nenhum é visto aqui. Isso, é claro, não prova que o vídeo é real”, completa.

Outro pesquisador, Matthias Niessner, professor da Universidade Técnica de Munique e líder do laboratório de computação visual, se propôs a analisar o vídeo a partir de uma inteligência artificial que tem desenvolvido para detectar deepfakes. Niessner apontou, no entanto, que a qualidade do vídeo era muito baixa para qualquer conclusão. “O rosto dele tem no máximo 30×30 pixels e está em um vídeo muito comprimido”.

Michael Zollhöfer, pesquisador do Laboratório de Computação Gráfica da Universidade de Stanford, nos disse que não poderia analisar o vídeo, mas comentou que o termo deepfake tem sido utilizado para descrever “qualquer técnica de edição de vídeo, mesmo que seja muito diferente” das modificações feitas por meio do que ele chama de “Deep Video Portraits”.

Repercussão política

Horas depois de as cenas se tornarem virais, Doria gravou um vídeo ao lado da mulher, Bia Doria, negando a veracidade do conteúdo espalhado pela internet e repudiando a tentativa de difamá-lo. “Estou casado com a Bia há 26 anos, tenho três filhos que amo muito, respeito a minha família. Hoje eu vi um vídeo vergonhoso nas redes sociais, produzido por alguém que só quer o meu mal, o mal da minha família. Uma produção grotesca, fake news”, disse.

Antes disso, alguns veículos de imprensa publicaram uma declaração que teria sido enviada pela assessoria da campanha de Doria, acusando o outro candidato que concorre pelo governo de São Paulo, Márcio França, do PSB. Posteriormente, a campanha de Doria negou ter feito acusações contra França.

O candidato do PSB tuítou e fez declarações à imprensa, reafirmando que não teve parte do ocorrido. “Eu não tenho nada a ver com isso, eu repudio qualquer coisa de utilização pessoal em campanha eleitoral. […] Alguém havia dito, da assessoria dele, que isso tinha partido de mim. Por isso eu fiz uma resposta que eu achei que foi solidária, dizendo que eu sou contra a divulgação de vídeo desse jeito pra qualquer um, não é pra ele, é pra qualquer um”, disse França.

Perigo de vídeos falsos

Pode parecer que podemos respirar aliviados com o fato de a tecnologia deepfake ainda não ter sido empregada para a difamação de figuras políticas. Mas esse cenário pode mudar muito rapidamente. O desenvolvimento de novas técnicas de deepfake tem avançado em uma velocidade incrível e já foram utilizados na pornografia.

Como escreveu o pesquisador de segurança Greg Allen recentemente na Wired: “Quando as ferramentas de produção de vídeos falsos possuem performance superior à computação gráfica atual e estão disponíveis para amadores, essas falsificações são capazes comprometer uma grande parte do ecossistema de informações”, comentou Allen. “O crescimento dessa tecnologia transformará o significado de evidência e verdade nos domínios do jornalismo, comunicação governamental, testemunho na justiça criminal e, naturalmente, da segurança nacional”.

Fonte: GizModo

Chat online