As fotografias, informações e vídeos que circulam na internet estão cada vez mais diluindo as fronteiras entre ficção e realidade, falso e verdadeiro. A maleabilidade das imagens é uma característica do meio digital e permite uma grande capacidade de manipulação. Essa característica apresenta ao mesmo tempo aspectos sedutores e assustadores. Fakenews, deepfakes, perfis e cliques falsos povoam o universo online, o que requer cuidados e atenção dobrada na hora de consumir o conteúdo.
As deepfakes, por exemplo, podem facilmente enganar o usuário da internet, em vídeos que usam a tecnologia de inteligência artificial para transferir rostos e vozes em corpos de outras pessoas. Essas montagens são realistas e convincentes; e provocam discussões tanto no direito à liberdade de expressão quanto na implicação de danos morais.
Muitas deepfakes são humorísticas: vídeos cômicos que brincam com o rosto ou voz de uma pessoa no corpo de outra criando situações inusitadas. Como os vídeos realizados pelo brasileiro Bruno Sartori que satirizam figuras políticas e celebridades.
Bruno Sartori: Animação de imagens usando inteligência artificial
Um recente aplicativo chamado Impressions deve popularizar a deepfake nas redes sociais fazendo com que qualquer pessoa se divirta produzindo um conteúdo de deepfake sem grandes esforços.
Contudo, esse tipo de montagem também tem sido aplicada para fins mais perversos gerando uma série de problemas éticos e morais.
O termo deepfake surgiu em 2017 quando um usuário do Reddit, usou como pseudônimo para postar um vídeo pornográfico envolvendo o rosto das atrizes Emma Watson e Gal Gadot. A montagem falsa acendeu questões de invasão e violação de privacidade.
Outro uso de deepfake que denota um sério agravante na questão ética são os vídeos que apresentam falsos discursos atribuídos à figuras políticas. Esses vídeos podem confundir muitas pessoas que não estão familiarizadas com a linguagem.
Um exemplo é o vídeo em que o ex-presidente Barack Obama pronuncia um discurso inventado por outra pessoa. Com o sistema de inteligência artificial foi possível transformar as expressões de um ator no rosto de Obama, e a voz foi alterada por um software capaz de reproduzir um timbre idêntico ao da voz do ex-presidente.
Ou seja, com a inteligência artificial é possível fazer com que qualquer pessoa diga qualquer coisa, inclusive o que essa pessoa jamais diria. E isso se faz acreditavelmente.
O ator e diretor americano Jordan Peele que realizou a deepfake de Obama, chegou a fazer um vídeo explicativo utilizando a mesma imagem do ex-presidente para alertar sobre os perigos das deepfakes. A imagem de Barack Obama que aparece no vídeo é na realidade Jordan Peele com efeitos manipulados pela inteligência artificial.
Leia mais
Esse vídeo foi legendado em português e postado no YouTube pela empresa BuzzFeed Brasil com a chamada: “você não vai acreditar no que o Obama fala nesse vídeo!”. A postagem do vídeo aconteceu sem qualquer explicação do conteúdo e com uma chamada alarmante típica das estratégias de fakenews, gerou muito desentendimento, como se pode perceber nos comentários.
Deepfake Obama:
O teor dos comentários sobre esse vídeo no Brasil demonstra cada vez mais a necessidade de alfabetização digital para que se desenvolva o processo cognitivo. E também denota a falta de ética educacional por parte da empresa produtora de conteúdo viral.
Cada nova tecnologia que surge pode apresentar uma parte útil e outra nociva. A consciência ética de cada pessoa que tem acesso a essas ferramentas é determinante para que a humanidade possa avançar socialmente.
Se nas últimas eleições a disseminação de fakenews contribuiu para os resultados, com as deepfakes esse problema poderá se agravar. Estratégias políticas costumam não ter escrúpulos na hora de enganar o eleitor.
O maior problema do fake, no entanto, não é a probabilidade de engano e, sim, o fato que para a maioria das pessoas não importa se a informação é falsa, desde que seja compatível com suas opiniões. Ou seja, se o discurso da notícia ou do vídeo coincidir com o que a pessoa pensa, ela repassa sem se preocupar se é verdadeiro ou falso; repassa como se fosse um argumento para aquilo que acredita. O que segue, então, é uma propagação de opiniões pessoais disfarçadas de notícias verdadeiras.
O uso de identidade falsas, as artimanhas políticas, as manipulações fotográficas e as distorções de discursos não são novidades na história da humanidade. O que muda são as ferramentas.
Durante muito tempo acreditou-se no caráter documental de fotografias e vídeos. O documental, no entanto, não pode ser atribuído somente ao meio técnico, são as fontes que dão credibilidade ao material.
Da mesma maneira, o meio técnico não deve ser acusado como responsável pela onda de regimes políticos totalitários. Em todas as épocas os meios disponíveis foram utilizados para estratégias desonestas de manipulação política, mas são as pessoas as verdadeiras responsáveis por suas decisões.
Até que existam leis capazes de controlar os conteúdos falsos é preciso confiar na índole e na postura ética de quem domina esse tipo de ferramenta. A ética digital deve ser aplicada no consumo e repasse de conteúdo na internet. Como já observado a conduta das pessoas de repassar informações falsas sem se importar com veracidade é o maior problema a ser enfrentado.
Principalmente em momentos eleitorais em que os discursos são inflamados, é preciso segurar a urgência de compartilhamento nas redes sociais e dispor de alguns minutos para verificar as informações. A desinformação disseminada por métodos desonestos pode contribuir para desastres governamentais e cabe as pessoas detectar e não repassar esse tipo de conteúdo.
A necessidade de cautela na deglutição de informações e a educação da população para aprender a consumir conteúdos são essenciais para a compreensão do universo da internet. A imagem deve ser entendida em sua condição de imagem. O falso é agora uma realidade.
* Lucila Vilela é artista visual e pesquisadora. Doutora em Artes Visuais pela Universidade do Estado de Santa Catarina e Co-Editora da Revista Interartive.