Por Marcelo Molnar, consultor e sócio-diretor da Boxnet

 

Em breve sua imagem poderá estar retratada em um filme pornô, ou falando frases discriminatórias, ou chutando símbolos religiosos, e sua grande dificuldade será provar que não foi você, pois todas as evidências estarão materializadas, fragilizando a sua defesa. Brincadeira inocente e perigosa ou ataque perverso e cruel? Como lidar com esse pesadelo? O avanço tecnológico coloca-nos em impasses entre problemas e oportunidades. A reputação de pessoas, marcas e produtos nunca esteve tão exposta e todos os profissionais de comunicação que trabalham em gestão de crise ganharam maior relevância e novas chances de desenvolvimento e aprimoramento.

Acreditamos naquilo que queremos. O psicólogo e escritor Michael Brant Shermer, colunista da Scientific American, afirma: “As pessoas gostam de ser enganadas”. Ele afirma que o mundo real não é suficiente para o tamanho dos nossos anseios e da nossa imaginação. Queremos mais, sempre, pois o inexplicável nos fascina, o fantástico nos atrai, e a fantasia nos alegra. Toda ficção, incluindo filmes de super-heróis, nos surpreende, ativa nossa criatividade e nos tira da rotina. O perigo está em quando não sabemos distinguir e não controlamos o que é mentira ou realidade. Ou quando inocentes são prejudicados.

Há dois anos, cibercriminosos utilizaram softwares de inteligência artificial para criar um áudio falso de um dos diretores de uma grande empresa de energia. Nesse áudio, encaminhado a um executivo da área financeira, os criminosos solicitaram uma transferência de 220 mil euros, que foi realizada sem questionamentos, já que a voz do diretor foi reconhecida e pedidos como esse faziam parte da rotina do departamento. Esse golpe ficou conhecido como um dos grandes casos de ciberataques com o uso de ferramentas de deepfake.

Deepfake, uma amálgama de deep learning (aprendizagem profunda, em inglês) e fake (falso, em inglês), é uma técnica de síntese de imagens ou sons humanos, baseada em métodos de inteligência artificial (IA), tornando mais fácil gerar mídia não-verídica com aparência e som cada vez mais realistas. No início da sua propagação, vários vídeos falsos foram criados utilizando imagens de celebridades, conhecidos como pornografia de vingança (revenge porn). Muitos desses vídeos ainda podem ser encontrados na web. Mas mesmo os não pornográficos criados com a mesma tecnologia podem ser facilmente localizados em sites de streaming como o YouTube, desafiando a lógica de quem assiste.

Ano passado, um caso de bullying ocorreu nos Estados Unidos, em que uma mãe foi presa ao usar o deepfake para favorecer a filha frente a outras garotas de um grupo de líderes de torcida, compartilhando imagens e vídeos comprometedores das supostas rivais. O caso aconteceu em Chalfont, no estado da Pensilvânia. Segundo a polícia, uma das vítimas entrou em contato sobre uma imagem supostamente sua que, embora tivesse o seu rosto, não era verdadeira. Outras garotas apresentaram queixas similares. Não demorou muito para as autoridades locais identificarem um padrão: todas as vítimas pertenciam a um time de cheerleaders, em que as garotas apareciam nuas, fumando ou bebendo, comportamentos incompatíveis com líderes de torcida. A investigação rastreou a origem das fotos até encontrar um endereço IP comum, que apontava para a residência de Raffaela Spone, mãe de uma das garotas do time − a única que não teve seus vídeos e fotos manipuladas.

Um recente relatório publicado pelo UCL (Colégio Universitário de Londres) listou 20 diferentes usos de tecnologias de IA por criminosos e terroristas que serão perigosos pelos próximos anos, e classificou o deepfake como a mais potencialmente nocivo à sociedade, por ser o mais difícil de combater e identificar. O documento reuniu análises de 31 especialistas e os deepfakes ficaram com a coroa da infâmia por serem usados em uma grande variedade de golpes.

Aqui no Brasil a Câmara dos Deputados aprovou um projeto de lei que criminaliza a prática do deepfake. A ideia é coibir o uso dessa tecnologia, pois está clara a necessidade de regulamentar uma legislação que atenda às exigências do Direito Digital, no campo cível, criminal, administrativo, eleitoral, dentre outros, visando à segurança e proteção dos indivíduos em meio às novas tecnologias. E para, acima de tudo, preservar a verdade.

Já foi o tempo do ditado que dizia que tão culpado quanto o enganador é aquele que se deixa enganar. Como Shermer defende, “a mágica nos entretém e nos ludibria justamente porque queremos ser iludidos”. Infelizmente, não evoluímos para duvidar ou desenvolver uma visão crítica mais apurada, e o deepfake confunde e inibe o nosso viés de ceticismo. 

Imaginem como essa tecnologia, em geral usada para o mal, impacta tanto os jornalistas, que têm a responsabilidade de buscar a verdade acima de qualquer coisa, e os profissionais de comunicação e RP, cujo zelo reputacional pesa de forma excessiva sobre os ombros. Como diz a canção, “é preciso estar atento e forte” para acompanhar todos esses movimentos, avanços e evolução, para que uma ação desse nível, se acontecer, não nos pegue de calças curtas.

Para quem quiser saber mais a respeito: 


Mais artigos de Marcelo Molnar

0 0 votes
Article Rating
Subscribe
Notify of
guest
0 Comentários
Inline Feedbacks
View all comments