HISTÓRIA E CULTURA

A grande leitura de Neil Mackaya: Estamos em apuros: prepare-se para um futuro digital sombrio de caos político, fraude, chantagem sexual... e estrelas imortais

futudigital1Setembro de 2021 por Neil Mackay - A tecnologia AI agora existe, o que significa que vilões e fraudadores podem criar imagens falsas indetectáveis de qualquer pessoa na Terra fazendo e dizendo qualquer coisa imaginável. É uma receita para o caos político, fraude, chantagem e vingança. Ah, e há todas as possibilidades de permitir que Brad Pitt viva para sempre. O escritor em geral Neil Mackay fala com o especialista em deepfake Michael Grothaus

A internet se ilumina quando surgem imagens de Nicola Sturgeon capturadas na câmera admitindo: “A independência arruinará a Escócia”. Suporte SNP tanques imediatamente. Há caos no movimento Yes; júbilo em Westminster.

O único problema é: a filmagem – absolutamente convincente como é – foi falsificada. É um golpe brilhante construído por rivais políticos usando tecnologia avançada de inteligência artificial (IA). Em poucas horas, a mídia investigou e relatou que a gravação do Sturgeon é falsa, mas já é tarde demais - a filmagem se tornou viral nas mídias sociais e, nesta era de teoria da conspiração, muitos escoceses simplesmente não aceitam que tudo foi uma farsa. .

Bem-vindo ao mundo dos deepfakes, uma tecnologia que será mais disruptiva do que a mídia social.

Claramente, você poderia pegar o cenário hipotético acima e invertê-lo: surgem imagens de Boris Johnson admitindo que “a Escócia seria melhor independente”. Sugira o caos para os sindicalistas; alegria no acampamento do Sim.

Ou, talvez, deepfakes surjam nas próximas eleições presidenciais francesas de Emmanuel Macron dizendo que quer “abrir as fronteiras aos migrantes”, fazendo o jogo da extrema direita. É mais provável, porém, que veremos pela primeira vez deepfakes realmente mudar o curso da política na próxima batalha presidencial dos EUA em 2024, quando um deepfake bem colocado na véspera da eleição pode inclinar a balança … talvez para Donald Trump.

Deepfakes já estão sobre nós. A tecnologia que significa que você ou eu podemos fazer imagens falsas totalmente convincentes usando IA existe atualmente – é barata, disponível e permite que qualquer pessoa crie facilmente vídeos curtos com o poder de desencadear o caos político. É apenas uma questão de tempo até que esta última ameaça tecnológica deixe sua marca com algum golpe chocante. O MI6 alertou esta semana que a IA representa um grande risco para a segurança nacional.

Se achamos que a Rússia causou caos no Ocidente simplesmente usando a mídia social, espere até ver o que Putin pode fazer com deepfakes de última geração. Depois, há o terrível dano que os deepfakes podem causar como “pornografia de vingança”. Imagine o que poderia acontecer com você se um ex ou alguém que simplesmente o odiasse falsificasse uma filmagem sexualizada sua e a divulgasse para o mundo.

Leia também - A Grande fome de 1315, a calamidade de matou 25% da população européia

Para descobrir exatamente o que está acontecendo com os deepfakes, o The Herald conversou no domingo com Michael Grothaus.

O escritor investigativo passou anos pesquisando essa perigosa nova tecnologia e acaba de lançar seu novo livro, Trust No One: Inside the World of Deepfakes. Ele pinta um quadro rígido, às vezes desconcertante, de um futuro onde ninguém pode acreditar em nada do que vê ou ouve.

O que é uma falsificação profunda?

“Um DEEPFAKE”, diz Grothaus, “é qualquer mídia, geralmente vídeo, mas pode ser apenas áudio ou uma combinação de ambos, manipulada pela IA para mostrar algo acontecendo que nunca aconteceu de verdade”.

Não se trata apenas de recortar e colar a cabeça de algum político ou celebridade em um cenário ultrajante. Esse tipo de falsificação até uma criança pode identificar. Deepfakes de IA, quando bem feitos, usando a melhor tecnologia nas mãos de um operador qualificado, são literalmente impossíveis de detectar.

Eles são projetados para enganar todos os humanos. Apenas outro computador AI pode descobrir que é falso.

A chave para entender essa nova tecnologia está na palavra “deep”, que se refere a “deep learning”, aprendizado de máquina. Essencialmente, explica Grothaus, para fazer deepfakes, você usa dois AIs – um atua como “o falsificador” e o outro como “o inspetor”. O falsificador começa a construir um deepfake de, digamos, Joe Biden, fazendo parecer que o presidente dos EUA está sentado no Salão Oval dizendo que planeja proibir as armas. O falsificador AI faz milhares de versões da filmagem falsa. Toda vez que o inspetor AI diz que a filmagem é falsa, o falsificador começa de novo até que a filmagem seja boa o suficiente para enganar o inspetor. Uma vez que a filmagem pode enganar uma IA tão avançada, é garantido que enganará os humanos.

O software de “falsificação” mais básico é encontrado em aplicativos de telefone como o Reface, onde os usuários brincam com imagens e adicionam sua própria semelhança em algo como um clipe de um filme da Marvel. Mas isso é fácil de detectar e nunca funcionaria como um deepfake profissional. Essencialmente, o software do telefone móvel está apenas copiando e colando rostos no vídeo.

No entanto, o software deepfake de código aberto de ponta, que é totalmente convincente, está disponível online – geralmente de graça. Este software reconstrói rostos usando IA. Depois de um pouco de experimentação, diz Grothaus, “você provavelmente poderia fazer seu primeiro deepfake em algumas semanas, que é o tempo que levará para dominar o software”. A partir daí, um usuário poderia criar deepfakes em “alguns dias ou menos”.

O software Deepfake é executado “no laptop ou computador desktop médio” – mas quanto mais poderoso o computador, mais rápido é fazer deepfakes e melhor a qualidade. Quanto mais material audiovisual os deepfakers tiverem de seu alvo, melhor. “Se você tivesse uma hora da voz deles, poderia fazer um deepfake incrivelmente realista dizendo o que quiser”, explica Grothaus. Mas também há “software que pode clonar a voz de alguém com apenas um minuto de gravação necessário”.

Em termos de vídeo: “Se você tiver cerca de um minuto de filmagem de Biden, é o suficiente para ‘treinar’ seu software deepfake”. O software divide o vídeo em quadros individuais. Cada segundo tem 30 quadros - portanto, 60 segundos fornecem 1.800 imagens separadas para manipular. “Isso geralmente é mais do que suficiente”, diz Grothaus.

Os deepfakers então juntam imagens manipuladas e as juntam, imperceptivelmente, em qualquer local ou cenário com qualquer ação possível ocorrendo na câmera. Então, em teoria, você poderia produzir filmagens totalmente convincentes de qualquer político entrando em uma casa de massagens ou cheirando cocaína.

Pornografia de vingança

O que mais assusta Grothaus é a conjunção de deepfakes e mídias sociais – não apenas em termos de política, mas também de pornografia. O lançamento de deepfakes sexualizados no Twitter ou no Facebook pode terminar em desastre para as pessoas comuns.

“Se alguém faz um deepfake de, digamos, Bill Clinton, ele tem a plataforma para aparecer na frente do mundo inteiro e dizer: 'ei, isso é um deepfake'. Ele poderia estar em todos os canais de notícias. A moça que trabalha no hospital ou o cara no banco, gente comum, a gente não tem essa plataforma. Podemos refutá-lo nas mídias sociais, mas nossas refutações não vão chegar a todos que viram o deepfake em primeiro lugar.”

Caos político

A tecnologia DEEPFAKE não era avançada ou difundida o suficiente para afetar as eleições recentes, como a última campanha presidencial americana. No entanto, o uso de “shallowfakes” durante a eleição oferece um vislumbre do futuro. Talvez o melhor exemplo de uma farsa superficial seja Nancy Pelosi, do Partido Democrata. Um vídeo autêntico dela foi feito e a trilha sonora simplesmente manipulada para fazer parecer que ela estava bêbada e com as palavras arrastadas. Foi mal executado, sem tecnologia AI e fácil de detectar, especialmente porque a filmagem original não manipulada existia para provar que era falsa.

No entanto, com deepfakes, você não precisa de imagens reais ou existentes. Um político pode ser deepfaked em um filme pornô, em um vídeo deles socando uma criança. Nada no filme seria real ou teria acontecido, mas ainda pareceria totalmente autêntico e convincente. “É assustador”, diz Grothaus. “Você pode colocar palavras na boca das pessoas, colocá-las em vídeo fazendo o que quiser.”

Grothaus teme que “vamos ver mais estados-nação se movendo para a arena deepfake para espalhar desinformação … e armar contra seus inimigos”.

A morte da confiança

“QUANDO os deepfakes se tornarem mais difundidos, isso levará a uma erosão da confiança na sociedade”, diz Grothaus. “O vídeo é meio que a última fronteira. Recebemos artigos e tweets falsos, mas se você visse um vídeo, quase sempre era verdade. Agora, com deepfakes, você pode criar vídeos completamente fabricados. Esse vídeo pode não necessariamente convencer todo mundo que o vê, mas todo mundo que vê agora vai ter que questionar 'isso é real?'.”

A realidade pode começar a se desintegrar. A ascensão dos deepfakes não significaria apenas que todos nós temos que nos tornar verificadores de fatos, certificando-nos de que não estamos assistindo a imagens falsas, mas poderia – contra-intuitivamente – nos fazer começar a duvidar de tudo o que vemos, incluindo imagens autênticas. Deepfakes também podem se tornar o melhor cartão gratuito para sair da prisão. Grothaus apresenta o cenário em que um político é pego na câmera dizendo algo racista, mas depois afirma que a filmagem – que é realmente real – foi realmente deepfake.

Claramente, a maioria do público não tem tempo para verificar tudo o que vê. Esse é o trabalho dos jornalistas. No entanto, muitas pessoas hoje não obtêm mais notícias de fontes tradicionais e confiáveis, em vez disso, dependem das mídias sociais, que serão o marco zero para os deepfakers. Os espectadores podem ver uma história inicial gerada por um deepfake, mas não ler os acompanhamentos provando que tudo era falso. É uma receita para o colapso total da confiança globalmente.

Deepfaking ao vivo

Então, isso significa que todos nós, no futuro, confiaremos apenas no que vemos com nossos próprios olhos? Mesmo assim, deepfakes podem nos enganar. A tecnologia existe, diz Grothaus, “para sobrepor o rosto de outra pessoa em tempo real”. O que isso significa é que você e eu poderíamos estar em uma chamada do Zoom, mas eu nem estou lá. Um fraudador pegou minha imagem e gravação de voz e a manipulou para parecer que você está falando comigo - quando na verdade não está, está falando com eles. É uma interminável sala de espelhos.

“Mesmo se você estiver vendo a mídia com seus próprios olhos, mesmo que seja em tempo real, pode ser um deepfake”, diz Grothaus. Ele até experimentou essa tecnologia e se falsificou para soar convincentemente como uma mulher enquanto falava ao vivo em um podcast.

A morte da celebridade

A DISNEY, explica Grothaus, “já está pesquisando intensamente a tecnologia deepfake. Acho que até o final desta década, os deepfakes serão tão transformadores em Hollywood quanto o som foi na década de 1920, a cor nos anos 50 e o CGI nos anos 90. Acho que Brad Pitt vai viver para sempre.”

O que Grothaus quer dizer é que os estúdios podem usar a tecnologia deepfake para fazer filmes com atores muito depois de mortos ou colocá-los em filmes em que pareçam muito mais jovens. Então, um Pitt de 50 e poucos anos poderia aparecer em uma romcom parecendo ter 20 anos.

“Você terá estúdios mantendo os atores vivos e jovens para sempre. Leonardo DiCaprio é uma das maiores estrelas do mundo – se ele está em um filme, coloca bundas nas cadeiras – mas DiCaprio tem uma falha embutida. Ele só pode fazer um filme de cada vez.” Com deepfakes, DiCaprio poderia filmar sozinho no local, enquanto deepfaked Leos são usados em vários filmes em estúdios ao redor do mundo.

“Isso vai acontecer”, diz Grothaus. Deepfakes reduziriam enormemente o custo de produção de filmes, e a tecnologia se encaixa no modelo de negócios avesso ao risco que agora sustenta Hollywood: retornar repetidamente ao mesmo material e estrelas, como vimos nas franquias de super-heróis.

Parece inevitável que veremos estrelas como Marilyn Monroe e James Dean retornarem. Por que não fazer um novo filme de Guerra nas Estrelas – a história de origem da Princesa Leia estrelando uma deepfake da morta Carrie Fisher? “É realmente assustador”, diz Grothaus. “Isso pode acabar com a celebridade.” Como os novos atores irão se destacar se a atual safra de A-listers e estrelas mortas do passado estão constantemente recebendo os melhores papéis?

Crime profundo

DEEPFAKES já foram usados para golpes criminais bem-sucedidos. Um caso britânico viu um executivo de uma importante empresa de energia ser enganado em £ 200.000. Os deepfakers imitaram seu chefe perfeitamente, enganando-os para que transferissem dinheiro.

Deepfakes podem ser usados para violar o software de reconhecimento facial. O futuro roubo de identidade torna-se um pesadelo. “Eu poderia ligar para minha mãe no Skype”, diz Grothaus, “e dizer que estou viajando e com problemas e preciso de £ 10.000. Minha mãe dizia, 'bem, este é o Skype, parece com você, parece com você, sim, vou transferir o dinheiro'. Mas é apenas um deepfaker.” Isso é “factível” agora, diz ele.

Ascensão dos mortos

A voz de GROTHAUS falha um pouco enquanto ele relata a loucura de trazer seu pai de volta à vida. Seu pai morreu em 1999 após um acidente de carro. A dupla era excepcionalmente próxima. Grothaus contratou um deepfaker para fazer um vídeo de seu pai “andando como se estivesse vivo novamente”.

Ele faz uma pausa e acrescenta: “Eu não deveria ter feito isso. Parecia que isso barateava minha experiência com meu pai, já que a última imagem que tenho dele agora é uma deepfake. Depois de assistir várias vezes, apaguei. Ressuscitar os mortos foi doloroso para Grothaus, mas ele percebe que pode ser “catártico” para os outros.

Deepfakes podem ser usados para quem sofre de demência, permitindo que eles se reconectem com entes queridos falecidos. Isso seria errado? Grothaus pondera. Talvez não, se trouxesse alguma felicidade. Mas claramente os futuros usos “positivos” de deepfakes estão repletos de dilemas éticos. Talvez a melhor aplicação terapêutica dos deepfakes seja para pacientes com doenças degenerativas – como Stephen Hawking – que perdem a capacidade de falar. Eles poderiam ter suas vozes devolvidas, perfeitas.

Leia também - Escolas na Inglaterra alertam para crise de aumento 'comovente' de crianças famintas

O fim da história

“COM deepfakes, você pode reescrever a história”, diz Grothaus. Ele apresenta um cenário em que um futuro líder populista concorre à presidência dos Estados Unidos. Eles são anti-semitas e querem normalizar seu ódio aos judeus. Eles poderiam, ele sugere, criar deepfakes de presidentes anteriores como Kennedy falando depreciativamente sobre o povo judeu e dizer “ei, olhe, eu sou como outros ex-presidentes”. Grothaus acrescenta: “Pode não ser levado a sério pela grande mídia, mas muitas pessoas nem ouvem mais a grande mídia”.

É um exemplo extremo, mas confirma seu ponto de vista de que, com os deepfakes, até a história pode ser distorcida. Já existe um deepfake do presidente Nixon fazendo um elogio a Neil Armstrong como se o pouso na lua de 1969 tivesse terminado em desastre. Países como a Coreia do Norte poderiam usar deepfakes “para divulgar evidências em vídeo mostrando o que quiserem. Fica realmente em 1984. Isso me assusta”, acrescenta Grothaus. “Se Stalin tivesse deepfakes, imagine o tipo de propaganda e desinformação que ele estaria espalhando.”

Um ditador atual poderia simplesmente fazer um vídeo de dissidentes dizendo algo “traidor” e usar isso como desculpa para prendê-los ou executá-los. Nações culpadas de abuso de direitos humanos podem alegar que evidências em vídeo de atrocidades foram falsificadas. Os estados desonestos podem divulgar vídeos deepfakeados de líderes rebeldes no WhatsApp, pedindo aos manifestantes antigovernamentais que se encontrem em um determinado horário e local apenas para prendê-los ou abrir fogo.

Um vislumbre de positividade é que os deepfakes protegeriam denunciantes e dissidentes, permitindo-lhes disfarçar suas identidades online ao falar contra regimes ou corporações perigosas.

O futuro

A maioria das irregularidades possibilitadas pelos deepfakes já está coberta por leis existentes, como difamação, assédio, chantagem e fraude. Mas o problema é pegar os criminosos – o que é quase impossível se os deepfakes forem divulgados no anonimato das redes sociais.

Tecnologicamente, também estamos em uma corrida armamentista. A capacidade de IA que atualmente nos permite identificar deepfakes é a mesma tecnologia usada para ajudar os deepfakes a aprender como se tornar mais convincentes. “É um constante jogo de gato e rato”, diz Grothaus. Os deepfakers são tão sofisticados hoje que até colocam reflexos naturais nos globos oculares de seus alvos.

“Até o final da década”, diz Grothaus, “provavelmente 90% do conteúdo que assistimos terá algum deepfaking nele… Com o passar dos anos, os deepfakes se tornarão uma parte maior da torta de desinformação – acho que até o final desta década também deepfakes podem ser usados por estados-nação para infligir danos a seus inimigos. Eles serão usados regularmente para descartar alegações de que os Estados-nação fizeram algo errado – para controlar a narrativa. Então não estou otimista.”

Fonte: https://www.heraldscotland.com/