Humanos acham rostos gerados por IA mais confiáveis ​​do que a coisa real

    iahuman1a14/02/2022/ por Emily Wilinghan - Os espectadores lutam para distinguir imagens de rostos sofisticados gerados por máquina de humanos reais. Quando surgiram vídeos do TikTok em 2021 que pareciam mostrar “Tom Cruise” fazendo uma moeda desaparecer e desfrutando de um pirulito, o nome da conta era a única pista óbvia de que esse não era o negócio real. O criador da conta “deeptomcruise” na plataforma de mídia social estava usando a tecnologia “deepfake” para mostrar uma versão gerada por máquina do

    famoso ator realizando truques de mágica e dançando sozinho. Uma dica para um deepfake costumava ser o efeito “uncanny valley”, uma sensação inquietante desencadeada pelo olhar vazio nos olhos de uma pessoa sintética. Mas imagens cada vez mais convincentes estão tirando os espectadores do vale e para o mundo da decepção promulgada por deepfakes. O realismo surpreendente tem implicações para usos malévolos da tecnologia: seu potencial armamento em campanhas de desinformação para ganho político ou outro, a criação de pornografia falsa para chantagem e qualquer número de manipulações intrincadas para novas formas de abuso e fraude. O desenvolvimento de contramedidas para identificar deepfakes se transformou em uma “corrida armamentista” entre detetives de segurança de um lado e cibercriminosos e agentes de guerra cibernética do outro.

    Um novo estudo publicado no Proceedings of the National Academy of Sciences USA fornece uma medida de até que ponto a tecnologia progrediu. Os resultados sugerem que humanos reais podem facilmente se apaixonar por rostos gerados por máquinas – e até interpretá-los como mais confiáveis ​​do que o artigo genuíno. “Descobrimos que não apenas os rostos sintéticos são altamente realistas, eles são considerados mais confiáveis ​​do que os rostos reais”, diz o coautor do estudo Hany Farid, professor da Universidade da Califórnia, Berkeley. O resultado levanta preocupações de que “esses rostos podem ser altamente eficazes quando usados ​​para fins nefastos”.

    “De fato, entramos no mundo dos deepfakes perigosos”, diz Piotr Didyk, professor associado da Universidade da Suíça Italiana em Lugano, que não participou do artigo. As ferramentas usadas para gerar as imagens estáticas do estudo já são geralmente acessíveis. E embora criar vídeos igualmente sofisticados seja mais desafiador, as ferramentas para isso provavelmente estarão ao alcance geral em breve, afirma Didyk.

    As faces sintéticas para este estudo foram desenvolvidas em interações de vai-e-vem entre duas redes neurais, exemplos de um tipo conhecido como redes adversariais generativas. Uma das redes, chamada de gerador, produziu uma série evolutiva de rostos sintéticos, como um estudante trabalhando progressivamente em rascunhos. A outra rede, conhecida como discriminador, treinou em imagens reais e, em seguida, classificou a saída gerada comparando-a com dados de rostos reais. O gerador iniciou o exercício com pixels aleatórios. Com o feedback do discriminador, gradualmente produziu rostos humanos cada vez mais realistas. Em última análise, o discriminador foi incapaz de distinguir um rosto real de um falso.

    As redes treinaram em uma série de imagens reais representando rostos negros, do leste asiático, sul da Ásia e brancos de homens e mulheres, em contraste com o uso mais comum de rostos de homens brancos em pesquisas anteriores.

    Leia também - A Lenda da Kuchisake Onna

    Depois de compilar 400 rostos reais combinados com 400 versões sintéticas, os pesquisadores pediram a 315 pessoas que distinguissem o real do falso entre uma seleção de 128 das imagens. Outro grupo de 219 participantes recebeu treinamento e feedback sobre como identificar falsificações enquanto tentavam distinguir os rostos. Finalmente, um terceiro grupo de 223 participantes classificou uma seleção de 128 das imagens para confiabilidade em uma escala de um (muito pouco confiável) a sete (muito confiável).

    O primeiro grupo não se saiu melhor do que jogar uma moeda para diferenciar rostos reais de falsos, com uma precisão média de 48,2%. O segundo grupo não apresentou melhora dramática, recebendo apenas cerca de 59%, mesmo com feedback sobre as escolhas desses participantes. A confiabilidade da classificação do grupo deu aos rostos sintéticos uma classificação média ligeiramente superior de 4,82, em comparação com 4,48 para pessoas reais. Os pesquisadores não esperavam esses resultados. “Inicialmente, pensamos que os rostos sintéticos seriam menos confiáveis ​​do que os rostos reais”, diz a coautora do estudo, Sophie Nightingale. A ideia do vale misterioso não está completamente aposentada. Os participantes do estudo identificaram esmagadoramente algumas das falsificações como falsas. “Não estamos dizendo que todas as imagens geradas são indistinguíveis de um rosto real, mas um número significativo delas é”, diz Nightingale.

    A descoberta aumenta as preocupações sobre a acessibilidade da tecnologia que torna possível para qualquer pessoa criar imagens estáticas enganosas. “Qualquer um pode criar conteúdo sintético sem conhecimento especializado de Photoshop ou CGI”, diz Nightingale. Outra preocupação é que tais descobertas criem a impressão de que os deepfakes se tornarão completamente indetectáveis, diz Wael Abd-Almageed, diretor fundador do Laboratório de Inteligência Visual e Análise Multimídia da Universidade do Sul da Califórnia, que não esteve envolvido no estudo. Ele teme que os cientistas desistam de tentar desenvolver contramedidas para deepfakes, embora considere manter sua detecção no ritmo de seu crescente realismo como “simplesmente mais um problema forense”.

    “A conversa que não está acontecendo o suficiente nesta comunidade de pesquisa é como começar proativamente a melhorar essas ferramentas de detecção”, diz Sam Gregory, diretor de estratégia e inovação de programas da WITNESS, uma organização de direitos humanos que, em parte, se concentra em maneiras de distinguir deepfakes. Criar ferramentas para detecção é importante porque as pessoas tendem a superestimar sua capacidade de detectar falsificações, diz ele, e “o público sempre precisa entender quando estão sendo usados ​​de forma maliciosa”.

    Gregory, que não participou do estudo, ressalta que seus autores abordam diretamente essas questões. Eles destacam três soluções possíveis, incluindo a criação de marcas d'água duráveis ​​para essas imagens geradas, “como a incorporação de impressões digitais para que você possa ver que veio de um processo generativo”, diz ele. Os autores do estudo terminam com uma conclusão dura depois de enfatizar que os usos enganosos de deepfakes continuarão a representar uma ameaça: “Nós, portanto, encorajamos aqueles que desenvolvem essas tecnologias a considerar se os riscos associados são maiores que seus benefícios”, escrevem eles. “Se sim, então desencorajamos o desenvolvimento de tecnologia simplesmente porque é possível.”

    Fonte: https://www.scientificamerican.com/

    Translate

    ptenfrdeitrues