CIÊNCIA E TECNOLOGIA

A nação onde seu 'faceprint' já está sendo rastreado

facep123/06/2022 - O uso exclusivo da tecnologia de reconhecimento facial pela Austrália causou polêmica e alimentou temores de privacidade, mas há uma chance de que ela se torne um líder mundial na regulamentação de seu uso. Se uma pessoa na Austrália Ocidental contrair Covid-19, ela deve permanecer em quarentena domiciliar pelos sete dias seguintes – assim como seus contatos próximos. A polícia verifica o paradeiro deles enviando mensagens de texto periódicas e exige que uma selfie ...

seja enviada de volta para eles em 15 minutos. A polícia usa tecnologia de reconhecimento facial e rastreamento por GPS para determinar se a pessoa que tirou a selfie está em casa. Se não estiverem, eles rapidamente seguem com uma batida na porta e uma multa potencialmente pesada. O aplicativo G2G da startup de tecnologia local Genvis foi usado por mais de 150.000 pessoas no estado desde que foi lançado em setembro de 2020. A mesma tecnologia, embora fornecida por empresas diferentes, foi testada nos estados de New South Wales , Victoria, Austrália Meridional e Tasmânia. A Austrália se destaca como a única democracia a usar a tecnologia de reconhecimento facial para auxiliar nos procedimentos de contenção do Covid-19, enquanto outros países se opõem à ideia de tal vigilância.

São Francisco foi a primeira cidade dos Estados Unidos a introduzir uma moratória contra o uso de reconhecimento facial pela polícia em maio de 2019. Foi rapidamente seguida por Oakland, também na Califórnia, e Somerville, em Massachusetts. Amazon, Microsoft, IBM e Google declararam que não venderão seus algoritmos de reconhecimento facial para agências policiais até que haja uma lei federal em vigor. Em novembro de 2021, a Meta disse que o Facebook excluiria um bilhão de "impressões faciais" e deixaria de usar a tecnologia para marcar pessoas em fotos.

Leia também - Os Robôs estão cada vez mais perfeitos e funcionais...mas TUDO tem o seu "Lado Negro"

A Comissão Australiana de Direitos Humanos pediu uma moratória sobre a tecnologia até que a Austrália tenha uma lei específica para regular seu uso. Ativistas de direitos humanos dizem que há potencial para os dados pessoais obtidos serem usados para fins secundários e que é uma ladeira escorregadia para se tornar um estado de vigilância. Grupos como a Anistia advertem que o uso de reconhecimento facial leva à discriminação racial.

“A pandemia criou todas essas novas justificativas para o uso da tecnologia de reconhecimento facial”, diz Mark Andrejevic, professor de estudos de mídia na Monash University em Melbourne e autor de um livro a ser publicado intitulado Facial Recognition. "Tudo ficou online e as organizações estavam tentando fazer as coisas funcionarem muito rapidamente. Mas as implicações não foram pensadas. Queremos viver em um mundo onde tudo é renderizado e não há espaços privados? Isso cria um nível totalmente novo de estresse que não leva a uma sociedade saudável".

O consentimento é necessário para que o aplicativo G2G seja usado e também foi necessário após os incêndios florestais do verão negro da Austrália em 2020, quando aqueles que perderam seus documentos de identificação usaram o reconhecimento facial para se qualificar para pagamentos de ajuda humanitária. Mas houve casos de tecnologia de reconhecimento facial sendo usada secretamente.

facep2

Em outubro, descobriu-se que o grupo de lojas de conveniência 7-Eleven violou a privacidade de seus clientes ao coletar impressões faciais de 1,6 milhão de clientes australianos quando eles concluíram pesquisas de satisfação. As impressões faciais foram supostamente obtidas para obter perfis demográficos e impedir que a equipe manuseasse as pesquisas, aumentando suas classificações. Não recebeu multa.

O Departamento de Assuntos Internos da Austrália começou a construir um banco de dados nacional de reconhecimento facial em 2016 e parece prestes a lançá-lo. Em janeiro, lançou uma licitação para uma empresa "construir e implantar" os dados.

"O reconhecimento facial está à beira de uma implantação relativamente ampla", diz Andrejevic. "A Austrália está se preparando para usar o reconhecimento facial para permitir o acesso aos serviços do governo. E entre as agências de aplicação da lei, definitivamente há um desejo de ter acesso a essas ferramentas."

A maioria dos governos estaduais forneceu ao banco de dados central as carteiras de motorista de seus residentes, e o banco de dados também armazena fotos de vistos e passaportes.

Uma lei para governar a tecnologia de reconhecimento facial foi proposta em 2019, mas foi arquivada depois que uma revisão do comitê parlamentar descobriu que faltava proteções de privacidade adequadas. Entre seus críticos mais fortes estava o então comissário australiano de direitos humanos, Edward Santow.

“Estamos agora na pior de todas as situações em que não há lei específica, então estamos lidando com algumas proteções fragmentadas que não são totalmente eficazes e certamente não são abrangentes”, diz Santow. "E, no entanto, a tecnologia continua a ser implantada."

Santow está trabalhando em maneiras de tornar as disposições de privacidade mais robustas, com sua equipe na Universidade de Tecnologia de Sydney.

Uma resposta global variada

Parte do projeto envolve examinar as tentativas de outros países de regulamentar as tecnologias de reconhecimento facial. Existem abordagens totalmente diferentes em todo o mundo. O mais comum é confiar em um punhado de proteções de privacidade limitadas que, segundo Santow, não abordam adequadamente o problema; é o caso da Austrália.

"Nenhum país do mundo acertou", diz Santow. "Se [as proteções de privacidade fossem adequadas], este projeto seria realmente simples."

Leila Nashashibi é ativista do grupo de defesa norte-americano Fight for the Future, que está se esforçando para obter uma proibição federal do reconhecimento facial e outras formas de identificadores biométricos.

“Como a energia nuclear e as armas biológicas, o reconhecimento facial representa uma ameaça à sociedade humana e às nossas liberdades básicas que superam em muito quaisquer benefícios potenciais”, diz ela. "O reconhecimento facial é diferente de qualquer outra forma de vigilância porque permite o monitoramento automatizado e onipresente de populações inteiras e pode ser quase impossível de evitar. À medida que se espalha, as pessoas terão muito medo de participar de movimentos sociais e manifestações políticas. Liberdade de expressão vai esfriar."

Raspando mídias sociais em busca de impressões faciais

O provedor de tecnologia de reconhecimento facial mais proeminente, a empresa americana Clearview AI, parece não se intimidar com os processos e pesadas multas que está acumulando em várias jurisdições. Ele atraiu a atenção da mídia pela primeira vez quando um bilionário o usou para identificar o jantar de sua filha, e atualmente está sendo usado pelo governo ucraniano para identificar soldados russos mortos. Suas famílias são notificadas nas redes sociais, com as fotos às vezes enviadas como anexo.

O reconhecimento facial cria informações acionáveis em tempo real para prevenir o crime – Mark Andrejevic
Também busca que sua tecnologia seja usada em escolas dos Estados Unidos como um "sistema de gerenciamento de visitantes", que eles acreditam que poderia ser usado para ajudar a prevenir tiroteios em escolas, reconhecendo rostos de alunos expulsos, por exemplo. A tecnologia de reconhecimento facial e de objetos já foi testada em várias escolas por diferentes provedores, incluindo o reconhecimento de objetos que pode identificar uma arma escondida.

“A Clearview AI está explorando o terror e o trauma das pessoas, dizendo que a vigilância e o policiamento são a resposta”, diz Nashashibi.

O CEO e fundador australiano da Clearview AI, Hoan Ton-That, discorda. Ele diz que a tecnologia de reconhecimento facial tem grande potencial para prevenir crimes, pois pode garantir que apenas pessoas autorizadas tenham acesso a um prédio como uma escola.

“Vimos nossa tecnologia sendo usada com grande sucesso pela aplicação da lei para impedir o tráfico de armas e esperamos que nossa tecnologia possa ser usada para ajudar a prevenir trágicos crimes com armas no futuro”, diz ele.

Na Austrália, a tecnologia de reconhecimento facial está sendo usada em vários estádios para impedir a entrada de suspeitos de terrorismo ou hooligans de futebol proibidos. Andrejevic acredita que o uso do reconhecimento facial como medida de segurança é um avanço significativo na vigilância e requer consideração cuidadosa.

“O CCTV é frequentemente criticado por permitir apenas evidências após o fato, enquanto o reconhecimento facial cria informações acionáveis em tempo real para prevenir o crime”, diz ele. "Essa é uma concepção muito diferente de segurança."

O reconhecimento facial ao vivo já é usado por algumas forças policiais em todo o mundo. A Polícia Metropolitana de Londres, por exemplo, usa-o para monitorar áreas específicas em busca de uma "lista de observação" de ofertantes procurados ou pessoas que possam representar um risco para o público.

A Clearview criou um banco de dados pesquisável de 20 bilhões de imagens faciais, em grande parte coletando fotos das mídias sociais sem consentimento. Ton-That disse que a empresa não trabalhará com governos autoritários como China, Coréia do Norte e Irã. No entanto, encontrou problemas em algumas democracias. Ele foi banido no Canadá e na Austrália e, em 24 de maio, o Information Commissioner's Office (ICO) do Reino Unido multou-o em mais de £ 7,5 milhões (US$ 9,1 milhões), após uma investigação conjunta com o Office of the Australian Information Commissioner. Foi ordenado a deletar os dados dos residentes britânicos de seus sistemas. Em dezembro de 2021, o regulador de privacidade da França descobriu que a Clearview violou o Regulamento Geral de Proteção de Dados (GDPR) da Europa.

Santow diz que o objetivo na Austrália é desenvolver uma abordagem diferenciada que encoraje o uso de aplicativos positivos e imponha barreiras para evitar danos. O pior cenário seria replicar o sistema de "crédito social" na China, onde indivíduos e organizações são rastreados pelo governo para determinar sua "confiabilidade".

"Ao determinar se um uso é benéfico ou prejudicial, nos referimos à estrutura básica internacional de direitos humanos que existe em quase todas as jurisdições do mundo", diz Santow.

Por exemplo, a lei exigiria o consentimento livre e informado para o uso do reconhecimento facial. Porém, se a tecnologia estivesse fazendo com que a discriminação ocorresse por sua imprecisão em relação a determinados grupos, o consentimento se tornaria irrelevante. Como diz Santow: "Você não pode consentir em ser discriminado".

Cada vez mais sofisticado e poderoso

"Nos próximos dois anos, veremos uma grande mudança nas pessoas que usam senhas, que são totalmente inseguras. A biometria se tornará o padrão", diz O'Hara.

O reconhecimento facial funciona dividindo o rosto em uma série de formas geométricas e mapeando as distâncias entre seus "pontos de referência", como nariz, olhos e boca. Essas distâncias são comparadas com outras faces e transformadas em um código único chamado marcador biométrico.

"Quando você usa um aplicativo de reconhecimento facial para abrir o telefone, não é uma foto do seu rosto que o telefone armazena", explica Garrett O'Hara, tecnólogo chefe de campo da empresa de segurança Mimecast. "Ele armazena uma derivação algorítmica do que seu rosto é matematicamente. Parece um longo código de letras e números."

O reconhecimento facial percorreu um longo caminho desde que foi desenvolvido pela primeira vez na década de 1960, embora a taxa de erro varie significativamente entre os diferentes sistemas usados hoje. A princípio, era incapaz de distinguir entre irmãos ou as mudanças no rosto de uma pessoa à medida que envelhecia. Agora é tão sofisticado que pode identificar alguém usando máscara ou óculos de sol, e pode fazê-lo a mais de um quilômetro de distância.

O melhor algoritmo de identificação facial tem uma taxa de erro de apenas 0,08%, de acordo com testes do Instituto Nacional de Padrões e Tecnologia. No entanto, esse nível de precisão só é possível em condições ideais, onde os traços faciais são nítidos e não obscurecidos, a iluminação é boa e o indivíduo está de frente para a câmera. A taxa de erro para indivíduos capturados "na natureza" pode chegar a 9,3%.

"É uma tecnologia incrivelmente útil. Mas se alguém nos perguntasse há 20 anos, quando a rede mundial de computadores estava começando, se queríamos viver em um mundo onde nossas interações e atividades fossem coletadas e rastreadas, a maioria de nós provavelmente teria dito que parecia assustador", diz O'Hara. "Agora estamos replicando o rastreamento do espaço online para incluir também o espaço físico. E não estamos fazendo as perguntas que deveríamos fazer."

Um de seus aspectos mais problemáticos é seu potencial de discriminação racial e preconceito. A maioria dos aplicativos de reconhecimento facial foi inicialmente treinada usando conjuntos de dados que não eram representativos de toda a comunidade.

"No início, os conjuntos de dados usados eram todos retirados de homens brancos ou brancos em geral", diz O'Hara. "E claramente, isso leva a problemas quando você tem pessoas de cor ou de diferentes etnias ou origens que não correspondem aos modelos de treinamento. No final das contas, é apenas matemática. Esse é o problema."

Leia também - Pistola Mauser C-96

Como resultado, os sistemas de reconhecimento facial são propensos a erros ao tentar reconhecer aqueles que pertencem a um grupo étnico minoritário, mulheres, pessoas com deficiência e idosos. Seu uso resultou em falsas prisões e outras consequências que alteram a vida, aponta Nashashibi.

Deep fakes levam a fraude a novos patamares

Quer se trate de impressão digital, varredura de íris, análise de marcha ou leitura capilar, nenhuma forma de biometria é infalível. À medida que a tecnologia se torna mais sofisticada, também aumentam as tentativas dos hackers de manipulá-la para seu próprio ganho. Deep fakes surgiram como uma evolução das técnicas de fraude, principalmente em relação ao reconhecimento facial digital (isto é, fotos).

facep3

“Costumava levar várias horas para criar um deep fake usando ferramentas de animação – agora leva alguns minutos”, diz Francesco Cavalli, cofundador da Sensity AI em Amsterdã. "Tudo o que você precisa é de uma foto para criar uma falsificação profunda em 3D. Isso significa que os fraudadores podem escalar suas operações e os ataques estão disparando. Você nem precisa ser desenvolvedor ou engenheiro. Você pode fazer isso sozinho. Existem toneladas de aplicativos que permitem replicar o rosto de qualquer pessoa."

A Sensity AI ajuda governos, institutos financeiros e até mesmo sites de namoro a detectar aplicativos fraudulentos, seja para obter pagamentos de alívio do Covid-19, armazenar dinheiro lavado em uma conta bancária ou chantagear alguém no Tinder. O teste de vivacidade infravermelho determina a temperatura corporal e a piscada quando alguém tira uma foto online, o que significa que uma foto de uma pessoa "sintética" será detectada.

"Em algum momento, os fraudadores descobrem como enganar nossos diferentes modelos, por isso precisamos continuamente criar novas técnicas", diz ele.

Apesar dos desafios no caminho para a regulamentação até o momento, Santow está otimista de que a Austrália possa se tornar um líder mundial na regulamentação do reconhecimento facial. "Não posso falar em nome dos governos federal e estadual. Mas sei que eles entendem que há fortes preocupações da comunidade e que é necessário construir confiança na tecnologia."

"A Austrália pode ser um bom modelo por vários motivos", acrescenta. "Temos um forte respeito institucional e corporativo pelos direitos humanos. Pode não ser perfeito, mas é fundamental para quem somos como país. Também somos desenvolvedores e adotantes sofisticados de tecnologia."

"Percebo que o maior desafio não é fazer uma lei estanque, mas garantir que a própria lei não seja ignorada."

Fonte: https://www.bbc.com/