CIÊNCIA E TECNOLOGIA

Um algoritmo que "prediz" a criminalidade com base em um rosto provoca furor

algovigi124/06/2020 - Seus criadores disseram que poderiam usar a análise facial para determinar se alguém se tornaria um criminoso. Os críticos disseram que o trabalho lembra a "ciência racial" desmascarada. NO INÍCIO DE MAIO, um comunicado à imprensa da Universidade de Harrisburg afirmava que dois professores e um estudante de pós-graduação haviam desenvolvido um programa de reconhecimento facial que poderia prever se alguém seria um criminoso. O comunicado dizia que o artigo seria publicado em uma coleção da Springer Nature, uma grande editora acadêmica. Com "precisão de 80 por cento e sem preconceito racial", o artigo, Um modelo de rede neural profunda para prever a criminalidade usando processamento de imagens, afirmou que seu algoritmo poderia prever "se alguém é ...

um criminoso com base apenas em uma foto de seu rosto". O comunicado à imprensa foi excluído do site da universidade. Na terça-feira, mais de 1.000 pesquisadores de aprendizado de máquina, sociólogos, historiadores e especialistas em ética divulgaram uma carta pública condenando o artigo, e a Springer Nature confirmou no Twitter que não publicará a pesquisa. Mas os pesquisadores dizem que o problema não para por aí. Os signatários da carta, que se autodenominam coletivamente de Coalition for Critical Technology (CCT), disseram que as alegações do documento "são baseadas em premissas científicas, pesquisas e métodos não sólidos que ... foram desmascarados ao longo dos anos" A carta argumenta que é impossível prever a criminalidade sem preconceito racial, "porque a categoria de‘ criminalidade ’em si é preconceituosa racialmente."

Leia também - Voe com o Jetman: Yves Rossy

Os avanços na ciência de dados e no aprendizado de máquina levaram a vários algoritmos nos últimos anos que pretendem prever crimes ou criminalidade. Mas se os dados usados ​​para construir esses algoritmos forem tendenciosos, as previsões dos algoritmos também serão tendenciosas. Por causa da natureza racialmente distorcida do policiamento nos Estados Unidos, a carta argumenta que qualquer algoritmo preditivo que modele a criminalidade apenas reproduzirá os preconceitos já refletidos no sistema de justiça criminal.

Mapear esses preconceitos na análise facial lembra a abominável "ciência racial" dos séculos anteriores, que pretendia usar a tecnologia para identificar diferenças entre as raças - em medidas como tamanho da cabeça ou largura do nariz - como prova de seu intelecto inato, virtude ou criminalidade . A ciência racial foi desmascarada há muito tempo, mas os artigos que usam o aprendizado de máquina para "prever" atributos inatos ou oferecer diagnósticos estão fazendo um retorno sutil, mas alarmante.

Em 2016, pesquisadores da Universidade Jiao Tong de Xangai afirmaram que seu algoritmo poderia prever a criminalidade usando análise facial. Engenheiros de Stanford e do Google refutaram as afirmações do artigo, chamando a abordagem de uma nova "fisionomia", uma ciência racial desmascarada popular entre os eugenistas, que infere atributos de personalidade a partir do formato da cabeça de alguém.

Em 2017, dois pesquisadores de Stanford alegaram que sua inteligência artificial poderia dizer se alguém é gay ou hetero com base em seu rosto. Organizações LGBTQ criticaram o estudo, observando o quão prejudicial a noção de identificação automática da sexualidade pode ser em países que criminalizam a homossexualidade. No ano passado, pesquisadores da Universidade Keele, na Inglaterra, afirmaram que seu algoritmo treinado em vídeos de crianças no YouTube poderia prever autismo. No início deste ano, um artigo no Journal of Big Data não apenas tentou “inferir traços de personalidade a partir de imagens faciais”, mas citou Cesare Lombroso, o cientista do século 19 que defendeu a noção de que a criminalidade era herdada.

Cada um desses jornais provocou uma reação, embora nenhum tenha levado a novos produtos ou ferramentas médicas. Os autores do artigo de Harrisburg, no entanto, alegaram que seu algoritmo foi projetado especificamente para uso por policiais.

“O crime é uma das questões mais proeminentes na sociedade moderna”, disse Jonathan W. Korn, estudante de doutorado em Harrisburg e ex-policial de Nova York, em uma citação do comunicado à imprensa excluído. “O desenvolvimento de máquinas que são capazes de realizar tarefas cognitivas, como identificar a criminalidade de [uma] pessoa a partir de sua imagem facial, proporcionará uma vantagem significativa para as agências de aplicação da lei e outras agências de inteligência para prevenir a ocorrência de crimes em suas áreas designadas . ” Korn não respondeu a um pedido de comentário. Nathaniel Ashby, um dos co-autores do jornal, não quis comentar.

A Springer Nature não respondeu a um pedido de comentário antes da publicação inicial deste artigo. Em uma declaração após a publicação inicial do artigo, Springer disse: “Reconhecemos a preocupação com relação a este artigo e gostaríamos de esclarecer em nenhum momento que ele foi aceito para publicação. Ele foi submetido a uma próxima conferência para a qual a Springer publicará os procedimentos da série de livros Transactions on Computational Science and Computational Intelligence e passou por um minucioso processo de revisão por pares. A decisão do editor da série de rejeitar o artigo final foi tomada na terça-feira, 16 de junho, e foi oficialmente comunicada aos autores na segunda-feira, 22 de junho. Os detalhes do processo de revisão e as conclusões tiradas permanecem confidenciais entre o editor, revisores e autores. ”

Grupos de defesa dos direitos civis há muito alertam contra o uso de reconhecimento facial pela polícia. O software é menos preciso em pessoas de pele mais escura do que em pessoas de pele mais clara, de acordo com um relatório dos pesquisadores de IA Timnit Gebru e Joy Buolamwini, os quais assinaram a carta do CCT.

Leia também - Telha cerâmica fotovoltaica

Em 2018, a ACLU descobriu que o produto de reconhecimento facial da Amazon, Rekognition, identificou erroneamente membros do Congresso como criminosos, errando com mais frequência em funcionários negros do que em brancos. A Amazon anunciou recentemente uma moratória de um ano na venda do produto à polícia.

O artigo de Harrisburg aparentemente nunca foi postado publicamente, mas publicar pesquisas problemáticas por si só pode ser perigoso. No ano passado, o pesquisador de segurança Adam Harvey, sediado em Berlim, descobriu que conjuntos de dados de reconhecimento facial de universidades americanas eram usados ​​por empresas de vigilância ligadas ao governo chinês. Como a pesquisa de IA criada para um propósito pode ser usada para outro, os documentos exigem um escrutínio ético intenso, mesmo que não conduzam diretamente a novos produtos ou métodos.

“Como os computadores ou o motor de combustão interna, a IA é uma tecnologia de propósito geral que pode ser usada para automatizar muitas tarefas, incluindo aquelas que não deveriam ser realizadas em primeiro lugar”, diz a carta.

Fonte: https://www.wired.com/