CIÊNCIA E TECNOLOGIA

IA que pode acusar pessoas com crimes

iajuiz12021 - Foi treinado para identificar os oito crimes mais comuns de Xangai. Justiça de aprendizado de máquina - Em um cenário que é parte "Robocop" e parte "Minority Report", pesquisadores na China criaram uma IA que pode identificar crimes e apresentar acusações contra criminosos. A IA foi desenvolvida e testada pelo Shanghai Pudong People's Procratorate, o maior escritório distrital do Ministério Público do país, segundo o South China Morning Post. Ele pode registrar uma acusação com mais de 97% de precisão com base na descrição de um caso criminal suspeito.

“O sistema pode substituir os promotores no processo de tomada de decisão até certo ponto”, disseram os pesquisadores em um artigo publicado na Management Review visto pelo SCMP.

Sistema 206, Esq.

A equipe construiu a máquina a partir de uma ferramenta de IA existente sinistramente chamada System 206. Promotores na China já estavam usando o sistema para ajudar a avaliar evidências e determinar se um suspeito criminoso era perigoso para o público em geral. No entanto, era bastante limitado, pois não podia “participar do processo de tomada de decisão de apresentar acusações e [sugerir] sentenças”, disse a equipe no jornal. Isso exigiria que a IA fosse capaz de identificar e remover informações irrelevantes em um caso e processar a linguagem humana em sua rede neural. A nova IA desenvolvida em Xangai é capaz de avaliar arquivos de casos dessa maneira. Na verdade, a máquina pode identificar e acusar criminosos pelos oito crimes mais comuns do distrito: fraude de cartão de crédito, jogos de azar, direção imprudente, agressão intencional, obstrução de um policial, roubo, fraude e até dissidência política.

Quem vigia os vigilantes?

Claro, há muita preocupação com um computador poderoso com a capacidade de colocar pessoas na prisão. Um promotor anônimo disse ao SCMP que, embora sua precisão de 97% seja bastante alta, “sempre haverá uma chance de erro”.

“Quem vai assumir a responsabilidade quando isso acontecer? O promotor, a máquina ou o projetista do algoritmo?” disse o advogado ao jornal.

 

A China desenvolveu um… promotor de IA?

 

28/12/2021 - Cite uma história de amor melhor do que a China e seu amor pela IA - apostamos que você não consegue. A IA é tão difundida na China que é usada em tudo, desde compras on-line até… vamos chamar de atividades do Big Brother. Agora, cientistas chineses desenvolveram um “procurador” de IA que pode acusar pessoas de crimes. Foi desenvolvido por uma equipe liderada pelo professor Shi Yong, diretor do laboratório de big data e gestão do conhecimento da Academia Chinesa de Ciências. O professor Shi afirma que a máquina é capaz de registrar uma acusação com uma precisão impressionante de 97% com base em uma descrição verbal do caso. Teoricamente, a máquina seria capaz de reduzir a carga de trabalho dos promotores, para que eles possam concentrar seu tempo e esforços em tarefas mais difíceis.

“O sistema pode substituir os promotores no processo de tomada de decisão até certo ponto”, disseram Shi e seus colegas em um artigo publicado em dezembro na revista nacional Management Review. Sabemos que parece que um juiz andróide equipado com uma peruca e toga estará batendo um martelo, pedindo silêncio no tribunal, mas não é assim que funciona – é realmente apenas uma máquina de IA em um computador de mesa, processando casos.

Não é a primeira vez que a China usa IA no judiciário

Apesar da desenvoltura com que a notícia foi divulgada, esta não é realmente a primeira incursão da China no uso da IA ​​na legislação. A IA foi introduzida no processo judicial já em 2016, por meio de uma ferramenta conhecida como System 206, de acordo com o SCMP. O Sistema 206 pode avaliar a força das evidências, as condições para prisões e o nível de perigo de um suspeito para a sociedade. No entanto, as limitações das ferramentas de IA existentes, como o System 206, eram que elas não foram projetadas para fazer parte do processo de tomada de decisão de apresentar acusações e sugerir sentenças, de acordo com Shi. Essa tomada de decisão de alto nível exige que a máquina de IA identifique e classifique os detalhes de um arquivo de caso e remova dados estranhos ou irrelevantes ao crime, mantendo as informações pertinentes.

Além disso, precisaria “converter a linguagem humana complexa e em constante mudança em um formato matemático ou geométrico padrão que um computador pudesse entender”. nDe acordo com o SCMP, as acusações podem ser aplicadas aos suspeitos com base em 1.000 características (ou variáveis) extraídas do texto de descrição do caso gerado por humanos. A evidência seria então deixada ao Sistema 206 para avaliação.

Leia também - Cientistas "revivem" partes celulares de mamute que viveu há 28 mil anos

A máquina foi alimentada com mais de 17.000 casos entre 2015 e 2020 para aprender a reconhecer, classificar e incluir ou excluir informações pertinentes. Até agora, é capaz de processar oito dos crimes mais comuns com uma precisão de 97%. Eles incluem fraude de cartão de crédito, operações ilegais de jogo, direção imprudente, lesão intencional, obstrução de deveres oficiais, roubo e fraude. À moda típica da China, “provocar brigas e causar problemas” também são crimes – que a IA também é capaz de reconhecer… obviamente. Shi e seus colegas esperam que o promotor de IA, com o tempo e com melhorias, aumente a precisão e o escopo da função. Os exemplos incluem o reconhecimento de crimes incomuns e a apresentação de várias acusações contra um único suspeito.

China não é a primeira a usar IA em sentenças

Esta não é a primeira instância do uso da IA ​​no sistema judiciário. Em fevereiro de 2020, a Malásia fez história quando seu judiciário foi o primeiro a usar a IA nas sentenças. Relatórios locais disseram que a IA analisaria um banco de dados de casos entre 2014 e 2019 nos estados orientais de Sabah e Sarawak antes de recomendar ações ao tribunal. Atualmente, o sistema de IA no judiciário da Malásia Oriental é usado para crimes como posse de drogas e estupro.

O perigo dos vieses da IA

É importante ressaltar que, quando se trata de aprendizado de máquina, o viés da IA ​​desempenha um papel enorme na determinação do resultado das coisas. Alimente a máquina com o tipo errado de informação e você obterá resultados errados que podem mutilar, matar ou colocar as pessoas erradas atrás das grades pelo resto da vida. O viés de IA pode ser tão difundido, silencioso e invisível – muitos nem percebem que ele existe não apenas nas informações fornecidas à máquina, mas também em como a máquina inteira é projetada e quem a projeta. Os seres humanos, por padrão, já são tendenciosos para começar – especialmente quando o preconceito está profundamente enraizado sistemicamente nas sociedades.

Isso torna a engenharia de um sistema de aprendizado de máquina livre de preconceitos que não causa destruição de vidas bastante difícil. As empresas de tecnologia estão percebendo isso rapidamente, e algumas até embarcaram em programas para eliminar os vieses da IA, como o Twitter. Já vimos como o viés da IA ​​causou mortes por carros autônomos, afetou a prestação de serviços de saúde com base na raça e também discriminou candidatas a emprego, entre uma série de outras questões problemáticas. Em Wisconsin, um software de avaliação de risco de IA chamado COMPAS foi usado na sentença. A IA no COMPAS estima a probabilidade de criminosos reincidirem com base em suas respostas a 137 perguntas da pesquisa.

No entanto, um estudo encontrou discriminação na forma como avaliou os criminosos com base em sua etnia. Os criminosos negros eram frequentemente rotulados como reincidentes de maior risco, mesmo quando não reincidiam. Por outro lado, produziu resultados opostos para criminosos brancos, rotulando-os como reincidentes de menor risco, mesmo quando reincidem. Ainda permanecem questões importantes quando se trata de seu uso em casos que afetam vidas humanas reais – o viés da IA ​​é um, mas, em última análise, há a questão de quem eventualmente assume a responsabilidade. No caso da China, serão os promotores, a máquina de IA ou o(s) projetista(s) de algoritmos?

Fonte: https://techwireasia.com/
           https://futurismo.com/