CIÊNCIA E TECNOLOGIA

Professor diz que não prevê problemas com sua IA que prediz crimes antes que aconteçam

iacrime123/08/2022 - Isso parece uma receita para o desastre. Uma IA para prognóstico de crimes já existe e foi implementada em várias cidades americanas. Mas não se preocupe, ele definitivamente não será mal utilizado pelas forças policiais da cidade – pelo menos de acordo com seu principal criador, o professor da Universidade de Chicago Ishanu Chattopadhyay. Chattopadhyay sentou-se recentemente com a BBC Science Focus para discutir o sistema de IA, que, como afirma um estudo publicado na revista Human Behavior, pode prever onde e quando um crime pode ocorrer com 80 a 90% de precisão. Mas se as previsões se sustentam no mundo real, ...

embora importantes, não é necessariamente a questão central aqui: na verdade, a questão é se a IA pode ser incorporada com sucesso em uma força policial sem abusos – e enquanto Chattopadhyay acredita que seu sistema pode seja, o histórico da IA ​​no policiamento diz o contrário.

"As pessoas temem que isso seja usado como uma ferramenta para colocar as pessoas na prisão antes que cometam crimes", disse Chattopadhyay à BBC. "Isso não vai acontecer, pois não tem capacidade para fazer isso."

Registro ruim

A incorporação da IA ​​no policiamento não é nova, e nem a controvérsia em torno dela – software semelhante já foi implicado em prisões injustas e até mesmo na morte injusta de uma criança de 13 anos desarmada. De maneira mais geral, a IA em geral é conhecida por ser inconstante, repleta de preconceitos raciais e discriminatórios, e é notoriamente difícil de explicar, mesmo por aqueles que a constroem.

Leia também - Rússia revela imagem do "satã 2", o maior míssil nuclear de sua história

Falando à BBC, Chattopadhyay – que diz esperar que sua IA seja usada para conter o crime por meio de medidas sociais e políticas, não apenas policiamento excessivo – reconheceu algumas dessas preocupações, particularmente os problemas de racismo bem documentados da IA. Ele acredita que outros sistemas de IA são muito simplistas, confiando demais em informações como históricos de prisões e características individuais. Em contraste, seu sistema usa apenas dados de log de eventos, que, segundo ele, ajudam a "reduzir o viés o máximo possível".

"Ele apenas prevê um evento em um local específico", acrescentou. "Ele não diz quem vai cometer o evento ou a dinâmica ou mecânica exata dos eventos. Não pode ser usado da mesma forma que no filme 'Relatório da Minoria'."

Claro. Olha, nunca somos de fugir do otimismo, mas dado o registro de abusos sistêmicos de softwares experimentais de assistência policial semelhantes – sem mencionar os abusos sistêmicos contra populações vulneráveis ​​que já existem no policiamento americano, menos qualquer IA – esse otimismo parece muito improvável.

Fonte: https://futurism.com/