CIÊNCIA E TECNOLOGIA

Os militares querem que a IA substitua a tomada de decisão humana na batalha

iamilitar128/03/2022 - Quando um homem-bomba atacou o Aeroporto Internacional de Cabul em agosto do ano passado, a morte e a destruição foram avassaladoras: a violência deixou 183 pessoas mortas, incluindo 13 soldados americanos. Esse tipo de evento com vítimas em massa pode ser particularmente assustador para os trabalhadores de campo. Centenas de pessoas precisam de atendimento, os hospitais próximos têm vagas limitadas e as decisões sobre quem recebe atendimento primeiro e quem pode esperar precisam ser tomadas rapidamente. Muitas vezes, a resposta não é clara ...

e as pessoas discordam. A Agência de Projetos de Pesquisa Avançada de Defesa (DARPA) - o braço de inovação das forças armadas dos EUA - pretende responder a essas perguntas espinhosas terceirizando o processo de tomada de decisão para a inteligência artificial. Por meio de um novo programa, chamado In the Moment, quer desenvolver tecnologia que tome decisões rápidas em situações estressantes usando algoritmos e dados, argumentando que remover preconceitos humanos pode salvar vidas, de acordo com detalhes do lançamento do programa este mês.

Embora o programa esteja em sua infância, ele surge quando outros países tentam atualizar um sistema centenário de triagem médica e à medida que as forças armadas dos EUA se apoiam cada vez mais na tecnologia para limitar o erro humano na guerra. Mas a solução levanta bandeiras vermelhas entre alguns especialistas e especialistas em ética que se perguntam se a IA deve estar envolvida quando vidas estão em jogo.

"A IA é ótima em contar coisas", disse Sally A. Applin, pesquisadora e consultora que estuda a interseção entre pessoas, algoritmos e ética, em referência ao programa DARPA. "Mas acho que poderia abrir um precedente pelo qual a decisão pela vida de alguém é colocada nas mãos de uma máquina."

Leia também - Estudo em pacientes ressucitados indica consciência após a morte

Fundada em 1958 pelo presidente Dwight D. Eisenhower, a DARPA está entre as organizações mais influentes em pesquisa de tecnologia, gerando projetos que desempenharam um papel em inúmeras inovações, incluindo Internet, GPS, satélites meteorológicos e, mais recentemente, a vacina contra o coronavírus da Moderna. Mas sua história com a IA refletiu os altos e baixos do campo. Na década de 1960, a agência fez avanços no processamento de linguagem natural e fez com que os computadores jogassem jogos como xadrez. Durante as décadas de 1970 e 1980, o progresso estagnou, principalmente devido aos limites do poder de computação.

Desde os anos 2000, à medida que as placas gráficas melhoraram, o poder de computação tornou-se mais barato e a computação em nuvem cresceu, a agência viu um ressurgimento do uso de inteligência artificial para aplicações militares. Em 2018, dedicou US$ 2 bilhões, por meio de um programa chamado AI Next, para incorporar a IA em mais de 60 projetos de defesa, significando o quão central a ciência poderia ser para futuros caças.

"A DARPA prevê um futuro em que as máquinas são mais do que apenas ferramentas", disse a agência ao anunciar o programa AI Next. "As máquinas que a DARPA prevê funcionarão mais como colegas do que como ferramentas."

iamilitar2

Para esse fim, o programa In the Moment da DARPA criará e avaliará algoritmos que auxiliam os tomadores de decisão militares em duas situações: ferimentos em pequenas unidades, como os enfrentados por unidades de Operações Especiais sob fogo, e eventos com vítimas em massa, como o bombardeio do aeroporto de Cabul. Mais tarde, eles podem desenvolver algoritmos para ajudar em situações de desastres, como terremotos, disseram funcionários da agência.

O programa, que levará cerca de 3,5 anos para ser concluído, está solicitando empresas privadas para ajudar em seus objetivos, uma parte da pesquisa DARPA em estágio inicial. Os funcionários da agência não disseram quais empresas estão interessadas ou quanto dinheiro será destinado ao programa. Matt Turek, gerente de programa da DARPA encarregado de conduzir o programa, disse que as sugestões dos algoritmos modelariam "humanos altamente confiáveis" que têm experiência em triagem. Mas eles poderão acessar informações para tomar decisões perspicazes em situações em que até especialistas experientes ficariam perplexos.

Por exemplo, disse ele, a IA pode ajudar a identificar todos os recursos que um hospital próximo possui – como disponibilidade de medicamentos, suprimento de sangue e disponibilidade de equipe médica – para auxiliar na tomada de decisões.

"Isso não caberia no cérebro de um único tomador de decisão humano", acrescentou Turek. "Algoritmos de computador podem encontrar soluções que os humanos não conseguem."

Sohrab Dalal, coronel e chefe do ramo médico do Comando Aliado Supremo da OTAN para a Transformação, disse que o processo de triagem, pelo qual os médicos vão a cada soldado e avaliam a urgência de suas necessidades de atendimento, tem quase 200 anos e pode ser revigorado.

Apesar da promessa, alguns especialistas em ética tinham dúvidas sobre como o programa da DARPA poderia funcionar: os conjuntos de dados que eles usam fariam com que alguns soldados fossem priorizados para atendimento em detrimento de outros? No calor do momento, os soldados simplesmente fariam o que o algoritmo mandasse, mesmo que o bom senso sugerisse algo diferente? E, se o algoritmo desempenha um papel na morte de alguém, quem é o culpado?

Peter Asaro, um filósofo de IA da New School, disse que as autoridades militares precisarão decidir quanta responsabilidade o algoritmo terá na tomada de decisões de triagem. Os líderes, acrescentou, também precisarão descobrir como as situações éticas serão tratadas. Por exemplo, ele disse, se houvesse uma grande explosão e civis estivessem entre as pessoas feridas, eles teriam menos prioridade, mesmo se estivessem gravemente feridos?

"Essa é uma chamada de valores", disse ele. "Isso é algo que você pode dizer à máquina para priorizar de certas maneiras, mas a máquina não vai descobrir isso."

Enquanto isso, Applin, um antropólogo focado na ética da IA, disse que à medida que o programa se desenvolve, será importante verificar se o algoritmo da DARPA está perpetuando a tomada de decisão tendenciosa, como aconteceu em muitos casos, como quando os algoritmos na área da saúde priorizam pacientes brancos sobre os negros para obter cuidados.

"Sabemos que há preconceito na IA; sabemos que os programadores não podem prever todas as situações; sabemos que a IA não é social; sabemos que a IA não é cultural", disse ela. "Ele não pode pensar sobre essas coisas."

Leia também - Brasileiras ganham prêmios internacionais por pesquisas sobre buracos negros e energia escura

E nos casos em que o algoritmo faz recomendações que levam à morte, ele apresenta vários problemas para os militares e os entes queridos de um soldado. "Algumas pessoas querem retribuição. Algumas pessoas preferem saber que a pessoa se arrependeu", disse ela. "A IA não tem nada disso."

Fonte: https://www.greenwichtime.com/

Semelhante à DARPA, sua equipe está trabalhando com a Universidade Johns Hopkins para criar um assistente de triagem digital que pode ser usado por países membros da OTAN.

iamilitar3

O assistente de triagem que a OTAN está desenvolvendo usará conjuntos de dados de lesões da OTAN, sistemas de pontuação de baixas, modelagem preditiva e entradas da condição de um paciente para criar um modelo para decidir quem deve receber atendimento primeiro em uma situação em que os recursos são limitados.

"É um uso muito bom da inteligência artificial", disse Dalal, um médico treinado. "O resultado final é que tratará melhor os pacientes [e] salvará vidas".

Fonte: https://www.greenwichtime.com/