CIÊNCIA E TECNOLOGIA

As forças armadas dos EUA, a guerra algorítmica e a grande tecnologia

tecsoldado110/08/20219 - Aprendemos esta semana que o Departamento de Defesa está usando reconhecimento facial em escala, e o secretário de Defesa Mark Esper disse acreditar que a China está vendendo drones autônomos letais. Em meio a tudo isso, você pode ter perdido o diretor do Joint AI Center (JAIC), tenente-general Jack Shanahan – que é encarregado pelo Pentágono de modernizar e orientar as diretrizes de inteligência artificial – falando sobre um futuro de guerra algorítmica.

A guerra algorítmica, que pode mudar drasticamente a guerra como a conhecemos, é construída com base na suposição de que as ações de combate acontecerão mais rapidamente do que a capacidade dos humanos de tomar decisões. Shanahan diz que a guerra algorítmica exigiria, portanto, alguma dependência de sistemas de IA, embora ele enfatize a necessidade de implementar testes e avaliações rigorosos antes de usar a IA em campo para garantir que ela não “assuma vida própria, por assim dizer”.

“Vamos ficar chocados com a velocidade, o caos, o sangue e o atrito de uma luta futura em que isso acontecerá, talvez em microssegundos às vezes. Como imaginamos essa luta acontecendo? Tem que ser algoritmo contra algoritmo”, disse Shanahan durante uma conversa com o ex-CEO do Google Eric Schmidt e o vice-presidente de assuntos globais do Google, Kent Walker. “Se estamos tentando fazer isso por humanos contra máquinas, e o outro lado tem as máquinas e os algoritmos e nós não, corremos um risco inaceitavelmente alto de perder esse conflito”.

Os três falaram na terça-feira em Washington, DC para a conferência do Conselho de Segurança Nacional sobre IA, que ocorreu um dia após o grupo entregar seu primeiro relatório ao Congresso com a contribuição de alguns dos maiores nomes da tecnologia e IA – como o diretor de pesquisa da Microsoft, Eric Horvitz. , o CEO da AWS, Andy Jassy, ​​e o cientista-chefe do Google Cloud, Andrew Moore. O relatório final será divulgado em outubro de 2020. O Pentágono se aventurou pela primeira vez na guerra algorítmica e em uma série de projetos de IA com o Project Maven, uma iniciativa para trabalhar com empresas de tecnologia como Google e startups como Clarifai. Foi criado há dois anos com Shanahan como diretor – seguindo uma recomendação de Schmidt e do Defense Innovation Board.

Leia também - Um algoritmo que "prediz" a criminalidade com base em um rosto provoca furor

Em uma era de guerra algorítmica, Shanahan diz que o Pentágono precisa levar a IA aos militares em todos os níveis das forças armadas, para que pessoas com conhecimento em primeira mão dos problemas possam usar a IA para alcançar objetivos militares. Shanahan reconheceu que uma abordagem descentralizada de desenvolvimento, experimentação e inovação será acompanhada de maior risco, mas argumentou que poderia ser essencial para vencer guerras. A guerra algorítmica está incluída no relatório preliminar do Conselho de Segurança Nacional sobre IA, que não mede palavras sobre a importância da IA ​​para a segurança nacional dos EUA e afirma inequivocamente que o “desenvolvimento da IA ​​moldará o futuro do poder”.

“A convergência da revolução da inteligência artificial e o ressurgimento da grande competição de poder devem focar a mente americana. Esses dois fatores ameaçam o papel dos Estados Unidos como motor mundial de inovação e superioridade militar americana”, diz o relatório. “Estamos em uma competição estratégica. A IA estará no centro. O futuro de nossa segurança nacional e economia estão em jogo.”

O relatório também reconhece que o mundo pode experimentar uma erosão das liberdades civis e aceleração de ataques cibernéticos na era da IA. E faz referência à China mais de 50 vezes, observando a natureza entrelaçada dos ecossistemas de IA chinês e americano hoje e o objetivo da China de se tornar um líder global de IA até 2030. Vale a pena notar que o relatório NSCAI opta por se concentrar na inteligência artificial estreita, em vez da inteligência artificial geral (AGI), que ainda não existe.

“Quando podemos ver o advento da AGI é amplamente debatido. Em vez de se concentrar na AGI no curto prazo, a Comissão apoia o tratamento responsável com sistemas habilitados para IA mais ‘estreitos’”, diz o relatório.

Na semana passada, o Defense Innovation Board (DIB) divulgou suas recomendações de princípios éticos de IA para o Departamento de Defesa, um documento criado com contribuições do cofundador do LinkedIn Reid Hoffman; Daniela Rus, diretora do MIT CSAIL; e altos funcionários do Facebook, Google e Microsoft. O DoD e o JAIC agora considerarão quais princípios e recomendações adotar no futuro. O ex-CEO do Google Eric Schmidt atuou como presidente dos conselhos NSCAI e DIB e supervisionou a criação de ambos os relatórios. Schmidt se juntou ao conselho da NSCAI por Horwitz, Jassy e Moore, juntamente com o ex-vice-secretário de Defesa Robert Work.

Project Maven, empresas de tecnologia e o Pentágono

Na conferência na terça-feira, Schmidt, Shanahan e Walker revisitaram a controvérsia no Google sobre o Projeto Maven. Quando a participação do Google no projeto se tornou pública na primavera de 2018, milhares de funcionários assinaram uma carta aberta protestando contra o envolvimento da empresa. Após meses de agitação dos funcionários, o Google adotou seu próprio conjunto de princípios de IA, que inclui a proibição de criar armas autônomas. O Google também prometeu encerrar seu contrato do Project Maven até o final de 2019.

“Tem sido frustrante ouvir preocupações sobre nosso compromisso com a segurança e defesa nacional”, disse Walker, observando o trabalho que o Google está fazendo com o JAIC em questões como segurança cibernética e assistência médica. Ele acrescentou que o Google continuará trabalhando com o Departamento de Defesa, dizendo que “esta é uma responsabilidade compartilhada para fazer isso direito”.

O entendimento de que as aplicações militares da IA ​​são uma responsabilidade compartilhada é fundamental para a segurança nacional dos EUA, disse Shanahan, embora reconheça que a desconfiança entre os militares e a indústria surgiu durante o episódio do Maven. Embora o trabalho de visão computacional Maven que o Google fez fosse para drones desarmados, Shanahan disse que a reação revelou as preocupações mais amplas de muitos trabalhadores de tecnologia sobre trabalhar com os militares e destacou a necessidade de comunicar claramente os objetivos. Mas ele argumentou que os militares estão em um estado de recuperação perpétua, e os laços entre governo, indústria e academia devem ser fortalecidos para que o país mantenha a supremacia econômica e militar. O relatório da NSCAI também faz referência à necessidade de pessoas na academia e nos negócios “reconceberem suas responsabilidades pela saúde de nossa democracia e pela segurança de nossa nação”.

“Não importa onde você esteja em relação ao uso futuro do governo de tecnologias habilitadas para IA, eu afirmo que nunca poderemos alcançar a visão descrita no relatório provisório da Comissão sem indústria e academia juntos em uma parceria igual. Há muito em jogo para fazer o contrário”, disse ele.

Armas autônomas

Heather Roff é analista de pesquisa sênior da Johns Hopkins University e ex-cientista de pesquisa da DeepMind do Google. Ela foi a principal autora do relatório DIB e consultora de ética para a criação do relatório NSCAI. Ela acha que a cobertura da mídia do relatório do DIB sensacionalizou o uso de armamento autônomo, mas geralmente não considerou as aplicações de IA nas forças armadas como um todo – em áreas como logística, planejamento e segurança cibernética. Ela também citou o valor da IA ​​em facilitar auditorias para os militares dos EUA, que têm o maior orçamento de qualquer militar do mundo e é um dos maiores empregadores do país. A versão preliminar do relatório da NSCAI diz que o armamento autônomo pode ser útil, mas acrescenta que a comissão pretende abordar questões éticas no próximo ano, disse Roff. As pessoas preocupadas com o uso de armas autônomas devem reconhecer que, apesar do amplo financiamento, os militares têm desafios estruturais muito maiores para enfrentar hoje, disse Roff. Os problemas levantados no relatório NSCAI incluem membros de serviço que não estão preparados para usar software de código aberto ou baixar o cliente GitHub.

“As únicas pessoas que fazem um trabalho sério em AGI agora são DeepMind e OpenAI, talvez um pouco do Google Brain, mas o departamento não tem infraestrutura computacional para fazer o que OpenAI e Deep Mind estão fazendo. Eles não têm a computação, não têm a experiência, não têm o hardware [e] não têm a fonte de dados ou os dados”, disse ela.

O NSCAI está programado para se reunir em seguida com ONGs para discutir questões como armas autônomas, privacidade e liberdades civis. Liz O'Sullivan é vice-presidente da ArthurAI em Nova York e faz parte da Campanha Human Rights Watch para parar os robôs assassinos. No ano passado, depois de se opor aos sistemas de armas autônomos com colegas de trabalho, ela deixou o emprego na Clarifai em protesto contra o trabalho que estava sendo feito no Projeto Maven. Ela acha que os dois relatórios têm muita substância, mas não assumem uma posição explícita sobre questões importantes, como se os dados históricos de contratação que favorecem os homens podem ser usados. O'Sullivan está preocupado que uma diretiva do DoD de 2012 mencionada em ambos os relatórios que exige "níveis apropriados de julgamento humano" esteja sendo interpretada como significando que armas autônomas sempre terão controle humano. Ela prefere que os militares adotem a ideia de “controle humano significativo”, como tem sido defendido nas Nações Unidas. Roff, que trabalhou anteriormente na pesquisa de armas autônomas, disse que um equívoco é que a implantação de sistemas de IA requer um humano no circuito. As edições de última hora no relatório de ética da IA ​​esclarecem a necessidade de os militares desligarem se os sistemas de IA começarem a agir por conta própria ou tentarem evitar serem desligados.

“Humans in the loop não está no relatório por um motivo, que é [que] muitos desses sistemas vão agir de forma autônoma no sentido de que serão programados para fazer uma tarefa e não haverá um humano no loop por si. Será um auxílio à decisão ou terá uma saída, ou se for segurança cibernética, encontrará bugs e os corrigirá por conta própria, e os humanos não podem estar no circuito ”, disse Roff.

Embora o relatório de ética da IA ​​tenha sido compilado com várias sessões de comentários públicos, O'Sullivan acredita que o relatório de ética da DIB AI e o relatório da NSCAI carecem de informações de pessoas que se opõem a armas autônomas.

Leia também - Paciente toca violão enquanto faz cirurgia no cérebro em hospital de Canoas, estado do Rio Grande do Sul, Brasil

“Está bem claro que eles selecionaram esses grupos para serem representativos da indústria, todos muito centristas”, disse ela. “Isso me explica pelo menos por que não há um único representante nesse conselho que seja antiautonomia. Eles empilharam o baralho e precisavam saber o que estavam fazendo quando criaram esses grupos.”

O'Sullivan concorda que as forças armadas precisam de tecnólogos, mas acredita que precisa ser aberto sobre o que as pessoas estão trabalhando. A preocupação com projetos baseados em visão computacional, como o Maven, surge do fato de que a IA é uma tecnologia de uso duplo, e um sistema de detecção de objetos projetado para uso civil também pode ser usado para armas.

“Não acho inteligente que toda a indústria de tecnologia abandone nosso governo. Eles precisam de nossa ajuda, mas, simultaneamente, estamos em uma posição em que, em alguns casos, não podemos saber no que estamos trabalhando porque é confidencial ou partes dele podem ser classificadas”, disse ela. “Existem muitas pessoas na indústria de tecnologia que se sentem à vontade trabalhando com o Departamento de Defesa, mas tem que ser consensual, tem que ser algo em que eles realmente entendam o impacto e a gravidade das tarefas que estão realizando. trabalhando em. Se por nenhum outro motivo além de entender os casos de uso quando você está construindo algo, [é] incrivelmente importante projetar [IA] de maneira responsável.”

Fonte: https://venturebeat.com/