O que os humanos perdem quando deixamos a IA decidir

    iadecide12022 - Por que você deve começar a se preocupar com inteligência artificial agora. Já se passaram mais de 50 anos desde que HAL, o computador malévolo do filme 2001: Uma Odisseia no Espaço, aterrorizou o público pela primeira vez ao se voltar contra os astronautas que ele deveria proteger. Esse momento cinematográfico captura o que muitos de nós ainda tememos na IA: que ela possa ganhar poderes sobre-humanos e nos subjugar.

    Mas, em vez de nos preocuparmos com pesadelos futuristas de ficção científica, devemos acordar para um cenário igualmente alarmante que está se desenrolando diante de nossos olhos: estamos cada vez mais, sem suspeitar, mas voluntariamente, abdicando de nosso poder de tomar decisões com base em nosso próprio julgamento, incluindo nossos convicções morais. O que acreditamos ser “certo” corre o risco de se tornar não mais uma questão de ética, mas simplesmente qual é o resultado “correto” de um cálculo matemático.

    No dia a dia, os computadores já tomam muitas decisões por nós e, à primeira vista, parecem estar fazendo um bom trabalho. Nos negócios, os sistemas de IA executam transações financeiras e ajudam os departamentos de RH a avaliar os candidatos a emprego. Em nossas vidas privadas, confiamos em recomendações personalizadas ao fazer compras online, monitoramos nossa saúde física com dispositivos vestíveis e moramos em casas equipadas com tecnologias “inteligentes” que controlam nossa iluminação, clima, sistemas de entretenimento e eletrodomésticos.

    Infelizmente, uma análise mais detalhada de como estamos usando os sistemas de IA hoje sugere que podemos estar errados ao supor que seu poder crescente é principalmente para o bem. Embora grande parte da crítica atual à IA ainda seja enquadrada por distopias de ficção científica, a maneira como ela está sendo usada agora é cada vez mais perigosa. Isso não é porque o Google e o Alexa estão indo mal, mas porque agora dependemos de máquinas para tomar decisões por nós e, assim, substituir cada vez mais cálculos baseados em dados por julgamento humano. Isso corre o risco de mudar nossa moralidade de maneiras fundamentais, talvez irreversíveis, como argumentamos em nosso recente ensaio na Academy of Management Learning & Education (no qual nos baseamos para este artigo).1

    Quando empregamos o julgamento, nossas decisões levam em conta o contexto social e histórico e os diferentes resultados possíveis, com o objetivo, como escreveu o filósofo John Dewey, “levar uma situação incompleta ao seu cumprimento”. , e mais importante, em capacidades como imaginação, reflexão, exame, avaliação e empatia. Portanto, tem uma dimensão moral intrínseca.

    Os sistemas algorítmicos, em contraste, produzem decisões após o processamento de dados por meio de um acúmulo de cálculo, computação e racionalidade orientada por regras – o que chamamos de cálculo. objetivos para os quais foram concebidos, sem levar em conta consequências potencialmente prejudiciais que violem nossos padrões morais de justiça e equidade. Vimos isso nas análises preditivas propensas a erros e racialmente tendenciosas usadas por muitos juízes americanos nas sentenças. Sistema de IA para identificar o uso fraudulento potencial de um programa de redução de impostos de benefícios para crianças. O escândalo que se seguiu forçou o governo holandês a renunciar em janeiro de 2021.

    Cuidado com o vão

    Esses tipos de consequências não intencionais não devem surpreender. Os algoritmos nada mais são do que “receitas precisas que especificam a sequência exata de etapas necessárias para resolver um problema”, como uma definição coloca.5 A precisão e a velocidade com que o problema é resolvido facilita a aceitação da resposta do algoritmo como oficial, particularmente à medida que interagimos com cada vez mais sistemas projetados para aprender e depois agir de forma autônoma.

    Mas, como os exemplos acima sugerem, essa lacuna entre nossa expectativa inflada do que um algoritmo pode fazer e suas capacidades reais pode ser perigosa. Embora os computadores agora possam aprender de forma independente, extrair inferências de estímulos ambientais e depois agir de acordo com o que aprenderam, eles têm limites. A interpretação comum desses limites como “preconceito” está perdendo o ponto, porque chamá-lo de viés implica que existe a possibilidade de que os limites do cálculo da IA ​​possam ser superados, que a IA acabará sendo capaz de eliminar o viés e tornar uma visão completa e completa. representação fiel da realidade. Mas esse não é o caso. O problema é mais profundo.

    Os sistemas de IA baseiam suas decisões no que o filósofo Vilém Flusser chamou de “imagens técnicas”: os padrões abstratos de pixels ou bytes – as imagens digitais do “mundo” que o computador foi treinado para produzir e processar. Uma imagem técnica é a transformação computadorizada de dados digitalizados sobre algum objeto ou ideia e, como tal, é uma representação do mundo. No entanto, como acontece com qualquer representação, é incompleta; torna discreto o que é contínuo e estático o que é fluido e, portanto, é preciso aprender a usá-lo com inteligência. Como um mapa bidimensional, é uma representação seletiva, talvez até mesmo uma deturpação. Durante a confecção do mapa, uma realidade multidimensional é reduzida, forçando-a a caber em uma superfície bidimensional com um número limitado de cores e símbolos. Muitos de nós ainda sabemos como usar um mapa. O problema com os sistemas de IA é que não podemos entender completamente como a máquina “desenha” suas imagens técnicas – o que ela enfatiza, o que omite e como ela conecta informações em transições para a imagem técnica. Como observou certa vez o estatístico George Box: “Todos os modelos estão errados, mas alguns são úteis”. Acrescentamos: “Se não sabemos como um modelo está errado, ele não é apenas inútil, mas usá-lo pode ser perigoso”. Isso porque o cálculo baseado em uma imagem técnica nunca pode revelar toda a verdade, simplesmente porque não foi para isso que foi feito.

    Através de um processo de acerto de contas, as máquinas tomam decisões — que se baseiam essencialmente em imagens técnicas — que têm um ar de precisão e de indiscutivelmente corretas. O risco é que acabemos moldando a nós mesmos e nossa sociedade com base na imagem que a tecnologia formou de nós. Se confiarmos demais nesses algoritmos, corremos o risco de confundir o mapa com o território, como os desafortunados motoristas de Marselha, na França, que deixaram seu GPS direcioná-los diretamente de uma rua do cais para o porto.

    Considere, por exemplo, a maneira como as pessoas usam dispositivos eletrônicos portáteis que monitoram as funções corporais, incluindo a pulsação, os passos dados, a temperatura e as horas de sono, como indicadores de saúde. Em vez de se perguntar como você se sente, você pode verificar seu wearable. Pode dizer que você deve se preocupar porque você não toma o número mínimo de passos geralmente recomendado para uma vida saudável – uma meta que pode fazer sentido para muitos, mas pode ser contraproducente se a qualidade do ar for ruim ou se você tiver pulmões fracos .

    Como podemos capturar os benefícios inegáveis ​​dessas máquinas inteligentes sem confundir a abstração da máquina com toda a história e delegar à IA as decisões complicadas e consequentes que devem ser tomadas pelos humanos?

    O problema são menos as máquinas do que nós mesmos. Nossa confiança na IA nos leva a confundir cálculo – tomada de decisão baseada na soma de vários tipos de dados e imagens técnicas – com julgamento. Muita fé na máquina - e em nossa capacidade de programar e controlar essa máquina - pode produzir situações insustentáveis ​​e talvez até irreversíveis. Vemos (k) nas respostas confiantes da IA ​​o tipo de certeza que nossos ancestrais buscavam em vão nas entranhas, nas cartas de tarô ou nas estrelas acima.

    Alguns observadores – acadêmicos, gerentes, formuladores de políticas – acreditam que seguir os princípios de desenvolvimento de IA responsável é uma abordagem válida e eficaz para injetar considerações éticas em sistemas de IA. Concordamos quando eles argumentam que, como produto cultural, a IA deve refletir as perspectivas das pessoas que encomendaram o algoritmo, escreveram seu código e depois usaram o programa. Discordamos quando dizem que, portanto, uma atenção cuidadosa ao projeto geral e sua programação é tudo o que é necessário para manter os resultados principalmente positivos. As vozes críticas sobre nossa capacidade de incutir ética na IA estão aumentando, fazendo a pergunta básica se podemos “ensinar” ética aos sistemas de IA em primeiro lugar. Voltando às raízes da IA, devemos perceber que os próprios fundamentos de julgamento e cálculo são diferentes e não podem ser reconciliados. Isso significa que os sistemas de IA nunca serão capazes de julgamento, apenas de cálculo. Qualquer tentativa de injetar ética na IA significa, portanto, que a ética será forçada, distorcida e empobrecida para se adequar às características do cálculo da IA.

    Aqueles que acreditam na IA ética consideram a tecnologia uma ferramenta, a par de outras ferramentas que são essencialmente extensões do corpo humano, como lentes (para ampliar a visão dos olhos) ou colheres e chaves de fenda (para ampliar a destreza). das mãos). Mas estamos céticos. Em nossa opinião, assim como nos wearables, é crucial considerar o usuário como parte da ferramenta: precisamos pensar muito sobre como os algoritmos nos moldam. Se a substituição da avaliação baseada em dados para o julgamento humano é algo para ser muito cauteloso, seguir o grito de guerra para desenvolver a IA responsável não nos ajudará a quebrar a substituição. O que podemos fazer?

    Um apelo à ação (e inação)

    Vemos dois caminhos a seguir. Primeiro, queremos fazer um apelo à inação: precisamos parar de tentar automatizar tudo o que pode ser automatizado apenas porque é tecnicamente viável. Essa tendência é o que Evgeny Morozov descreve como solucionismo tecnológico: encontrar soluções para problemas que não são realmente problemas. usar uma determinada ferramenta.

    Em segundo lugar, também fazemos um apelo à ação. Como sociedade, precisamos aprender o que realmente é a IA e como trabalhar com ela. Especificamente, precisamos aprender a entender e usar suas imagens técnicas, assim como precisamos aprender a trabalhar com modelos e mapas – não apenas em um sentido geral, abstrato e idealizado, mas para cada projeto específico em que é idealizado. .

    Na prática, isso significa que os gerentes devem julgar caso a caso se, como e por que usar a IA. Evitar aplicações gerais da tecnologia significa levar a sério os limites da IA. Por exemplo, embora os algoritmos ganhem maior poder preditivo quando alimentados com mais dados, eles sempre assumirão um modelo estático de sociedade, quando, de fato, o tempo e o contexto estão sempre mudando. E uma vez que os gerentes consideram a IA uma ferramenta útil para um determinado projeto, vemos mérito essencial nos gerentes desenvolvendo e mantendo uma atitude de vigilância e dúvida. Isso ocorre porque, na ausência de vigilância e dúvida, podemos perder o momento em que nosso quadro de tomada de decisão passou do julgamento para o acerto de contas. Isso significaria que entregaríamos nosso poder de tomar decisões morais ao cômputo da máquina.

    Dados os rápidos avanços da IA, não há muito tempo. Todos nós devemos reaprender a tomar decisões informadas por nosso próprio julgamento, em vez de nos deixarmos embalar pela falsa garantia do cálculo algorítmico.

    Fonte: https://sloanreview.mit.edu/

    Translate

    ptenfrdeitrues