Confiar em máquinas versus humanos. Devemos entender a diferença

    maquihum101/11/2021 - Recentemente, as urnas eletrônicas têm recebido polêmica. E, no entanto, a aversão das pessoas às máquinas não é nada novo. Cerca de 500 anos atrás, a impressão estava sendo demonizada como um dispositivo satânico. O equivalente de hoje - inteligência artificial - é rotineiramente criticado como uma fonte de desemprego e preconceito. Mas toda raiva é justificada?Os estudiosos que estudam as reações das pessoas às máquinas estão começando a aprender quando e por que julgamos humanos e máquinas de forma diferente.

    Imagine um carro que desvia para evitar a queda de uma árvore e, ao fazer isso, atropela um pedestre. As pessoas julgam esta ação de forma diferente se acreditarem que foi a ação de um carro que dirige sozinho, em oposição à de um humano? Em meu último livro, How Humans Judge Machines, meus co-autores e eu pedimos a mais de 6.000 americanos que reagissem a cenários como este, usando a configuração de um ensaio clínico.

    Metade dos nossos participantes viu apenas cenários envolvendo ações humanas, enquanto a outra metade avaliou apenas cenários envolvendo ações de máquinas. Isso nos permitiu explorar quando e por que as pessoas julgam humanos e máquinas de maneira diferente.

    Máquina ruim, bom humano

    No referido acidente de carro as pessoas julgam a ação do carro autônomo mais prejudicial e imoral, ainda que a ação realizada pelo humano seja exatamente a mesma. Em outro cenário, consideramos um sistema de resposta a emergências reagindo a um tsunami. Algumas pessoas foram informadas de que a cidade foi evacuada com sucesso. Outros foram informados de que o esforço de evacuação falhou. Nossos resultados mostraram que, neste caso, as máquinas também ficaram com a ponta curta. Na verdade, se o esforço de resgate falhou, as pessoas avaliaram a ação da máquina negativamente e a do humano positivamente. Os dados mostraram que as pessoas avaliaram a ação da máquina como significativamente mais prejudicial e menos moral, e também relataram querer contratar o humano, mas não a máquina.

    As máquinas sempre têm o canudo mais curto?

    Há muito tempo, os estudiosos sabem que as pessoas têm aversão a algoritmos. Mesmo quando os algoritmos são melhores em previsões do que os humanos, as pessoas tendem a escolher previsores humanos. Esse fenômeno é conhecido como aversão a algoritmos e pode ser caro em um mundo em que pequenas diferenças na precisão preditiva são importantes. Em um artigo recente, Berkeley Dietvorst, Joseph Simmons e Cade Massey exploraram aversões a algoritmos usando cinco experimentos pelos quais os indivíduos podiam vincular uma recompensa monetária a previsões feitas por eles próprios, outra pessoa ou um modelo.

    "Embora haja necessidade de que as máquinas sejam transparentes, isso deve ser complementado pelo entendimento de que a transparência pode, em última instância, inclinar as pessoas contra as máquinas."

    —César A. Hidalgo

    Leia também - O modelo educativo cubano

    Em alguns experimentos, as pessoas conheciam o desempenho agregado das previsões e estas tendiam a favorecer as máquinas. Em outros, as pessoas também podem observar as previsões reais. O resultado? As pessoas tendiam a evitar mais algoritmos quando os testemunhavam errar. Ou seja, a preferência das pessoas por máquinas diminuiu quando viram os erros, além do resultado agregado. Essa descoberta é interessante em um mundo no qual as pessoas costumam exigir transparência como um pilar fundamental da IA ​​ética. Embora seja necessário que as máquinas sejam transparentes, isso deve ser complementado pelo entendimento de que a transparência pode, em última análise, inclinar as pessoas contra as máquinas. Se deixarmos de levar em conta essa nuance, a transparência pode nos levar a rejeitar as máquinas quando, na verdade, elas são uma fonte de melhoria.

    Maquinas injustas

    Mas há casos em que as pessoas avaliam as máquinas mais do que os humanos, embora apenas ligeiramente. Esses são cenários morais que envolvem violações de justiça e lealdade, que também são percebidas como altamente intencionais quando realizadas por um humano. Considere um robô contra um humano, ambos escrevendo letras para uma gravadora. Imagine que uma investigação descubra que essas letras plagiam o trabalho de artistas menos conhecidos. Quando apresentamos às pessoas esse cenário, descobrimos que elas julgavam a ação do ser humano como mais prejudicial e menos moral do que a da máquina. Obtivemos resultados semelhantes para outros cenários envolvendo justiça, como avaliações tendenciosas de recursos humanos e sistemas de admissão em universidades. As pessoas certamente não gostam de humanos ou máquinas tendenciosos, mas quando testamos seu repúdio experimentalmente, as pessoas classificam os preconceitos humanos como ligeiramente mais prejudiciais e menos morais do que os das máquinas.

    Estamos passando de uma era de impor normas sobre o comportamento das máquinas para uma era de descobrir leis que não nos dizem como as máquinas devem se comportar, mas como as julgamos. E a primeira regra é poderosa e simples: as pessoas julgam os humanos por suas intenções e as máquinas por seus resultados. Então, podemos confiar nas máquinas? Nós ainda queremos? Uma resposta geral a essas perguntas ousadas pode não ser possível, mas as pesquisas atuais estão começando a nos dar alguma orientação.

    Fonte: https://www.weforum.org/

    Translate

    ptenfrdeitrues