A inteligência artificial pode substituir os terapeutas humanos?

    psicobo127/03/2021 / por Lisa Ward - A inteligência artificial poderia reduzir a necessidade de terapeutas humanos? Sites, aplicativos para smartphones e sites de mídia social estão distribuindo conselhos sobre saúde mental, muitas vezes usando inteligência artificial. Enquanto isso, os médicos e pesquisadores estão procurando a IA para ajudar a definir a doença mental de forma mais objetiva, identificar pessoas de alto risco e garantir a qualidade do atendimento.

    Alguns especialistas acreditam que a IA pode tornar o tratamento mais acessível e barato. Há muito tempo existe uma grande escassez de profissionais de saúde mental e, desde a pandemia de Covid, a necessidade de apoio é maior do que nunca. Por exemplo, os usuários podem ter conversas com chatbots alimentados por IA, o que lhes permite obter ajuda a qualquer hora, em qualquer lugar, geralmente por menos dinheiro do que a terapia tradicional.

    Os algoritmos que sustentam esses esforços aprendem vasculhando grandes quantidades de dados gerados a partir de postagens de mídia social, dados de smartphones, registros eletrônicos de saúde, transcrições de sessões de terapia, varreduras cerebrais e outras fontes para identificar padrões que são difíceis para os humanos discernirem.

    Apesar da promessa, existem algumas grandes preocupações. A eficácia de alguns produtos é questionável, um problema que só piora pelo fato de que as empresas privadas nem sempre compartilham informações sobre como sua IA funciona. Os problemas de precisão aumentam a preocupação com a ampliação dos maus conselhos a pessoas que podem ser vulneráveis ​​ou incapazes de raciocínio crítico, bem como o medo de perpetuar preconceitos raciais ou culturais. As preocupações também persistem sobre as informações privadas serem compartilhadas de maneiras inesperadas ou com partes não intencionais.

    Leia também - Pense com a "cabeça" de cima....antes de acessar sites pornográficos

    O Wall Street Journal hospedou uma conversa por e-mail e Google Doc sobre essas questões com John Torous, diretor da divisão de psiquiatria digital do Beth Israel Deaconess Medical Center e professor assistente da Harvard Medical School; Adam Miner, um instrutor da Stanford School of Medicine; e Zac Imel, professor e diretor de treinamento clínico da Universidade de Utah e cofundador da LYSSN.io, uma empresa que usa IA para avaliar psicoterapia. Aqui está uma transcrição editada da discussão.

    Saltos para a frente

    WSJ: Qual é a maneira mais interessante de usar a IA e o aprendizado de máquina para diagnosticar transtornos mentais e melhorar os tratamentos?

    DR. MINER: AI pode acelerar o acesso a serviços apropriados, como resposta a crises. A atual pandemia de Covid é um forte exemplo em que vemos o potencial da IA ​​para ajudar a facilitar o acesso e a triagem, ao mesmo tempo que traz riscos de privacidade e desinformação. Esse desafio - decidir quais intervenções e informações defender - é um problema tanto nas pandemias quanto nos cuidados de saúde mental, onde temos muitos tratamentos diferentes para muitos problemas diferentes.

    DR. IMEL: No curto prazo, estou mais animado com o uso de IA para aumentar ou orientar os terapeutas, como dar feedback após a sessão ou mesmo fornecer ferramentas para apoiar a autorreflexão. Aplicativos de detecção passiva de telefone [que são executados em segundo plano nos telefones dos usuários e tentam monitorar o humor dos usuários] podem ser emocionantes se preverem mudanças posteriores na depressão e sugerirem intervenções para fazer algo mais cedo. Além disso, a pesquisa sobre sensoriamento remoto no vício, usando ferramentas para detectar quando uma pessoa pode estar em risco de recaída e sugerindo uma intervenção ou habilidades de enfrentamento, é emocionante.

    DR. TOROUS: Em uma frente de pesquisa, a IA pode nos ajudar a desvendar algumas das complexidades do cérebro e trabalhar para entender melhor essas doenças, o que pode nos ajudar a oferecer um tratamento novo e eficaz. Podemos gerar uma vasta quantidade de dados sobre o cérebro de genética, neuroimagem, avaliações cognitivas e agora até sinais de smartphones. Podemos utilizar IA para encontrar padrões que podem nos ajudar a descobrir por que as pessoas desenvolvem doenças mentais, quem responde melhor a certos tratamentos e quem pode precisar de ajuda imediatamente. Usar novos dados combinados com IA provavelmente nos ajudará a desbloquear o potencial de criação de novos tratamentos personalizados e até preventivos.

    WSJ: Você acha que os programas automatizados que usam chatbots controlados por IA são uma alternativa à terapia?

    DR. TOROUS: Em um artigo recente de minha autoria, examinamos a literatura de chatbot mais recente para ver o que as evidências dizem sobre o que eles realmente fazem. No geral, ficou claro que embora a ideia seja empolgante, ainda não estamos vendo evidências que correspondam às afirmações de marketing. Muitos dos estudos apresentam problemas. Eles são pequenos. Eles são difíceis de generalizar para pacientes com doenças mentais. Eles olham para os resultados de viabilidade em vez de desfechos de melhoria clínica. E muitos estudos não apresentam um grupo de controle para comparar os resultados.

    DR. MINER: Não acho que seja uma situação de "nós contra eles, humanos contra IA" com chatbots. O pano de fundo importante é que nós, como comunidade, entendemos que temos problemas reais de acesso e que algumas pessoas podem não estar prontas ou não ser capazes de obter ajuda de um humano. Se os chatbots se mostrarem seguros e eficazes, poderemos ver um mundo onde os pacientes acessam o tratamento e decidem se e quando desejam outra pessoa envolvida. Os médicos poderiam passar o tempo onde são mais úteis e desejados.

    WSJ: Existem casos em que a IA é mais precisa ou melhor do que psicólogos, terapeutas ou psiquiatras humanos?

    DR. IMEL: No momento, é muito difícil imaginar substituir terapeutas humanos. A IA de conversação não é boa em coisas que consideramos certas na conversa humana, como lembrar o que foi dito há 10 minutos ou na semana passada e responder apropriadamente.

    DR. MINER: Certamente é onde há empolgação e frustração. Não consigo me lembrar do que almocei três dias atrás, e um sistema de IA pode recuperar toda a Wikipedia em segundos. Para poder de processamento bruto e memória, não é nem mesmo uma competição entre humanos e sistemas de IA. No entanto, o ponto do Dr. Imel é crucial em relação às conversas: as coisas que os humanos fazem sem esforço na conversa estão atualmente além do mais poderoso sistema de IA.

    Um sistema de IA que está sempre disponível e pode manter milhares de conversas simples ao mesmo tempo pode criar um melhor acesso, mas a qualidade das conversas pode ser prejudicada. É por isso que as empresas e pesquisadores estão olhando para a colaboração humana AI como um próximo passo razoável.

    DR. IMEL: Por exemplo, estudos mostram que a IA pode ajudar a “reescrever” declarações de texto para serem mais empáticas. AI não está escrevendo a declaração, mas é treinada para ajudar um ouvinte em potencial a ajustá-la.

    WSJ: À medida que a tecnologia melhora, você vê chatbots ou aplicativos de smartphone desviando qualquer paciente que, de outra forma, poderia procurar a ajuda de terapeutas?

    DR. TOROUS: À medida que mais pessoas usam aplicativos como uma introdução aos cuidados, isso provavelmente aumentará a conscientização e o interesse pela saúde mental e a demanda por cuidados pessoais. Não conheci um único terapeuta ou psiquiatra preocupado em perder negócios para aplicativos; em vez disso, as empresas de aplicativos estão tentando contratar mais terapeutas e psiquiatras para atender à crescente necessidade de médicos que ofereçam suporte aos aplicativos.

    DR. IMEL: O tratamento da saúde mental tem muito em comum com o ensino. Sim, existem coisas que a tecnologia pode fazer para padronizar a construção de habilidades e aumentar o acesso, mas como os pais aprenderam no ano passado, não há como substituir o que o professor faz. Os humanos são imperfeitos, ficamos cansados ​​e somos inconsistentes, mas somos muito bons em nos conectar com outros humanos. O futuro da tecnologia em saúde mental não é substituir os humanos, mas apoiá-los.

    WSJ: E quanto às escolas ou empresas que usam aplicativos em situações em que, de outra forma, poderiam contratar terapeutas humanos?

    DR. MINER: Um desafio que enfrentamos é que a implantação de aplicativos nas escolas e no trabalho muitas vezes carece da avaliação rigorosa que esperamos em outros tipos de intervenções médicas. Como os aplicativos podem ser desenvolvidos e implantados tão rapidamente, e seu conteúdo pode mudar rapidamente, as abordagens anteriores para avaliação de qualidade, como testes randomizados de vários anos, não são viáveis ​​se quisermos acompanhar o volume e a velocidade do desenvolvimento de aplicativos.

    Chamadas de julgamento

    WSJ: A IA pode ser usada para diagnósticos e intervenções?

    DR. IMEL: Posso ser um pouco chato aqui - construir IA para substituir as práticas diagnósticas atuais em saúde mental é um desafio. Determinar se alguém atende aos critérios para depressão maior agora não é nada como encontrar um tumor em uma tomografia computadorizada - algo que é caro, trabalhoso e sujeito a erros de atenção, e onde a IA já está se mostrando útil. A depressão é medida muito bem com uma pesquisa de nove perguntas.

    DR. MINER: Eu concordo que o diagnóstico e o tratamento são tão sutis que a IA tem um longo caminho a percorrer antes de assumir essas tarefas de um ser humano.

    Por meio de sensores, a IA pode medir sintomas, como distúrbios do sono, fala sob pressão ou outras mudanças de comportamento. No entanto, não está claro se essas medições capturam totalmente as nuances, o julgamento e o contexto da tomada de decisão humana. Um sistema de IA pode capturar a voz e o movimento de uma pessoa, o que provavelmente está relacionado a um diagnóstico como transtorno depressivo maior. Mas sem mais contexto e julgamento, informações cruciais podem ser deixadas de fora. Isso é especialmente importante quando há diferenças culturais que podem explicar o comportamento relevante para o diagnóstico.

    Garantir que novas tecnologias sejam projetadas com consciência das diferenças culturais na linguagem normativa ou comportamento é crucial para gerar confiança em grupos que foram marginalizados com base na raça, idade ou outras identidades.

    Leia também - EGO: um semi-submarino elétrico e compacto

    WSJ: A privacidade também é uma preocupação?

    DR. MINER: Nós desenvolvemos leis ao longo dos anos para proteger conversas sobre saúde mental entre humanos. Conforme os aplicativos ou outros serviços começam a pedir para fazer parte dessas conversas, os usuários devem ser capazes de esperar transparência sobre como suas experiências pessoais serão usadas e compartilhadas.

    DR. TOROUS: Em uma pesquisa anterior, nossa equipe identificou aplicativos de smartphone [usados para depressão e cessação do tabagismo que] compartilhavam dados com entidades comerciais. Esta é uma bandeira vermelha de que a indústria precisa fazer uma pausa e mudar de curso. Sem confiança, não é possível oferecer cuidados de saúde mental eficazes.

    DR. MINER: Nós subestimamos e projetamos mal a confiança na IA para saúde, especialmente saúde mental. A medicina projetou processos e políticas para gerar confiança, e os sistemas de IA provavelmente seguem regras diferentes. A primeira etapa é esclarecer o que é importante para pacientes e médicos em termos de como as informações são capturadas e compartilhadas para divulgações confidenciais.

    Fonte: https://www.wsj.com/

    Translate

    ptenfrdeitrues

     

     

     Ajude a manter o site no ar.

     

    Curta O Arquivo no FacebookCurta O ARQUIVO no Facebook

    O Arquivo

    Sobre  |  Fale Conosco