CIÊNCIA E TECNOLOGIA

Temos direito à privacidade mental e liberdade cognitiva?

cognit105/03/2017 - A rápida expansão da neuroimagem e tecnologias relacionadas sugere que é melhor respondermos a essa pergunta rapidamente. A idéia da mente humana como o domínio final da proteção absoluta contra invasões externas persiste há séculos. Em uma máscara escrita por John Milton em 1634, uma jovem mulher é amarrada a uma cadeira encantada por um homem indeciso chamado Comus. Apesar de ser contida contra sua vontade, ela afirma: "Você não pode tocar a liberdade da minha mente", confiante em sua capacidade de proteger sua liberdade mental de qualquer manipulação externa.

Em 1913, o historiador John Bagnell Bury escreveu: "Um homem nunca pode ser impedido de pensar no que quer que escolha, desde que oculte". Hoje, no entanto, essa presunção pode não ser mais válida. Neurodispositivos de vanguarda, como neuroimagem sofisticada e interfaces cérebro-computador (BCI), permitem registrar, decodificar e modular os correlatos neurais dos processos mentais. Pesquisas mostram que a combinação de tecnologia de neuroimagem e inteligência artificial permite "ler" correlatos de estados mentais, incluindo intenções ocultas, experiências visuais ou até sonhos com um grau crescente de precisão e resolução.

Embora esses avanços tenham um grande potencial para pesquisa e medicina, eles representam um desafio ético, legal e social fundamental: determinar se, ou sob quais condições, é legítimo obter acesso ou interferir na atividade neural de outra pessoa.

Leia também - Internet das coisas - Parte 1

Essa questão tem relevância social particular, pois muitas neurotecnologias se afastaram de um ambiente exclusivamente clínico e entraram no domínio comercial, onde não estão mais sujeitas às rígidas diretrizes éticas da pesquisa clínica. Hoje, empresas como Google e Verizon usam a tecnologia de neuroimagem e outros serviços de pesquisa de neuromarketing para detectar preferências do consumidor e impressões ocultas em seus anúncios ou produtos.

Tentativas de decodificar informações mentais via neuroimagem também estão ocorrendo em processos judiciais, às vezes de maneira cientificamente questionável. Por exemplo, em 2008, uma mulher indiana foi condenada por assassinato e sentenciada à prisão perpétua com base em uma varredura cerebral, mostrando, segundo o juiz, "conhecimento experimental" sobre o crime. O potencial da neurotecnologia como ferramenta forense tem despertado especial atenção em relação à detecção de mentiras para fins de interrogatório. Apesar do ceticismo dos especialistas, empresas comerciais como No-Lie-FMRI e Government Works Inc. estão comercializando o uso de tecnologia baseada em FMRI e EEG para verificar a verdade e a falsidade por meio de registros cerebrais. Paralelamente, as forças armadas estão testando técnicas de neuromonitoramento para detectar deficiências na atividade cerebral de um guerreiro e utilizando estímulos cerebrais para aumentar seu alerta e atenção.

Em 2015, a revista Science lançou uma edição especial intitulada "The End of Privacy", destacando como as novas tendências tecnológicas, de big data a conexões onipresentes à Internet, tornam obsoletas as "noções tradicionais de privacidade". De certo modo, a neurotecnologia pode ser vista apenas como outra tendência tecnológica que pode corroer nossa privacidade no mundo digital e há pouco a fazer. No entanto, dado o vínculo íntimo entre privacidade mental e subjetividade, podemos não estar tão dispostos a aceitar essa conclusão. Em seu famoso 1984, George Orwell projetou um futuro em que "nada era seu, exceto os poucos centímetros cúbicos dentro de seu crânio". De fato, quando a informação mental não é mais isolada, nada é isolado e a própria noção de subjetividade - a qualidade de existir na mente de alguém e não no mundo externo - torna-se vazio.

De acordo com um novo artigo, à medida que a neurotecnologia se espalha fora do cenário clínico, enfrentamos um desafio social: determinar quais direitos os indivíduos têm o direito de exercer em relação à sua dimensão mental. Segundo os autores - eu da Universidade de Basel e Roberto Andorno da Universidade de Zurique - esse desafio pode exigir a reconceitualização dos direitos humanos existentes e até a criação de novos direitos humanos neuroespecíficos.

O direito à liberdade cognitiva, amplamente discutido entre os neurocondutores, autorizaria os indivíduos a tomar decisões livres e competentes sobre o uso da neurotecnologia. O direito à privacidade mental protegeria os indivíduos contra a intrusão não consentida de terceiros em seus dados cerebrais, bem como contra a coleta não autorizada desses dados. Violações de privacidade no nível neural podem ser mais perigosas do que as convencionais porque podem ignorar o nível de raciocínio consciente, deixando indivíduos sem proteção de ter sua mente lida involuntariamente. Esse risco não se aplica apenas aos participantes de estudos predatórios de neuromarketing e ao uso desproporcional da neurotecnologia nos tribunais, mas também a indivíduos em geral. Com a crescente disponibilidade de redes de consumidores conectadas à Internet.

Na semana passada, o Facebook divulgou um plano para criar uma interface de fala para texto cérebro-computador para traduzir pensamentos diretamente dos sinais do cérebro para a tela do computador, ignorando a fala e as pontas dos dedos. Tentativas semelhantes estão sendo feitas pelos principais fornecedores de comunicações móveis, em particular a Samsung. No futuro, o controle do cérebro poderá substituir o teclado e o reconhecimento de fala como uma maneira principal de interagir com os computadores.

Com os neurotools interconectados se tornando potencialmente onipresentes, surgirá uma nova possibilidade de uso indevido - incluindo violações de segurança cibernética. Os cientistas da computação já demonstraram a viabilidade de ataques de hackers com o objetivo de extrair informações de usuários da BCI sem autorização. Além disso, pesquisas mostram que os dispositivos médicos conectados são vulneráveis ​​à sabotagem. Os neurocientistas da Universidade de Oxford sugerem que a mesma vulnerabilidade afeta os implantes cerebrais, um fenômeno denominado "ataque cerebral". Essas possibilidades de uso indevido podem exigir uma reconceitualização do direito à integridade mental. Esse direito, reconhecido pelo direito internacional (artigo 3 da Carta dos Direitos Fundamentais da UE) como um direito à saúde mental, deve não apenas proteger contra doenças mentais, mas também contra manipulações ilícitas e prejudiciais da atividade neural das pessoas através do uso indevido de neurotecnologia.

Leia também - A IA esta eliminando postos de serviço em algumas empresas

Finalmente, o direito à continuidade psicológica pode preservar a identidade pessoal das pessoas e a continuidade de sua vida mental de alterações externas não consentidas por terceiros. A continuidade psicológica é uma questão importante no contexto da segurança nacional, onde intervenções obrigatórias de mudança de personalidade podem ser justificadas à luz de objetivos estratégicos maiores. Intervenções cerebrais que reduzem a necessidade de sono já estão em uso nas forças armadas, e é fácil imaginar intervenções que tornam os soldados mais beligerantes ou destemidos. Essas possibilidades já despertaram a atenção entre os legisladores. Em 1999, um comitê do Parlamento Europeu apelou à proibição global de pesquisas “que buscam aplicar o conhecimento do funcionamento químico, elétrico, (...) ou outro funcionamento do cérebro humano ao desenvolvimento de armas que possam permitir qualquer forma de manipulação humana. seres ”.

Abordagens normativas calibradas devem garantir o alinhamento do desenvolvimento da neurotecnologia e das liberdades pessoais. Ao mesmo tempo, eles devem evitar narrativas irrealistas que simulam medo que possam prejudicar o progresso científico. É necessário um debate aberto envolvendo neurocientistas, especialistas jurídicos, especialistas em ética e cidadãos em geral para maximizar os benefícios do avanço da neurotecnologia e minimizar riscos não intencionais.

Fonte: https://blogs.scientificamerican.com/