CIÊNCIA E TECNOLOGIA

Legisladores querem que empresas de mídia social parem de fisgar crianças

redescri325/06/2022 - ALEXIS TAPIA ABRE o TikTok todas as manhãs ao acordar e todas as noites antes de dormir. A jovem de 16 anos de Tucson, Arizona, diz que tem um relacionamento complicado com o aplicativo de mídia social. A maior parte do que pisca em sua tela a faz sorrir, como vídeos engraçados que zombam da estranheza da puberdade. Ela realmente gosta do aplicativo - até que ela tem problemas para desligá-lo. “Existem milhões de vídeos que aparecem”, diz ela, descrevendo a página #ForYou, o fluxo interminável de conteúdo que

funciona como a tela inicial do TikTok. “Isso torna muito difícil sair. Digo que vou parar, mas não paro”. O escrutínio de crianças, principalmente adolescentes, e telas se intensificou nos últimos meses. No outono passado, a ex-gerente de produto do Facebook que virou denunciante, Frances Haugen, disse a um subcomitê do Senado dos EUA que a própria pesquisa da empresa mostrou que alguns adolescentes relataram experiências negativas e semelhantes a vícios em seu serviço de compartilhamento de fotos, o Instagram. O dano foi mais pronunciado entre as adolescentes. “Precisamos proteger as crianças”, disse Haugen em seu depoimento.

Propostas para “proteger as crianças” surgiram nos EUA, tentando conter o fascínio viciante das mídias sociais em seus usuários mais jovens. Um projeto de lei em Minnesota impediria que as plataformas usassem algoritmos de recomendação para crianças. Na Califórnia, uma proposta permitiria que os pais processassem empresas de mídia social por viciarem seus filhos. E no Senado dos EUA, um projeto de lei abrangente chamado Kids Online Safety Act exigiria que as empresas de mídia social, entre outras coisas, criassem ferramentas que permitissem aos pais monitorar o tempo de tela ou desativar recursos que sugavam a atenção, como a reprodução automática.

O impacto negativo das mídias sociais em crianças e adolescentes tem preocupado pais, pesquisadores e legisladores há anos. Mas esse último aumento no interesse público parece ter sido desencadeado no cadinho peculiar da pandemia de Covid-19: os pais que puderam se abrigar em casa viram a vida social e escolar de seus filhos serem totalmente mediadas pela tecnologia, levantando preocupações sobre o tempo gasto nas telas. O medo e o isolamento dos últimos dois anos atingiram duramente os adolescentes e exacerbou o que o cirurgião geral dos EUA recentemente chamou de desafios de saúde mental “devastadores” enfrentados pelos adolescentes. As crianças passaram pelo espremedor. A repressão às mídias sociais poderia ajudar a tornar a internet um lugar melhor para eles?

Internet Segura

Os defensores da nova legislação compararam os danos à saúde mental da Big Tech às crianças com os perigos dos cigarros. “Estamos em um lugar com empresas de mídia social e adolescentes não muito diferente de onde estávamos com empresas de tabaco, onde eles estavam comercializando produtos para crianças e não sendo diretos com o público”, diz Jordan Cunningham, membro da Assembleia da Califórnia que lidera a AB 2408, junto com o membro da Assembléia Buffy Wicks. O projeto de lei permitiria que os pais processassem plataformas como Instagram, Tiktok e Snap se seu filho fosse prejudicado por um vício em mídia social. As empresas de mídia social não são incentivadas financeiramente a desacelerar a rolagem das crianças, e “a vergonha pública só leva você até certo ponto”, diz Cunningham.

Mas, ao contrário dos danos físicos do tabaco, a relação exata entre o uso das redes sociais e a saúde mental das crianças permanece controversa. Um estudo de alto perfil que rastreou aumentos nas taxas de depressão adolescente, automutilação e suicídio nos EUA desde 2012 propôs o “uso pesado de mídia digital” como um fator contribuinte. Mas ainda outras pesquisas descobriram que o uso frequente de mídias sociais não é um forte fator de risco para a depressão. Mesmo os documentos internos revelados por Haugen resistem a qualquer interpretação simples: o estudo do Facebook teve uma amostra de apenas 40 adolescentes, mais da metade dos quais relatou que o Instagram também ajudou a combater sentimentos de solidão. Também é difícil separar os danos à saúde mental das mídias sociais de outros danos psicológicos na vida de uma criança, como medos de saúde durante uma pandemia em andamento ou a ameaça de tiroteios em escolas, que deixam um impacto psicológico duradouro nos alunos.

“As pessoas que estão tentando ‘proteger as crianças’ dentro dos espaços digitais geralmente são um pouco paternalistas sobre isso.” - JENNY RADESKY, UNIVERSIDADE DE MICHIGAN

Também não há um consenso científico sobre o que é um vício em mídia social. “Estou preocupada que as comunidades médica e psicológica ainda estejam descobrindo o que define um 'vício' comportamental digital versus outros termos como uso problemático de mídia”, diz Jenny Radesky, que pesquisa crianças, pais e uso de mídia digital na Universidade de Michigan. Hospital Infantil C. S. Mott. Além de sua pesquisa, Radesky ajuda a moldar a agenda política da Academia Americana de Pediatria sobre crianças e tecnologia. Ela também trabalha com o Designed With Kids in Mind, uma campanha para aumentar a conscientização sobre como as técnicas de design moldam as experiências online das crianças.

Radesky defende uma interpretação mais sutil da relação entre as mídias sociais e a saúde mental dos jovens. “As pessoas que estão tentando ‘proteger as crianças’ nos espaços digitais geralmente são um pouco paternalistas sobre isso”, diz ela. Adultos bem-intencionados geralmente consideram as crianças como objetos a serem protegidos, não sujeitos de sua própria experiência. Em vez de se concentrar nos minutos gastos nas telas, ela sugere, vale a pena perguntar como as crianças constroem normas em torno da tecnologia. Como eles estão integrando isso com o resto de suas vidas e relacionamentos? Como pais, formuladores de políticas e eleitores podem levar isso em conta?

Mas nem todos os pais estão em condições de se envolver em um diálogo real com seus filhos sobre o tempo de tela. Isso representa uma questão de equidade: aqueles que trabalham em vários empregos, por exemplo, podem não ser capazes de fornecer proteções no tempo de tela, e seus filhos podem ser mais propensos ao uso excessivo do que filhos de pais ricos.

Leia também - Impressora 3D ajuda médicos a salvarem bebê, uma fantástica tecnologia

Radesky diz que é aqui que a legislação desempenha um papel fundamental. Ela testemunhou em apoio a uma proposta, o Código de Design Apropriado para a Idade da Califórnia. O projeto de lei, apresentado por Wicks e Cunningham, exigiria que as plataformas criassem recursos de uma maneira “que priorize a privacidade, a segurança e o bem-estar das crianças”. O projeto de lei se concentra em reforçar as proteções de privacidade para crianças, como exigir configurações de privacidade altas e limitar a coleta de dados por padrão para crianças. Também proibiria o uso de padrões escuros e outras técnicas de design que poderiam obrigar um usuário a enfraquecer uma configuração de privacidade.

A proposta tem precedente internacional. Ele é modelado no código Age-Appropriate Design que foi aprovado no Reino Unido em 2020. De acordo com a 5Rights Foundation, a organização sem fins lucrativos de privacidade que apoiou o projeto de lei do Reino Unido e também está apoiando o projeto na Califórnia, várias grandes empresas de tecnologia já alteraram seus recursos para crianças: o YouTube desativou a reprodução automática para crianças por padrão e o TikTok não envia mais notificações push de madrugada para adolescentes.

Contrato de olho

A legislação sobre crianças e mídias sociais, no entanto, também pode apresentar desafios de privacidade e aplicação. As leis que exigem que as empresas identifiquem quais usuários são crianças incentivam as empresas a configurar sistemas de verificação de idade, seja internamente ou por meio de uma empresa de identificação terceirizada. O resultado não intencional disso é mais vigilância corporativa em geral.

“Se você fizer errado, acaba coletando mais informações sobre todos”, diz Jason Kelley, diretor associado de estratégia digital da Electronic Frontier Foundation. É uma falha que a EFF encontra na Lei do Código de Design Apropriado para a Idade da Califórnia, bem como na Lei Federal de Segurança Online para Crianças, ou KOSA, no Senado dos EUA. A KOSA imporia às plataformas um “dever de agir no melhor interesse” das crianças que usam seus serviços, incluindo maiores proteções de privacidade e a exigência de permitir que pais e filhos desativem recursos como reprodução automática.

A KOSA levanta outro desafio legislativo: o controle dos pais. Idealmente, o controle dos pais seria usado para ajudar a criança a gerenciar o tempo de tela, um trampolim para discussões familiares ponderadas e colaborativas sobre seu relacionamento com a tecnologia. Mas se uma lei exige controles excessivamente amplos, coloca os filhos de pais abusivos em maior perigo, pois torna mais fácil para esses pais espionar as atividades de seus filhos. (A EFF se opõe à KOSA; o Designed With Kids in Mind apóia.)

E depois há possíveis complicações com a Seção 230. Qualquer tentativa de regular a mídia social deve contar com a lei federal que protege as plataformas online (incluindo empresas de mídia social) de serem responsabilizadas pelas postagens de seus usuários. Embora a legislação estadual possa visar armadilhas de retenção como algoritmos de recomendação e notificações, como as propostas em Minnesota e Califórnia, a EFF argumentaria que esses recursos são um meio de distribuição de fala, inextricável do conteúdo gerado pelo usuário – e protegido.

Uma legislação efetiva para crianças e mídias sociais, diz Kelley, protegeria a privacidade de todos os usuários, independentemente da idade. Deve reconhecer que “crianças” também não são um monólito. As leis devem ter necessidades de privacidade e autonomia diferentes entre as idades; as necessidades de um usuário de 10 anos são diferentes das de um jovem de 17 anos.

Tanto o Código de Design Apropriado para a Idade quanto a Lei do Dever de Não Viciar nas Mídias Sociais progrediram para o Senado do Estado da Califórnia depois de passarem pela Assembleia com votos unânimes.

Repensando o design

Crucialmente, as leis de vício em mídia social pressionam o público sobre as empresas para que reformulem radicalmente seus processos de design. Os mecanismos de design indutores de engajamento que mantêm as crianças amarradas em uma plataforma provavelmente também são familiares para os adultos com rolagem tardia: existem as notificações que o prendem de volta a um aplicativo depois de fechá-lo. Há a reprodução automática, a cascata de novos e deslumbrantes sucessos de dopamina. Existem as funções “ao vivo” que fabricam uma sensação de não perca essa urgência, mecanismos de gamificação como sequências e cutucadas para compartilhar. Todos eles levam crianças (e adultos) a se aprofundar em um aplicativo, uma espécie de efeito Pied Piper digital.

As empresas de tecnologia “mal arranham a superfície” do que podem fazer para ajudar a apoiar os usuários jovens, diz Munmun de Choudhury, que estuda a interseção de mídia social e saúde mental e fundou o Social Dynamics and Wellbeing Lab na Georgia Tech. Aplicativos como TikTok e Instagram podem ser recursos para que adolescentes explorem suas identidades, formem comunidades e aprendam sobre saúde mental. Em vez de banir totalmente as mídias sociais, ela diz, a legislação deve pressionar as empresas a entender os jovens e a repensar os mecanismos que mantêm as crianças ultrapassando seu próprio nível de conforto sem restringir as maneiras pelas quais as plataformas podem ser úteis.

Saanvi Shetty e Shreya Karnik, de dezessete anos, têm uma lista de demandas para legisladores e empresas de tecnologia. Enquanto Shetty e Karnik regularmente enganam o algoritmo como criadores de conteúdo (eles administram o Voices of Gen Z, uma publicação focada em jovens), eles dizem que a mídia social “absolutamente” ainda prejudica sua saúde mental. Eles querem uma indicação de que notas quando uma foto do Instagram foi editada, eles querem que as empresas reprimam a desinformação e querem ser capazes de curar seus feeds – para que possam cortar conteúdo sobre, digamos, distúrbios alimentares e ver apenas o que eles realmente gostam.

Quando contatado para comentar, um representante da Meta encaminhou à WIRED uma declaração esclarecendo suas descobertas internas sobre o uso do Instagram por adolescentes. A porta-voz do TikTok, Brooke Oberwetter, apontou recursos de segurança, como configurações de gerenciamento de tempo de tela que, por padrão, silenciam as notificações em uma determinada hora para adolescentes. Quando perguntada se o TikTok está trabalhando em mais recursos projetados especificamente para a segurança e o bem-estar de usuários mais jovens, ela disse: “Vamos tentar trazer mais recursos como esse no futuro”. Em 9 de junho, o TikTok anunciou um novo recurso que solicitará que os usuários façam uma pausa após um certo período de tempo.

Tapia, a adolescente de Tucson, quer mais oportunidades de pausa. Isso lhe daria mais tempo para refletir se ela realmente quer continuar rolando ou está apenas sendo enrolada em um aplicativo. Teria sido útil, ela disse, uma noite quando ela estava rolando no TikTok em seu quarto, e sua mãe perguntou se ela queria assistir a um filme juntos. Tapia disse que não. Mais tarde, ela foi até a cozinha pegar um copo d'água e viu sua mãe, seu pai e seus dois irmãos mais novos aconchegados na frente da TV. Oh meu Deus, ela se lembra de pensar. Acabei de escolher o TikTok em vez da minha família. Ela fechou o aplicativo e se juntou a eles no sofá.

Fonte: https://www.wired.com/