Espaço para comunicar erros nesta postagem
Medidas implementadas em março de 2026 podem marcar um ponto de virada na evolução da internet, promovendo um ambiente digital mais seguro e adequado, especialmente para os mais jovens, sem comprometer a liberdade de expressão.
Em 24 de março, um veredito em Santa Fe, Novo México, nos Estados Unidos, determinou que a Meta, proprietária de plataformas como Facebook, Instagram e WhatsApp, é responsável por falhar em implementar salvaguardas contra a exposição de crianças e adolescentes a conteúdos inadequados, incluindo abuso sexual por adultos, em suas redes sociais.
Essa decisão impõe à Meta uma penalidade de aproximadamente US$ 375 milhões destinada à coletividade.
No dia seguinte, a cerca de 1,3 mil quilômetros de distância, em Los Angeles, Califórnia, outro júri concluiu que as plataformas da Meta e do Google (YouTube) foram deliberadamente projetadas para induzir ao vício e causar danos aos usuários.
Segundo o júri, mecanismos como rolagem infinita, notificações constantes, reprodução automática de vídeos e recompensas intermitentes, como as curtidas, contribuíram para que uma jovem, identificada como Kaley, desenvolvesse depressão na adolescência, pensamentos suicidas e uma preocupação obsessiva com sua imagem, condição conhecida como Transtorno Dismórfico Corporal (TDC).
Como resultado, as gigantes de tecnologia Meta e Google deverão pagar um total de US$ 6 milhões em indenização a Kaley.
Repercussão
Especialistas brasileiros ouvidos pela Agência Brasil indicam que as sentenças proferidas nos EUA podem ter impacto global. Essas decisões coincidem com a entrada em vigor do Marco Legal da Internet (ECA Digital) em 17 de março, regulamentado no dia seguinte pelo Decreto 12.880, assinado pelo presidente Luiz Inácio Lula da Silva.
“Há uma forte convergência entre os casos dos Estados Unidos e o ECA Digital no que diz respeito à atenção à saúde de crianças e adolescentes usuários da internet”, afirmou Maria Góes de Mello, coordenadora do programa Criança e Consumo do Instituto Alana. Ela vê a legislação brasileira e as recentes decisões americanas como “ferramentas poderosas” para prevenir e combater o vício em redes sociais.
Padrões obscuros e design manipulativo
Ricardo Horta, diretor de segurança e prevenção de riscos no ambiente digital do Ministério da Justiça e Segurança Pública (MJSP), ressalta que redes sociais, jogos eletrônicos e plataformas de apostas empregam mecanismos destinados a reter o usuário pelo maior tempo possível.
“É como se um produto fosse lançado no mercado com o objetivo principal de maximizar o tempo de uso e manter os usuários engajados na tela, em vez de priorizar a segurança e o bem-estar. Isso é comparável a outros produtos que causam dependência e estão disponíveis no mercado”, explicou.
A literatura especializada aponta que esses mecanismos são criados intencionalmente, possuindo um design “manipulativo”. Os algoritmos, que aprendem os interesses, gostos e comportamentos dos usuários, operam sob padrões “obscuros”, desconhecidos por quem interage com as telas e pelas entidades de proteção a crianças, adolescentes e consumidores.
Georgia Cruz, professora de Sistemas e Mídias Digitais na Universidade Federal do Ceará e pesquisadora do LabGrim - UFC, destaca que os danos causados aos usuários resultam em lucros para as plataformas na chamada “economia da atenção”.
“As empresas têm obtido lucros cada vez maiores com essas atividades econômicas, em detrimento da qualidade de vida dos usuários, que precisam lidar com todos os impactos emocionais, sociais, comportamentais e de comunicação”, observou a especialista.
Sem imunidade
Ricardo Horta considera que os dois julgamentos nos EUA representam uma quebra de paradigma: “Pela primeira vez, fica evidente que esses mecanismos existem e que eles impactam a saúde e o bem-estar do consumidor.”
Essa percepção desafia a imunidade que as empresas de tecnologia historicamente alegam em processos judiciais relacionados a conteúdos inapropriados veiculados em suas plataformas.
Nos Estados Unidos, as grandes empresas de tecnologia frequentemente invocam a Seção 230 da Lei de Decência nas Comunicações (CDA) de 1996, que as isenta de responsabilidade em processos civis por conteúdos postados por terceiros.
As recentes decisões judiciais se afastam da aplicação da Seção 230. Paulo Rená da Silva Santarém, pesquisador do Instituto de Referência em Internet e Sociedade (Iris), avalia que “a grande mudança é o redirecionamento. Uma alteração de perspectiva: do conteúdo postado para o funcionamento das redes sociais.”
Ele acredita que os vereditos nos Estados Unidos terão repercussão em outros países.
“Certamente, há um potencial de repercussão dessas decisões em outras jurisdições”, afirmou.
Marcos Bruno, sócio de um escritório especializado em direito digital, concorda com os demais especialistas.
As decisões americanas, segundo ele, intensificam o debate global sobre o quanto o design dessas plataformas pode contribuir para padrões de uso excessivo entre os jovens.
“O debate não é sobre a tecnologia em si, mas sobre como ela é concebida para reter a atenção, especialmente no caso de crianças.”
Plataformas proativas
No Brasil, o Artigo 19 do Marco Civil da Internet, de 2014, possuía um efeito semelhante à Seção 230 americana até que o Supremo Tribunal Federal (STF) determinou, no ano passado, que as plataformas de redes sociais são diretamente responsáveis por postagens ilegais feitas por seus usuários.
A decisão do STF e o ECA Digital impõem às redes sociais a obrigação de agir proativamente, realizar mediações e prevenir a disseminação de conteúdos inadequados.
Mylena Devezas Souza, professora do departamento de Administração da Universidade Federal Fluminense (UFF), em Macaé (RJ), acredita que a lei “obriga as plataformas a prevenir e mitigar riscos associados ao acesso de crianças [e adolescentes] a conteúdos inadequados, e determina que os serviços digitais sejam estruturados para oferecer experiências adequadas à idade do usuário.”
“As plataformas devem disponibilizar configurações e ferramentas acessíveis que permitam e apoiem a supervisão parental, concedendo aos responsáveis maior controle sobre o tempo de uso e o conteúdo acessado, incluindo a possibilidade de limitar ou restringir o uso das redes sociais”, estabelece o novo ECA Digital.
Pais capturados
Wladimir Gramacho, jornalista e professor da Faculdade de Comunicação da Universidade de Brasília (FAC-UnB), enfatiza a importância do acompanhamento dos pais em relação à exposição dos filhos às redes sociais.
“Antigamente, tínhamos a televisão, com horários definidos e a hora de desligar. Agora, a tela oferece um volume de conteúdo muito maior. A presença do adulto é ainda mais crucial do que no passado. O grave problema atual é que esses adultos também estão imersos”, alertou o especialista.
De acordo com o ECA Digital, a segurança de crianças e adolescentes no ambiente digital é uma responsabilidade compartilhada entre o Estado, as empresas e as famílias. Portanto, os pais devem sempre supervisionar a experiência online de seus filhos.
Pais e mães têm o dever de garantir que seus filhos acessem as plataformas com filtros de verificação de idade ativados, a fim de impedir o acesso a conteúdos impróprios, apostas e pornografia.
A Agência Nacional de Proteção de Dados (ANDP) ressalta que, conforme o ECA Digital, “qualquer pessoa que testemunhe uma violação de direitos pode e deve denunciar através dos canais de denúncia que as empresas [donas das plataformas] deverão disponibilizar.”