Espaço para comunicar erros nesta postagem
Eventos marcantes ocorridos em março de 2026 sinalizam uma possível transformação na trajetória da internet, com o objetivo de criar um espaço digital mais adequado e seguro, sobretudo para o público infantojuvenil, sem comprometer a liberdade de expressão.
No dia 24 do mês passado, um veredito proferido por um júri em Santa Fe, Novo México, Estados Unidos, concluiu que a Meta, empresa controladora de plataformas como Facebook, Instagram e WhatsApp, possui responsabilidade por falhas na proteção de crianças e adolescentes contra a exposição a conteúdos inadequados, incluindo material de abuso sexual, em suas redes sociais.
Em decorrência dessa decisão, a Meta deverá desembolsar cerca de US$ 375 milhões em penalidades destinadas à comunidade.
Apenas um dia após o julgamento em Santa Fe, a aproximadamente 1.300 quilômetros de distância, em Los Angeles, Califórnia, outro júri determinou que as plataformas da Meta e do Google (YouTube) foram intencionalmente desenvolvidas com o propósito de gerar dependência e prejudicar seus usuários.
Segundo o entendimento do júri, funcionalidades que ativam “gatilhos emocionais” – tais como a rolagem contínua, alertas incessantes, reprodução automática de vídeos e gratificações intermitentes como as “curtidas” – contribuíram para que uma jovem, identificada como Kaley, com cerca de 20 anos, enfrentasse depressão na adolescência, manifestasse ideação suicida e desenvolvesse uma obsessão com sua imagem corporal, condição conhecida como Transtorno Dismórfico Corporal (TDC).
Com a condenação, as duas gigantes tecnológicas do Vale do Silício, localizadas na Califórnia, foram sentenciadas a pagar uma indenização total de US$ 6 milhões à Kaley.
Repercussões
Especialistas brasileiros consultados pela Agência Brasil apontam que as sentenças da justiça norte-americana podem gerar impactos em escala mundial e se alinham com a implementação do ECA Digital (Lei 15.211/2025), que passou a valer em 17 de março e foi regulamentado no dia subsequente pelo Decreto 12.880, sancionado pelo presidente Luiz Inácio Lula da Silva.
Maria Góes de Mello, coordenadora do programa Criança e Consumo do Instituto Alana, afirma que “os processos nos Estados Unidos e o ECA Digital demonstram uma forte sinergia no que tange à preocupação com a saúde de crianças e adolescentes que utilizam a internet”. Ela considera a legislação brasileira e as recentes deliberações judiciais nos EUA como “instrumentos eficazes” para prevenir e combater a dependência das redes sociais.
Design manipulativo e padrões ocultos
Ricardo Horta, diretor de segurança e prevenção de riscos no ambiente digital do Ministério da Justiça e Segurança Pública (MJSP), ressalta a existência de estratégias em redes sociais, jogos eletrônicos e plataformas de apostas, cujo objetivo é prolongar ao máximo a permanência do usuário nos aplicativos.
Ele compara a situação a “introduzir um produto no mercado que, em vez de priorizar a segurança e o bem-estar do usuário, visa primordialmente maximizar o tempo de utilização, mantendo-os conectados por mais tempo. É um cenário similar a outros produtos que geram dependência e já estão disponíveis no mercado”.
A bibliografia técnica indica que esses mecanismos foram concebidos intencionalmente, empregando um design “manipulativo”. Os algoritmos, por sua vez, assimilam os interesses, preferências e hábitos dos usuários, operando com padrões “obscuros” – ou seja, invisíveis para quem interage com as telas e desconhecidos pelas entidades dedicadas à proteção de crianças, adolescentes e consumidores em geral.
Georgia Cruz, professora de Sistemas e Mídias Digitais da Universidade Federal do Ceará e pesquisadora no Laboratório de Pesquisa da Relação Infância, Juventude e Mídia (LabGrim - UFC), destaca que os prejuízos causados aos indivíduos pelo uso excessivo de telas se traduzem em ganhos para as plataformas na chamada “economia da atenção”.
A especialista observa que “as corporações têm obtido lucros crescentes com essas operações econômicas, em detrimento da qualidade de vida dos usuários, que, por sua vez, precisam enfrentar as consequências emocionais, sociais, comportamentais e de comunicação resultantes”.
Fim da imunidade
Ricardo Horta avalia que as duas decisões judiciais nos EUA representam uma ruptura de paradigmas: “Pela primeira vez, torna-se inegável a existência desses mecanismos e seu impacto direto na saúde e no bem-estar dos consumidores”.
Essa nova perspectiva desmantela a defesa de imunidade frequentemente invocada pelas empresas de tecnologia em ações judiciais relacionadas a conteúdos impróprios disseminados em suas plataformas.
Tradicionalmente, no sistema jurídico norte-americano, as grandes empresas de tecnologia apelam à Seção 230 da lei The Communications Decency Act (CDA), de 1996, um dispositivo legal que as protege de condenações em processos civis por conteúdo publicado por terceiros.
Contudo, as duas recentes sentenças transcendem o escopo da Seção 230. Paulo Rená da Silva Santarém, pesquisador do Instituto de Referência em Internet e Sociedade (Iris), observa que “a principal transformação reside na mudança de foco. A perspectiva se desloca do conteúdo publicado para o funcionamento intrínseco das redes sociais”.
Ele prevê que os vereditos proferidos nos Estados Unidos influenciarão outras nações.
“Há, sem dúvida, um potencial significativo para que essas decisões ressoem em outras jurisdições”, acrescenta.
Marcos Bruno, advogado e sócio do escritório Opice Blum Advogados, especializado em direito digital, compartilha da mesma opinião dos dois especialistas.
Ele considera que as deliberações norte-americanas intensificam a discussão global sobre a medida em que o design dessas plataformas pode fomentar padrões de consumo exagerado entre os mais jovens.
“A discussão não se concentra na tecnologia em si, mas sim na sua concepção para reter a atenção, particularmente a de crianças”, enfatiza.
Ações proativas das plataformas
No Brasil, o Artigo 19 do Marco Civil da Internet, de 2014, apresentava uma equivalência à Seção 230 da legislação norte-americana, até que o Supremo Tribunal Federal (STF) determinou, no ano anterior, que as plataformas de redes sociais devem ser diretamente responsabilizadas por publicações ilícitas realizadas por seus usuários.
Tanto a deliberação do STF quanto o ECA Digital impõem às redes sociais a responsabilidade de agir preventivamente, realizar moderações e impedir a disseminação de conteúdos impróprios.
A professora Mylena Devezas Souza, do departamento de Administração da Universidade Federal Fluminense (UFF) em Macaé (RJ), avalia que o ECA Digital “obriga as plataformas a prevenir e atenuar os perigos associados ao acesso de crianças e adolescentes a conteúdos impróprios, e exige que os serviços digitais sejam configurados para proporcionar experiências compatíveis com a faixa etária do usuário”.
O novo ECA Digital estipula que “as plataformas são obrigadas a oferecer configurações e recursos de fácil acesso que facilitem e apoiem a supervisão parental, concedendo aos responsáveis um controle mais abrangente sobre o tempo de tela e os conteúdos acessados, incluindo a prerrogativa de limitar ou restringir o uso das redes sociais”.
O desafio da supervisão parental
Wladimir Gramacho, jornalista e professor da Faculdade de Comunicação da Universidade de Brasília (FAC-UnB), destaca a importância de os pais monitorarem a interação de seus filhos com as redes sociais.
Ele adverte que “anteriormente, existiam horários e canais de televisão específicos, com momentos para desligar o aparelho. Atualmente, a tela substitui a televisão, oferecendo uma vasta gama de conteúdo. A supervisão adulta tornou-se ainda mais crucial do que antes. A seriedade da situação atual reside no fato de que muitos desses adultos também se encontram imersos e ‘capturados’ pelas plataformas”.
De acordo com o ECA Digital, a proteção de crianças e adolescentes no ambiente digital é uma responsabilidade tripartite, envolvendo o Estado, as empresas e a família. Portanto, é imperativo que os pais supervisionem continuamente a jornada online de seus filhos.
Os pais têm o dever de garantir que seus filhos utilizem as plataformas com os filtros de verificação de idade ativados, prevenindo o acesso a conteúdos inadequados, jogos de azar e pornografia.
A Agência Nacional de Proteção de Dados (ANDP) enfatiza que, conforme o ECA Digital, “qualquer indivíduo que testemunhe uma violação de direitos tem a prerrogativa e o dever de realizar denúncias através dos canais que as empresas [proprietárias das plataformas] serão obrigadas a oferecer”.