Espaço para comunicar erros nesta postagem
Um levantamento sobre as práticas de verificação de idade em 25 plataformas digitais populares entre crianças no Brasil indicou que 84% delas, o equivalente a 21 dos serviços analisados, não validaram a idade dos usuários no momento da criação de contas. Esta constatação se refere a um período anterior à vigência da Lei do Estatuto da Criança e do Adolescente Digital (ECA Digital), que entrou em vigor no país na última terça-feira (17).
A pesquisa, intitulada 'Práticas de aferição de idade em 25 serviços digitais usados por crianças no Brasil', foi realizada pelo Comitê Gestor da Internet no Brasil (CGI.br) e pelo Núcleo de Informação e Coordenação do Ponto BR (NIC.br). Sua versão preliminar foi apresentada durante o seminário 'ECA Digital - Proteção de Crianças e Adolescentes: Perspectivas Globais e Multissetoriais para a Implementação da Lei', em Brasília.
Estudo detalha falhas na proteção online
O estudo abrangeu desde plataformas desenvolvidas especificamente para o público infantil, como o YouTube Kids, até serviços amplamente utilizados por jovens, incluindo redes sociais, aplicativos de mensagens (como WhatsApp), ferramentas de inteligência artificial generativa e jogos online. Também foram examinados serviços voltados ao público adulto, como sites de apostas, plataformas de relacionamento e lojas virtuais de aplicativos.
Em muitas das situações investigadas, a confirmação da idade ocorria apenas posteriormente, visando habilitar funcionalidades específicas, como transmissões ao vivo ou a possibilidade de monetização de conteúdo.
ECA Digital impõe novas regras
O ECA Digital, também conhecido como Lei Felca, tem como objetivo primordial a proteção de crianças e adolescentes no ambiente online, abrangendo redes sociais, jogos eletrônicos, serviços de streaming e lojas virtuais com produtos e serviços direcionados a esse público. Uma das diretrizes centrais da nova legislação é a proibição da simples autodeclaração de idade, prática comum onde o usuário apenas informa sua data de nascimento ou marca uma caixa de confirmação.
Isso significa que, na prática, as plataformas não podem mais confiar unicamente na informação fornecida pelo usuário ao criar uma nova conta. A partir desta semana, a nova lei exige que os serviços de tecnologia da informação implementem mecanismos de verificação de idade e garantam a supervisão parental para o acesso a conteúdos e o uso de seus produtos e serviços.
Verificação de idade: métodos e desafios
A pesquisa revelou que aproximadamente metade das plataformas analisadas, 11 de 25, incluindo redes sociais e ferramentas de IA como Gemini e ChatGPT, recorrem a empresas terceirizadas para realizar a checagem de idade. Essa verificação pode ocorrer durante o cadastro, em etapas posteriores para liberar recursos específicos, ou quando atividades suspeitas são detectadas.
O envio de documentos oficiais é o método de verificação mais robusto, empregado por 13 das 25 plataformas. Para estimar a idade sem a necessidade de documentos, o uso de selfies (fotos ou vídeos) é adotado por 12 dos serviços estudados. Outras abordagens, como a verificação por cartão de crédito, e-mail ou consentimento parental, também são utilizadas.
Idade mínima: um cenário fragmentado
O estudo aponta que a proteção de crianças e adolescentes no ambiente digital ainda é tratada de forma reativa e fragmentada, com a verificação de idade variando significativamente de acordo com o modelo de negócio de cada plataforma. Especialistas identificaram inconsistências entre as idades mínimas declaradas ou recomendadas pelos próprios serviços e aquelas exigidas pelas lojas de aplicativos.
No universo dos jogos online, as idades mínimas variam consideravelmente, de 13 anos (como em Minecraft e Fortnite) a 18 anos (como em Roblox e PlayStation). Nesses casos, a proteção frequentemente se baseia em ferramentas de supervisão parental e configurações por faixa etária.
As lojas de aplicativos, como Apple Store e Google Play, informam idades mínimas entre 13 e 16 anos. No entanto, elas não impedem o acesso durante o cadastro, limitando-se a oferecer recursos de controle para que pais e responsáveis monitorem os downloads.
Para acessar qualquer rede social (Facebook, Instagram, X, YouTube e Discord), o usuário precisa ter, teoricamente, pelo menos 13 anos. Contudo, essas plataformas não verificam a idade no momento do cadastro, baseando-se na autodeclaração e permitindo a autorização parental para funcionalidades e conteúdos, mesmo para usuários que declaram ter menos de 18 anos.
O serviço de mensagens WhatsApp, que oficialmente exige 13 anos, na prática permite o acesso apenas com a vinculação de um número de celular, sem qualquer solicitação de informação sobre a idade do usuário. Plataformas de marketplace voltadas ao público adulto, como Mercado Livre e Amazon, estabelecem 18 anos como idade mínima. Contudo, essa barreira é facilmente contornável, pois o sistema aceita a autodeclaração no cadastro sem exigir verificação.
Em contextos de combate a fraudes financeiras, a verificação de identidade é realizada posteriormente. Serviços relacionados a conteúdo adulto exigem a autodeclaração para usuários que apenas visualizam o conteúdo, mas a comprovação de idade é necessária para quem deseja fazer upload de materiais.
Atualmente, o acesso a serviços de relacionamento é amplamente liberado, pois a maioria não solicita prova de idade no cadastro, confiando na autodeclaração. O bloqueio ou a exigência de documentos só ocorrem de forma reativa, diante de comportamentos suspeitos ou denúncias de que o perfil pertence a um menor de 18 anos.
Os sites de apostas se destacam por apresentarem um rigor inicial maior, exigindo a verificação de idade no cadastro para confirmar se o usuário tem 18 anos. Essas plataformas utilizam serviços terceirizados para essa aferição.
No segmento de serviços digitais voltados especificamente para crianças, o estudo aponta um modelo de acesso mais flexível, com um mecanismo simples de estimativa etária, como um desafio matemático básico. A lógica é que, se o usuário consegue resolver a conta, presume-se que tenha maturidade cognitiva suficiente.
Ações e Sanções: Um Panorama Limitado
O mapeamento concluiu que apenas oito das 25 plataformas digitais declaram agir proativamente na identificação de usuários com idade inferior à mínima permitida. Em casos de descumprimento da política de idade mínima, a suspensão da conta é relatada como a principal sanção por 17 dos serviços pesquisados. No entanto, a exclusão de dados após a suspensão da conta não é uma prática generalizada, sendo realizada por apenas três empresas.
Supervisão Parental: Ferramentas Subutilizadas
Quanto à supervisão familiar, os dados do levantamento indicam que, embora a maioria dos serviços analisados (60%, ou 15 de 25) ofereça mecanismos de controle para pais e responsáveis, a funcionalidade dessas ferramentas ainda é predominantemente passiva. Em 14 dos 15 serviços que disponibilizam esses recursos, a proteção não vem ativada por padrão. Isso implica que a segurança depende da iniciativa dos pais ou responsáveis em buscar, configurar e ativar ativamente essas ferramentas para monitorar os menores.
Transparência: Um Desafio a Superar
Apenas seis das 25 plataformas analisadas publicaram relatórios de transparência com recorte específico para o Brasil, e somente um desses relatórios contém dados sobre a aplicação da política de idade mínima no país. Além das barreiras técnicas, o estudo ressalta a dificuldade de compreensão das regras de uso, devido a informações incompletas, dispersas em múltiplas páginas, links quebrados e políticas de uso não traduzidas para o português.
O Comitê Gestor da Internet no Brasil (CGI.br) informou que pretende disponibilizar em breve a versão completa do estudo sobre as práticas de aferição de idade em serviços digitais utilizados por crianças no Brasil.