quarta-feira, 11 de fevereiro de 2026
Foto: Freepik
Nos últimos meses, algumas plataformas digitais anunciaram medidas para exigir comprovação de idade de seus usuários, com o objetivo declarado de aumentar a proteção de adolescentes. A iniciativa surge em meio a uma crescente preocupação com os impactos das redes sociais sobre a saúde mental, a exposição a conteúdos nocivos e a coleta de dados de menores.
Mas será que essa estratégia é suficiente? A resposta, infelizmente, parece ser não. A exigência de documentos ou sistemas de verificação pode até criar uma barreira inicial, mas não resolve o problema central: o ambiente digital continua sendo desenhado para maximizar engajamento, muitas vezes em detrimento do bem-estar dos jovens. Além disso, há o risco de exclusão de adolescentes que usam as plataformas de forma legítima e saudável, sem que isso impeça o acesso de quem busca burlar as regras.
A discussão, no entanto, é válida e necessária. Ela coloca em pauta a responsabilidade das empresas de tecnologia e a urgência de políticas públicas que acompanhem a velocidade das transformações digitais. Mais do que verificar a idade, é preciso repensar algoritmos, oferecer ferramentas de controle parental eficazes e investir em educação digital para que adolescentes desenvolvam senso crítico diante das telas.
Em suma, a checagem de idade pode ser um passo, mas não é a solução. O debate deve ir além: trata-se de como equilibrar liberdade, inovação e proteção em um espaço que já se tornou parte inseparável da vida de milhões de jovens. Outro ponto que faz parte das rodas no Brasil: qual a idade ideal para começar a usar as redes?
A Austrália, por exemplo, proibiu menores de 16 anos de acessarem serviços como Instagram, Facebook, TikTok e YouTube.
Nos Estados Unidos, a Meta, dona do Instagram e do Facebook, e o Google, dono do YouTube, estão enfrentando processos sobre danos causados à saúde mental de crianças. Pela primeira vez, as empresas vão enfrentar um júri popular em um caso sobre vício em plataformas.
A OpenAI também passou a enfrentar em 2025 acusações de que o ChatGPT incentivou o suicídio de adolescentes nos Estados Unidos, em vez de adotar meios para impedir sua inteligência artificial de gerar esse tipo de conteúdo.
O Roblox é alvo de denúncias no Brasil sobre a atuação de aliciadores de menores na plataforma, apontou o Fantástico. No Brasil, plataformas deverão verificar a idade de usuários se puderem ter conteúdo impróprio para menores de 16 anos. A medida está prevista no Estatuto Digital da Criança e do Adolescente (ECA Digital), que começará a valer em março.
Este texto não reflete necessariamente a opinião do Jornal Somos.