No ano passado, a lei Online Safety Amendment (Social Media Minimum Age) Act 2024 tornou a Austrália o primeiro país do mundo a proibir que menores de 16 anos tenham contas em redes sociais. Desde então, as big techs receberam um prazo de 12 meses para se adequar, que se encerra no próximo dia 10. A medida, estruturada como política pública de proteção digital, busca resguardar a saúde e o bem-estar de crianças e adolescentes. Segundo pesquisa encomendada pelo governo, sete em cada dez jovens entre 10 e 15 anos afirmam ter sido expostos a comportamentos nocivos nas plataformas.
As redes citadas nominalmente pela lei incluem Facebook, Instagram, Snapchat, Threads, TikTok, X, YouTube, Reddit e os serviços de streaming Kick e Twitch. A Meta anunciou, na última quinta-feira, que já começou a remover contas de menores no Facebook, Threads e Instagram na Austrália. A legislação prevê multas de 49,5 milhões de dólares australianos (US$ 32 milhões ou cerca de R$ 169 milhões) para empresas que não adotarem “medidas razoáveis” para impedir o acesso de menores. A regra pode futuramente se estender ao ambiente dos jogos online, razão pela qual plataformas como Roblox e Discord passaram a implementar verificações de idade em alguns recursos.
No Brasil, embora não exista uma legislação nacional que imponha idade mínima obrigatória para o uso de redes sociais, o país tem avançado em políticas públicas voltadas à proteção digital de crianças e adolescentes. Em 2023, o Ministério da Educação publicou diretrizes que restringem o uso de celulares nas escolas públicas. O governo federal discute atualizações no Marco Civil da Internet e na Lei de Proteção de Dados com o objetivo de reforçar obrigações de verificação etária e segurança infantil nas plataformas. Embora fragmentados, esses esforços representam um movimento crescente de regulação, alinhado à preocupação global com o impacto das redes sociais no bem-estar e na saúde de menores de idade diante dos aumentos de denúncias comportamentos nocivos como abusos e violência.