O Estatuto Digital da Criança e do Adolescente (Lei nº 15.211/2025), conhecido como ECA Digital, entra em vigor no Brasil nesta terça-feira, 17 de março de 2026. A nova legislação representa um marco na proteção de menores no ambiente online, impondo uma série de obrigações às plataformas digitais. Entre as principais exigências estão a verificação confiável da idade dos usuários, a implementação de ferramentas eficazes de supervisão parental, a restrição de publicidade direcionada a crianças e adolescentes, e a moderação de conteúdos potencialmente prejudiciais.
O descumprimento das novas regras pode acarretar multas severas, que podem chegar a R$ 50 milhões por infração. Sancionada pelo presidente Luiz Inácio Lula da Silva em setembro de 2025, esta é a primeira lei brasileira a estabelecer normas e punições específicas para plataformas digitais visando a proteção de crianças e adolescentes. Em fevereiro de 2026, a Lei nº 15.352/2026 transformou a Agência Nacional de Proteção de Dados (ANPD) em agência reguladora, designando-a como o órgão responsável pela fiscalização do ECA Digital.
Para detalhar as implicações práticas da nova legislação, o Canaltech conversou com Fabricio da Mota Alves, sócio da área de Direito Digital do escritório Serur e presidente do Conselho Consultivo da Anatel. Confira abaixo os sete pontos essenciais para compreender o ECA Digital.
O Contexto e a Urgência por Trás do ECA Digital
O ECA Digital surge como uma resposta direta a uma falha estrutural do ambiente online no Brasil, sendo a primeira legislação a impor regras e punições específicas às plataformas digitais para a proteção de crianças e adolescentes. Antes, as normas eram genéricas, e o principal mecanismo de proteção era a autodeclaração de idade – um clique em “declaro ter mais de 18 anos” sem qualquer verificação real. Fabricio da Mota Alves enfatiza que a autodeclaração, embora satisfizesse exigências contratuais mínimas, era insuficiente para oferecer um filtro de acesso real.
A nova lei preenche essa lacuna, redistribuindo a responsabilidade que antes recaía exclusivamente sobre as famílias. Agora, as empresas de tecnologia, independentemente de sua sede, têm a obrigação jurídica e técnica de garantir ambientes digitais mais seguros para menores que utilizam seus serviços no Brasil.
O debate sobre a proteção de crianças no ambiente digital já existia, com propostas tramitando no Congresso desde 2022. Contudo, o vídeo “Adultização”, publicado em agosto de 2025 pelo youtuber Felipe Bressanim Pereira, conhecido como Felca, foi um catalisador decisivo. O conteúdo, que expôs os riscos reais a que crianças estão expostas nas redes, acumulou milhões de visualizações e, segundo Alves, funcionou como o “choque de realidade” necessário para que a sociedade e os parlamentares entendessem a urgência da discussão, quebrando a inércia política.
Novas Obrigações para Plataformas e Métodos de Verificação de Idade
Uma das mudanças mais impactantes é a proibição da autodeclaração como forma de confirmar a idade do usuário. As plataformas deverão adotar mecanismos confiáveis, auditáveis e tecnicamente seguros para aferir se um usuário é menor de 18 anos. A lei não exige identificação biométrica completa em todos os casos; alternativas como estimativa de idade por inteligência artificial, credenciais verificáveis via Gov.br e tokens de idade criptografados com método duplo cego são exemplos de soluções que cumprem a exigência sem expor dados sensíveis.
O rigor da verificação varia conforme o tipo de serviço. Plataformas de conteúdo pornográfico, apostas e marketplaces que comercializam produtos eróticos ou bebidas alcoólicas terão as exigências mais estritas. Para serviços de menor risco potencial, a verificação pode ser mais simples, mas a autodeclaração é descartada como mecanismo válido em qualquer serviço restrito a menores.
As obrigações para as plataformas são abrangentes e variam de acordo com o tipo de serviço. Redes sociais, por exemplo, devem criar versões sem publicidade direcionada a menores e vincular contas de usuários com menos de 16 anos às de seus responsáveis legais. Serviços de streaming precisarão oferecer perfis infantis e ferramentas de supervisão parental. Jogos eletrônicos com “loot boxes” (caixas-surpresa pagas) serão proibidos para essa faixa etária ou deverão oferecer versões sem essa funcionalidade. Plataformas de apostas, por sua vez, devem impedir o cadastro de crianças e adolescentes.
A legislação também proíbe o uso de dados ou perfis emocionais de menores para fins publicitários, o rastreamento excessivo e a monetização ou impulsionamento de conteúdos que retratem crianças de forma erotizada. Empresas com mais de 1 milhão de usuários menores de idade cadastrados no Brasil serão obrigadas a publicar relatórios semestrais de transparência. O conceito que norteia todas essas exigências é o “privacy by design”, que defende que a proteção deve ser embutida desde a concepção dos serviços.
O Impacto Direto para Usuários e os Desafios da Implementação
Para os usuários, a mudança mais perceptível será o aumento nas solicitações de verificação de idade. Ao acessar certos serviços ou conteúdos, será comum que os usuários sejam solicitados a confirmar sua faixa etária por métodos mais robustos do que o simples preenchimento de um formulário. Para menores de 16 anos, o impacto é ainda mais direto: a lei exige que suas contas em redes sociais estejam vinculadas à conta de um responsável legal.
As plataformas deverão oferecer ferramentas que permitam aos pais monitorar o tempo de uso, contatos e conteúdos acessados por seus filhos. Essas ferramentas, por padrão, deverão operar no nível mais alto de proteção disponível, ser acessíveis e estar disponíveis em português. Funcionalidades como reprodução automática, notificações para aumentar o tempo de tela e sistemas de recomendação personalizada deverão poder ser limitadas ou desativadas pelos responsáveis.
Um dos maiores desafios práticos do ECA Digital é evitar que jovens burlem as regras. Em países onde o acesso de menores às redes sociais foi restrito, como a Austrália, que proibiu plataformas para menores de 16 anos, os jovens encontraram formas de contornar as restrições, utilizando VPNs ou contas de terceiros. Fabricio da Mota Alves avalia que a proibição total pode gerar o efeito contrário ao desejado. O Brasil optou por um caminho mais sofisticado, definindo obrigações técnicas para que o próprio mercado de tecnologia de identidade evolua e garanta a implementação.
Alves reconhece que essa é a “grande fronteira técnica” do tema. Diferentemente da LGPD, que se apoiou em décadas de experiência europeia, a regulação digital voltada especificamente para crianças é um campo novo globalmente. Para fechar as brechas, é crucial combinar múltiplos métodos de verificação e garantir que as soluções sejam auditáveis, indo além da conformidade jurídica no papel.
Fiscalização, Penalidades e a Postura da ANPD
A Agência Nacional de Proteção de Dados (ANPD) é o órgão encarregado da fiscalização administrativa do ECA Digital. Para fortalecer sua atuação, o governo contratou 213 servidores temporários e criou uma carreira de especialista em regulação, com 200 vagas previstas por concurso público.
As plataformas que não cumprirem as regras podem ser alvo de advertências, multas que podem atingir até 10% do faturamento do grupo econômico no Brasil, limitadas a R$ 50 milhões por infração, ou, em casos mais graves, suspensão ou proibição de operação no país, sendo esta última dependente de decisão judicial. Empresas estrangeiras responderão por meio de suas filiais ou representantes no Brasil.
A aplicação, contudo, será gradual. A ANPD sinalizou uma postura “responsiva” neste primeiro momento, focada em promover a adaptação, especialmente das empresas menores. O governo ainda aguarda a publicação de um decreto regulamentador que detalhe aspectos práticos da implementação. “O que se espera é transparência sempre, mas fiscalização apenas neste momento dos excessos”, resume Fabricio da Mota Alves.
Fonte: canaltech.com.br
