SÃO PAULO, SP (FOLHAPRESS) - A proteção de crianças e adolescentes no ambiente digital até aqui dependia de regras dispersas em diferentes leis e de medidas adotadas ou não pelas próprias plataformas.

Com a entrada em vigor do ECA Digital nesta terça-feira (17), o Brasil passa a ter normas específicas para esse ambiente e impõe às empresas de tecnologia a obrigação de adotar mecanismos de verificação de idade, proteção por padrão e respostas mais rápidas a conteúdos nocivos.

A nova legislação, formalmente chamada de Estatuto Digital da Criança e do Adolescente (Lei nº 15.211/2025), estabelece regras para produtos e serviços digitais acessíveis a menores de 18 anos, como redes sociais, jogos online, aplicativos e plataformas de compartilhamento de conteúdo.

A exigência de verificação de idade para acesso a conteúdos sensíveis, no entanto, não será aplicada integralmente já no início da vigência da lei, na próxima terça-feira (17). Segundo integrantes do Ministério da Justiça e Segurança Pública ouvidos pela Folha, a implementação ocorrerá de forma escalonada e pode levar meses.

A definição dos requisitos técnicos caberá à ANPD (Autoridade Nacional de Proteção de Dados), que deverá estabelecer critérios para garantir a segurança e a confiabilidade dos sistemas de checagem etária, como quais tecnologias poderão ser utilizadas e de que forma os dados dos usuários deverão ser protegidos.

*

VEJA O QUE MUDA COM O ECA DIGITAL

VERIFICAÇÃO DE IDADE

Como era Em muitas plataformas, o acesso dependia apenas da autodeclaração de idade do usuário, que podia informar qualquer data de nascimento.

O que muda Serviços com conteúdo impróprio para menores terão de adotar mecanismos mais confiáveis de verificação de idade. A autodeclaração deixa de ser suficiente nesses casos.

PROTEÇÃO POR PADRÃO

Como era Configurações de privacidade e segurança nem sempre vinham ativadas automaticamente e muitas vezes exigiam ajustes manuais por parte das famílias.

O que muda Plataformas deverão adotar configurações mais protetivas por padrão, garantindo maior privacidade e segurança desde o primeiro acesso.

RESPONSABILIDADE DAS PLATAFORMAS

Como era A atuação das empresas na prevenção de conteúdos nocivos variava conforme as políticas internas de cada plataforma.

O que muda A nova lei estabelece deveres específicos para empresas de tecnologia, que deverão adotar medidas para prevenir a exposição de menores a conteúdos ilegais ou prejudiciais.

FEED E NOTIFICAÇÕES

Como era Redes sociais e plataformas podiam utilizar recursos como rolagem infinita, autoplay de vídeos e notificações com apelo emocional para tentar manter os usuários online.

O que muda Com a lei, tecnologias que possam prender a atenção de crianças e adolescentes ou insistam para que eles voltem aos aplicativos ficam vetadas.

REMOÇÃO DE CONTEÚDOS NOCIVOS

Como era A retirada de conteúdos dependia muitas vezes de denúncias ou de decisões judiciais, e os prazos variavam entre plataformas.

O que muda Plataformas passam a ser obrigadas a remover conteúdos que violem direitos de crianças e adolescentes após notificação da vítima, de responsáveis ou de autoridades.

PUBLICIDADE DIRECIONADA

Como era Dados pessoais de menores de 18 anos podiam ser utilizados para segmentação publicitária em diferentes serviços digitais.

O que muda A lei proíbe o uso de técnicas de perfilamento para direcionar publicidade comercial a crianças e adolescentes.

JOGOS ELETRÔNICOS

Como era Jogos direcionados a crianças e adolescentes podiam oferecer loot boxes, caixas de recompensa com itens aleatórios obtidos mediante pagamento.

O que muda O ECA Digital proíbe esse tipo de mecanismo em jogos voltados para essa faixa etária ou de acesso provável por esse público.

SUPERVISÃO PARENTAL

Como era Ferramentas de controle parental existiam em algumas plataformas, mas não seguiam padrões mínimos definidos por lei.

O que muda Empresas deverão oferecer mecanismos que permitam aos responsáveis supervisionar o uso, limitar tempo de acesso e controlar interações e downloads.

TRANSPARÊNCIA DAS PLATAFORMAS

Como era Informações sobre denúncias, moderação de conteúdo e riscos para menores eram divulgadas de forma limitada ou voluntária.

O que muda Plataformas com grande número de usuários menores de 18 anos terão de publicar relatórios periódicos sobre denúncias, moderação e medidas de proteção.