Mauro Souza Advocacia Digital & Consultoria Jurídica

Meta e a CPI da Exploração Infantil: Responsabilidade e Regulação das Big Techs

O Embate no Congresso: A Tecnologia Sob Escrutínio Público

O cenário político e tecnológico brasileiro foi sacudido recentemente pelo depoimento de executivos da Meta (empresa controladora do Facebook, Instagram e WhatsApp) na Comissão Parlamentar de Inquérito (CPI) que investiga a exploração infantil no ambiente digital. O embate no Congresso Nacional colocou em evidência a tensão crescente entre o poder das Big Techs e a necessidade de uma regulação estatal mais rigorosa para proteger os cidadãos mais vulneráveis. A CPI busca entender como os algoritmos e as políticas de moderação das plataformas podem, ainda que involuntariamente, facilitar a disseminação de conteúdos abusivos e o contato de predadores com menores.

O depoimento foi marcado por questionamentos incisivos sobre a eficácia das ferramentas de segurança da Meta e a transparência da empresa em relação aos dados de exploração infantil em suas redes. Para parlamentares e especialistas, o caso da Meta é emblemático de um problema sistêmico: a priorização do engajamento e do lucro em detrimento da segurança dos usuários. A discussão na CPI não é apenas sobre uma empresa específica, mas sobre a responsabilidade social e jurídica das gigantes da tecnologia na era da informação.

Responsabilidade Civil e o Marco Civil da Internet

Um dos pontos centrais do debate na CPI é a interpretação do Artigo 19 do Marco Civil da Internet (Lei 12.965/2014). Atualmente, esse dispositivo estabelece que as plataformas digitais só podem ser responsabilizadas civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomarem providências para remover o conteúdo. No entanto, diante da gravidade de crimes como a exploração infantil, há um movimento crescente para flexibilizar essa regra, impondo um dever de cuidado proativo às empresas.

A tese da “responsabilidade editorial” ou do “dever de vigilância” ganha força. O argumento é que, ao utilizar algoritmos para recomendar e impulsionar conteúdos, as plataformas deixam de ser meros repositórios passivos e passam a atuar como curadoras, devendo, portanto, responder pelos riscos criados por seus sistemas. A CPI da Exploração Infantil pode ser o catalisador para uma reforma legislativa que torne as Big Techs mais responsáveis pelo que circula em seus domínios, especialmente quando envolve a integridade de crianças e adolescentes.

Transparência Algorítmica e Moderação de Conteúdo

Outro tema crucial abordado na CPI é a opacidade dos algoritmos. Parlamentares questionaram como a Meta utiliza a inteligência artificial para detectar e remover conteúdos de abuso sexual infantil antes mesmo que eles sejam denunciados. Embora a empresa afirme investir bilhões em segurança, a persistência de redes de exploração nas plataformas sugere que as medidas atuais são insuficientes. A demanda por maior transparência algorítmica visa permitir que órgãos reguladores e a sociedade civil auditem a eficácia desses sistemas.

A moderação de conteúdo também enfrenta desafios geográficos e linguísticos. Críticos apontam que as Big Techs costumam dedicar menos recursos para a moderação em países do Sul Global, como o Brasil, em comparação com os Estados Unidos e a Europa. Essa disparidade pode tornar os jovens brasileiros mais expostos a riscos digitais. A CPI exige que a Meta e outras empresas demonstrem um compromisso equitativo com a segurança em todos os mercados onde operam.

O Futuro da Regulação: Entre a Autorregulação e a Intervenção Estatal

O desfecho da CPI da Exploração Infantil terá implicações profundas para o futuro da regulação das Big Techs no Brasil. O relatório final da comissão poderá sugerir novos projetos de lei que estabeleçam sanções mais severas para empresas que falharem na proteção de menores, além de exigir relatórios periódicos de transparência e a implementação de mecanismos de verificação de idade mais robustos. O debate oscila entre a defesa da autorregulação assistida e a necessidade de uma intervenção estatal mais direta.

A experiência internacional, como o Digital Services Act (DSA) da União Europeia e o Online Safety Act do Reino Unido, serve de inspiração para o legislador brasileiro. Essas normas impõem obrigações rigorosas de gestão de risco às grandes plataformas, sob pena de multas bilionárias. O Brasil parece estar caminhando para um modelo semelhante, onde a liberdade de operar no mercado digital estará condicionada ao cumprimento de deveres éticos e sociais inegociáveis.

Conclusão: A Proteção da Infância como Prioridade Absoluta

O depoimento da Meta na CPI é um lembrete de que a tecnologia não é neutra e que seu impacto na sociedade depende das escolhas feitas por quem a desenvolve e por quem a regula. A proteção de crianças e adolescentes contra a exploração infantil deve ser a prioridade absoluta, sobrepondo-se a qualquer interesse comercial. O fortalecimento das instituições brasileiras e a atualização do nosso arcabouço jurídico são passos essenciais para garantir que o ambiente digital seja um espaço de segurança e dignidade para todos. A era da impunidade das Big Techs parece estar chegando ao fim, dando lugar a uma era de maior responsabilidade e transparência.

Qual a sua opinião sobre a responsabilidade das Big Techs na proteção de menores? Você acredita que o Marco Civil da Internet deve ser alterado? Como você avalia a atuação do Congresso Nacional nesse tema? Compartilhe suas reflexões e participe deste debate crucial para a nossa sociedade.

Referências