Análise Especializada sobre Algoritmos, Responsabilidade e Proteção de Menores
- O CASO QUE MUDOU TUDO
Ellen Roome perdeu seu filho Jools, de 14 anos, em abril de 2022. O adolescente britânico morreu ao reproduzir o chamado “desafio do apagão”, visualizado no TikTok. Ellen tornou-se a primeira britânica a processar formalmente uma rede social pela morte de um filho, unindo-se a outras três famílias em ação histórica nos Estados Unidos.
O diferencial deste caso: não se questiona apenas o conteúdo publicado, mas a responsabilidade algorítmica — a curadoria intencional que direciona conteúdos potencialmente letais a públicos vulneráveis, especialmente crianças e adolescentes.
Jools não tinha histórico de depressão ou automutilação. Suas últimas palavras à mãe, horas antes de ser encontrado morto: “eu te amo”.
- O ARGUMENTO DISRUPTIVO
Defesa do TikTok:
- Alega proteção de dados de usuários falecidos
- Afirma remover violações proativamente
- Invoca blindagem tradicional de plataformas como “intermediárias neutras”
Tese da acusação (Matthew P. Bergman):
“As plataformas não são neutras quando seus algoritmos impulsionam ativamente conteúdo perigoso até menores.”
O algoritmo seleciona, prioriza e direciona conteúdo com base em perfis comportamentais detalhados. Quando esta curadoria algorítmica expõe deliberadamente menores a “desafios” mortais, há conduta ativa que transcende a simples hospedagem de conteúdo.
III. A REVOLUÇÃO JURÍDICA BRASILEIRA — JUNHO 2025
Enquanto o Reino Unido ainda debate a “Lei de Jools”, o Brasil se antecipou. Em junho de 2025, o STF declarou a inconstitucionalidade parcial do art. 19 do Marco Civil da Internet (Temas 533 e 987), mudando radicalmente o cenário jurídico nacional.
ANTES (2014-2025): Blindagem Quase Absoluta
- Plataformas só respondiam após ordem judicial específica
- Atuação passiva e reativa
- Notificações extrajudiciais eram irrelevantes
- Ausência de dever de monitoramento
AGORA (Junho 2025): Responsabilidade Ampliada
- Notificação Extrajudicial é Suficiente
Plataformas podem ser responsabilizadas sem ordem judicial — basta notificação extrajudicial válida — por danos decorrentes da não remoção de conteúdos que configurem:
- Crimes graves
- Ilícitos civis manifestos
- Violações a direitos fundamentais
Exceções (mantém regra antiga): crimes contra honra, e-mails, reuniões fechadas por vídeo, mensagens privadas.
- Dever de Monitoramento Ativo
Plataformas devem atuar de forma proativa, responsável, transparente e cautelosa, especialmente para impedir circulação em massa de conteúdos criminosos graves.
Há responsabilidade por falha sistêmica: quando não adotam medidas adequadas de prevenção, detecção ou remoção.
- Presunção de Responsabilidade
Há presunção — independente de notificação prévia — em:
- Anúncios e impulsionamentos pagos
- Disseminação via chatbots ou robôs
Nesses casos, cabe à plataforma provar que agiu com diligência.
- Autorregulação Obrigatória
Exigência de:
- Mecanismos internos de moderação
- Canais de denúncia acessíveis
- Gestão de riscos sistêmicos
- Relatórios de transparência periódicos
- Representação Legal no Brasil
Provedores devem manter sede física e representante legal no país, com poderes para responder por penalidades e fornecer informações sobre moderação de conteúdo.
- APLICAÇÃO AO CASO JOOLS NO BRASIL
Se caso análogo ocorresse no Brasil hoje, a família teria instrumentos robustos:
Notificação Extrajudicial
Pode notificar o TikTok detalhando:
- Natureza perigosa do conteúdo (crime de induzimento ao suicídio — CP, art. 122)
- Direcionamento algorítmico a menores
- Exigência de remoção imediata
Se a plataforma permanecer inerte, há responsabilidade civil pelos danos subsequentes.
Responsabilidade por Falha Sistêmica
Argumentação de que o TikTok:
- Falhou em monitorar conteúdos manifestamente perigosos
- Não implementou mecanismos adequados de detecção
- Omitiu-se no dever de cuidado ao permitir impulsionamento a adolescentes
- Não atuou proativamente
Múltiplos Fundamentos Jurídicos
Marco Civil (interpretação STF):
- Falha sistêmica no monitoramento
- Omissão após notificação
- Descumprimento do dever de cuidado
LGPD:
- Tratamento irregular de dados de menor (art. 14)
- Decisão automatizada lesiva (art. 20)
- Violação do melhor interesse da criança
- Sanção: Multa até R$ 50 milhões
Código de Defesa do Consumidor:
- Responsabilidade objetiva por defeito no serviço (art. 14)
- Algoritmo que expõe menor a risco mortal = defeito grave
- Inversão do ônus da prova
ECA:
- Violação do dever de proteção integral (art. 4º)
- Negligência empresarial
- Vedação de exploração de crianças (art. 5º)
- ESTRATÉGIAS JURÍDICAS PRÁTICAS
Para Famílias Vítimas
- Notificação Extrajudicial Prévia
- Constitui plataforma em mora
- Cria prova de conhecimento do ilícito
- Via AR ou protocolo digital
- Com assistência de advogado
- Tutela de Urgência — Preservação de Provas
- Ação cautelar de produção antecipada
- Nomeação de perito para extração de dados
- Impedimento de exclusão de logs, algoritmos, métricas
- Ação Indenizatória Pedidos:
- Danos morais: Conforme abalo, trauma e consequências
- Danos materiais: Despesas, tratamento psicológico
- Danos punitivos: Majoração pelo caráter pedagógico-punitivo
- Obrigação de fazer: Implementação de mecanismos de segurança
- Exibição de Documentos Compelir plataforma a fornecer:
- Código-fonte do algoritmo (sob sigilo)
- Logs completos de interação
- Documentos internos sobre conhecimento de riscos
- Políticas de moderação
- Representação à ANPD Por violação à LGPD com possível multa.
Para o Ministério Público
- Inquérito Civil Apurar práticas sistêmicas de exposição de menores a conteúdo perigoso.
- Ação Civil Pública Obrigações de fazer:
- Verificação robusta de idade
- Auditoria independente trimestral
- Relatórios de transparência mensais
- Canal 24/7 para denúncias
- Sistema de detecção proativa
- Termo de Ajustamento de Conduta (TAC) Alternativa consensual com obrigações específicas e multas por descumprimento.
- DESAFIOS PROBATÓRIOS — SOLUÇÕES
A “Caixa Preta” Algorítmica
Estratégias:
- Inversão do Ônus da Prova
- CDC (hipossuficiência técnica)
- Presunção STF em anúncios pagos e robôs
- Cabe à plataforma provar que não impulsionou e agiu com diligência
- Perícia Multidisciplinar
- Engenheiro de software/cientista de dados
- Psicólogo infantil
- Especialista em UX
- Especialista em segurança da informação
- Medidas Coercitivas
- Exibição judicial de documentos (CPC, art. 400)
- Astreintes (multa diária) progressivas
- Presunção de veracidade por descumprimento
- Responsabilização pessoal de representantes legais
Nexo Causal
Presunção aplicável:
Se:
- Menor sem histórico de comportamento autolesivo
- Visualizou conteúdo perigoso na plataforma
- Morreu reproduzindo o conteúdo visualizado
- Não havia outras fontes plausíveis de conhecimento
Então: Presume-se nexo causal, cabendo à plataforma elidir a presunção.
VII. A “LEI DE JOOLS” E O PARALELO BRASILEIRO
Proposta Britânica:
- Preservação automática de dados quando menor morre em circunstâncias suspeitas
- Obrigação de fornecimento às autoridades e famílias
- Responsabilização por curadoria algorítmica
Brasil: Na Vanguarda
| Lei de Jools (proposta UK) | STF Brasil (vigente) |
| Preservação automática | Obrigação de fornecimento de informações sobre moderação |
| Fornecimento a famílias | Medidas coercitivas para exibição judicial |
| Responsabilidade algorítmica | Responsabilidade por falha sistêmica + dever de monitoramento + presunções |
Brasil implementou via interpretação constitucional o que o Reino Unido ainda debate legislativamente.
VIII. LACUNAS REMANESCENTES — PROPOSTAS LEGISLATIVAS
Apesar dos avanços do STF, ainda faltam:
- Lei de Preservação Automática (Lei de Jools Brasileira)
Quando menor morrer em circunstâncias suspeitas, plataforma deve:
- Preservar automaticamente todos os dados por 180 dias
- Notificar autoridades imediatamente
- Bloquear qualquer exclusão
- Fornecimento de Dados a Familiares
Pais/responsáveis devem ter acesso a:
- Histórico completo de interações
- Conteúdos visualizados e recomendados
- Logs de algoritmo em linguagem acessível
- Verificação Robusta de Idade
Não meramente autodeclaratória — dupla verificação (documento + biometria).
- Transparência Algorítmica Regulamentada
Relatórios públicos trimestrais sobre:
- Critérios de funcionamento dos algoritmos
- Volume de conteúdo removido por categoria
- Tempo médio de remoção
- Investimento em moderação humana
- Auditoria Independente Obrigatória
Para plataformas com +10 milhões de usuários brasileiros:
- Auditoria anual independente
- Credenciamento pela ANPD
- Relatório público
- Responsabilidade Agravada
Indenização majorada em:
- 50% se reincidência
- 100% se conhecimento prévio e omissão deliberada
- 200% se monetização do conteúdo danoso
- Responsabilização Penal de Dirigentes
Dirigentes respondem pessoalmente por crime quando:
- Tiverem conhecimento de disseminação massiva de conteúdo autolesivo
- Omitirem-se dolosamente
- Resultar morte ou lesão grave
- CENÁRIO INTERNACIONAL
União Europeia — Digital Services Act
- Obrigação de avaliação de riscos sistêmicos
- Transparência algorítmica
- Proteção especial a menores
- Multas: Até 6% do faturamento global
Reino Unido — Online Safety Act
- Dever de cuidado das plataformas
- Verificação de idade obrigatória
- Multas: Até 10% do faturamento global
- Responsabilização criminal de executivos
Austrália
- Proibição de acesso a redes sociais para menores de 16 anos
- Multas: Até AUD 50 milhões
Estados Unidos
- Fragmentação legislativa
- COPPA limitado a menores de 13 anos
- Projetos estaduais em tramitação
Lição: Tendência global de responsabilização crescente, especialmente quanto à proteção de menores e transparência algorítmica.
- CONCLUSÃO
O caso Jools Sweeney não é tragédia isolada — é sintoma de problema estrutural. Algoritmos otimizados para lucro + cérebros em desenvolvimento = combinação letal.
A ficção da neutralidade das plataformas ruiu definitivamente no Brasil em junho de 2025.
Conquistas da Decisão STF:
✅ Notificação extrajudicial suficiente (dispensa ordem judicial prévia)
✅ Dever de monitoramento ativo
✅ Presunção de responsabilidade em impulsionamentos pagos e robôs
✅ Autorregulação obrigatória
✅ Representação legal no Brasil
O Que Ainda Falta:
⚠️ Preservação automática de dados (Lei de Jools brasileira)
⚠️ Verificação robusta de idade
⚠️ Auditoria independente obrigatória
⚠️ Multas proporcionais ao faturamento global
⚠️ Responsabilização penal de executivos
Mensagens Finais:
Às Famílias Vítimas:
O Direito brasileiro mudou e está do seu lado. Vocês têm ferramentas robustas: notificação extrajudicial, direito a dados, responsabilização por falha sistêmica, presunções favoráveis, inversão do ônus probatório, múltiplos fundamentos legais e indenizações majoradas.
Ao Poder Público:
A decisão do STF abriu caminho, mas legislação complementar é urgente. Conclamamos aprovação de lei específica sobre proteção de menores, fiscalização intensiva e aplicação consistente da nova jurisprudência.
Às Plataformas:
O tempo da impunidade acabou. A decisão do STF é ordem judicial vinculante. Adaptem-se ou enfrentem processos milionários, multas administrativas, bloqueios e responsabilização de executivos.
A vida de nossos jovens não pode ser sacrificada no altar do engajamento digital.
Jools Sweeney e dezenas de outras crianças não podem ter morrido em vão. Este é momento decisivo: ou regulamos as Big Techs com rigor, ou assistiremos passivamente a genocídio silencioso de uma geração.
O Brasil deu o primeiro passo em junho de 2025. Cabe a nós completar a caminhada.
SOBRE O ESCRITÓRIO
Especializamo-nos em litígios complexos contra plataformas digitais:
✓ Responsabilidade civil algorítmica
✓ Aplicação da jurisprudência STF (Temas 533 e 987)
✓ Violações à LGPD infantojuvenil
✓ Ações coletivas contra Big Techs
✓ Assessoria a famílias vítimas




