RESPONSABILIDADE CIVIL DAS PLATAFORMAS DIGITAIS: O CASO JOOLS SWEENEY E A REVOLUÇÃO JURÍDICA BRASILEIRA

Análise Especializada sobre Algoritmos, Responsabilidade e Proteção de Menores

  1. O CASO QUE MUDOU TUDO

Ellen Roome perdeu seu filho Jools, de 14 anos, em abril de 2022. O adolescente britânico morreu ao reproduzir o chamado “desafio do apagão”, visualizado no TikTok. Ellen tornou-se a primeira britânica a processar formalmente uma rede social pela morte de um filho, unindo-se a outras três famílias em ação histórica nos Estados Unidos.

O diferencial deste caso: não se questiona apenas o conteúdo publicado, mas a responsabilidade algorítmica — a curadoria intencional que direciona conteúdos potencialmente letais a públicos vulneráveis, especialmente crianças e adolescentes.

Jools não tinha histórico de depressão ou automutilação. Suas últimas palavras à mãe, horas antes de ser encontrado morto: “eu te amo”.

  1. O ARGUMENTO DISRUPTIVO

Defesa do TikTok:

  • Alega proteção de dados de usuários falecidos
  • Afirma remover violações proativamente
  • Invoca blindagem tradicional de plataformas como “intermediárias neutras”

Tese da acusação (Matthew P. Bergman):

“As plataformas não são neutras quando seus algoritmos impulsionam ativamente conteúdo perigoso até menores.”

O algoritmo seleciona, prioriza e direciona conteúdo com base em perfis comportamentais detalhados. Quando esta curadoria algorítmica expõe deliberadamente menores a “desafios” mortais, há conduta ativa que transcende a simples hospedagem de conteúdo.

III. A REVOLUÇÃO JURÍDICA BRASILEIRA — JUNHO 2025

Enquanto o Reino Unido ainda debate a “Lei de Jools”, o Brasil se antecipou. Em junho de 2025, o STF declarou a inconstitucionalidade parcial do art. 19 do Marco Civil da Internet (Temas 533 e 987), mudando radicalmente o cenário jurídico nacional.

ANTES (2014-2025): Blindagem Quase Absoluta

  • Plataformas só respondiam após ordem judicial específica
  • Atuação passiva e reativa
  • Notificações extrajudiciais eram irrelevantes
  • Ausência de dever de monitoramento

AGORA (Junho 2025): Responsabilidade Ampliada

  1. Notificação Extrajudicial é Suficiente

Plataformas podem ser responsabilizadas sem ordem judicial — basta notificação extrajudicial válida — por danos decorrentes da não remoção de conteúdos que configurem:

  • Crimes graves
  • Ilícitos civis manifestos
  • Violações a direitos fundamentais

Exceções (mantém regra antiga): crimes contra honra, e-mails, reuniões fechadas por vídeo, mensagens privadas.

  1. Dever de Monitoramento Ativo

Plataformas devem atuar de forma proativa, responsável, transparente e cautelosa, especialmente para impedir circulação em massa de conteúdos criminosos graves.

Há responsabilidade por falha sistêmica: quando não adotam medidas adequadas de prevenção, detecção ou remoção.

  1. Presunção de Responsabilidade

Há presunção — independente de notificação prévia — em:

  • Anúncios e impulsionamentos pagos
  • Disseminação via chatbots ou robôs

Nesses casos, cabe à plataforma provar que agiu com diligência.

  1. Autorregulação Obrigatória

Exigência de:

  • Mecanismos internos de moderação
  • Canais de denúncia acessíveis
  • Gestão de riscos sistêmicos
  • Relatórios de transparência periódicos
  1. Representação Legal no Brasil

Provedores devem manter sede física e representante legal no país, com poderes para responder por penalidades e fornecer informações sobre moderação de conteúdo.

  1. APLICAÇÃO AO CASO JOOLS NO BRASIL

Se caso análogo ocorresse no Brasil hoje, a família teria instrumentos robustos:

Notificação Extrajudicial

Pode notificar o TikTok detalhando:

  • Natureza perigosa do conteúdo (crime de induzimento ao suicídio — CP, art. 122)
  • Direcionamento algorítmico a menores
  • Exigência de remoção imediata

Se a plataforma permanecer inerte, há responsabilidade civil pelos danos subsequentes.

Responsabilidade por Falha Sistêmica

Argumentação de que o TikTok:

  1. Falhou em monitorar conteúdos manifestamente perigosos
  2. Não implementou mecanismos adequados de detecção
  3. Omitiu-se no dever de cuidado ao permitir impulsionamento a adolescentes
  4. Não atuou proativamente

Múltiplos Fundamentos Jurídicos

Marco Civil (interpretação STF):

  • Falha sistêmica no monitoramento
  • Omissão após notificação
  • Descumprimento do dever de cuidado

LGPD:

  • Tratamento irregular de dados de menor (art. 14)
  • Decisão automatizada lesiva (art. 20)
  • Violação do melhor interesse da criança
  • Sanção: Multa até R$ 50 milhões

Código de Defesa do Consumidor:

  • Responsabilidade objetiva por defeito no serviço (art. 14)
  • Algoritmo que expõe menor a risco mortal = defeito grave
  • Inversão do ônus da prova

ECA:

  • Violação do dever de proteção integral (art. 4º)
  • Negligência empresarial
  • Vedação de exploração de crianças (art. 5º)
  1. ESTRATÉGIAS JURÍDICAS PRÁTICAS

Para Famílias Vítimas

  1. Notificação Extrajudicial Prévia
  • Constitui plataforma em mora
  • Cria prova de conhecimento do ilícito
  • Via AR ou protocolo digital
  • Com assistência de advogado
  1. Tutela de Urgência — Preservação de Provas
  • Ação cautelar de produção antecipada
  • Nomeação de perito para extração de dados
  • Impedimento de exclusão de logs, algoritmos, métricas
  1. Ação Indenizatória Pedidos:
  • Danos morais: Conforme abalo, trauma e consequências
  • Danos materiais: Despesas, tratamento psicológico
  • Danos punitivos: Majoração pelo caráter pedagógico-punitivo
  • Obrigação de fazer: Implementação de mecanismos de segurança
  1. Exibição de Documentos Compelir plataforma a fornecer:
  • Código-fonte do algoritmo (sob sigilo)
  • Logs completos de interação
  • Documentos internos sobre conhecimento de riscos
  • Políticas de moderação
  1. Representação à ANPD Por violação à LGPD com possível multa.

Para o Ministério Público

  1. Inquérito Civil Apurar práticas sistêmicas de exposição de menores a conteúdo perigoso.
  2. Ação Civil Pública Obrigações de fazer:
  • Verificação robusta de idade
  • Auditoria independente trimestral
  • Relatórios de transparência mensais
  • Canal 24/7 para denúncias
  • Sistema de detecção proativa
  1. Termo de Ajustamento de Conduta (TAC) Alternativa consensual com obrigações específicas e multas por descumprimento.
  2. DESAFIOS PROBATÓRIOS — SOLUÇÕES

A “Caixa Preta” Algorítmica

Estratégias:

  1. Inversão do Ônus da Prova
  • CDC (hipossuficiência técnica)
  • Presunção STF em anúncios pagos e robôs
  • Cabe à plataforma provar que não impulsionou e agiu com diligência
  1. Perícia Multidisciplinar
  • Engenheiro de software/cientista de dados
  • Psicólogo infantil
  • Especialista em UX
  • Especialista em segurança da informação
  1. Medidas Coercitivas
  • Exibição judicial de documentos (CPC, art. 400)
  • Astreintes (multa diária) progressivas
  • Presunção de veracidade por descumprimento
  • Responsabilização pessoal de representantes legais

Nexo Causal

Presunção aplicável:

Se:

  • Menor sem histórico de comportamento autolesivo
  • Visualizou conteúdo perigoso na plataforma
  • Morreu reproduzindo o conteúdo visualizado
  • Não havia outras fontes plausíveis de conhecimento

Então: Presume-se nexo causal, cabendo à plataforma elidir a presunção.

VII. A “LEI DE JOOLS” E O PARALELO BRASILEIRO

Proposta Britânica:

  1. Preservação automática de dados quando menor morre em circunstâncias suspeitas
  2. Obrigação de fornecimento às autoridades e famílias
  3. Responsabilização por curadoria algorítmica

Brasil: Na Vanguarda

Lei de Jools (proposta UK) STF Brasil (vigente)
Preservação automática Obrigação de fornecimento de informações sobre moderação
Fornecimento a famílias Medidas coercitivas para exibição judicial
Responsabilidade algorítmica Responsabilidade por falha sistêmica + dever de monitoramento + presunções

Brasil implementou via interpretação constitucional o que o Reino Unido ainda debate legislativamente.

VIII. LACUNAS REMANESCENTES — PROPOSTAS LEGISLATIVAS

Apesar dos avanços do STF, ainda faltam:

  1. Lei de Preservação Automática (Lei de Jools Brasileira)

Quando menor morrer em circunstâncias suspeitas, plataforma deve:

  • Preservar automaticamente todos os dados por 180 dias
  • Notificar autoridades imediatamente
  • Bloquear qualquer exclusão
  1. Fornecimento de Dados a Familiares

Pais/responsáveis devem ter acesso a:

  • Histórico completo de interações
  • Conteúdos visualizados e recomendados
  • Logs de algoritmo em linguagem acessível
  1. Verificação Robusta de Idade

Não meramente autodeclaratória — dupla verificação (documento + biometria).

  1. Transparência Algorítmica Regulamentada

Relatórios públicos trimestrais sobre:

  • Critérios de funcionamento dos algoritmos
  • Volume de conteúdo removido por categoria
  • Tempo médio de remoção
  • Investimento em moderação humana
  1. Auditoria Independente Obrigatória

Para plataformas com +10 milhões de usuários brasileiros:

  • Auditoria anual independente
  • Credenciamento pela ANPD
  • Relatório público
  1. Responsabilidade Agravada

Indenização majorada em:

  • 50% se reincidência
  • 100% se conhecimento prévio e omissão deliberada
  • 200% se monetização do conteúdo danoso
  1. Responsabilização Penal de Dirigentes

Dirigentes respondem pessoalmente por crime quando:

  • Tiverem conhecimento de disseminação massiva de conteúdo autolesivo
  • Omitirem-se dolosamente
  • Resultar morte ou lesão grave
  1. CENÁRIO INTERNACIONAL

União Europeia — Digital Services Act

  • Obrigação de avaliação de riscos sistêmicos
  • Transparência algorítmica
  • Proteção especial a menores
  • Multas: Até 6% do faturamento global

Reino Unido — Online Safety Act

  • Dever de cuidado das plataformas
  • Verificação de idade obrigatória
  • Multas: Até 10% do faturamento global
  • Responsabilização criminal de executivos

Austrália

  • Proibição de acesso a redes sociais para menores de 16 anos
  • Multas: Até AUD 50 milhões

Estados Unidos

  • Fragmentação legislativa
  • COPPA limitado a menores de 13 anos
  • Projetos estaduais em tramitação

Lição: Tendência global de responsabilização crescente, especialmente quanto à proteção de menores e transparência algorítmica.

  1. CONCLUSÃO

O caso Jools Sweeney não é tragédia isolada — é sintoma de problema estrutural. Algoritmos otimizados para lucro + cérebros em desenvolvimento = combinação letal.

A ficção da neutralidade das plataformas ruiu definitivamente no Brasil em junho de 2025.

Conquistas da Decisão STF:

✅ Notificação extrajudicial suficiente (dispensa ordem judicial prévia)
✅ Dever de monitoramento ativo
✅ Presunção de responsabilidade em impulsionamentos pagos e robôs
✅ Autorregulação obrigatória
✅ Representação legal no Brasil

O Que Ainda Falta:

⚠️ Preservação automática de dados (Lei de Jools brasileira)
⚠️ Verificação robusta de idade
⚠️ Auditoria independente obrigatória
⚠️ Multas proporcionais ao faturamento global
⚠️ Responsabilização penal de executivos

Mensagens Finais:

Às Famílias Vítimas:

O Direito brasileiro mudou e está do seu lado. Vocês têm ferramentas robustas: notificação extrajudicial, direito a dados, responsabilização por falha sistêmica, presunções favoráveis, inversão do ônus probatório, múltiplos fundamentos legais e indenizações majoradas.

Ao Poder Público:

A decisão do STF abriu caminho, mas legislação complementar é urgente. Conclamamos aprovação de lei específica sobre proteção de menores, fiscalização intensiva e aplicação consistente da nova jurisprudência.

Às Plataformas:

O tempo da impunidade acabou. A decisão do STF é ordem judicial vinculante. Adaptem-se ou enfrentem processos milionários, multas administrativas, bloqueios e responsabilização de executivos.

A vida de nossos jovens não pode ser sacrificada no altar do engajamento digital.

Jools Sweeney e dezenas de outras crianças não podem ter morrido em vão. Este é momento decisivo: ou regulamos as Big Techs com rigor, ou assistiremos passivamente a genocídio silencioso de uma geração.

O Brasil deu o primeiro passo em junho de 2025. Cabe a nós completar a caminhada.

SOBRE O ESCRITÓRIO

Especializamo-nos em litígios complexos contra plataformas digitais:

✓ Responsabilidade civil algorítmica
✓ Aplicação da jurisprudência STF (Temas 533 e 987)
✓ Violações à LGPD infantojuvenil
✓ Ações coletivas contra Big Techs
✓ Assessoria a famílias vítimas