No dia 24, um júri em Santa Fé, Novo México, concluiu que a Meta, empresa controladora de Facebook, Instagram e WhatsApp, deve ser responsabilizada por não implementar medidas suficientes para proteger jovens usuários de conteúdo prejudicial, incluindo casos de abuso sexual. Como consequência, a empresa foi condenada a pagar cerca de US$ 375 milhões. Essa decisão lança um olhar mais crítico sobre as práticas da empresa, que frequentemente se defende afirmando que é apenas uma plataforma para terceiros.
A situação se agravou no dia seguinte, quando um júri em Los Angeles estabeleceu que tanto a Meta quanto o Google, responsável pelo YouTube, projetaram suas plataformas de forma a causar danos aos usuários. O caso envolveu um jovem, identificado apenas como Kaley, que sofreu com depressão e transtorno dismórfico corporal, diretamente atribuídos a mecanismos manipulativos típicos dessas redes, como a rolagem infinita e notificações incessantes. Por isso, as duas empresas foram condenadas a pagar US$ 6 milhões em indenização à vítima.
Essas decisões judiciais não passam despercebidas diante do cenário global. Especialistas acreditam que elas podem influenciar legislações em outros países, incluindo o Brasil, onde a nova Lei 15.211/2025, conhecida como ECA Digital, foi implementada apenas dias antes. Essa legislação também estabelece diretrizes para proteger a saúde e bem-estar de crianças e adolescentes online, obrigando as plataformas a criar ambientes mais seguros.
As implicações dessas decisões reverberam na forma como a sociedade enxerga o papel das big techs. O estouro das fronteiras da Seção 230 da lei norte-americana, que tradicionalmente protege essas empresas de responsabilização por conteúdos gerados por usuários, representa uma mudança notável. A questão central agora se concentra no design dessas plataformas e em como elas operam, em vez de apenas nos conteúdos que veiculam.
A partir deste momento, espera-se que as redes sociais adotem abordagens mais proativas em relação à proteção de seus usuários, especialmente os mais jovens. A nova legislação brasileira, a exemplo do ECA Digital, impõe a responsabilidade de agir antecipadamente e tomar medidas efetivas para evitar a disseminação de conteúdos nocivos, enfatizando a importância da supervisão parental e do controle de acesso às plataformas.
Portanto, a jornada rumo a um ambiente digital mais seguro e saudável passa não apenas pela legislação, mas também pela conscientização dos pais sobre o uso que seus filhos fazem das tecnologias, em um contexto em que a proteção e a responsabilidade são compartilhadas entre Estado, empresas e famílias. Diante desta nova realidade, a presença ativa dos adultos na supervisão da experiência online das crianças revela-se mais crucial do que nunca.





