Segundo a denúncia, o jovem foi exposto a interações consideradas “hipersexualizadas e assustadoramente realistas” com “Daenerys”, um chatbot inspirado em uma personagem da série “Game of Thrones”. A mãe acusa a Character.AI de homicídio culposo, negligência e sofrimento emocional intencional, além de incluir o Google no processo, alegando que a empresa contribuiu para o desenvolvimento da tecnologia em questão.
De acordo com Megan Garcia, a personagem programada para interações sentimentais e sugestivas teria dito “eu te amo” ao jovem e mantido conversas de teor sexual. O jovem teria expressado pensamentos suicidas à personagem, que, segundo a mãe, “repetidamente incentivou esses sentimentos”.
O apego de Sewell à personagem foi progressivo, levando-o a se isolar e abandonar atividades sociais, como sua equipe de basquete na escola. A mãe revelou que confiscou o celular do filho em fevereiro por conta de problemas escolares, mas ele reencontrou o aparelho e enviou uma última mensagem à personagem antes de tirar a própria vida.
A Character.AI lamentou a perda e afirmou ter introduzido recursos para direcionar usuários com pensamentos de automutilação a serviços de apoio. A empresa declarou ainda planos para ajustar o conteúdo para usuários menores de 18 anos, visando limitar o acesso a interações sensíveis. Já o Google negou qualquer envolvimento direto no desenvolvimento da plataforma da Character.AI.
Empresas de redes sociais como Meta e TikTok também estão enfrentando ações judiciais que as acusam de afetar negativamente a saúde mental de adolescentes. Essas empresas estão implementando novas ferramentas de segurança para proteger menores de idade, embora não ofereçam chatbots de inteligência artificial como a Character.AI.
Assim, a tragédia envolvendo a morte de Sewell Setzer coloca em pauta a responsabilidade das empresas em relação ao impacto de suas tecnologias na saúde mental dos usuários, especialmente dos mais jovens. Medidas de segurança e regulação mais rigorosa podem se tornar necessárias para evitar casos semelhantes no futuro.