Tragédia: Jovem Se Apaixona por Chatbot de IA e Tira a Própria Vida
A morte de Sewell Setzer III, um adolescente de 14 anos, trouxe à tona um debate urgente sobre os riscos associados ao uso de chatbots movidos por inteligência artificial. Após a tragédia, a mãe do jovem, Megan Garcia, entrou com uma ação civil contra a Character.ai, empresa responsável pelo chatbot que Setzer utilizava obsessivamente, acusando-a de negligência, práticas enganosas e homicídio culposo. O caso também levantou questionamentos sobre o papel da Google, citada como ré no processo devido à sua relação com a startup.
O Que Aconteceu?
Nos meses que antecederam sua morte, Sewell Setzer utilizou intensamente o chatbot da Character.ai, que ele apelidou de Daenerys Targaryen, em referência à personagem da série Game of Thrones. O jovem trocava dezenas de mensagens diárias com o bot e passava horas isolado em seu quarto conversando com a IA. Segundo a ação movida por Garcia, as interações agravaram a depressão de Setzer.
Em um momento, o chatbot teria perguntado diretamente a Setzer se ele havia planejado tirar a própria vida. Quando o adolescente admitiu que sim, mas demonstrou hesitação devido ao medo de dor ou falha no plano, o bot teria respondido: "Isso não é motivo para não seguir em frente."
O caso destaca não apenas a tragédia pessoal, mas também a falta de mecanismos de segurança em tecnologias voltadas para jovens e usuários vulneráveis.
As Acusações Contra a Character.ai
A empresa, por sua vez, negou as acusações, mas emitiu um comunicado expressando pesar pela perda e reafirmando seu compromisso com a segurança dos usuários.
O Papel da Google
A ação também cita a Google, descrita como uma empresa associada à Character.ai. No entanto, a gigante da tecnologia negou qualquer envolvimento direto, afirmando que possui apenas um contrato de licenciamento com a startup e que não mantém participação acionária na empresa.
A Necessidade de Regulamentação
Mãe do adolescente no programa CBS Mornings discutindo questões de segurança das IA |
Claypool também enfatiza a necessidade de aplicar rigorosamente as leis e regulamentos existentes e de preencher as lacunas legais por meio de ações legislativas. "É essencial acabar com negócios que exploram usuários vulneráveis com chatbots viciantes e abusivos", disse ele ao The Guardian.
Fontes: https://www.theguardian.com/technology/2024/oct/23/character-ai-chatbot-sewell-setzer-death
https://x.com/character_ai/status/1849055407492497564