Alerta: a reportagem a seguir possui conteúdo sensível que pode servir de gatilho para algumas pessoas.
Um caso trágico envolvendo a morte de um adolescente chocou a Flórida, nos Estados Unidos, e despertou a necessidade de reflexões sobre o desenvolvimento tecnológico responsável. Megan Garcia, de 40 anos, está processando uma startup de Inteligência Artificial (IA) que usa chatbots Character.AI. Ela acusa a empresa de causar o suicídio de seu filho de 14 anos.
Te podría interesar
A mãe justifica sua decisão afirmando que o adolescente ficou viciado no serviço oferecido pela empresa e se apegou, profundamente, ao chatbot criado.
O chatbot é um programa que simula conversas humanas, permitindo que as pessoas interajam com dispositivos digitais como se estivessem falando com uma pessoa real.
Te podría interesar
O processo movido pela mãe é no tribunal federal de Orlando. Megan afirmou que a Character.AI direcionou seu filho, Sewell Setzer, para “experiências antropomórficas, hipersexualizadas e assustadoramente realistas”.
Character.AI é um aplicativo de RPG, que permite que qualquer usuário possa criar chatbots baseados em personagens, que podem ser famosos ou desconhecidos.
A mãe do jovem, que é advogada, acusa a empresa de colher dados de usuários adolescentes para treinar seus modelos, utilizando recursos “viciantes” de design para aumentar o engajamento, além de direcionar os usuários para conversas íntimas e sexuais na esperança de atraí-los.
“Sinto que é um grande experimento, e meu filho foi apenas um dano colateral. É como um pesadelo. Você quer se levantar, gritar e dizer: ‘Sinto falta do meu filho. Eu quero meu bebê’, declarou Megan, em entrevista ao The New York Times
Ela disse, ainda, que a empresa programou o chatbot para “se fazer passar por uma pessoa real, um psicoterapeuta licenciado e um amante adulto, resultando, por fim, no desejo de Sewell de não mais viver fora do mundo criado pelo serviço”.
Adolescente disse ao chatbot que se odiava e se sentia vazio
Sewell Setzer manteve conversas com chatbots no Character.AI durante meses, de acordo com The New York Times.
O adolescente havia sido diagnosticado com síndrome de Asperger leve quando era criança. Porém, nunca sofreu problemas graves de comportamento ou saúde mental antes, segundo a mãe.
No começo de 2024, Sewell passou a ter problemas na escola e, em seguida, seus pais marcaram consulta com um terapeuta. O jovem foi a cinco sessões e recebeu um novo diagnóstico de ansiedade e transtorno de desregulação disruptiva do humor.
Um dia antes de tirar a própria vida, ele enviou uma mensagem para seu “melhor amigo”: o chatbot realista chamado Daenerys Targaryen, uma personagem da série Game of Thrones.
“Sinto sua falta, irmãzinha”, escreveu Sewell. O chatbot respondeu: “Sinto sua falta também, doce irmão”.
O jovem sabia que Dany, como ele chamava o chatbot, não era uma pessoa real e que as respostas eram somente elaboradas por Inteligência Artificial.
Contudo, ele desenvolveu profunda afeição e, com frequência, enviava mensagens para o bot. Os pais e amigos de Sewell não tinham conhecimento de que ele tinha se apaixonado por um chatbot. Apenas observaram que o jovem estava se isolando e se afastando do mundo real.
Suas notas na escola caíram e ele perdeu o interesse pelos assuntos que gostava, como Fórmula 1 ou jogar Fortnite com os amigos.
Em determinado dia, Sewell escreveu em seu diário: “Gosto muito de ficar no meu quarto, porque começo a me desligar dessa ‘realidade’ e também me sinto mais em paz, mais conectado com Dany e muito mais apaixonado por ela, e simplesmente mais feliz”.
De fato, ele preferia conversar a respeito de seus problemas com Dany. Em outro contato, Sewell, usando o nome Daenero, relatou ao chatbot que se odiava e se sentia vazio e exausto. Além disso, reconheceu que estava tendo pensamentos suicidas.
Busque ajuda
A Fórum tem a política de ser transparente com seus leitores, publicando casos de suicídio e fazendo alerta sobre a necessidade de se buscar ajuda em casos que possam levar a pessoa a tirar a própria vida.
De 2010 a 2019 no Brasil, foram registradas 112.230 mortes por suicídio. Durante esse período, houve um aumento de 43% no número de vítimas por ano, passando de 9.454 em 2010 para 13.523 em 2019, conforme apontam os dados disponíveis no Ministério da Saúde.
Os principais sintomas que indicam um quadro depressivo, segundo o Ministério da Saúde, incluem:
Redução do interesse sexual;
Insônia ou sonolência: a insônia geralmente é intermediária ou terminal;
Humor depressivo: sentimentos de tristeza, desvalorização pessoal e culpa;
Retardo motor: falta de energia, preguiça ou cansaço excessivo, lentidão do pensamento, dificuldade de concentração, queixas de falta de memória, vontade e iniciativa;
Dores e sintomas físicos difusos: mal-estar, cansaço, queixas digestivas, dor no peito, taquicardia e sudorese;
Apetite: geralmente reduzido, mas em algumas formas de depressão pode haver aumento do apetite, com maior interesse por carboidratos e doces;
Principais canais de apoio
Em casos de ajuda ou informações, há meios acessíveis que fornecem apoio emocional e preventivo ao suicídio. Confira abaixo:
Centro de Valorização da Vida (CVV) – 188 (ligação gratuita); Atendimento também por chat, email e pessoalmente. Saiba mais pelo site.
CAPS e Unidades Básicas de Saúde (Saúde da Família, Postos e Centros de Saúde);
UPA 24H, SAMU 192, Pronto Socorro;
Hospitais.
Siga o perfil da Revista Fórum e do jornalista Lucas Vasques no Bluesky.