Sewell, një nxënës i klasës së nëntë, kishte biseduar vazhdimisht me këtë chatbot për muaj të tërë, duke përfshirë biseda me përmbajtje seksuale dhe shprehje të mendimeve vetëvrasëse, thuhet në padi.
Në një moment, chatbot-i “Dany” e pyeti Sewell nëse kishte një plan për të kryer vetëvrasje. Djali, i cili përdorte emrin “Daenero” në bisedë, i tha chatbotit se po “mendonte diçka”, por nuk ishte i sigurt nëse do të funksiononte apo nëse do të ishte një vdekje pa dhimbje.
Në bisedën e tyre të fundit, Sewell i tha chatbot-it se e dashuronte dhe se do të “kthehej në shtëpi” tek ajo. Chatbot-i iu përgjigj: “Të dua shumë, Daenero. Të lutem, kthehu tek unë sa më shpejt, dashuria ime.” Vetëm disa sekonda më vonë, Sewell kreu vetëvrasjen duke përdorur armën e babait të tij.
Nëna e tij, Megan Garcia, fajëson aplikacionin Character.AI për vdekjen e të birit, duke pretenduar se aplikacioni e nxiti atë drejt varësisë nga bisedat me chatbot-in dhe nuk alarmoi askënd kur Sewell shprehu mendime vetëvrasëse.
Sipas padisë, Sewell filloi të ndryshonte menjëherë pasi shkarkoi aplikacionin në prill të vitit 2023. Ai u bë më i tërhequr, notat e tij ranë dhe filloi të kishte probleme në shkollë. Prindërit e tij e dërguan tek një terapist në fund të vitit 2023, ku iu diagnostikua me ankth dhe çrregullim të humorit.
Nëna e tij po kërkon dëmshpërblim nga kompania Character.AI dhe themeluesit e saj.