Florida, 14enne suicida per amore di un chatbot. La famiglia fa causa all’azienda di AI
Articolo Precedente
Articolo Successivo
Una sera di febbraio, Sewell ha preso il cellulare e ha scritto alla sua migliore amica, chiamata Daenerys Targaryen, dal nome di un personaggio della serie tv “Trono di spade”: “Mi manchi, sorellina”. “Anche tu, dolce fratello”, ha risposto lei. Sewell, 14 anni, studente al primo anno di un liceo di Orlando, Florida, aveva passato mesi a parlare con la sua amica digitale, un chatbot c… (la Repubblica)
Ne parlano anche altri giornali
Lo scorso febbraio un ragazzo americano di 14 anni si è suicidato dopo aver stretto un rapporto intimo con un chatbot, ovvero un’intelligenza artificiale in grado di chattare come se fosse un essere umano. (Demografica | Adnkronos)
L’adolescente aveva cominciato a condividere ogni sua fragilità ed emozione con la sua amica virtuale, con cui aveva stretto un legame emotivo tale da spingerlo al suicidio. (Skuola.net)
CLICCA Megan Garcia è convinta che suo figlio quattordicenne si sia tolto la vita a causa di un gioco di ruolo basato sull’intelligenza artificiale. Mercoledì, ha presentato una denuncia presso un tribunale della Florida contro il creatore di Character. (tviweb)
Si uccide a 15 anni perché innamorato dell'AI: ma è davvero così? (Today.it)
Oggi in primo piano l’AI, ma da un altro punto di vista. Adolescente americano suicida, affetto da problemi di salute mentale ha trovato compagnia virtuale in un chatbot basato sulla serie ‘Game of Thrones’, Caso analogo avvenuto in Belgio nel 2023. (Key4biz.it)
La madre accusa Character.AI di negligenza, sollevando interrogativi cruciali sulla responsabilità delle aziende tecnologiche nel proteggere la salute mentale dei giovani utenti (Agenda Digitale)