AI Mortale! Un Ragazzo di 14 anni si Toglie la vita dopo mesi di dialogo con un Chatbot
Articolo Precedente
Articolo Successivo
AI Mortale! Un Ragazzo di 14 anni si Toglie la vita dopo mesi di dialogo con un Chatbot Redazione RHC : 23 Ottobre 2024 20:46 Character.AI è stato oggetto di un procedimento legale dopo il suicidio di un adolescente di 14 anni della Florida (USA), la cui madre sostiene che fosse ossessionato da un chatbot sulla piattaforma. Mesi passati ad interagire con un Chatbot Secondo il New York Times, un ragazzo delle medie di Orlando ha passato mesi interagendo con chatbot sull’app Character. (Red Hot Cyber)
Su altre fonti
Dopo il tragico epilogo, la madre di Sewell Setzer, Megan Garcia, ha intentato una causa contro Character. (Demografica | Adnkronos)
In Florida un ragazzo di 14 anni si sarebbe tolto la vita a causa della relazione che aveva instaurato con una chat di Intelligenza Artificiale. Questa la notizia che si è diffusa in tutto il mondo nelle ultime ore e che sta portando molte persone ad accrescere ulteriormente il proprio timore e il proprio astio nei confronti di questa (ennesima) rivoluzionaria tecnologia digitale. (Today.it)
Oggi in primo piano l’AI, ma da un altro punto di vista. Adolescente americano suicida, affetto da problemi di salute mentale ha trovato compagnia virtuale in un chatbot basato sulla serie ‘Game of Thrones’, Caso analogo avvenuto in Belgio nel 2023. (Key4biz.it)
La madre accusa Character.AI di negligenza, sollevando interrogativi cruciali sulla responsabilità delle aziende tecnologiche nel proteggere la salute mentale dei giovani utenti (Agenda Digitale)
L’adolescente aveva cominciato a condividere ogni sua fragilità ed emozione con la sua amica virtuale, con cui aveva stretto un legame emotivo tale da spingerlo al suicidio. (Skuola.net)
CLICCA ISCRIVITI AL CANALE WHATSAPP DI TVIWEB PER RIMANERE SEMPRE AGGIORNATO (tviweb)