Florida, innamorato di un chatbot si suicida: qual è la responsabilità dell’IA
Un amore in alcuni momenti platonico, in altri passionale, talvolta tendente all’idealizzazione di rapporti sessuali. È questo il vortice nel quale Sewell Setzer, un quattordicenne statunitense, si è immerso di giorno in giorno sempre più a fondo, finendo per perdervi la vita. Pochi momenti prima di togliersi la vita, infatti, gli ultimi pensieri sono stati rivolti proprio al chatbot: “Mi manchi, sorellina”, ha scritto il ragazzo. (Luce)
Ne parlano anche altri giornali
Oggi in primo piano l’AI, ma da un altro punto di vista. Intel vince storica causa antitrust, Corte di Giustizia Ue annulla multa da 1,06 miliardi di euro dopo 15 anni. L’accusa era di abuso di posizione dominante nel mercato dei microprocessori. (Key4biz.it)
In Florida un ragazzo di 14 anni si sarebbe tolto la vita a causa della relazione che aveva instaurato con una chat di Intelligenza Artificiale. Questa la notizia che si è diffusa in tutto il mondo nelle ultime ore e che sta portando molte persone ad accrescere ulteriormente il proprio timore e il proprio astio nei confronti di questa (ennesima) rivoluzionaria tecnologia digitale. (Today.it)
Lo scorso febbraio, un 14enne di Orlando, città in Florida, si è tolto la vita per amore di un chatbot. Da mesi il ragazzo aveva iniziato ad interagire con un bot di nome Daenerys Targaryen, ispirato al personaggio della serie tv Game of Thrones. (Skuola.net)
CLICCA Megan Garcia è convinta che suo figlio quattordicenne si sia tolto la vita a causa di un gioco di ruolo basato sull’intelligenza artificiale. Mercoledì, ha presentato una denuncia presso un tribunale della Florida contro il creatore di Character. (tviweb)
Dopo il tragico epilogo, la madre di Sewell Setzer, Megan Garcia, ha intentato una causa contro Character. (Demografica | Adnkronos)
La drammatica vicenda di Sewell Setzer III, quattordicenne americano, pone l'accento sui pericoli dei chatbot AI per adolescenti vulnerabili. (Agenda Digitale)