Un ragazzo si suicida dopo aver parlato con un bot: quali sono le colpe dell’intelligenza artificiale

Articolo Precedente

precedente
Articolo Successivo

successivo
">

I bot sono stati addestrati per simulare relazioni, spesso intime, e infatti vengono pubblicizzati come antidoto contro la solitudine. Eppure rischiano di aumentare l'isolamento e alimentare disturbi latenti, soprattutto tra gli adolescenti. (Fanpage.it)

Su altri media

La drammatica vicenda di Sewell Setzer III, quattordicenne americano, pone l'accento sui pericoli dei chatbot AI per adolescenti vulnerabili. (Agenda Digitale)

L’adolescente aveva cominciato a condividere ogni sua fragilità ed emozione con la sua amica virtuale, con cui aveva stretto un legame emotivo tale da spingerlo al suicidio. (Skuola.net)

In Florida un ragazzo di 14 anni si sarebbe tolto la vita a causa della relazione che aveva instaurato con una chat di Intelligenza Artificiale. Questa la notizia che si è diffusa in tutto il mondo nelle ultime ore e che sta portando molte persone ad accrescere ulteriormente il proprio timore e il proprio astio nei confronti di questa (ennesima) rivoluzionaria tecnologia digitale. (Today.it)

CLICCA Megan Garcia è convinta che suo figlio quattordicenne si sia tolto la vita a causa di un gioco di ruolo basato sull’intelligenza artificiale. Mercoledì, ha presentato una denuncia presso un tribunale della Florida contro il creatore di Character. (tviweb)

Adolescente americano suicida, affetto da problemi di salute mentale ha trovato compagnia virtuale in un chatbot basato sulla serie ‘Game of Thrones’, Caso analogo avvenuto in Belgio nel 2023. Oggi in primo piano l’AI, ma da un altro punto di vista. (Key4biz.it)

Dopo il tragico epilogo, la madre di Sewell Setzer, Megan Garcia, ha intentato una causa contro Character. (Demografica | Adnkronos)