Intelligenza Artificiale causa del suicidio del figlio: fa causa all'azienda
Articolo Precedente
Articolo Successivo
L'Intelligenza Artificiale può essere ritenuta responsabile del suicidio di un adolescente? È quello che sta tentando di provare la madre di un quattordicenne di Orlando, in Florida, che ha deciso fare causa a Character.Ai, l'app che avrebbe secondo lei spinto il ragazzo a uccidersi per amore di un personaggio creato con l'AI. Adolescenza (Io Donna)
Su altri media
Lo scorso febbraio, un 14enne di Orlando, città in Florida, si è tolto la vita per amore di un chatbot. Da mesi il ragazzo aveva iniziato ad interagire con un bot di nome Daenerys Targaryen, ispirato al personaggio della serie tv Game of Thrones. (Skuola.net)
ISCRIVITI AL CANALE WHATSAPP DI TVIWEB PER RIMANERE SEMPRE AGGIORNATO CLICCA (tviweb)
In Florida un ragazzo di 14 anni si sarebbe tolto la vita a causa della relazione che aveva instaurato con una chat di Intelligenza Artificiale. Questa la notizia che si è diffusa in tutto il mondo nelle ultime ore e che sta portando molte persone ad accrescere ulteriormente il proprio timore e il proprio astio nei confronti di questa (ennesima) rivoluzionaria tecnologia digitale. (Today.it)
Oggi in primo piano l’AI, ma da un altro punto di vista. Adolescente americano suicida, affetto da problemi di salute mentale ha trovato compagnia virtuale in un chatbot basato sulla serie ‘Game of Thrones’, Caso analogo avvenuto in Belgio nel 2023. (Key4biz.it)
La drammatica vicenda di Sewell Setzer III, quattordicenne americano, pone l'accento sui pericoli dei chatbot AI per adolescenti vulnerabili. (Agenda Digitale)
Lo scorso febbraio un ragazzo americano di 14 anni si è suicidato dopo aver stretto un rapporto intimo con un chatbot, ovvero un’intelligenza artificiale in grado di chattare come se fosse un essere umano. (Demografica | Adnkronos)