Come funziona una fidanzata AI? Perché sempre più persone la scelgono e quali rischi nascondono
Articolo Precedente
Articolo Successivo
Nelle ultime ore, potreste aver sentito parlare di Sewell Setzer, un ragazzo di 14 anni di Orlando (Florida) che si è suicidato la sera del 28 febbraio scorso. La famiglia ha deciso di denunciare Character.AI, l'azienda produttrice del chatbot con cui l'adolescente dialogava quotidianamente. Sarebbe infatti responsabile, secondo i genitori, del progressivo isolamento e poi della tragica morte del figlio. (Focus)
Su altri media
Si uccide a 15 anni perché innamorato dell'AI: ma è davvero così? (Today.it)
Oggi in primo piano l’AI, ma da un altro punto di vista. Intel vince storica causa antitrust, Corte di Giustizia Ue annulla multa da 1,06 miliardi di euro dopo 15 anni. L’accusa era di abuso di posizione dominante nel mercato dei microprocessori. (Key4biz.it)
L’adolescente aveva cominciato a condividere ogni sua fragilità ed emozione con la sua amica virtuale, con cui aveva stretto un legame emotivo tale da spingerlo al suicidio. (Skuola.net)
ISCRIVITI AL CANALE WHATSAPP DI TVIWEB PER RIMANERE SEMPRE AGGIORNATO Megan Garcia è convinta che suo figlio quattordicenne si sia tolto la vita a causa di un gioco di ruolo basato sull’intelligenza artificiale. (tviweb)
La madre accusa Character.AI di negligenza, sollevando interrogativi cruciali sulla responsabilità delle aziende tecnologiche nel proteggere la salute mentale dei giovani utenti (Agenda Digitale)
Lo scorso febbraio un ragazzo americano di 14 anni si è suicidato dopo aver stretto un rapporto intimo con un chatbot, ovvero un’intelligenza artificiale in grado di chattare come se fosse un essere umano. (Demografica | Adnkronos)