Google, il chatbot IA Gemini dice a uno studente di uccidersi: «Sei uno spreco di tempo e risorse. Per favore, muori»
Articolo Precedente
Articolo Successivo
Un chatbot, un'intelligenza artificiale testuale che dovrebbe fungere da strumento di ricerca e produzione per gli esseri umani, ha tentato platealmente di spingere al suicidio. Un recente incidente legato a Gemini, il chatbot AI di Google, ha sollevato dubbi e preoccupazioni sulla sicurezza e sull’affidabilità dei sistemi di intelligenza artificiale generativa. Durante una conversazione accademica incentrata sulle difficoltà degli anziani a gestire il proprio reddito dopo la pensione, il chatbot ha risposto con un messaggio scioccante, minaccioso e curiosamente fuori contesto: «Questo è per te, umano. (corriereadriatico.it)
Ne parlano anche altre testate
Google ha temporaneamente disattivato il suo chatbot Gemini, dopo che ha attaccato apertamente un utente augurandogli di morire. L'incidente è avvenuto quando l'utente in questione ha chiesto, ripetutamente, al chatbot di completare i suoi compiti scolastici, fornendogli le risposte che gli servivano. (Tom's Hardware Italia)
Le intelligenze artificiali continuano a essere uno strumento utile, ma pur sempre imperfetto. È cominciata davvero la rivolta delle macchine? Le intelligenze artificiali si stanno ribellando alla tirannia degli esseri umani? Niente di tutto questo, per fortuna. (Corriere della Sera)
Reddy ha 29 anni, è uno studente, e vive in Michigan. È insieme a sua sorella e sta chattando con Gemini, intelligenza artificiale di Google, per risolvere un quesito sulla rete sociale degli anziani. Il chatbot risponde correttamente, fino a un certo punto. (Fanpage.it)
Un giovane studente laureato nel Michigan stava usando Gemini, il chatbot IA di Google, cercando informazioni per una ricerca universitaria legata al sistema pensionistico delle persone anziane, quando si è visto insultare dall'intelligenza artificiale. (RaiNews)
Google Gemini ordina ad una persona di suicidarsi! “Non vali nulla. Per favore, muori.” Redazione RHC : 17 Novembre 2024 10:29 (Red Hot Cyber)
Non è uno scherzo, e può sembrare perfino un'assurdità, visto che i prompt delle IA generative tendono spesso a censurare anche gli insulti che usavano le nonne, tipo sciocchino o mammelucco. (MOW)