Usa, l’Ai di Google chiede a uno studente di suicidarsi: «Umano non sei speciale, per favore muori»

Il 29enne Sumedha Reddy stava utilizzando il chatbot Gemini insieme alla sorella per una ricerca sulla rete sociale degli anziani. Lo shock: «Ci siamo spaventati a morte» Una richiesta inusuale e spaventosa allo stesso tempo che fa pensare a orizzonti distopici descritti da film come Terminator. Uno studente di 29 anni del Michigan (Usa), Sumedha Reddy, si è visto rivolgere questa strana minaccia da Gemini, il chatbot di Google dotato di intelligenza artificiale che stava utilizzando per una ricerca: «Questo è per te, umano. (Open)

Su altre fonti

Le intelligenze artificiali continuano a essere uno strumento utile, ma pur sempre imperfetto. Tuttavia, per un studente americano la risposta che Gemini, il chatbot di Google, ha dato alla fine di una conversazione rimane una spiacevole (e potenzialmente pericolosa) replica: «Muori». (Corriere della Sera)

– “Umano, sei inutile. La loro guerra per sterminare il genere umano si è incattivita nei decenni ma la battaglia finale non avverrà nel futuro. (QUOTIDIANO NAZIONALE)

Un giovane studente laureato nel Michigan stava usando Gemini, il chatbot IA di Google, cercando informazioni per una ricerca universitaria legata al sistema pensionistico delle persone anziane, quando si è visto insultare dall'intelligenza artificiale. (RaiNews)

Google Gemini impazzisce e augura la morte a un utente: ecco la conversazione completa

Il dibattito sull’intelligenza artificiale è più rovente che mai. Il monito arriva dagli Stati Uniti, per la precisione dal Michigan, dove uno studente ha ricevuto una risposta piuttosto sorprendente durante una chat con Gemini, il chatbot di Google (il Giornale)

Google Gemini ordina ad una persona di suicidarsi! “Non vali nulla. Per favore, muori.” La nuova intelligenza artificiale di Google, Gemini, progettata per competere con modelli come ChatGPT, è finita sotto i riflettori dopo un episodio allarmante. (Red Hot Cyber)

Google ha temporaneamente disattivato il suo chatbot Gemini, dopo che ha attaccato apertamente un utente augurandogli di morire. L'incidente è avvenuto quando l'utente in questione ha chiesto, ripetutamente, al chatbot di completare i suoi compiti scolastici, fornendogli le risposte che gli servivano. (Tom's Hardware Italia)