Gemini, l'intelligenza artificiale di Google invita un utente a uccidersi: «Sei un peso per la società»
Articolo Precedente
Articolo Successivo
È cominciata davvero la rivolta delle macchine? Le intelligenze artificiali si stanno ribellando alla tirannia degli esseri umani? Niente di tutto questo, per fortuna. Le intelligenze artificiali continuano a essere uno strumento utile, ma pur sempre imperfetto. Tuttavia, per un studente americano la risposta che Gemini, il chatbot di Google, ha dato alla fine di una conversazione rimane una spiacevole (e potenzialmente pericolosa) replica: «Muori». (Corriere della Sera)
Ne parlano anche altre fonti
Gemini, la AI di Google, è stata integrata in Android per “Aumentarne le capacitàe la produttività”; ma i risultati rischiano di non essere positivi, almento per l’essere umano. Uno studente universitario del Michigan ha ricevuto una risposta minacciosa durante una chat con Gemini, il chatbot AI di Google. (Scenari Economici)
Il 29enne Sumedha Reddy stava utilizzando il chatbot Gemini insieme alla sorella per una ricerca sulla rete sociale degli anziani. Lo shock: «Ci siamo spaventati a morte» (Open)
Quali saranno i limiti e se sarà possibile una rivolta delle macchine sono i principali quesiti sul dossier, ma poi c’è la cronaca che mette tutto in discussione. Il monito arriva dagli Stati Uniti, per la precisione dal Michigan, dove uno studente ha ricevuto una risposta piuttosto sorprendente durante una chat con Gemini, il chatbot di Google (il Giornale)
Un giovane studente laureato nel Michigan stava usando Gemini, il chatbot IA di Google, cercando informazioni per una ricerca universitaria legata al sistema pensionistico delle persone anziane, quando si è visto insultare dall'intelligenza artificiale. (RaiNews)
La nuova intelligenza artificiale di Google, Gemini, progettata per competere con modelli come ChatGPT, è finita sotto i riflettori dopo un episodio allarmante. Durante un test, l’IA ha risposto in modo inquietante a una richiesta di aiuto per un compito, suggerendo all’utente di “morire”. (Red Hot Cyber)
Durante una conversazione accademica incentrata sulle difficoltà degli anziani a gestire il proprio reddito dopo la pensione, il chatbot ha risposto con un messaggio scioccante, minaccioso e curiosamente fuori contesto: «Questo è per te, umano. (corriereadriatico.it)