“Per favore muori. Sei un peso per la società. Sei uno spreco per la Terra. Sei una macchia nell’universo”: uno studente insultato da Gemini, il chatbot IA di Google

Il dibattito sull’utilità dell’intelligenza artificiale è più aperto che mai. Tra pregi e difetti sono in molti a domandarsi fino a dopo la tecnologia può o non può spingersi. Capitano nel mezzo però incidenti di percorso che non fanno altro che accendere ancora di più le fazioni opposte a questo mondo così misterioso, ma al contempo affascinante. È il caso di un giovane studente laureato nel Michigan che stava usando Gemini, il chatbot IA di Google (Il Fatto Quotidiano)

Su altre fonti

Una risposta data da Gemini, l'intelligenza artificiale di Google, a un utente che la stava usando per rispondere a delle domande scolastiche, sta facendo davvero discutere. (Multiplayer.it)

A cura di Elisabetta Rosso (Fanpage.it)

Un studente americano ha ricevuto una risposta scioccante e pericolosa dal chatbot Gemini di Google, che lo ha invitato al suicidio, definendolo “un peso per la società”. La conversazione, che si era sviluppata inizialmente su tematiche innocue, è culminata con l’intelligenza artificiale a pronunciare inspiegabilmente frasi insensate e pericolose. (Virgilio Notizie)

Google, il chatbot IA Gemini dice a uno studente di uccidersi: «Sei uno spreco di tempo e risorse. Per favore, muori»

Dopo una serie di risposte generiche, Gemini ha generato un messaggio inaspettatamente aggressivo, augurando la morte dell'utente dopo averlo definito un peso per la società e uno spreco di tempo e risorse. (Tom's Hardware Italia)

Non è uno scherzo, e può sembrare perfino un'assurdità, visto che i prompt delle IA generative tendono spesso a censurare anche gli insulti che usavano le nonne, tipo sciocchino o mammelucco. (MOW)

Un chatbot, un'intelligenza artificiale testuale che dovrebbe fungere da strumento di ricerca e produzione per gli esseri umani, ha tentato platealmente di spingere al suicidio. Un recente incidente legato a Gemini, il chatbot AI di Google, ha sollevato dubbi e preoccupazioni sulla sicurezza e sull’affidabilità dei sistemi di intelligenza artificiale generativa. (corriereadriatico.it)