IA e rischi, OpenAI: esser pronti alle catastrofi

OpenAI, la realtà responsabile dei modelli GPT e DALL-E, nonché creatrice del servizio ChatGPT, ha appena annunciato la creazione di un team dedicato alla gestione dei rischi legati allo sviluppo dei sistemi IA e lanciato la Preparedness Challenge. Lo ha fatto citando in modo esplicito l’eventualità di conseguenze catastrofiche innescate da ciò che è definita una superintelligenza. In supporto alla sicurezza dei sistemi IA ad elevata capacità, stiamo sviluppando il nostro approccio per esser pronti nel caso di rischi catastrofici, anche attraverso la formazione di un team Preparedness e lanciando una challenge. (Punto Informatico)

La notizia riportata su altri giornali

Quattro giornate di alta formazione riservate ai docenti di Sardegna e dedicate al tema dell’intelligenza artificiale, AI: appuntamenti fissati a Sassari il 6 novembre (giornata inaugurale) presso l’incubatore Universitario di Sassari – Cubact in collaborazione con l’IIS N. (Sardegna Reporter)

Quattro giornate di alta formazione riservate ai docenti di Sardegna e dedicate al tema dell’intelligenza artificiale, AI. (SARdies.it)

Non sorprende che OpenAI, creatore di ChatGPT, stia costruendo una squadra e un team dedicati alla preparazione e mitigazione contro i possibili effetti catastrofici dell’Intelligenza Artificiale AI. (macitynet.it)

Dopo la diffusione delle più stravaganti teorie catastrofiste legate all'evoluzione dell'intelligenza artificiale, OpenAI corre ai ripari. La società madre di ChatGpt ha annunciato la formazione di un team dedicato all'analisi e alla valutazione dei rischi dei nuovi modelli di AI, così da preservare la sicurezza degli utenti, e non solo. (WIRED Italia)

Questa la risposta: «Il rischio di estinzione per l'umanità dovuto allo sviluppo dell’intelligenza artificiale (AI) è un argomento dibattuto tra esperti e studiosi. A mo' di esercizio, concludendo, abbiamo chiesto proprio a ChatGPT quanto sia concreto il rischio che l'umanità venga spazzata via da un'intelligenza artificiale. (Corriere del Ticino)

Come si legge su TechCrunch, i rischi indicati riguardano il possibile ruolo che l’AI potrà giocare in ambito nucleare, così come per quanto riguarda i settori della chimica e della biologia. OpenAI ha annunciato la formazione di un team interno alla società che dovrà occuparsi di monitorare e studiare quelli che vengono definiti come rischi catastrofici dovuti all’impiego dell’intelligenza artificiale. (StartupItalia)