OpenAI crea un team per contrastare i “rischi catastrofici” dell’IA: dalle pandemie alle guerre nucleari

I fatti chiave Il team, che fa parte di OpenAI, dovrà monitorare i modelli di intelligenza artificiale per mantenerli in linea con i parametri di sicurezza che la società dichiara di voler rispettare. Tra gli esempi di rischio citati in un post sul blog dell’azienda c’è quello che i modelli di IA riescano a persuadere gli utenti umani a fare qualcosa o possano svolgere compiti in autonomia. La società vuole anche fare attenzione a quelli che alcuni esperti di intelligenza artificiale hanno definito minacce da “estinzione”, come pandemie e guerre nucleari . (Forbes Italia)

La notizia riportata su altri giornali

Appuntamenti fissati a Sassari il 6 novembre (giornata inaugurale) nell’incubatore universitario di Sassari (Cubact), in collaborazione con l’IIS “Pellegrini”, a Nuoro il 7 novembre al Liceo “Sebastiano Satta”, a Oristano l’8 novembre all’IIS “De Castro” e il 9 novembre a Cagliari al Liceo Scientifico “Antonio Pacinotti”. (SARdies.it)

Dopo la diffusione delle più stravaganti teorie catastrofiste legate all'evoluzione dell'intelligenza artificiale, OpenAI corre ai ripari. Il gruppo di lavoro, chiamato Preparedness, sarà guidato da Aleksander Madry - direttore del Center for Deployable Machine Learning del Massachusetts Institute of technology - e avrà il compito di “monitorare, valutare, prevedere e proteggere da rischi catastrofici”. (WIRED Italia)

Non sorprende che OpenAI, creatore di ChatGPT, stia costruendo una squadra e un team dedicati alla preparazione e mitigazione contro i possibili effetti catastrofici dell’Intelligenza Artificiale AI. (macitynet.it)

In collaborazione con Università degli Studi di Sassari e Accademia di Belle arti “Mario Sironi” Quattro giornate di alta formazione riservate ai docenti di Sardegna e dedicate al tema dell’intelligenza artificiale, AI: appuntamenti fissati a Sassari il 6 novembre (giornata inaugurale) presso l’incubatore Universitario di Sassari – Cubact in collaborazione con l’IIS N. (Sardegna Reporter)

Questa la risposta: «Il rischio di estinzione per l'umanità dovuto allo sviluppo dell’intelligenza artificiale (AI) è un argomento dibattuto tra esperti e studiosi. Alcune teorie, come quelle spiegate film Matrix o Terminator, rientrano nel campo della speculazione e della fantascienza. (Corriere del Ticino)

Il team si chiama Preparedness ed è guidato da Aleksander Madry, direttore del Center for Deployable Machine Learning del MIT di Boston e membro di OpenAI da maggio 2023. Come si legge su TechCrunch, i rischi indicati riguardano il possibile ruolo che l’AI potrà giocare in ambito nucleare, così come per quanto riguarda i settori della chimica e della biologia. (StartupItalia)