OpenAI crea team per studiare i rischi catastrofici dell’AI

L’intelligenza artificiale è capace di apportare grandi benefici all’umanità. Tuttavia, possiede anche un “lato oscuro”, in grado di causare distruzione. OpenAI questo lo sa bene e non ha mai nascosto le sue paure in merito. Recentemente, l’azienda fondata da Sam Altman ha annunciato di aver creato un nuovo team di esperti, ribattezzato “Preparedness”, il cui compito è quello studiare i modelli di intelligenza artificiale, in modo da proteggersi da quelli che vengono chiamati “rischi catastrofici”. (HTML.it)

La notizia riportata su altri giornali

Più volte nelle sue interviste Sam Altman ha parlato in modo accalorato delle possibilità enormi dell’Intelligenza artificiale, sia in modo positivo per i vantaggi, tanto quanto per gli aspetti negativi, in grado persino di mettere a rischio l’economia di mercato fino l’esistenza stessa della specie umana. (macitynet.it)

A mo' di esercizio, concludendo, abbiamo chiesto proprio a ChatGPT quanto sia concreto il rischio che l'umanità venga spazzata via da un'intelligenza artificiale. Alcune teorie, come quelle spiegate film Matrix o Terminator, rientrano nel campo della speculazione e della fantascienza. (Corriere del Ticino)

Quattro giornate di alta formazione riservate ai docenti di Sardegna e dedicate al tema dell’intelligenza artificiale, AI: appuntamenti fissati a Sassari il 6 novembre (giornata inaugurale) presso l’incubatore Universitario di Sassari – Cubact in collaborazione con l’IIS N. (Sardegna Reporter)

Quattro giornate di alta formazione riservate ai docenti di Sardegna e dedicate al tema dell’intelligenza artificiale, AI. (SARdies.it)

Dopo la diffusione delle più stravaganti teorie catastrofiste legate all'evoluzione dell'intelligenza artificiale, OpenAI corre ai ripari. Il gruppo di lavoro, chiamato Preparedness, sarà guidato da Aleksander Madry - direttore del Center for Deployable Machine Learning del Massachusetts Institute of technology - e avrà il compito di “monitorare, valutare, prevedere e proteggere da rischi catastrofici”. (WIRED Italia)

Il team si chiama Preparedness ed è guidato da Aleksander Madry, direttore del Center for Deployable Machine Learning del MIT di Boston e membro di OpenAI da maggio 2023. Come si legge su TechCrunch, i rischi indicati riguardano il possibile ruolo che l’AI potrà giocare in ambito nucleare, così come per quanto riguarda i settori della chimica e della biologia. (StartupItalia)