OpenAI non si fida dell'intelligenza artificiale? «Meglio indagare»

Articolo Precedente

next
Articolo Successivo

next

A mo' di esercizio, concludendo, abbiamo chiesto proprio a ChatGPT quanto sia concreto il rischio che l'umanità venga spazzata via da un'intelligenza artificiale. Questa la risposta: «Il rischio di estinzione per l'umanità dovuto allo sviluppo dell’intelligenza artificiale (AI) è un argomento dibattuto tra esperti e studiosi. Alcune teorie, come quelle spiegate film Matrix o Terminator, rientrano nel campo della speculazione e della fantascienza (Corriere del Ticino)

La notizia riportata su altri giornali

Come si legge su TechCrunch, i rischi indicati riguardano il possibile ruolo che l’AI potrà giocare in ambito nucleare, così come per quanto riguarda i settori della chimica e della biologia. Il team si chiama Preparedness ed è guidato da Aleksander Madry, direttore del Center for Deployable Machine Learning del MIT di Boston e membro di OpenAI da maggio 2023. (StartupItalia)

In collaborazione con Università degli Studi di Sassari e Accademia di Belle arti “Mario Sironi” In Sardegna 4 giornate di formazione sull’Intelligenza Artificiale (Sardegna Reporter)

Dopo la diffusione delle più stravaganti teorie catastrofiste legate all'evoluzione dell'intelligenza artificiale, OpenAI corre ai ripari. Il gruppo di lavoro, chiamato Preparedness, sarà guidato da Aleksander Madry - direttore del Center for Deployable Machine Learning del Massachusetts Institute of technology - e avrà il compito di “monitorare, valutare, prevedere e proteggere da rischi catastrofici”. (WIRED Italia)

Quattro giornate di alta formazione riservate ai docenti di Sardegna e dedicate al tema dell’intelligenza artificiale, AI. (SARdies.it)

Più volte nelle sue interviste Sam Altman ha parlato in modo accalorato delle possibilità enormi dell’Intelligenza artificiale, sia in modo positivo per i vantaggi, tanto quanto per gli aspetti negativi, in grado persino di mettere a rischio l’economia di mercato fino l’esistenza stessa della specie umana. (macitynet.it)

Il team, che fa parte di OpenAI, dovrà monitorare i modelli di intelligenza artificiale per mantenerli in linea con i parametri di sicurezza che la società dichiara di voler rispettare. La società vuole anche fare attenzione a quelli che alcuni esperti di intelligenza artificiale hanno definito minacce da “estinzione”, come pandemie e guerre nucleari . (Forbes Italia)