OpenAI crea team per valutare rischi catastrofici dell'Intelligenza Artificiale

Articolo Precedente

next
Articolo Successivo

next

Non sorprende che OpenAI, creatore di ChatGPT, stia costruendo una squadra e un team dedicati alla preparazione e mitigazione contro i possibili effetti catastrofici dell’Intelligenza Artificiale AI. Più volte nelle sue interviste Sam Altman ha parlato in modo accalorato delle possibilità enormi dell’Intelligenza artificiale, sia in modo positivo per i vantaggi, tanto quanto per gli aspetti negativi, in grado persino di mettere a rischio l’economia di mercato fino l’esistenza stessa della specie umana. (macitynet.it)

Su altri giornali

La società madre di ChatGpt ha annunciato la formazione di un team dedicato all'analisi e alla valutazione dei rischi dei nuovi modelli di AI, così da preservare la sicurezza degli utenti, e non solo. Il gruppo di lavoro, chiamato Preparedness, sarà guidato da Aleksander Madry - direttore del Center for Deployable Machine Learning del Massachusetts Institute of technology - e avrà il compito di “monitorare, valutare, prevedere e proteggere da rischi catastrofici”. (WIRED Italia)

In collaborazione con Università degli Studi di Sassari e Accademia di Belle arti “Mario Sironi” In Sardegna 4 giornate di formazione sull’Intelligenza Artificiale (Sardegna Reporter)

A mo' di esercizio, concludendo, abbiamo chiesto proprio a ChatGPT quanto sia concreto il rischio che l'umanità venga spazzata via da un'intelligenza artificiale. Alcune teorie, come quelle spiegate film Matrix o Terminator, rientrano nel campo della speculazione e della fantascienza. (Corriere del Ticino)

Il team si chiama Preparedness ed è guidato da Aleksander Madry, direttore del Center for Deployable Machine Learning del MIT di Boston e membro di OpenAI da maggio 2023. OpenAI ha annunciato la formazione di un team interno alla società che dovrà occuparsi di monitorare e studiare quelli che vengono definiti come rischi catastrofici dovuti all’impiego dell’intelligenza artificiale. (StartupItalia)

I fatti chiave Tra gli esempi di rischio citati in un post sul blog dell’azienda c’è quello che i modelli di IA riescano a persuadere gli utenti umani a fare qualcosa o possano svolgere compiti in autonomia. (Forbes Italia)

Quattro giornate di alta formazione riservate ai docenti di Sardegna e dedicate al tema dell’intelligenza artificiale, AI. (SARdies.it)