A mo' di esercizio, concludendo, abbiamo chiesto proprio a ChatGPT quanto sia concreto il rischio che l'umanità venga spazzata via da un'intelligenza artificiale. Questa la risposta: «Il rischio di estinzione per l'umanità dovuto allo sviluppo dell’intelligenza artificiale (AI) è un argomento dibattuto tra esperti e studiosi. Alcune teorie, come quelle spiegate film Matrix o Terminator, rientrano nel campo della speculazione e della fantascienza
Leggi
Dopo la diffusione delle più stravaganti teorie catastrofiste legate all'evoluzione dell'intelligenza artificiale, OpenAI corre ai ripari. La società madre di ChatGpt ha annunciato la formazione di un team dedicato all'analisi e alla valutazione dei rischi dei nuovi modelli di AI, così da preservare la sicurezza degli utenti, e non solo. Il gruppo di lavoro, chiamato Preparedness, sarà guidato da Aleksander Madry - direttore del Center for Deployable Machine Learning del…
Leggi
In Sardegna 4 giornate di formazione sull’Intelligenza Artificiale Il grande tour dell’Intelligenza Artificiale fa tappa sull’Isola -“La scuola del Futuro, oggi”- 4 giornate di formazione, aggiornamento e confronto dedicate a docenti, 4 città isolane e 4 scuole superiori sarde 6, 7, 8 e 9 novembre a Sassari, Nuoro, Oristano e Cagliari. In collaborazione con Università degli Studi di Sassari e Accademia di Belle arti “Mario Sironi” In Sardegna 4 giornate di formazione sull’Intelligenza Artificiale…
Leggi
Non sorprende che OpenAI, creatore di ChatGPT, stia costruendo una squadra e un team dedicati alla preparazione e mitigazione contro i possibili effetti catastrofici dell’Intelligenza Artificiale AI. Più volte nelle sue interviste Sam Altman ha parlato in modo accalorato delle possibilità enormi dell’Intelligenza artificiale, sia in modo positivo per i vantaggi, tanto quanto per gli aspetti negativi, in grado persino di mettere a rischio l’economia di mercato fino l’esistenza…
Leggi
OpenAI ha annunciato la formazione di un team interno alla società che dovrà occuparsi di monitorare e studiare quelli che vengono definiti come rischi catastrofici dovuti all’impiego dell’intelligenza artificiale. Il team si chiama Preparedness ed è guidato da Aleksander Madry, direttore del Center for Deployable Machine Learning del MIT di Boston e membro di OpenAI da maggio 2023. Come si legge su TechCrunch, i rischi indicati riguardano il possibile ruolo che l’AI…
Leggi
I fatti chiave Il team, che fa parte di OpenAI, dovrà monitorare i modelli di intelligenza artificiale per mantenerli in linea con i parametri di sicurezza che la società dichiara di voler rispettare. Tra gli esempi di rischio citati in un post sul blog dell’azienda c’è quello che i modelli di IA riescano a persuadere gli utenti umani a fare qualcosa o possano svolgere compiti in autonomia. La società vuole anche fare attenzione a quelli…
Leggi
L’intelligenza artificiale è capace di apportare grandi benefici all’umanità. Tuttavia, possiede anche un “lato oscuro”, in grado di causare distruzione. OpenAI questo lo sa bene e non ha mai nascosto le sue paure in merito. Recentemente, l’azienda fondata da Sam Altman ha annunciato di aver creato un nuovo team di esperti, ribattezzato “Preparedness”, il cui compito è quello studiare i modelli di intelligenza artificiale, in modo da proteggersi da quelli che vengono chiamati “rischi catastrofici”.
Leggi
Google ha esteso il suo Vulnerability Rewards Program (VRP) per premiare i ricercatori di sicurezza che scoprono vulnerabilità nei modelli di intelligenza artificiale generativa. L’obiettivo è prevenire attacchi informatici contro i sistemi IA che possono rappresentare un rischio per utenti e aziende. I premi variano in base alla gravità dell’attacco e al tipo di target. Programma bug bounty per IA generativa Google spiega che l’intelligenza artificiale generativa necessita di un nuovo approccio, in quanto i pericoli sono diversi…
Leggi
OpenAI, la realtà responsabile dei modelli GPT e DALL-E, nonché creatrice del servizio ChatGPT, ha appena annunciato la creazione di un team dedicato alla gestione dei rischi legati allo sviluppo dei sistemi IA e lanciato la Preparedness Challenge. Lo ha fatto citando in modo esplicito l’eventualità di conseguenze catastrofiche innescate da ciò che è definita una superintelligenza. In supporto alla sicurezza dei sistemi IA ad elevata capacità, stiamo sviluppando il nostro approccio per esser pronti nel caso di rischi…
Leggi