IA generativa: Google premia chi scopre bug

Google ha esteso il suo Vulnerability Rewards Program (VRP) per premiare i ricercatori di sicurezza che scoprono vulnerabilità nei modelli di intelligenza artificiale generativa. L’obiettivo è prevenire attacchi informatici contro i sistemi IA che possono rappresentare un rischio per utenti e aziende. I premi variano in base alla gravità dell’attacco e al tipo di target. Programma bug bounty per IA generativa Google spiega che l’intelligenza artificiale generativa necessita di un nuovo approccio, in quanto i pericoli sono diversi da quelli tradizionali, ad esempio pregiudizi, manipolazione di modelli o interpretazioni errate dei dati (allucinazioni). (Punto Informatico)

Su altre testate

OpenAI ha annunciato la formazione di un team interno alla società che dovrà occuparsi di monitorare e studiare quelli che vengono definiti come rischi catastrofici dovuti all’impiego dell’intelligenza artificiale. (StartupItalia)

Più volte nelle sue interviste Sam Altman ha parlato in modo accalorato delle possibilità enormi dell’Intelligenza artificiale, sia in modo positivo per i vantaggi, tanto quanto per gli aspetti negativi, in grado persino di mettere a rischio l’economia di mercato fino l’esistenza stessa della specie umana. (macitynet.it)

Appuntamenti fissati a Sassari il 6 novembre (giornata inaugurale) nell’incubatore universitario di Sassari (Cubact), in collaborazione con l’IIS “Pellegrini”, a Nuoro il 7 novembre al Liceo “Sebastiano Satta”, a Oristano l’8 novembre all’IIS “De Castro” e il 9 novembre a Cagliari al Liceo Scientifico “Antonio Pacinotti”. (SARdies.it)

Il grande tour dell’Intelligenza Artificiale fa tappa sull’Isola -“La scuola del Futuro, oggi”- 4 giornate di formazione, aggiornamento e confronto dedicate a docenti, 4 città isolane e 4 scuole superiori sarde 6, 7, 8 e 9 novembre a Sassari, Nuoro, Oristano e Cagliari. (Sardegna Reporter)

A mo' di esercizio, concludendo, abbiamo chiesto proprio a ChatGPT quanto sia concreto il rischio che l'umanità venga spazzata via da un'intelligenza artificiale. Alcune teorie, come quelle spiegate film Matrix o Terminator, rientrano nel campo della speculazione e della fantascienza. (Corriere del Ticino)

La società madre di ChatGpt ha annunciato la formazione di un team dedicato all'analisi e alla valutazione dei rischi dei nuovi modelli di AI, così da preservare la sicurezza degli utenti, e non solo. Dopo la diffusione delle più stravaganti teorie catastrofiste legate all'evoluzione dell'intelligenza artificiale, OpenAI corre ai ripari. (WIRED Italia)