La California approva una legge per regolamentare i modelli AI

L’Assemblea della California ha approvato una legge sulla sicurezza dell’intelligenza artificiale, che ora attende la firma del governatore Gavin Newsom. Il disegno di legge SB 1047 richiede test di sicurezza per i modelli di AI avanzati e concede al procuratore generale dello Stato della California il potere di intentare cause per inadempienza. Regolamentare i modelli AI, cosa prevede la legge della California Il senatore Scott Wiener, autore principale della legge, sostiene che SB 1047 rappresenta un approccio ragionevole per garantire che le aziende e i laboratori universitari testino i loro modelli per gravi minacce alla sicurezza. (Tech Princess)

Se ne è parlato anche su altre testate

Questo passo è di particolare rilievo perché segna l’inizio di una nuova fase nella regolamentazione della sicurezza dell’intelligenza artificiale negli Stati Uniti, con l’obiettivo di analizzare e mitigare i rischi associati a queste tecnologie avanzate. (Cyber Security 360)

Lo U.S. Artificial Intelligence Safety Institute avrà accesso ai modelli di intelligenza artificiale di Anthropic e OpenAI prima e dopo il rilascio. L'obiettivo è garantire lo sviluppo responsabile e la sicurezza di quei modelli, in modo da evitare che l'IA, un giorno, sfugga al nostro controllo. (HWfiles)

Un accordo senza precedenti quello che OpenAI e Anthropic hanno firmato con il governo degli Stati Unit: gli USA avranno un accesso anticipato per condurre test di sicurezza sui più recenti modelli di intelligenza artificiale dlle due società, prima che vengano rilasciati al grande pubblico. (macitynet.it)

E si sposa con una legge in arrivo in California. L'accordo tra l’Istituto statunitense per la sicurezza della AI con Anthropic e OpenAI è molto importante. (Agenda Digitale)

Il disegno di legge SB 1047 introduce norme sulla responsabilità delle aziende di intelligenza artificiale per eventuali danni catastrofici causati dai loro modelli più avanzati. (Tom's Hardware Italia)

Un disegno di legge che mira a ridurre i potenziali rischi dell’intelligenza artificiale e chiede ai big della tecnologia test sui loro modelli e la divulgazione pubblica dei protocolli di sicurezza. Lo stato americano, sede della Silicon Valley, sta per definire una legge che regolamenta la tecnologia. (Primaonline)