L’Ai act non è operativo e le Europee sono alle porte: chi tutela i cittadini?
Di Dante Nicola Faraoni La Commissione Ue, tramite l’Ai Act che sarà operativo non prima del 2026, mira a creare un’Intelligenza Artificiale (AI) affidabile con le persone al primo posto. La Ue ha ben chiaro che i sistemi di AI potrebbero essere utilizzati per limitare la libertà di espressione o di riunione, o per interferire con le elezioni con rischi reali per la democrazia e lo Stato di diritto. (Il Fatto Quotidiano)
La notizia riportata su altri media
In assenza di regole condivise il rischio è continuare a costruire un mercato multimiliardario e con un impatto enorme sulle vite umane, su società e democrazie su fondamenta non abbastanza solide (Milano Finanza)
“Non esiste nessuna deroga per chi produce intelligenza artificiale rispetto alle regole del gioco, a cominciare da quelle in materia di privacy, trasparenza e concorrenza”, scrive la FTC. (L'HuffPost)
In uno dei due giorni si svolgerà il voto finale del Consiglio europeo sull'AI Act, il pacchetto comunitario di norme sull'intelligenza artificiale. La prima tappa sarà il 2 o 9 febbraio. (WIRED Italia)
In un'intervista al Financial Times, la vice presidente esecutiva della Commissione europea, Margrethe Vestager, responsabile per la concorrenza e il digitale, ha difeso la legge europea sull'intelligenza artificiale, sostenendo da un lato, che "non danneggerà l'innovazione e la ricerca, ma anzi le potenzierà" e dall'altro, che "crea prevedibilità e certezza giuridica nel mercato". (ilmessaggero.it)
Ci ricorderemo di certo il 2024 come l’anno in cui ha iniziato a mettere le radici la regolamentazione per l’utilizzo responsabile dell’intelligenza artificiale. (Player.it)
Solo pochi hanno colto che l’Europa, dopo l’accordo politico al Consiglio Ue sull’AI Act, ha scelto una definizione di intelligenza artificiale diversa rispetto a quella (ampia e tecnica) del Parlamento ue. (Agenda Digitale)