Intelligenza artificiale e privacy: la multa italiana di 15 milioni a OpenAI e la battaglia di Meta

Approfondimenti:
Intelligenza artificiale

L'Italia ha detto la sua, la palla torna a Dublino, mentre i colossi americani continuano a rumoreggiare. Siamo nel difficile perimetro della regolamentazione dell'Intelligenza artificiale: venerdì il Garante italiano per la privacy ha annunciato la chiusura dell'indagine su OpenAI, culminata nel marzo dello scorso anno nel clamoroso blocco di ChatGpt in Italia per un mese, con un provvedimento che prevede una multa da 15 milioni di euro e l'obbligo di realizzare una campagna di comunicazione. (Corriere della Sera)

Ne parlano anche altri giornali

VEDI ANCHE Comunicato del 6 aprile 2023 (Garante Privacy)

La risposta di OpenAI che ritiene la misura sproporzionata e che si rivolgerà all'Autorià giudiziaria. (IlSoftware.it)

Lo scorso anno, l’Italia è diventata il primo paese occidentale a bloccare ChatGPT di OpenAI per motivi legati alla privacy: adesso, il Garante per la privacy ha ultimato l’indagine nei confronti della piattaforma, relativa all’utilizzo dei dati utente da parte del servizio. (macitynet.it)

Perché il Garante ha multato ChatGPT: il problema è sempre l’uso dei dati personali

Mancanza di trasparenza: gli utenti non erano adeguatamente informati sul trattamento dei loro dati personali. Il procedimento del Garante si è concentrato su due aspetti principali: (iPhone Italia)

Sono queste le conclusioni a cui è giunto il Garante per la protezione dei dati personali al termine dell’istruttoria avviata nel 2023 nei confronti della “casa madre” di ChatGpt in relazione alla gestione del chatbot. (CorCom)

Il Garante della Privacy ha chiuso il procedimento contro OpenAI, la società che ha sviluppato e lanciato sul mercato ChatGPT. L'accusa è quella di non aver gestito in maniera corretta i dati personali degli utenti. (Fanpage.it)