Tre step per la data integrity da inserire in ogni roadmap per l’adozione dell'intelligenza artificiale
Comunicato Precedente
Comunicato Successivo
Non è certo un segreto che molte aziende si stiano lanciando in iniziative di AI data-driven, nel tentativo di massimizzare i notevoli vantaggi derivanti dall'essere un'azienda data-first. In generale, i leader data-first producono il 37% in più di innovazione e hanno 13,5 volte più probabilità di superare i loro concorrenti sul mercato rispetto a chi è in ritardo nell’era dei dati[i].
Inoltre, si prevede che il continuo progresso delle applicazioni basate sull'AI produrrà un'ampia gamma di progressi generazionali per le aziende di tutti i settori. Secondo l'ultima ricerca Sapio, ciò ha già portato il 43% delle imprese a impegnarsi in progetti di AI significativi e il 94% delle aziende a pianificare un aumento degli investimenti in AI nei prossimi 12 mesi[ii].
Segnali di allarme in vista
Tuttavia, la ricerca Sapio rivela anche che l'entusiasmo iniziale potrebbe portare a una delusione per molte organizzazioni. Questo perché la maggior parte delle aziende sembra troppo fiduciosa sulla disponibilità dei propri dati per l'utilizzo da parte delle applicazioni di AI. Questo è particolarmente vero per coloro che perseguono iniziative di intelligenza artificiale su vasta scala.
Sebbene il 72% delle organizzazioni intervistate da Sapio consideri i propri dati pronti per l'AI, un'analisi più approfondita ha rivelato che i livelli di data maturity sono troppo bassi:
- Solo il 7% delle aziende è in grado di eseguire push o pull di dati in tempo reale per promuovere l'innovazione o monetizzare dati esterni.
- Solo il 26% dispone di una governance adeguata ad abilitare le analisi avanzate, una capacità essenziale per ottimizzare gli ROI dell'AI.
- Meno di 6 aziende su 10 sono in grado di gestire tutte le fasi chiave della preparazione dei dati, che comprendono l'accesso, l'organizzazione, la loro normalizzazione e l'archiviazione efficace e coerente dei dati stessi.
La soluzione: data readiness
Per sostenere i progetti di AI in corso e garantire il successo delle iniziative future, le aziende possono affrontare le discrepanze relative alla disponibilità dei dati integrando le seguenti tre fasi chiave nelle loro roadmap di adozione dell'AI.
Fase uno: valutare e correggere i vincoli di accessibilità dei dati
Per la maggior parte delle aziende, una domanda essenziale non è “abbiamo accumulato dati preziosi?”, ma se “possiamo localizzare e rendere accessibili in tempo reale questi dati ai data scientist e alle applicazioni di AI?”. In altre parole, gli insiemi di dati isolati, nascosti e mal etichettati sono ancora la regola piuttosto che l'eccezione. Questo crea una disparità di accesso che può alterare in modo significativo i risultati che le applicazioni dipendenti dai dati, come l'AI, possono fornire. Per rimediare a questa situazione, è necessario:
Stabilire una single source of truth basata su un modello moderno. Poiché è impraticabile archiviare tutti i dati in un unico repository, le aziende dovrebbero mettere in atto un sistema di supporto che si estenda a tutti i repository di dati esistenti e a quelli nuovi, per creare una singola sorgente virtuale di dati corretta. Ciò garantisce la visibilità globale dei dati e consente a tutti i tipi e le fonti di dati di agire all'unisono.
Sfruttare l'architettura ibrida dell'infrastruttura cloud. Ciò consente ai dati di risiedere ovunque, pur essendo trattati come una “single source of truth” coesa. Per portare a termine con successo questo compito è necessario prendere decisioni parallelamente sulla gestione dei dati e sull'infrastruttura, richiedendo una collaborazione efficace ed efficiente tra i team dei dati e dell'IT.
Avviare processi integrati di organizzazione e governance dei dati. Nelle fasi iniziali, un approccio all'organizzazione e alla governance dei dati guidato dalle persone è il più vantaggioso, poiché il software per automatizzare questi processi non sarà in grado di discernere quali dati sono rilevanti o quali controlli sono necessari. In seguito, le soluzioni di automazione possono essere applicate efficacemente ai normali processi di classificazione e governance dei dati.
Fase due: adottare uno storage pronto per l'AI
Poiché l'esecuzione di carichi di lavoro AI richiede un ambiente di archiviazione in grado di gestire requisiti di capacità e prestazioni su vasta scala, è indispensabile modernizzare lo storage. I sistemi di storage tradizionali sono inadeguati in un mondo incentrato sull'AI. Questo perché lo storage legacy può essere in grado di scalare adeguatamente in termini di capacità, ma non di prestazioni. Per ottenere uno storage AI-ready è necessario:
- Adottare una soluzione di storage basata su un'architettura modulare disaggregata e “shared-everything”. Ciò consente di scalare le prestazioni e la capacità in modo indipendente, assicurando che le esigenze in evoluzione siano soddisfatte sia per le azioni incentrate sulla capacità, come il consolidamento e l'organizzazione dei dati, sia per le attività ad alta intensità di calcolo, come il training e l'inferenza delle applicazioni di intelligenza artificiale.
- Considerare la latenza quando si valutano le opzioni di archiviazione. Poiché la bassa latenza è un altro imperativo per ottenere i vantaggi dell'AI, i cloud privati e ibridi offrono in genere le migliori soluzioni di minimizzazione della latenza. I cloud pubblici spesso introducono una latenza eccessiva, rendendoli l'approccio di storage meno adatto per le implementazioni di AI su larga scala.
Fase tre: sostegno continuo
Una volta affrontati i temi dell'accessibilità e dell'archiviazione, le aziende possono passare alla sicurezza e all'automazione dei dati.
Sviluppare solidi livelli di protezione dei dati. Utilizzare un'ampia gamma di metodi di sicurezza, come l'adozione di moderni servizi di backup e ripristino dei dati, l'implementazione di un monitoraggio di rete potenziato dall'intelligenza artificiale, la formazione sulla sicurezza per i dipendenti e l'implementazione di soluzioni di Identity and Access Management.
Impiegare l'intelligenza artificiale per aiutare la normalizzazione dei dati definita anche come “data cleansing”. Poiché la velocità è la nuova parola d'ordine, la capacità di preparare i dati in modo rapido e continuo è fondamentale per ottenere i risultati desiderati. Gli algoritmi consentono di svolgere rapidamente diverse attività di “data cleansing”, come trovare e risolvere le incongruenze, filtrare le anomalie, correggere gli errori strutturali ed eliminare le duplicazioni.
Automatizzare la governance dei dati. Una volta completate le fasi iniziali di governance dei dati guidati dalle persone, una soluzione intelligente e automatizzata per la classificazione e l'organizzazione dei dati può garantire che i dati stessi siano preparati in modo corretto durante la raccolta e, soprattutto, prima di essere utilizzati per la fase di training e inferenza dell'intelligenza artificiale.
Raggiungere la data excellence
Indipendentemente dal punto in cui l'azienda si trova nel suo percorso di adozione dell'AI, il successo di ogni iniziativa AI-powered dipende dall'integrità, dall'accesso, dall'archiviazione e dalla governance dei dati. Seguendo le fasi chiave del percorso, ogni azienda può trasformare in realtà la promessa dell'AI di rivoluzionare il business in modi nuovi ed entusiasmanti.
Per saperne di più, scarica il nuovo report di Hewlett Packard Enterprise “Architect an AI Advantage”.
[i] Architect an AI Advantage, Sapio Research, January 2024
[ii] Architect an AI Advantage, Sapio Research, January 2024