Record storico dei dati globali archiviati, un approfondimento

16

Un trend inarrestabile che sta spingendo il mercato del “data fabric”, un’architettura che consente alle aziende d’integrare e gestire in maniera fluida i dati provenienti da fonti differenti

nicolo cambiasoOggi la quantità di dati generati e archiviati a livello globale è enorme e in costante crescita: secondo quanto riportato recentemente da Forbes, a partire dal 2023, si prevedono 120 zettabyte di dati archiviati, considerando che 1 zettabyte equivale a 1 miliardo di terabyte. Una cifra impressionante, che supererebbe il numero di stelle nell’universo osservabile e che sarebbe destinata a crescere in maniera esponenziale, raggiungendo i 200 zettabyte entro il 2025 (+67% in due anni), secondo le ultime stime di Cybersecurity Ventures. Le aziende si trovano dunque a gestire crescenti volumi di dati spesso provenienti da diverse fonti, il che può generare difficoltà di gestione, integrazione e fruizione dei dati stessi. Per rispondere a queste problematiche nascono le soluzioni di “data fabric”, ossia un’architettura che consente d’integrare in maniera fluida e continuativa dati che provengono da sorgenti differenti, fornendo una visione complessiva dell’intero ecosistema dei dati aziendali.

“Se pensiamo all’enorme quantità di dati che un’azienda ha da gestire e a quello che le soluzioni di data fabric possono offrire, sarà facilmente spiegata la grande crescita che questo mercato sta conoscendo negli ultimi anni e che avrà in futuro”, ha commentato Nicolò Cambiaso, Head of Marketing, di Mia-Platform, tech company italiana specializzata nella creazione e accelerazione di piattaforme e applicazioni digitali, nonché in soluzioni di data fabric. Infatti, come evidenzia una recentissima ricerca della Global Market Insights, si prevede che il mercato globale del Data Fabric passerà dai 2,4 miliardi di dollari del 2023 ai 25 miliardi entro il 2032, con un tasso di crescita annuale composto (CAGR) di oltre il 30% e un incremento di circa il 942% in 9 anni.

“Si tratta in realtà di un approccio richiesto soprattutto da quei settori definiti «data intensive», ossia che hanno sempre più bisogno di dati in real time, come il retail, i servizi finanziari o il mondo della logistica”, prosegue Cambiaso. Tuttavia, tra i fattori che guidano l’espansione del mercato ci sono anche l’aumento di dispositivi IoT per il monitoraggio, la gestione dei big data e il passaggio al cloud computing, che rendono il data fabric una tecnologia essenziale. Ad esempio, i dispositivi IoT, che quest’anno si stima siano più di 15 miliardi in circolazione, generano enormi quantità di dati in tempo reale, che devono essere raccolti, integrati e analizzati rapidamente: le soluzioni di data fabric ne permettono la gestione in modo efficiente e unificato, facilitando il monitoraggio e l’analisi continua. Ugualmente il passaggio al cloud computing ha aumentato la necessità di soluzioni che possano gestire dati in ambienti complessi, multi-cloud e ibridi, garantendo una gestione integrata e semplificata delle informazioni aziendali.

“Sostanzialmente le aziende adottano un approccio di data fabric in quanto permette loro di abilitare tre asset fondamentali, quali l’omnicanalità, la modernizzazione dei sistemi legacy e un’AI efficiente, che crei realmente valore”, prosegue Cambiaso. Attraverso questo approccio, infatti, l’azienda può adattarsi rapidamente alle esigenze di business grazie all’integrazione di nuove sorgenti e formati di dati, alla trasformazione degli stessi e alla creazione di nuove applicazioni, permettendo inoltre di realizzare una proposizione digitale su un mercato attraverso più canali e modernizzare i propri sistemi legacy. Infatti, una soluzione di data fabric consente, ad esempio, di disaccoppiare un sistema core piuttosto datato e un’app mobile innovativa, che così non dialogherà più solo con il vecchio sistema, peraltro non essendo questo più visibile in superficie, ma con un layer di dati che nel tempo può essere cambiato e modernizzato.

Inoltre, fornendo strumenti per la pulizia e l’arricchimento dei dati, garantisce dati di alta qualità, essenziali per prendere decisioni accurate, riducendo la necessità di silos di dati, eliminando duplicati e ottimizzando l’archiviazione e il processamento. “Questo chiaramente riduce anche i costi legati alla manutenzione di diversi sistemi e offre una soluzione flessibile e scalabile, risultando oltretutto funzionale all’implementazione dell’AI”, continua Nicolò Cambiaso.

“In particolare, il layer del data fabric consente la razionalizzazione dei dati, che servono poi ad alimentare l’intelligenza artificiale, rendendola così pronta all’uso: se i dati sono sparsi ovunque e quindi l’AI non riesce a leggerli e a capirne il significato, sarà difficile implementarla correttamente”.

L’intelligenza artificiale, infatti, per essere produttiva, deve conoscere il contesto di business, acquisendo le informazioni sull’azienda, i prodotti, etc.: in questo senso le aziende devono avere a disposizione quelli che Gartner chiama «AI-ready data», ossia dati di alta qualità, ben strutturati e accessibili, in modo che gli algoritmi di AI possano essere addestrati in maniera efficace, estrarre insight utili e migliorare la qualità delle decisioni, che saranno quindi più accurate. Tuttavia dal Gartner IT Symposium Research Super Focus Group del 2023 è emerso che solo il 4% degli intervistati ritiene che i propri dati siano già pronti per l’intelligenza artificiale, mentre il 37% ha dichiarato di essere ben posizionato per raggiungere questo obiettivo e il 55% ha riferito che prepararsi sarà difficile.

“La qualità dei dati rappresenta una sfida cruciale per ottenere valore dall’intelligenza artificiale. È dunque fondamentale che le aziende si preparino a tutto questo, investendo in soluzioni di data fabric che consentano una gestione centralizzata e integrata dei dati, garantendo che questi siano di alta qualità, ben organizzati e facilmente accessibili. È inoltre essenziale anche sviluppare una cultura aziendale orientata ai dati, in cui tutti contribuiscano alla loro gestione. Solo così sarà possibile sfruttare appieno il potenziale dell’intelligenza artificiale, ottenere insight significativi e prendere decisioni strategiche basate su dati affidabili”.