Negli ultimi due decenni in quasi ogni ambito si discute di big data e di come ciascuna azione di ogni individuo sull’intero pianeta generi una crescente quantità di dati.

Il “mercato” dell’analisi dei dati dovrebbe raggiungere i 132,9 miliardi di dollari entro il 2026, rispetto ai 23 miliardi di dollari del 2019 (dati Market Research Future).

Il 79% dei dirigenti ritiene che le aziende che non abbracceranno l’analisi dei dati perderanno la loro posizione competitiva e l’83% ha perseguito progetti di big data per ottenere un vantaggio competitivo (dati Accenture).

In questo scenario, è chiaro che tutte le aziende e le organizzazioni dovrebbero adottare l’analisi dei big data e le tecnologie di data science per cambiare il modo in cui operano. Ma ciò che spesso non è evidente è come l’analisi dei dati viene effettivamente utilizzata rimodellare il modo in cui le aziende lavorano nei diversi settori.

In questo articolo vedremo come la data analytics abbia effettivamente rivoluzionato alcuni mercati e come aziende tradizionali si siano trasformate in industrie dei big data.

Come vedremo, la maggior parte delle organizzazioni, quando decide di adottare un approccio basato sui dati, punta a questi risultati:

  • migliorare l’esperienza del cliente
  • ridurre dei costi
  • effettuare marketing mirato
  • aumentare l’efficienza dei processi esistenti

Negli ultimi tempi, a questi obiettivi si è aggiunto quello di garantire la sicurezza stessa dei dati, a seguito dei numerosi casi di violazioni che hanno posto l’accento non solo sull’uso che si può fare dei dati, ma anche sulla necessità di proteggerli da accessi non autorizzati.

In questo settore il focus è sempre stato proporre i prodotti giusti ai consumatori giusti. A questo scopo il Retail ha sempre cercato di raccogliere più dati possibili del proprio target.

Tuttavia oggi si è passati dalla semplice analisi predittiva dei dati per offrire consigli sull’acquisto alle persone che con maggiore probabilità sono interessate ai prodotti, ad un uso molto più raffinato degli stessi al fine di personalizzare in maniera iper-specifica l’intera esperienza del cliente. In base al comportamento degli utenti, le aziende possono offrire in modo dinamico promozioni e contenuti per mantenere gli utenti coinvolti.

Naturalmente l’analisi dei dati viene utilizzata anche per ottimizzare i prezzi, che restano per una larga fetta dei consumatori il fattore più importante nell’acquisto di un prodotto.

Un esempio? Walmart ha creato il cloud privato più grande al mondo, in grado di gestire 2,5 petabyte di dati ogni ora. Ma non è tutto. Ha creato Data Café, un hub di analisi all’avanguardia che consente di modellare, manipolare e visualizzare rapidamente enormi volumi di dati provenienti sia da fonti interne che esterne. Il Café infatti raccoglie informazioni da 200 sorgenti, inclusi dati meteorologici, dati economici, dati Nielsen, dati sulle telecomunicazioni, dati sui social media, prezzi del gas, dati di eventi. Qualsiasi informazione all’interno datalake potrebbe contenere la chiave per la soluzione di un particolare problema e gli algoritmi di Walmart sono progettati per interrogarlo in microsecondi e trovare soluzioni in tempo reale.

Grazie a questo sistema è stato possibile capire immediatamente perché le vendite fossero improvvisamente diminuite in una particolare categoria di prodotti. Esaminando i dati, gli analisti sono stati rapidamente in grado di vedere che i calcoli errati dei prezzi avevano portato i prodotti ad essere etichettati con un prezzo maggiore del previsto, e di correggere il problema in tempi brevissimi.

Ancora, grazie agli avvisi automatici, impostati quando particolari metriche scendono al di sotto di una determinata soglia, sono stati in grado di vedere in tempo reale che, sebbene un particolare biscotto novità fosse molto popolare nella maggior parte dei negozi, non si vendeva affatto in due negozi. L’allerta ha provocato una rapida indagine, dalla quale è emerso che, a causa di una semplice svista di stoccaggio, i biscotti non erano stati messi sugli scaffali. Il negozio è stato quindi in grado di correggere immediatamente la situazione.

Grazie all’analisi dei big data e alle tecniche di machine learning è possibile ottimizzare notevolmente i processi produttivi.

Uno dei fronti più interessanti in questo senso è rappresentato dalla transizione da un modello di “manutenzione reattiva” dei macchinari ad uno scenario basato sulla “manutenzione predittiva”.

Questo modello è destinato ad avere un grosso impatto, dato che, come è noto, mentre i turnaround pianificati hanno un impatto diretto sui profitti di un’azienda, il vero pericolo finanziario deriva da eventi imprevisti.

La manutenzione predittiva incorpora analisi predittiva e algoritmi di apprendimento automatico basati su dati storici e contingenti per identificare problemi specifici. Oltre ad aiutare a prevenire blocchi dei sistemi, un approccio alla manutenzione predittiva può identificare meglio le reali esigenze di manutenzione e può essere utile nei settori in cui il tempo di inattività delle risorse critiche ha un forte impatto sui profitti.

Anche in un campo apparentemente così lontano dal mondo dei big data l’analisi dei dati sta dando un significativo contributo ad innovare e migliorare la produttività e l’efficienza delle tecniche di coltivazione.

Un esempio: in Africa l’agricoltura è il settore economico primario, ma gran parte della terra è sottoutilizzata. Questo perché le imprese locali spesso non hanno le risorse finanziarie per investire in macchinari, fertilizzanti e tecnologie per ottimizzare i raccolti, e hanno grossi problemi di accesso al credito.

Un progetto del MIT sta cercando di sciogliere questo nodo proprio attraverso i dati. Grazie alla data science e al machine learning, è possibile quantificare il ROI di ciascun investimento in risorse aggiuntive e le probabilità di successo, consentendo agli agricoltori di ottenere più facilmente i finanziamenti necessari per sviluppare la propria impresa locale.

Come prevedibile l’analisi sta avendo un grande impatto anche sul settore bancario.

Da un lato le banche stanno iniziando ad usare i dati dei clienti per costruire un profilo predittivo di ciascun consumatore bancario. Non si tratta solo di minimizzare il rischio di insolvenza, ma anche di aumentare la loyalty del cliente.

Per esempio, una banca europea che cercava di aumentare la fidelizzazione dei clienti inattivi si è rivolta al machine learning per prevedere quali clienti avevano maggiori probabilità di abbandonare o ridurre l’utilizzo dei servizi bancari. Questa attività ha contribuito a creare una campagna di marketing mirata che ha ridotto l’abbandono dei clienti del 15%.

In altri casi le analisi avanzate sono state usate per migliorare le procedure interne e ottenere maggiori profitti, studiando ad esempio gli sconti che i bancari offrivano ai clienti e verificando che spesso venivano concessi sconti non necessari. Il problema è stato corretto e in pochi mesi ha generato un aumento delle entrate dell’8%.

Ancora, le istituzioni finanziarie possono utilizzare le informazioni raccolte per fornire ai consumatori servizi personalizzati, piuttosto che lanciare campagne di massa che trattano tutti i consumatori allo stesso modo. Una delle principali banche asiatiche ha utilizzato i big data per analizzare le informazioni sui clienti come dati demografici, prodotti acquistati, dati sulle transazioni e tendenze di pagamento. Scoprendo i modelli nei dati, ha creato 15.000 micro-segmenti per indirizzare i clienti in modo più accurato e triplicare la probabilità di acquisto dei propri servizi.

Sul fronte della prevenzione delle frodi, la Securities Exchange Commission utilizza i Big Data per monitorare l’attività dei mercati finanziari e catturare attività di trading illegale.

In questo settore i consumatori si aspettano rich media on-demand in diversi formati e una varietà di dispositivi. A queste attese le aziende rispondono analizzando contemporaneamente i dati dei clienti e i dati sul loro comportamento per creare profili dettagliati che possono essere utilizzati per creare contenuti per diversi target di pubblico, consigliare contenuti su richiesta, misurare le prestazioni dei contenuti stessi.

Un esempio conosciuto: Spotify, che utilizza l’analisi Hadoop per raccogliere dati dai suoi milioni di utenti in tutto il mondo e fornire consigli musicali ritagliati sui singoli utenti.

Nel pubblico, i Big Data hanno una vasta gamma di applicazioni, che rispondono in generale a due esigenze:

  • ottimizzare le risorse e la gestione dei servizi;
  • migliorare la capacità di far fronte alle crisi.

 

Come nel caso del dipartimento di polizia di Durham, Carolina del Nord, che ha utilizzato l’intelligenza artificiale per identificare e prevedere in una certa misura le aree ad alta concentrazione di episodi criminali e facilitare l’intervento della polizia, riducendo il crimine violento in città del 39% in sette anni.

 

Oppure come nel caso della DARPA (Defense Advanced Research Projects Agency), che ha messo in atto un programma data driven per contrastare il traffico di esseri umani, sviluppando una piattaforma per monitorare annunci online dubbi e collegarli ai circuiti criminali del traffico di esseri umani. Questa tecnologia basata sui dati ha aiutato le agenzie a individuare e salvare milioni di vittime e a perseguire i trafficanti.

 

Un’applicazione assai prevedibile è poi quella nel trasporto pubblico e nella gestione del traffico. Sono numerosi i casi di implementazione dell’analisi dei dati per migliorare il controllo del traffico, progettare sistemi di trasporto intelligenti, prevedere blocchi e incidenti.

I dati sono sempre stati cruciali per la medicina, per stabilire ad esempio l’incidenza di determinate patologie, monitorare l’andamento delle epidemie, disporre di statistiche sui benefici e gli effetti collaterali dei farmaci, e così via.

Oggi però l’analisi dei big data consente di rispondere a domande più grandi e complesse, grazie alla possibilità di mettere insieme grandi moli di dati ed effettuare analisi predittive.

Un esempio su tutti: la raccolta dei dati tramite smartphone e dispositivi indossabili sarà in grado di aiutare i medici a comprendere i propri pazienti a un livello ancora più profondo, il che significa risparmiare denaro e fornire cure migliori.

Alcuni ospedali, come Beth Israel, hanno già iniziato ad operare in tal senso, utilizzando i dati raccolti da un’app per telefoni cellulari usata da milioni di pazienti, per consentire ai medici di effettuare diagnosi basate sull’evidenza invece di somministrare test medici o di laboratorio a tutti i pazienti che si recano in ospedale, che comportano spesso un maggior dispendio di risorse economiche e tempi più lunghi.

La Food and Drug Administration (FDA) sta utilizzando i Big Data per rilevare e studiare le malattie legate al cibo, al fine di organizzare una risposta più rapida dei servizi sanitari, e, conseguentemente, trattamenti migliori e meno decessi.

In questo campo l’analisi dei dati può fornire, ad esempio, gli strumenti per migliorare l’efficacia dei programmi di apprendimento e diminuire il tasso di abbandono nelle aree più a rischio.

Molte università hanno introdotto dei sistemi basati sui big data per misurare l’efficacia dell’insegnante al fine di garantire un’esperienza piacevole sia per gli studenti che per i docenti stessi. Le prestazioni dell’insegnante possono essere messe a punto e misurate in base al numero di studenti, all’argomento, ai dati demografici, alle aspirazioni, alla classificazione comportamentale e a molte altre variabili.

Il Dipartimento della Pubblica Istruzione degli Stati Uniti sta utilizzando l’analisi dei dati per delineare i profili degli studenti “a rischio” e mettere in atto pratiche che consentano di prevenire l’abbandono già durante il loro percorso di studio.

Il settore delle telecomunicazioni utilizza i big data per migliorare in diverse aree chiave, tra cui:

  • l’esperienza del cliente;
  • la riduzione delle frodi;
  • la previsione del tasso di abbandono;
  • la determinazione dei prezzi dinamici.

 

Con il lancio del 5G inoltre  dati giocano un ruolo chiave nella pianificazione, monitoraggio e gestione della rete.

Posso reperire case study o recensioni affidabili da altre aziende che hanno utilizzato la piattaforma che mi interessa acquistare?

Posso reperire case study o recensioni affidabili da altre aziende che hanno utilizzato la piattaforma che mi interessa acquistare?

L’aumento della domanda di risorse naturali ha portato a un aumento del volume, della complessità e della velocità dei dati anche nel settore.

Un utilizzo intelligente dei dati, incrociati con quelli della domanda (in particolare dall’industria manifatturiera), può essere il volano per un significativo miglioramento della qualità dei prodotti, una maggiore affidabilità e migliori margini di profitto.

La modellazione predittiva viene usata anche per supportare il processo decisionale utilizzato per l’acquisizione di nuovi giacimenti, integrando dati geospaziali, dati sismici, dati grafici, dati temporali, e così via.

Nel campo della distribuzione energetica i lettori di contatori intelligenti consentono di raccogliere i dati quasi in tempo reale. Tali dati granulari vengono utilizzati per analizzare meglio il consumo delle utenze, il che consente una gestione e un controllo migliore del servizio, oltre che un’ottimizzazione della forza lavoro. Anche in questo campo i modelli di manutenzione predittiva consentono di anticipare guasti e blocchi nel servizio prima che si verifichino.

Chiaramente, molti degli esempi che abbiamo citato sono aziende che dispongono di enormi quantità di dati e le risorse economiche per gestirli e sfruttarli appieno. Ma la lezione che qualsiasi azienda può trarre da questi esempi è quanto sia importante non tanto disporre dei dati, ma la capacità di reagire rapidamente a tali dati.

Tutte le aziende, di qualsiasi dimensione oggi immagazzinano una quantità di dati impensabile fino a un decennio fa, con un investimento che è alla portata di quasi tutte le realtà. Il nocciolo della questione è perciò comprendere cosa farsene di questi dati e