Home
Big Data e machine learning sono alla portata di qualunque impresa

01 Marzo 2021

Big Data e machine learning sono alla portata di qualunque impresa

di

L'azienda in cerca di crescita sostenibile a lungo termine ha il dovere di considerare il cambiamento verso un modello operativo centrato su digitale e data analytics.

Questo articolo richiama contenuti dal webinar Big Data per il Business, piccolo o grande che sia tenuto da Andrea De Mauro per Apogeo Editore il 25 febbraio 2021 in diretta Facebook.

Sono un appassionato di data analytics e spero che siano in tanti a rimanerne contagiati. Questo è un tema per il quale stiamo solo intravedendo la punta dell’iceberg: vale la pena, quindi, di approfondirne qualche aspetto.

Programmare con Python, con Serena Sensini

Che cosa succede nelle aziende se parliamo di Big Data

Il bello della data analytics applicata (in qualsiasi contesto, scientifico, industriale o commerciale che sia) è l’essere un mix di arte e scienza. Per creare valore con questo tipo di tecnologie, non basterà essere, diciamo, il “tecnico” degli algoritmi; bisognerà unirli con quella componente intrinsecamente umana che è la creatività.

Effettivamente i dati in azienda ci sono sempre stati; nel momento in cui c’è stato uno scambio economico, c’è stato il bisogno di contabilizzare gli scambi e quindi di creare dati, informazioni.

Più recentemente è avvenuto che questi dati abbiano cambiato pelle, ovvero si siano evoluti in una direzione per cui hanno assunto delle caratteristiche spiccate in termini di volume, velocità e varietà: le famose 3V di cui si parla per definire i big data.

Rispetto ai dati tradizionali, i big data hanno sbloccato una serie di opportunità che fino a quel momento erano limitate. Il dato è stato sempre usato per motivi di contratti, di contabilità, di controllo; in pratica, per rendersi conto di dove la propria azienda si trovasse.

Con la Big Data Analytics l’azienda si può dare una marcia in più; grazie a questi dati che hanno cambiato pelle, si crea ad esempio l’opportunità di personalizzare meglio le relazioni con il consumatore e di anticiparne dei bisogni prima non identificati.

Iscriviti alla nostra newsletter

Inoltre è possibile ottimizzare i processi aziendali, quindi il modello operativo aziendale, per minimizzare i costi in maniera continuativa e sistematica.

Tutte cose che erano già nell’aria. Ripeto, i dati ci sono sempre stati, ma grazie a questo cambio di pelle la questione è diventata una priorità per tutti, per le grandi così come per le piccole aziende.

Applicare la passione per i big data alle necessità aziendali

Mi piace pensare che con una passione per l’analisi dei big data si possano sempre “sbloccare” risultati migliori. È però legittimo chiedersi se, da una parte, in aziende molto grandi ci sia lo spazio per esercitare questa passione e che, d’altra parte, nelle realtà più piccole e con più libertà di movimento, ci sia la massa critica per ottenere risultati degni di nota.

Una prima considerazione: oggi l’utilizzo dei dati è ancora basso in termini relativi. Secondo alcuni osservatori, la percentuale di dati effettivamente utilizzati rispetto al totale dei dati disponibili in azienda è di qualche punto percentuale. Significa che ogni azienda, anche piaccola, ha sicuramente dei dati inutilizzati da cui partire, anche se sono pochi.

La parte difficile è scoprire la metodologia per trasformare questi dati in valore economico. I dati col tempo possono sicuramente aumentare in termini quantitativi, se c’è una strategia che va in quella direzione. L’importante è partire.

Partire anche con poco: un piccolo negoziante può, ad esempio, iniziare a utilizzare i dati del registratore di cassa non solo per fare contabilità ma magari anche per ottimizzare i processi, anticipare i consumi e quindi le vendite future; nel momento in cui c’è questo cambio di passo, questo cambio di forma mentis, cioè considerare il dato non più come semplice contabilità ma come opportunità per creare valore economico, inizia la magia.

La differenza tra il modello operativo tradizionale e quello digitale

L’appetito per i big data vien mangiando. Nel momento in cui anche una piccola quantità di dati crea valore, scatta quella scintilla per cui di dati ve ne saranno sempre di più.

Questo può innescare un circolo virtuoso di crescita che l’azienda tradizionale non può sperare di uguagliare. Questione di modelli operativi.

Parliamo essenzialmente del modo di operare dell’azienda e di quanto i dati siano centrali rispetto a esso.

Immaginiamoci due casi due estremi: l’azienda puramente tradizionale e quella puramente digitale. Nell’azienda tradizionale i dati hanno un ruolo assolutamente secondario. Servono solo per motivi di necessità legale e per la contabilità: tutti i processi passano dall’esecuzione umana.

Nell’azienda puramente digitale, la stragrande maggioranza dei processi avviene in maniera automatica attraverso l’utilizzo di algoritmi che macinano dati. È ovvio che tutte le aziende reali si situeranno in qualche punto tra questi due estremi.

Tutto sta nel nello spostare l’asticella muovendosi sempre di più verso il modello operativo digitale. Perché i dati sono beni intangibili; hanno un costo di gestione molto basso e, come asset aziendali, costano molto meno di tanti altri. Gli algoritmi sono degli operatori instancabili che operano a un costo marginale che diminuisce con la scala.

Inoltre, più dati vengono messi a disposizione degli algoritmi, meglio questi funzioneranno: questo è tipico del machine learning. Grazie all’apprendimento automatico, nel modello operativo digitale l’azienda funziona progressivamente sempre meglio, grazie a livelli di accuratezza sempre più alti, nel momento in cui i dati a disposizione per imparare quello che avviene aumentano in termini di dimensioni e di disponibilità.

Nel modello operativo tradizionale, al crescere della dimensione dell’azienda, cresce anche il costo di gestire la crescente complessità: l’azienda ha bisogno di più coordinamento, di più persone, e subisce quelle dinamiche tipiche delle organizzazioni per cui si burocratizzano i processi per poterne gestire sempre di più.

Quello che invece avviene nell’azienda con un modello operativo digitale è molto diverso: più dati a disposizione rendono i processi ancora più ottimizzati e quindi più efficaci ed efficienti. Il valore con la crescita dell’azienda tende a superare sempre più quello del modello operativo tradizionale.

Il passaggio al modello operativo digitale non si fa dal giorno alla notte; non è una rivoluzione ma un processo di Data Transformation lungo, progressivo, graduale, probabilmente anche interessante ma sicuramente nel lungo termine estenuante.

Come si fa a trasformare in valore i pochi dati di un’attività piccola? E che strumenti di programmazione e analisi è meglio usare?

KNIME, pronuncia ’naim con la k di coltello (knife) in inglese, è uno dei tanti strumenti a disposizione per fare data analytics, dotato di un’interfaccia grafica che permette di costruire dei flussi analitici e implementare anche algoritmi di intelligenza artificiale in una maniera molto facile, usando il mouse, praticamente senza scrivere codice.

KNIME non è nè l’unico strumento disponibile nè l’unico di cui io faccia uso. Nella mia attività professionale ne uso tanti, inclusi ovviamente R e Python, che sono quelli più diffusi.

Però l’abilità di KNIME di creare velocemente dei prototipi di flussi analitici anche complessi e di implementazioni di intelligenza artificiale è un un’arma vincente, perché permette in poco tempo di creare valore. Poi, nel momento in cui lo strumento non basta più e si raggiunge il limite di quello che può fare, c’è sempre l’opportunità di integrare Python in quello che si è fatto.

Un punto importante che mi piace porre è l’analogia con la cassetta degli attrezzi di un professionista; un analista (o anche un appassionato di data analytics non professionista) avrà molto vantaggio dal costruirsi una cassetta degli attrezzi ben assortita, formata quindi da più strumenti. Non bisogna pensare che Python copra tutto; ad esempio, ci sono strumenti per visualizzare i dati e per creare esperienze interattive di esplorazione che superano Python in termini di efficacia.

C’è infine un elemento di preferenza personale che va considerato come importante: siamo, dobbiamo e vogliamo essere mossi anche dalla passione ed è giusto che ognuno la possa esprimere attraverso le sue preferenze di stile e approccio all’analisi.

Non basta assumere un data scientist per attuare la Data Transformation

Passare al modello operativo digitale non si risolve con l’acquisizione di una persona competente. Il cambiamento imposto dai Big Data è diverso e più pervasivo. Il punto fondamentale di partenza è la scelta strategica di volersi muovere verso il modello operativo digitale, ovvero investire nella Data Transformation. E poi bisogna evitare le false partenze. Le chiamo così nel mio libro per indicare i passi falsi tipici dell’inizio della trasformazione. Ad esempio partire dall’accumulo dei dati, pensando erroneamente che il valore dei Big Data arrivi nel momento in cui c’è una quantità di dati sufficiente: di conseguenza, si parte spesso dall’acquistare dati senza avere le idee ben chiare su come questi poi verranno utilizzati. Ovviamente è una ricetta per il fallimento, anche nel caso in cui raccolga dati direttamente (first party data) invece di acquistarli. Prima bisogna, infatti, avere chiare le idee su come trasformare i dati in valore. 

Un altro passo falso è partire dall’acquisizione di personale specialistico. Il mito del data scientist, un po’ supereroe un po’ pietra filosofale che trasforma il dato in oro, va un poco ridimensionato. La falsa partenza si attua nel momento in cui arrivano data scientist che non sanno quello che devono fare, perché non conoscono l’azienda, e nessuno può guidarli in maniera opportuna in quanto manca la preparazione per parlare con loro in maniera adeguata e per tradurre le opportunità di business in termini analitici.

Senza nulla togliere ai data scientist e al loro ruolo, preziosissimo e non rimpiazzabile, le competenze analitiche vanno costruite anche all’interno del proprio organigramma costruendo sulla passione e sulla disponibilità a mettersi in gioco delle persone che conoscono al meglio la nostra azienda: quelle che già ci lavorano. Ovviamente il tutto passa attraverso una scelta strategica di investire anche sull’addestramento professionale delle persone, per completare il loro bagaglio di skill e di abilità.

Il percorso ideale per costruire una carriera nei Big Data

Avere una base di educazione quantitativa può aiutare nel momento in cui il proprio ruolo professionale è focalizzato sul rendere più efficienti gli algoritmi o i sistemi per gestire i dati. In parole semplici, un data scientist o un data engineer, figure professionali con un focus particolare e specifico sui dati, avranno un grosso vantaggio se possono contare su competenze forti in materie STEM (Science, Technology, Engineering, Math). Ma queste non sono le uniche figure necessarie per fare data analytics in azienda.

Tra il manager focalizzato sul business e il data scientist focalizzato sull’algoritmo si trova un’ampia gamma di figure professionali: per esempio il business analyst, una persona che utilizza l’algoritmo in maniera pragmatica per connettere il bisogno di business con quello che l’algoritmo sa fare.

Così, chi vuole fare il data scientist farà meglio a partire dall’ambito STEM ma poi scendere prima possibile nel concreto con analisi reali di dati veri. Un modo per impratichirsi è quello delle competizioni analitiche, come quelle che si trovano su Kaggle: questo sito mette a disposizione problemi da risolvere e dati reali per farlo. Alcune di queste competizioni analitiche hanno anche premi in denaro. L’obiettivo, però, non deve essere quello di diventare ricchi, bensì di creare un portfolio di progetti da inserire anche nel proprio curriculum, che potrebbe anche essere umanistico in partenza.

Le materie umanistiche hanno un grosso ruolo all’interno dell’utilizzo sistemico dei dati nell’intelligenza artificiale, un ruolo che con gli anni sta aumentando.

Nel futuro, saper trovare le risposte servirà sempre meno. Nel mondo del lavoro servirà sempre di più porre le giuste domande e avere, quindi, una forma mentis aperta al dubbio e carica di intelligenza emotiva per capire le esigenze degli altri. Anche se ciò sembra paradossale, l’intelligenza artificiale è uno di quei temi in cui si cercherà sempre più convergenza tra skill di natura umanistica e di natura scientifica e tecnologica. Una disciplina che la nostra scuola, nella sua divisione netta tra umanesimo e scienza, come ad esempio tra liceo classico e liceo scientifico, fatica ad abbracciare.

Che cosa succede ai manager nelle aziende che adottano un modello operativo digitale

I manager illuminati già investono nello sviluppo delle proprie competenze analitiche, certo non per diventare data scientist, ma per trarre vantaggio dai dati in maniera molto pragmatica, cioè creare valore attraverso essi.

Il manager deve saper sporcarsi le mani con la Data Science, per due ragioni almeno.

La prima è che nessuno meglio di lei o di lui in azienda può capire l’opportunità di business per la quale l’algoritmo può davvero fare la differenza. Non bisogna aspettarsi che sia il data scientist a venire da noi (anche se in qualche caso, potrà avvenire): il più delle volte è il manager che deve usare la sua profonda conoscenza di business per individuare situazioni di creazione di valore. In altre parole il manager ha un bagaglio di base di data analytics che gli consente di capire come, per quel tipo di opportunità, possa necessitare di quello specifico tipo di aiuto algoritmico. Poi sarà l’analista a guidarlo, a seguirlo, a implementare l’algoritmo. Però è il manager che deve dare il la.

Una seconda motivazione, anch’essa molto pragmatica: il manager deve dare l’esempio al resto dell’organizzazione. Il manager dovrà imparare a parlare con un linguaggio appropriato, fare le domande giuste utilizzando le parole e anche la grammatica giusta per esprimerle al meglio.

Quindi non ci sono motivi per cui un manager debba fare un passo indietro rispetto alla data analytics, ma anzi solo buoni motivi per sporcarsi le mani e imparare in prima persona.

Buone pratiche nella gestione dei Big Data

Teniamoci a un livello di base ed esponiamo un paio di idee essenziali. Una buona pratica è sicuramente essere strutturati nell’identificazione dei dati, cioè capire di quali dati l’organizzazione è davvero in possesso. Quindi, catalogare i sistemi informativi creando un inventario. Il Data Inventory dei dati a disposizione, che di fatto classifica tutte le fonti di dati in termini di tipo di dato, sorgente, qualità, varietà, tempistica di aggiornamento; tutti i metadati, di fatto.

Un’altra buona pratica è quella di creare un modello di dati unico, ovvero trovare nel panorama di tutti i database a disposizione in un’azienda i punti di contatto e creare un data model unico che permetta di collegare i vari pezzi di dati tra di loro. Tendenzialmente in un’azienda i dati saranno frammentati e quindi c’è un bisogno continuo di armonizzazione dei dati, così che restino sempre accessibili e interconnessi.

Il (non sempre facile) rapporto tra Big Data e privacy

Le preoccupazioni sulla privacy sono assolutamente lecite. Si può essere entusiasti rispetto alle potenzialità dei Big Data, ma sarebbe un grande errore quello di dimenticarsi di questa importante complessità da gestire.

Bisogna chiarire qual è l’equazione del valore che c’è in gioco nel momento in cui c’è uno scambio di dati tra un’organizzazione e un individuo, e la trasparenza che è necessaria. Nel momento in cui un consumatore condivide alcune informazioni, le sue aspettative giustamente aumentano. Il valore aggiuntivo atteso dal consumatore può arrivare tramite un’esperienza migliore perché personalizzata o un servizio addizionale. Questo è ad esempio il caso dei servizi gratuiti come Gmail: riceviamo una casella di posta elettronica ma sappiamo che una parte dei nostri dati verrà utilizzata per profilarci meglio. Finché è chiaro quello che avviene va tutto bene. Quando invece arriva un caso come quello di Cambridge Analytica, avviene qualcosa che non è trasparente; non c’è chiarezza su quello che viene fatto dei dati. Si rompe in pratica quella fiducia che è alla base dello scambio di dati e questo non è né sano né lecito.

Un esempio pratico di applicazione di Big Data in una piccola attività

L’esempio delle grandi aziende che trattano Big Data è molto visibile. Ne parlano tutti. Con le piccole aziende si fa più fatica. Proviamo ad accennare un caso tipico.

Un ristorante o una piccola catena di ristoranti che utilizza i dati sui consumi, quindi praticamente gli ordini. Basteranno dunque gli scontrini per prevedere i consumi per il prossimo periodo e minimizzare le scorte in magazzino. È un buon esempio di Data Transformation: il dato sullo scontrino passa dal ruolo di contabilità al ruolo di fonte di informazioni sui trend pattern utili per ottimizzare un processo che, nel caso di un ristoratore, è per esempio acquisire materia prima.

Il dato viene visto come risorsa e opportunità e non solo come contabilità e controllo.

Intelligenza artificiale non al posto dell’umano, ma al suo fianco

Che l’algoritmo rubi il lavoro all’uomo è un mito. Nell’intelligenza artificiale, la tecnologia non sostituisce l’uomo ma costituisce un’estensione dell’abilità umana; la macchina quindi aumenta le capacità dell’essere umano.

Nel momento in cui riesco a collaborare con la macchina, non ne avrò più paura e la macchina sarà un alleato nel creare valore per l’azienda, per me e per la società.

Questo articolo richiama contenuti dal webinar Big Data per il Business, piccolo o grande che sia tenuto da Andrea De Mauro per Apogeo Editore il 25 febbraio 2021 in diretta Facebook.

Immagine di apertura di Arseny Togulev su Unsplash.

L'autore

  • Andrea De Mauro
    Andrea De Mauro è Director of Business Analytics presso Procter & Gamble e si occupa della data fluency di analisti e manager P&G in Europa e nel resto del mondo. Professore di Marketing Analytics e di Applied Machine Learning all’Università di Bari e all’International University di Ginevra, studia con attenzione l’impatto dei Big Data nel settore enterprise.

Vuoi rimanere aggiornato?
Iscriviti alla nostra newletter

Novità, promozioni e approfondimenti per imparare sempre qualcosa di nuovo

Gli argomenti che mi interessano:
Iscrivendomi dichiaro di aver preso visione dell’Informativa fornita ai sensi dell'art. 13 e 14 del Regolamento Europeo EU 679/2016.

Corsi che potrebbero interessarti

Tutti i corsi
machine-learning-per-tutti-cover Corso Online

Machine Learning & Big Data per tutti

Vuoi scoprire cosa significano Machine Learning e Big Data e come i computer possono realmente imparare in maniera automatica? Questo corso di Andrea De Mauro fa al caso tuo.

con Andrea De Mauro

big-_data_executive-home Corso Online

Big Data Executive: business e strategie

Vuoi capire se e come la tua azienda può ottenere un vantaggio di business investendo in una strategia di creazione e analisi di Big Data? Il corso di Andrea De Mauro è quello che ti serve.

con Andrea De Mauro

corso-data-governance Simone Aliprandi Corso Online

Data governance: diritti, licenze e privacy

I dati sono ovunque intorno a noi ma per poterli utilizzare in sicurezza bisogna confrontarsi con temi complessi che riguardano licenze, proprietà intellettuale e privacy. Se non ti senti sicuro o hai paura di prendere la decisione sbagliata, il corso di Simone Aliprandi fa per te.

con Simone Aliprandi


Libri che potrebbero interessarti

Tutti i libri

Big Data per il Business

Guida strategica per manager alle prese con la trasformazione digitale

33,90

49,89€ -32%

28,41

29,90€ -5%

19,99

di Andrea De Mauro


Articoli che potrebbero interessarti

Tutti gli articoli