La nuova (rin)corsa ai dati: estrarre valore in profondità con l’AI e il metodo D.E.E.P & 4V

L’AI ha ridato vita alla nuova (rin)corsa al petrolio dei dati. L’entusiasmo generato dai media e l’enorme afflusso di capitali di rischio (oltre 4 miliardi di dollari investiti negli ultimi mesi) hanno innescato una gara serrata per ottenere un vantaggio competitivo nell’estrazione di dati (di qualità) e nell’uso dell’intelligenza artificiale.

Come con il petrolio, in cui la sfida non è stata tanto trovarlo, quanto saperlo raffinare e utilizzare per creare valore, ora succede con l’AI e con i dati. C’è un rischio reale in questa rincorsa che sta già iniziando a dare i primi segnali: muoversi con troppa fretta e ottimismo può portare a progetti di AI senza un effettivo ritorno, mentre un approccio troppo lento rischia di produrre soluzioni obsolete ancora prima di entrare in funzione.

L’obiettivo, per molte aziende, è trovare il giusto equilibrio, costruendo progetti che abbiano un impatto concreto e duraturo sul business, evitando di investire tempo e risorse in “pozzi a secco”.

Gli errori comuni nella creazione di progetti AI based

L’intelligenza artificiale non è più una mera curiosità sperimentale, ma una tecnologia matura che può rivoluzionare la progettazione, lo sviluppo e la distribuzione dei prodotti. Le aziende in grado di sfruttarla correttamente avranno senza dubbio aumento di produttività, riduzione dei costi e capacità finora impensabili in alcuni ambiti.

Per ottenere questi benefici, ed evitare i due errori comuni che ho visto già ripetutamente ripetersi, è necessario un livello di attenzione e progettazione su :

  1. Mancato allineamento con gli obiettivi aziendali: investire in AI solo perché “va di moda” conduce a progetti lunghi, costosi e privi di impatto concreto. Senza legare l’uso della tecnologia ad obiettivi di business chiari, si finisce per scavare in aree prive di petrolio di valore.
  2. Profili non adeguati: lasciare che un progetto sia gestito esclusivamente da team tecnici, senza coinvolgere business e prodotto, produce soluzioni che non rispondono alle reali esigenze dell’azienda, e del mercato. È come costruire un oleodotto senza sapere per quali mercati si sta estraendo.

Individuare il livello di maturità ed i casi d’uso con il framework D.E.E.P.

Negli anni ho imparato che non basta avere dati o tecnologie all’avanguardia per realizzare progetti di AI realmente efficaci. Il vero successo risiede nella capacità di individuare i giusti “campi di estrazione” e di definire chiaramente i criteri di impiego, evitando di farsi condizionare dal F.O.M.O. (Fear Of Missing Out) e puntando invece su un attento processo di analisi e assessment.

Partendo da queste esperienze, ho sviluppato gradualmente, in particolare nell’ultimo anno, un framework chiamato D.E.E.P. (Dati, Esperienza, Ecosistema, Processo). Applicato in diversi contesti industriali, questo approccio mi ha permesso di identificare il livello di maturità e le aree di intervento di un’organizzazione rispetto all’adozione dell’AI, riuscendo così a raffinare continuamente la metodologia. L’idea di “profondità” introdotta dal D.E.E.P. mira a valutare con precisione la situazione attuale dell’azienda e la sua capacità di generare valore attraverso l’AI, analizzando quattro dimensioni chiave, ciascuna con le sue analisi specifiche e i relativi output:

  1. Dati: in questa fase vengono valutati la disponibilità, la qualità, la strutturazione e la pulizia dei dati, conducendo un’analisi di data readiness che include l’inventario delle fonti, la valutazione delle lacune e la definizione di eventuali interventi di miglioramento. L’output finale è un quadro chiaro del patrimonio informativo disponibile, con indicazioni su come preparare i dati per l’addestramento di modelli IA.
  2. Esperienza: qui si verifica la presenza di esperti di dominio, la profondità della conoscenza interna e la capacità di interpretare correttamente le problematiche da risolvere con l’AI. L’analisi comprende l’identificazione degli stakeholder chiave, la mappatura delle competenze e la valutazione delle lacune conoscitive. L’output consiste in un piano per coinvolgere le figure di riferimento, colmare eventuali gap di expertise e facilitare il trasferimento di conoscenza ai modelli di intelligenza artificiale.
  3. Ecosistema: in questa fase viene esaminata l’infrastruttura tecnologica, organizzativa e culturale dell’azienda: l’integrazione tra strumenti, piattaforme, team e processi esistenti viene valutata attraverso un’analisi di compatibilità e scalabilità. L’output è un documento di raccomandazioni su come allineare o aggiornare l’ecosistema tecnologico, indicazioni su eventuali cambi di tool, su come integrare l’AI nei flussi di lavoro esistenti e su come preparare l’organizzazione ad accogliere nuove soluzioni.
  4. Processo: infine, vengono analizzati i workflow operativi, la loro ripetibilità, standardizzazione e documentazione. Attraverso un assessment dei processi, si individuano le attività a maggior potenziale di automazione o ottimizzazione tramite AI. L’output di questa fase è una mappa dei flussi di lavoro prioritari, con indicazioni su dove introdurre l’IA e suggerimenti per la modellazione del processo, al fine di massimizzare l’efficacia dell’intervento tecnologico.

L’insieme di queste analisi e output fornisce così una visione integrata dello stato di maturità dell’azienda e orienta i passi successivi verso l’implementazione di soluzioni IA solide, mirate e sostenibili.

Un esempio, banale, ma concettualmente efficace: un’azienda retail che vuole generare report accurati sulle tendenze di vendita partendo da un insieme di flussi di dati prevalentemente digitali ma integrato di dati cartacei disordinati, note interne non standardizzate e appunti informali sul comportamento dei clienti. Senza informazioni strutturate e digitalizzate (Dati), senza uno staff che abbia codificato a fondo la logica commerciale o le metriche critiche da monitorare (Esperienza), senza strumenti integrati per gestire e processare le informazioni (Ecosistema), né procedure ripetibili per l’analisi delle vendite (Processo), l’uso dell’AI diventa evidentemente inefficace. È come cercare di “estrarre valore” in un contesto caotico, senza i fondamenti necessari per ottenere risultati significativi.

Dopo il DEEP, l’analisi delle 4V per definire le priorità

Una volta individuati eventuali gap, maturità, i potenziali “giacimenti” e gli ambiti di intervento grazie a D.E.E.P., occorre ora valutarne il potenziale, così da permettere all’azienda di comprendere, senza illusioni o aspettative non correttamente tarate.

A questo scopo, utilizzo un modello che ho rivisto di un framework chiamato V.V.V. a cui ho aggiunto una quarta dimensione e trasformandolo in V.V.V.V. (Valutazione, Valore, Velocità, Visione):

1. Valutazione

  • Scopo:verificare la fattibilità reale del progetto, considerando competenze, risorse e contesto normativo, così da identificare gli ostacoli e le soluzioni necessarie prima di investire ulteriormente.
  • Analisi: in questa fase si mappano i gap di skill interne, si valutano i fornitori o partner potenziali, si considerano i requisiti legali e i vincoli tecnici. Questo passaggio serve anche a definire se conviene formare il personale interno, assumere nuovi talenti, acquisire tecnologie o esternalizzare parte dell’iniziativa.
  • Azioni: la conclusione della “Valutazione” è un piano operativo che evidenzia investimenti da effettuare, competenze da integrare (make or buy), modalità di coinvolgimento dei partner esterni e interventi per ridurre i rischi e aumentare la sostenibilità del progetto.

2. Valore:

  • Scopo: stabilire la reale utilità dell’iniziativa in termini di impatto su costi, ricavi, efficienza e vantaggio competitivo. L’obiettivo è comprendere se l’investimento genererà risultati tangibili, evitando di puntare su soluzioni prive di ritorno.
  • Analisi: si identificano i KPIs rilevanti, si stimano i potenziali incrementi di produttività o risparmi di tempo, si analizzano le opportunità di crescita dei ricavi e si verifica se il progetto supporta gli obiettivi strategici dell’azienda.
  • Azioni: a valle di questa fase, l’azienda ottiene una chiara definizione del ritorno sull’investimento (ROI) atteso, una mappa dei benefici misurabili e una lista di priorità per focalizzarsi sulle iniziative a maggiore impatto, orientando così le risorse dove offrono più valore.

3. Velocità

  • Scopo: valutare i tempi e le modalità di implementazione per garantire che il progetto non diventi obsoleto prima di essere completato. In un contesto di rapida evoluzione tecnologica, come quella che viviamo oggi, è essenziale agire con tempismo e definire release incrementali.
  • Analisi: si esamina la complessità delle attività, la disponibilità delle risorse, la presenza di eventuali colli di bottiglia, e si definiscono milestone e roadmap temporali. Ciò consente di capire se è meglio avviare subito il progetto o se attendere migliori condizioni.
  • Azioni: Il risultato è un piano di roll-out agile, con rilasci progressivi, test intermedî e la capacità di reagire rapidamente ai cambiamenti del mercato e alle nuove tecnologie, prevenendo un eccessivo allungamento dei tempi e inutili sprechi di risorse.

4. Visione:

  • Scopo: garantire che l’iniziativa non sia solo un’opportunità tattica ma anche strategica, inserita in una prospettiva di medio-lungo termine e allineata ai trend futuri del settore e alle evoluzioni interne all’azienda.
  • Analisi: si verifica la coerenza del progetto con la strategia complessiva, si valuta la capacità di scalare la soluzione nel tempo, di adattarsi a nuove esigenze o mercati, di integrarsi con altri progetti in pipeline e di sfruttare tecnologie emergenti.
  • Azioni: una volta conclusa l’analisi sulla Visione, l’azienda dispone di una roadmap di lungo periodo e di linee guida per far crescere o adattare l’iniziativa nel futuro, assicurando che l’investimento si riveli un asset duraturo e non una soluzione effimera.

L’integrazione di queste quattro dimensioni (Valutazione, Valore, Velocità, Visione) consente all’azienda di definire un quadro completo delle opportunità e dei rischi, assicurando interventi mirati, sostenibili e coerenti con il contesto presente e futuro. L’integrazione della componente Visione introduce a mio avviso una valutazione di lungo termine così da dare una prospettiva che permetta, nelle valutazioni progressive, di capire se la direzione è coerente e se attuale rispetto al contesto. In particolare questo punto di valutazione è utile quando il progetto non restituirà immediatamente risultati creando una condizione di sfiducia e quindi possibili decisioni non più coerenti con le valutazioni iniziali.

Utilizzando i due framework D.E.E.P. e 4V., si individuano a questo punto uno o due casi d’uso veramente promettenti, interessanti non solo per una area aziendale, che sia il business, l’applicabilità tecnica o la notiziabilità, e si definisce un piano trasversale che coinvolge l’azienda in una trasformazione spinta dall’AI e pronta per essere messa in produzione senza sprechi di risorse e in un’ottica di crescita sostenibile.

Linee guida chiave:

  • Coinvolgere più competenze: servono persone e competenze che conoscano sia la tecnologia sia il mercato, per assicurarsi che l’AI estragga il giusto tipo di “petrolio” e non sabbia.
  • Cambiare i processi di sviluppo: le metodologie tradizionali non si adattano perfettamente ai progetti trainati da AI. Occorre rilasciare prototipi, testare sul campo, iterare. È come calibrare un nuovo impianto di raffinazione fino a trovare l’ottimale. Bisogna introdurre una mentalità iterativa, orientata alla raffinazione degli errori e non al giudizio sul fallimento.
  • Procedere per piccoli passi: iniziare con progetti circoscritti e ad alto impatto, per minimizzare i rischi e imparare dall’esperienza, è meglio che cercare di trivellare subito in profondità senza la giusta preparazione, una giusta motivazione e una corretta sostenibilità.

Finisco il concetto continuando sulla metafora del petrolio: muoversi senza criterio sull’onda dell’hype porta a pozzi a secco e risorse sprecate. Agire troppo lentamente significa concedere il vantaggio e perdere in competitività. La chiave è trovare l’equilibrio, individuare i giacimenti di dati giusti, usare il metodo DEEP per capire come estrarli ed un modello come il 4V per prioritizzare ciò che può davvero generare valore per il business. In questo modo l’AI diventa il vero “petrolio” dell’era digitale, una risorsa su cui costruire un vantaggio competitivo duraturo.

Data Is The New Oil: anche per Adidas con Runtastic

2015. Runtastic GmbH, applicazione per il fitness ed il running con 70 milioni di utenti viene acquisita da adidas, per 239 milioni di dollari. Per molti una follia, per tanti altri una operazione di brand e avvicinamento alla più grande community di fitness.

Per me, che ne parlo nelle lezioni in università e master dal momento dell’acquisizione, una operazione mirata principalmente ai dati. Si, ai dati: luoghi, percorsi, abitudini, prodotti indossati, mood, relazioni ed interessi sportivi.

Dati in grado di trasformare i processi di R&D, lo studio di nuove opportunità di mercato e rivoluzionare, attraverso i dati, la progettazione, il design stesso e perché no i materiali.

Oggi Runtastic ha oltre 170 milioni di utenti e Adidas, dopo aver lasciato inalterata la piattaforma per un periodo – così da non rompere la fiducia della community – e aver poi successivamente accostato il proprio brand alla piattaforma, esce allo scoperto con un primo prodotto ufficialmente DrivenByData: una scarpa con intersuola stampata sui dati di migliaia di atleti.

Il futuro delle aziende è nella capacità di creare, aggregare e acquisire dati ed utilizzarli per modellare processi, metodologie, prodotti e servizi e rendere se stesse sempre più veloci, competitive ed adattative.

DataIsTheNewOil

L’estensione di Facebook: l’attenzione dell’utente, il tempo, i dati e l’esigenza di fare soldi costantemente.

Un anno fa scrissi un post, parlando della estensione quasi liquida di Facebook in più direzioni di mercato, che FB avrebbe implementato la funzione di cerca lavoro, dopo la modifica della spalla dei profili (che già prometteva tanto). In tanti commentarono che non essendo il business di Fb, non l’avrebbe fatto. E già nel 2010 avevo scritto della convergenza dei social.

È vero, per Facebook non è il loro business, come non lo è il marketplace, come non lo sono tante altre piccole / grandi funzionalità che FB introduce progressivamente ma che una volta introdotte rosicchiano fette di alcuni mercati.

Vi immaginate lo 0,5% della popolazione di Fb che utilizza una nuova funzione appena introdotta? 10milioni di utenti, circa, per dire. Vi sfido a trovare un qualsiasi progetto, che in startup, abbia questi numeri.

E così, ecco che arriva la funzione che aiuta le persone a cercare lavoro: Helping People Find Jobs and Local Businesses Hire

Facebook ha un business, su quello è focalizzata, ed è quello su cui spinge di più, e che gli consente di esser la piattaforma più efficace per connettere brand, prodotti/servizi e persone.

Per poter fare meglio il proprio mestiere FB necessità di dati, sempre più profondi, dettagliati, estesi dentro e fuori dalla piattaforma, online e offline. E per averli ha bisogno di tempo e attenzione, degli utenti ovviamente.

L’attenzione la prende costantemente dagli utenti, migliorando costantemente l’esperienza utente, erogando costante nuove funzioni, strumenti, servizi e benefici, agevolando determinate abitudini o rispondendo a necessità ed esigenze, che Facebook – tra l’altro – conosce sempre più in modo dettagliato e meglio degli utenti stessi.

Ma Facebook non vuole esser LinkedIn, vuole continuare ad esser Facebook e vuole farlo in modo sempre più efficace.

E non è un caso che Zuckerberg abbia parlato – meno di un mese fa – di voler ottimizzare l’algoritmo per migliorare la fruizione dei contenuti da parte degli utenti, pur perdendo circa 50milioni di ore spese ogni giorno. Se c’è meno rumore, c’è più qualità e quindi attenzione, e se c’è più attenzione le persone non abbandonano, si fidano di più e sono più coinvolte. E le aziende sono disposte (o sempre più spinte) a pagare di più, per arrivare a quegli utenti.

Nulla avviene per caso, più che mai, quando hai dati così profondi. E Facebook il proprio mestiere lo sa fare molto bene.

…A proposito, avete detto dove abitate per sapere chi votare nel vostro municipio o avete detto chi avete votato?

Experience Graph: quando le persone diventano il veicolo di base del marketing

Vi è mai capitato di dire “Ne stavo parlando poco fa con un amico e adesso mi appare in Facebook” o pensare che Facebook ascolti quello di cui parlate in chat e telefono? A me si, non poche volte e ne sono sempre rimasto sorpreso. Immagino succeda un po’ a tutti quelli che sono particolarmente connessi.
Questo tipo di effetto si ha di solito quando si è focalizzati su tema ed é un concetto legato all’attenzione selettiva: praticamente, banalizzando il concetto, vediamo ciò che vogliamo vedere anche inconsciamente e riusciamo a filtrare, tra le tante informazioni a cui siamo esposti, solo quelle che – anche a colpo d’occhio – vogliamo intercettare. Per capirci, pensate per esempio a quando volete comprare una macchina di un modello specifico e vi sembra di vederne ovunque. Oppure quando state cercando una casa e sembra che intorno a voi ci siano annunci appesi in ogni dove o ancora quando, dopo aver deciso, vi sembra che si debbano sposare tutti e tutti parlino solo di quello.
Ecco quella è l’attenzione selettiva , non c’è nulla tecnologicamente avanzato, se non il vostro cervello. “Banalmente” dipende da voi.
Da un po’ di tempo però questa sensazione sembra farsi sempre più frequente e personalmente credo che un grosso contributo lo stia dando proprio la tecnologia, in particolare i dati legati alle preferenze delle persone, alle conversazioni e soprattutto la localizzazione. E questo in particolare si sta verificando in Facebook.
Praticamente sintetizzando, ogni persona, attraverso i dati che condivide grazie alle relazioni sociali, le preferenze che esprime online ed attraverso la propria posizione fisica rilevata dal dispositivo mobile, diventa un veicolo di influenza diretta ed indiretta.
Experience Graph
Experience Graph

 

Le persone influenzano le informazioni dello stream e l’ADV di una persona non solo per interazione, ma anche per la propria posizione fisica, anche in assenza di una relazione sociale diretta. Per fare un esempio, se mi trovo in un contesto di un evento, le mie preferenze ed i miei dati diventano elementi di ridefinizione dell’ADV di persone che sono presenti nello stesso contesto seppure non legate da una connessione di amicizia diretta, ma anche solo per la prossimità fisica.

In pratica il concetto è che se una persona è presente in un contesto sociale, un evento per esempio, è possibile che la conversazione che avviene fisicamente sia su temi di cui le persone presenti sono interessate e quindi il motore dell’adv è in grado di ridefinire potenziali argomenti di interesse anche tra persone che tra loro non sono direttamente collegate. Ed ecco qui che ritorna la frase di “Ne stavo parlando proprio oggi all’evento X, e adesso me lo trovo come argomento promosso”.

Negli ultimi anni siamo passati da grafo sociale, ad un grafo di interessi fino al grafo di oggetti grazie all’arrivo dell’IOT. L’intersezione dei dati di questi grafi, è quella che ho definito ormai un paio di anni fa Experience Graph: ossia un grafo in cui i dati di persone, interessi, oggetti diventano elementi di influenza di prossimità e di contesto.


Stiamo arrivando, facendo un paragone nemmeno troppo estremo, all’anno in cui, in Minority Report, i Precog erano in grado di capire non solo cosa succederà, ma anche come succederà, sull’intenzione. Per molti sembrerà un concetto assurdo o fantascientifico, ma la verità è che non siamo più così lontani da quella idea futuristica.

Infografiche, tra moda e utilità

Questa mattina ho letto il post relativo alle infografiche sul blog di Paolo Ratto, che leggo ormai da qualche giorno. Bei post, sintetici e precisi.

Riprendo il discorso relativo alle infografiche per poi rispondere alle domande che si pone Paolo: “Cosa ne pensate dell’utilizzo delle infografiche? Le ritenete utili per la comprensione di un fenomeno, o superflue? Le utilizzate nelle vostre pubblicazioni?

Bene, prima di tutto inquadriamo l’argomento: cosa sono le Infografiche. Wikipedia definisce le infografiche in questo modo:

(…) graphic visual representations of information, data or knowledge. These graphics present complex information quickly and clearly, such as in signs, maps, journalism, technical writing, and education. With an information graphic, computer scientists, mathematicians, and statisticians develop and communicate concepts using a single symbol to process information ()

Un infografica non è altro che una rappresentazione di dati ed informazioni in formato grafico, con un layout che privilegia l’estetica per far risaltare alcune informazioni importanti. Le infografiche non sono un tema così moderno come si potrebbe pensare, anzi tutt’altro. Le prime infografiche sono riconducibili alla preistoria, poi successivamente alle prime cartografie e agli sviluppi successivi della toponomastica, dell’astronomia e dell’astrologia.

Oggi le infografiche sono il pane quotidiano degli Information Designers e l’utilizzo è diffusissimo dal web ai giornali, dalle riviste e pubblicazioni di statistica a libri di testo, fino al frequente utilizzo da parte di matematici, informatici e persone del marketing. La comunicatività di queste rappresentazioni, la semplicità di distribuzione e il design semplifica notevolmente i processi di comunicazione di informazioni astratte o meno.

La disponibilità dei dati in rete ha dato inoltre vita ad una nuova forma di comunicazione:  l’infografica animata. I dati messi a disposizioni da testate giornalistiche, siti specializzati, società di ricerche di mercato, ha portato molti grafici e designer dell’informazione a pubblicare in rete una mole crescente di grafici animati integrando attraverso l’utilizzo di standard come l’HTML5 o il Flash, da così vita a grafici interattivi e consultabili.

Nel blog Information is beautiful di David McCandless, architetto dell’informazione che raccoglie esempi interessanti di utilizzo della componente visiva per migliorare la comprensione e la memorizzazione dei messaggi, emerge in modo evidente  l’utilità e l’importanza delle immagini ed il valore delle infografiche per raccontare un fenomeno in maniera molto sintetica e mirata, che io condivido pienamente. L’utente che si trova davanti ad una serie di numeri e dati graficamente coordinati ed impostati, secondo me è  favorito nella lettura, nella comprensione e nella memorizzazione e soprattutto viene stimolato all’approfondimento.

Però, c’è un però e un grosso Mah!

Qualche giorno fa ho scritto un tweet “Continuo a non capire l’utilità della condivisione di infografiche non commentate. I numeri vanno letti e commentati, no? #infographic“.

Sì, a cosa servono? Perchè stanno proliferando in questo modo, a volte, inutilmente?

Le infografiche, a mio avviso, stanno diventando una moda, purtroppo: la moda di chi condivide l’infografica più bella e più fashion, quella più cool e quella che parla del tema più caldo in quel momento, solo per esser retwittato. Poi c’è chi addirittura le mette così, as is, sul proprio blog, senza commentarle, come per dire “Toh, guarda che numeri e che stile! Ma mi raccomando, …commentateli da solo…

Quindi, rispondendo a Paolo, con il quale mi trovo d’accordo sull’utilità e sul tipo di utilizzo delle infografiche, posso dire che trovo completamente inutile chi condivide dati aggregati e informazioni senza dirci cosa ne pensa e perchè, ma solo per il gusto di fare un pò di traffico e perchè no, fare attività di marketing per il proprio (personal) brand. Dopotutto, se ho bisogno di un quadro da commentare, magari me ne vado al museo, no?

Secondo me le infografiche sono sicuramente uno strumento efficace e con un forte impatto sulla comunicazione, sono un integrazione ad un contenuto e una modalità diversa di vedere i dati, ma soprattutto sono utili e generano dibattito, se commentate e approfondite.