LocalAI: la guida per costruire un ecosistema di AI privata, dagli LLM agli agenti con memoria

Per mesi ho visto ripetersi la stessa scena: entusiasmo enorme sull’AI generativa, proof-of-concept ovunque, e poi, quando arriva il momento di portare l’AI dentro processi reali, una domanda che taglia corto: “Dove vivono i dati?”. Subito dopo ne arriva un’altra: “Quanto ci costerà davvero?”. E subito dopo la terza: “Cosa succede se domani cambia un pricing, un accesso, una policy, un modello?”.

È da questa triade (dati, costi, dipendenza) che nasce l’idea della guida su LocalAI. Non come esercizio tecnico, ma come scelta di architettura. E, in fondo, come scelta culturale: riportare l’intelligenza sotto il controllo di chi la usa.

Guida completa a LocalAI, LocalAGI e LocalRecall” è pensata per costruire un ecosistema di Intelligenza Artificiale privato su hardware consumer: dal server di inferenza agli agenti autonomi, passando per la memoria. Ho provato a scrivere la risorsa che avrei voluto avere io: un percorso unico, pratico, con un filo logico, capace di trasformare pezzi sparsi in una stack coerente.

Il punto di partenza è LocalAI: un server di inferenza che espone API compatibili con OpenAI e permette di eseguire modelli (testo, immagini, audio, embeddings) sul proprio hardware. La compatibilità non è un dettaglio: significa poter “sganciare” un’app dal cloud e reindirizzarla in locale con modifiche minime.

Ma un sistema utile non è solo un modello che risponde. Serve memoria, serve contesto, serve recupero delle informazioni, serve continuità. Per questo la guida si estende a LocalRecall: lo strato di memoria che implementa RAG (retrieval-augmented generation), cioè la capacità di interrogare una base di conoscenza esterna e alimentare il modello con informazioni pertinenti, riducendo errori e allucinazioni e aumentando la qualità delle risposte.

E poi c’è l’ultimo salto: dagli LLM agli agenti. Qui entra LocalAGI, pensato per creare e orchestrare agenti autonomi (anche in modalità no-code/low-code), collegandoli al “cervello” (LocalAI) e alla “memoria” (LocalRecall). Quando questa triade funziona, non stai più giocando con una chat: stai costruendo un sistema capace di fare piani, eseguire task, usare strumenti, ricordare, migliorare.

La struttura del libro riflette questa progressione, perché l’AI locale non è un singolo componente: è un’architettura. Nella prima parte si costruiscono le fondamenta (installazione, modelli, backend, funzionalità principali e ottimizzazioni, con attenzione alla sicurezza). Nella seconda si costruisce la memoria (LocalRecall e le scelte di storage, dalla semplicità alla scalabilità). Nella terza si costruisce l’intelligenza attiva (LocalAGI e la logica agentica). E nella quarta si scende su casi d’uso e appendici operative.

Un aspetto che ho voluto rendere esplicito è che “locale” non significa “romantico”. Significa pragmatico:

  • Privacy: i dati non devono lasciare la macchina, quando non è necessario.
  • Costi: sposti spesa da OPEX variabile (token) a CAPEX + energia, rendendo il budget più prevedibile.
  • Personalizzazione: puoi scegliere modelli, configurazioni, pipeline, senza vendor lock-in.
  • Resilienza: puoi far funzionare parti del sistema anche offline o in rete chiusa.

E poi c’è una parola che spesso manca nel dibattito: responsabilità. Avere controllo significa anche doversi occupare di sicurezza: proteggere endpoint, chiavi, accessi, permessi, logging. La guida insiste su questo perché l’AI locale non è “auto-magicamente” sicura: è solo più governabile, se la governi.

Per chi è questa guida?

Per chi sviluppa e vuole un’alternativa seria al cloud. Per chi fa IT e deve ragionare su TCO e compliance. Per chi costruisce prodotti e vuole embedded AI senza consegnare tutto a terzi. Ma anche per chi, semplicemente, vuole capire la stack: cosa sono i backend di inferenza, perché esistono gli embeddings, come si fa RAG, come si orchestrano agenti, e quali trade-off stai accettando quando dici “usiamo un LLM”.

Nella Nota dell’Autore ho scritto una cosa che per me è centrale: questi strumenti non sono solo strumenti tecnici. Rappresentano una filosofia, accessibilità, trasparenza, controllo, e un invito a contribuire a un ecosistema open-source che sta accelerando a vista d’occhio. La guida è un punto di partenza, non un punto di arrivo. Ma è il punto di partenza che mancava: chiaro, pratico, completo.

OpenClaw: la guida per costruire un assistente AI personale che agisce (e non solo risponde)

C’è un equivoco diffuso sull’AI: pensiamo che il suo destino naturale sia conversare. In realtà, la conversazione è solo l’interfaccia più comoda per comandare qualcosa. Il salto vero arriva quando quel “qualcosa” può agire: cercare, compilare, scrivere, organizzare, verificare, iterare. È il momento in cui smetti di chiedere “spiegami” e inizi a dire “fallo”.

OpenClaw si colloca esattamente lì: non un chatbot, ma un assistente personale agentico progettato per eseguire task complessi interagendo con sistema operativo, browser e applicazioni. La guida nasce per raccontare questa differenza senza hype: cosa è, come funziona, come si installa, e soprattutto come si rende sicuro.

Uno dei punti che chiarisco subito è la filosofia: OpenClaw non è un’interfaccia conversazionale fine a sé stessa. È un motore di automazione controllato dal linguaggio naturale. Quando gli scrivi, non ti aspetti solo testo, ma un’azione concreta: creare file, cercare informazioni, modificare documenti, inviare messaggi, completare workflow. Questo cambia completamente sia il potenziale, sia i rischi.

Per orientarsi, serve un modello mentale chiaro dell’architettura. Per questo la guida parte dai componenti fondamentali:

  • Gateway: il cuore del sistema, orchestrazione e sessioni.
  • CLI: lo strumento di gestione e diagnostica.
  • Nodi: estensioni per distribuire capacità su più macchine (es. un nodo macOS per iMessage).
  • Skills: istruzioni in formato SKILL.md per estendere capacità senza dover “hardcodare” tutto.

Questa modularità è il motivo per cui OpenClaw può diventare “il tuo” assistente, non “un” assistente generico: scegli cosa installare, quali canali attivare, quali skill concedere, quali permessi dare. E qui arriviamo alla parte più importante della guida: la sicurezza.

Un agente che può toccare file system, browser, email e credenziali non è neutro. È potenzialmente pericoloso, anche se non c’è nessuna intenzione malevola. Basta un prompt sbagliato, una configurazione permissiva, una skill non verificata, o un attacco di prompt injection, per creare danni reali. Per questo dedico un capitolo al threat model e a un principio che considero non negoziabile: “Access Control Before Intelligence”. Prima i confini, poi i superpoteri.

La guida include checklist e pratiche concrete: isolamento (hardware dedicato o virtualizzazione), permessi minimi sul file system, policy di allowlist per chi può contattare l’agente, prudenza nell’installazione di skills di terze parti, profili browser dedicati, audit periodici. L’obiettivo è rendere l’automazione sostenibile, non rischiosa.

Poi c’è il tema deployment: un assistente personale ha senso se è affidabile e sempre disponibile, ma anche se è coerente con le tue esigenze.

Per questo confronto tre opzioni pratiche:

  1. Mac Mini: ottimo per prestazioni/consumi e, soprattutto, per integrazioni Apple (quando servono).
  2. Raspberry Pi 5: entry-level, low cost, sempre acceso, perfetto per sperimentare con impatto energetico minimo.
  3. VPS in cloud: massima accessibilità e scalabilità, ma richiede disciplina di sicurezza (non esporre porte “nude”, usare tunnel/VPN/reverse proxy).

Una volta installato, arriva la parte “da vita reale”: collegare canali di messaggistica, scegliere modelli LLM, gestire fallback, e costruire un set di skills utile per il proprio lavoro. Qui la guida prova a essere concreta: mostra logiche, policy di accesso, e pattern d’uso (non solo teoria).

E soprattutto scende su casi d’uso. Non “demo da conferenza”, ma esempi che rispecchiano il lavoro quotidiano: ricerca strutturata e sintesi in un file, debugging su codice e log, pianificazione e verifica, monitoraggio e alerting, gestione documentale e riassunti. L’idea è far vedere come ragiona un agente: obiettivo, piano, azione, osservazione, correzione.

Chiudo con un messaggio semplice: OpenClaw è un punto di svolta perché sposta l’AI dalla risposta all’azione. Ma ogni svolta richiede consapevolezza. La guida è pensata per farti ottenere il massimo dal paradigma agentico senza perdere di vista ciò che conta: confini, audit, responsabilità. Perché un assistente personale che agisce è utile solo se resta al tuo servizio, non se diventa una nuova superficie di rischio.

Beyond Virtual: come lo Spatial Computing sta ridisegnando il futuro del gaming

Ieri ho partecipato all’Italian Gaming Expo a Roma con uno speech dal titolo “Beyond Virtual: Spatial Computing and XR for the Future of Gaming”. Un’occasione utile per mettere a fuoco un tema che seguo da tempo con passione e studio, e che ho affrontato anche nel mio libro Spatial Shift: la convergenza tra intelligenza artificiale, tecnologie immersive e nuovi ambienti digitali.

Questa volta ho voluto declinare quei concetti sul settore del gaming, che forse più di altri sta già vivendo una trasformazione profonda, non tanto nel linguaggio estetico o nella logica del gameplay, ma nel modo in cui esperienze, ambienti e contenuti si relazionano allo spazio fisico e alla nostra presenza nel mondo reale.

Il punto di partenza è semplice quanto radicale: stiamo entrando in una nuova fase del computing. Dopo l’epoca desktop, quella mobile e quella cloud, oggi siamo nell’alba di un’era spatial, dove l’interazione con i contenuti digitali si libera dallo schermo e si distribuisce nell’ambiente che ci circonda. Lo chiamiamo spatial computing, ed è molto più di un’estensione dell’AR o della VR. È un cambio di paradigma nel modo in cui il digitale “vive” nello spazio.

Spatial computing: dal dispositivo all’ambiente

In questa nuova fase non interagiamo più con il contenuto “guardando dentro” un device. Il contenuto si proietta fuori. Lo spazio intorno a noi diventa un canvas digitale su cui appaiono elementi immersivi, persistenti, personalizzati. Non è solo una questione di effetto wow: è una trasformazione sistemica del nostro rapporto con l’informazione, la narrazione e il gioco.

Come sottolinea Cathy Hackl, una delle voci più lucide su questi temi, “spatial computing isn’t about devices, it’s about context”. È il contesto che conta. È lì che si gioca la sfida: capire come, dove e quando interagiamo. E soprattutto: chi costruisce questi contesti?

Nel gaming questa transizione è già visibile. Giochi come Pokémon GO hanno mostrato per primi la possibilità di costruire esperienze ludiche sovrapposte al mondo reale. Ma oggi siamo ben oltre: visori come Meta Quest 3 o Apple Vision Pro ci permettono di trasformare il salotto in uno spazio ibrido dove avatar, elementi digitali e oggetti fisici convivono. Il gioco non si svolge più in una finestra digitale, ma intorno a noi, in tempo reale, connesso a ciò che facciamo, vediamo e sentiamo.

Il gioco entra nel mondo reale

Questo shift ha due implicazioni molto forti per chi progetta e costruisce contenuti ludici.

La prima è che l’ambiente stesso diventa parte integrante dell’esperienza. Non parliamo più di livelli predefiniti da navigare con un controller, ma di spazi reali in cui ci si muove fisicamente e in cui ogni elemento – un muro, una sedia, una finestra – può diventare parte attiva della narrazione. L’ambiente non è più lo sfondo, è il gameplay.

La seconda è che il corpo torna ad essere centrale. Il corpo non come ostacolo, ma come interfaccia. Con la computer vision, l’eye tracking, il motion sensing e il feedback aptico, il giocatore non è più “fuori dal gioco” ma dentro, presente, immerso e co-autore dell’esperienza.

In questo scenario, il design cambia pelle. Non si tratta più di scrivere regole per un mondo chiuso, ma di orchestrare esperienze in ambienti aperti, dinamici, interattivi e spesso condivisi. Il confine tra gaming, fitness, socialità, formazione o comunicazione diventa sempre più sottile.

AI, generazione procedurale e ambienti intelligenti

Un’altra variabile che sta accelerando tutto questo è l’intelligenza artificiale.

Non è un’esagerazione dire che la convergenza tra AI e spatial computing sta ridisegnando le fondamenta stesse dell’intrattenimento.

L’AI generativa consente oggi di creare NPC autonomi e realistici, mondi generati dinamicamente, missioni che si adattano in tempo reale al comportamento del giocatore. Ma soprattutto, permette a ogni esperienza di essere personalizzata e situata. Un gioco spatial può cambiare non solo in base al tuo livello o alle tue scelte, ma in base al luogo in cui sei, all’ora del giorno, a chi hai intorno.

Stiamo passando da ambienti digitali “chiusi” a ecosistemi intelligenti in grado di leggere, interpretare e rispondere. La logica stessa della progettazione cambia: da una narrativa predefinita a una co-costruita, dove il giocatore entra in relazione attiva con il contesto. È un salto concettuale e tecnico, ma è anche una grande opportunità per re-immaginare il concetto stesso di gioco.

Il gaming come infrastruttura esperienziale

Molti considerano il gaming un sottoinsieme dell’intrattenimento. In realtà, oggi sta diventando sempre più una piattaforma culturale, un’infrastruttura esperienziale. Lo vediamo nei mondi persistenti di Fortnite o Roblox, dove i confini tra gioco, socialità, evento e commercio si fondono. Lo vediamo nella logica dei digital twin, nei training simulator in XR, nei giochi educativi in MR. Il linguaggio ludico sta diventando la grammatica con cui interpreteremo una parte crescente della realtà aumentata che abiteremo nei prossimi anni.

Il gioco non è più uno spazio-tempo separato. È un layer aggiuntivo che si sovrappone alla vita. Può accendersi durante una camminata in città, durante una sessione di allenamento, o mentre esploriamo un museo. Diventa strumento di coinvolgimento, apprendimento, relazione.

Opportunità e nuove domande

Tutto questo apre scenari enormi per chi sviluppa prodotti, contenuti e strategie in ambito gaming e tech. Si apre un nuovo mercato, con nuovi modelli di business e nuove filiere. Ma emergono anche domande nuove, profonde, che non possiamo ignorare.

Chi possiede lo spazio virtuale sovrapposto a quello fisico? Come si tutelano la privacy, i dati ambientali, i comportamenti biometrici raccolti dai dispositivi XR? Come si regolamenta l’accesso, la moderazione, la sicurezza in un gioco che si svolge nel mondo reale, tra persone vere?

Sono le domande che iniziano ad affiorare oggi, ma che saranno centrali domani, quando milioni di persone inizieranno ad abitare queste esperienze spatial ogni giorno.

Oltre il virtuale

Lo spatial computing non è una moda passeggera. È un cambio di fase.

E il gaming non è semplicemente uno dei primi settori a esserne toccato: è il motore culturale che può guidarne l’evoluzione.

Come ha detto Tim Sweeney, CEO di Epic Games:

“AR glasses will become the entertainment platform of the future, replacing smartphones, tablets, and maybe even TVs.”

Non è più questione di se, ma di quando.

E soprattutto, di come costruire esperienze che non si limitino a stupire, ma che abbiano valore, coerenza e impatto.

Per questo credo che oggi più che mai sia il momento di pensare oltre il virtuale – e iniziare a progettare quello che viene dopo.

Innovation Shockwave Curve: dalla disruption all’impatto dell’AI

Che l’innovazione sia il motore della crescita economica e della competitività aziendale e della società non credo ci sia alcun dubbio e non dovrebbe esser, soprattutto l’evento pandemico vissuto, nemmeno necessario doverlo sottolineare.

Malgrado oggi sia noto che siamo entrati nel pieno dell’era della convergenza tecnologica e dell’accelerazione derivante dall’AI e seppur dovrebbe esserci maggiore consapevolezza della necessità di un approccio al cambiamento, su questo tema molti hanno ancora poca propensione e dirottano ancora pochi investimenti.

Nel corso degli ultimi decenni, abbiamo assistito a diverse fasi dell’innovazione, ognuna caratterizzata da modelli di diffusione e adozione tecnologica, caratterizzate da diversi fattori, culturali, sociali, economici e tecnologici.

L’evoluzione, la propagazione e l’impatto delle innovazioni digitali sul mercato hanno avuto andamenti e dinamiche differenti e la loro rappresentazione grafica ha dimostrato diverse curve ed effetti differenti negli anni, con ripercussioni ed effetti con manifestazioni in tempi, frequenze e volumi crescenti

Shockwave AI | Fabio Lalli | Dall-E

Partendo da modelli noti a distribuzione gaussiana, passando per la curva a pinna di squalo (quella della big bang disruption) definita qualche anno fa da Larry Downes e Paul Nunes, stiamo arrivando ad oggi, una fase in cui la maturità di diverse tecnologie e l’arrivo simultaneo dell’AI, sta creando una nuova fase, e quindi un nuovo potenziale impatto, che ho definito la fase della Innovation Shockwave Curve.

Ho buttato giù due righe di riflessioni sul tema, liberi di commentare, integrare, discutere e “distruggere” pensieri e riflessioni … in modo costruttivo.

La curva gaussiana dell’Innovazione

In un’era pre-digitale, le innovazioni tecnologiche erano limitate e richiedevano tempi di sviluppo molto lunghi. Le risorse per la ricerca e lo sviluppo erano meno accessibili e concentrate in poche grandi aziende o istituti di ricerca. La diffusione delle innovazioni avveniva principalmente attraverso mezzi di comunicazione tradizionali e il passaparola, che era un processo lento.

La curva di diffusione dell’innovazione, formalmente conosciuta come “diffusione dell’innovazione”, è stata introdotta da Everett M. Rogers nel 1962 nel suo libro “Diffusion of Innovations“. Questa curva, rappresentata come una distribuzione normale o gaussiana, illustra come le nuove idee e tecnologie vengono adottate nel tempo.

Diffusion of Innovations | 1962 | Rogers

Rogers ha progettato questa curva per spiegare il processo attraverso il quale un’innovazione viene comunicata nel tempo tra i partecipanti a un sistema sociale. La curva si divide in cinque segmenti principali di adottanti: Innovatori, Early Adopters, Early Majority, Late Majority e Laggards. Ogni segmento rappresenta un gruppo distinto di persone che adottano l’innovazione in momenti diversi, a seconda della loro propensione al rischio e all’accettazione delle novità, oltre a fattori economico sociali.

Gli Innovatori, che costituiscono il 2.5% della popolazione, sono i primi a sperimentare nuove tecnologie. Sono seguiti dagli Early Adopters (13.5%), considerati leader d’opinione e primi costruttori della fiducia verso il mercato, e dall’Early Majority (34%), che adotta l’innovazione dopo un periodo di osservazione. La Late Majority (34%) è più scettica e adotta solo dopo che la maggior parte della società ha già accettato l’innovazione. Infine, i Laggards (16%) sono gli ultimi ad adottare, spesso solo quando diventa inevitabile. Questi ultimi due, per un tema di resistenza al cambiamento, adottavano le innovazioni solo dopo ampie prove di successo e la diffusione tra le masse.

Un punto cruciale nella curva di diffusione dell’innovazione è il Tipping Point (punto di non ritorno, coniato da Malcolm Gladwell nel suo libro del 2000, “The Tipping Point: How Little Things Can Make a Big Difference“). Questo punto rappresenta il momento in cui un’innovazione passa dall’essere adottata solo dai primi utenti (Innovatori ed Early Adopters) a diventare accettata dalla maggioranza del mercato (Early Majority). È il punto di svolta in cui l’adozione dell’innovazione diventa autoalimentante e inizia a diffondersi rapidamente attraverso il resto della popolazione.

Il Tipping Point è fondamentale perché segna il passaggio dalla fase iniziale di adozione, che richiede sforzi significativi di promozione e persuasione, a una fase di crescita accelerata dove l’innovazione guadagna trazione grazie al passaparola e alla crescente accettazione sociale. Raggiungere questo punto è spesso l’obiettivo principale delle strategie di marketing e lancio di nuovi prodotti, poiché una volta superato, l’innovazione tende a diffondersi più facilmente e rapidamente.

La curva di Rogers non fornisce solo una comprensione del comportamento di adozione, ma offre anche preziose indicazioni strategiche per le aziende. Comprendere la distribuzione degli adottanti e il significato del Tipping Point può aiutare a pianificare l’introduzione di nuovi prodotti e a sviluppare strategie di marketing mirate per ciascun segmento.

La Curva a Pinna di Squalo o curva della Big Bang Disruption

La curva della disruption è un concetto che ha preso forma nel 2014 grazie al lavoro di Larry Downes e Paul Nunes nel loro libro “Big Bang Disruption: Strategy in the Age of Devastating Innovation“. Questo modello è nato dall’osservazione dei cambiamenti rapidi e radicali che le tecnologie digitali stavano causando nei mercati esistenti. Downes e Nunes hanno studiato come l’avvento di tecnologie come il mobile, internet e i social media stavano trasformando interi settori economici, producendo innovazioni che non seguivano il tradizionale modello di adozione graduale delineato da Everett Rogers.

Big Band Disruption | 2014 | Downes & Nunes

Il modello di Downes e Nunes articola la disruption in quattro fasi distinte. La prima fase, “Singularity“, è caratterizzata da numerosi esperimenti falliti che preannunciano l’arrivo di un cambiamento significativo. Nella fase del “Big Bang“, gli utenti abbandonano rapidamente i vecchi prodotti in favore di quelli nuovi. Segue la fase del “Big Crunch“, dove i disruptors subiscono un’implosione rapida e l’innovazione diventa incrementale. Infine, nella fase di “Entropy“, l’industria attraversa un declino terminale, preparando il terreno per l’ingresso di nuovi disruptors.

La curva della disruption si distingue nettamente dalla curva di diffusione dell’innovazione di Rogers, introdotta nel 1962. Mentre la curva di Rogers è rappresentata come una distribuzione normale (gaussiana), con una diffusione lenta e graduale delle innovazioni attraverso Innovatori, Early Adopters, Early Majority, Late Majority e Laggards, la curva della disruption è caratterizzata da una rapida ascesa, un picco acuto e un altrettanto rapido declino. Questo modello assomiglia a una pinna di squalo, riflettendo la velocità e l’intensità con cui le innovazioni digitali possono devastare i mercati esistenti.

Se nella curva di Rogers, come ho detto, un elemento cruciale è il tipping point, ossia il momento in cui un’innovazione passa dall’essere adottata solo dai primi utenti a diventare accettata dalla maggioranza del mercato e segna il passaggio dalla fase iniziale di adozione a una crescita accelerata e autoalimentante, grazie al passaparola e alla crescente accettazione sociale, non è così nella curva della Disruption. Nella curva della disruption infatti il tipping point è molto più rapido e acuto, con un’adozione di massa che avviene quasi simultaneamente tra gli early adopters e la majority.

Le variabili che impattano la curva della disruption includono la frequenza delle innovazioni, la velocità di adozione e l’ampiezza del picco. Con l’avvento delle tecnologie digitali, infatti, la frequenza delle innovazioni disruptive è aumentata notevolmente e sta accelerando progressivamente, con nuove tecnologie che emergono a un ritmo sempre più rapido. La velocità di adozione sia lato aziende, che lato utenti, è anche significativamente aumentata, grazie alla pervasività di internet, ai social media che permettono una diffusione ed una viralità quasi istantanea delle nuove idee, prodotti e servizi. L’ampiezza del picco nella curva della disruption è molto più elevata rispetto alla curva di Rogers, indicando che una grande percentuale del mercato può essere rapidamente raggiunta e conquistata da una nuova innovazione.

Downes e Nunes, nel loro modello, hanno inoltre identificato tre caratteristiche principali che definiscono i Big Bang Disruptors:

  • Undisciplined Strategy” implica che questi disruptors competono simultaneamente su molteplici valori strategici, offrendo prodotti che sono sia migliori che più economici rispetto a quelli dei concorrenti. In secondo luogo;
  • Unconstrained Growth” descrive una crescita rapida e quasi verticale, seguita da un’obsolescenza altrettanto veloce;
  • Unencumbered Development” riguarda la sperimentazione rapida e il lancio di prodotti utilizzando componenti pronti all’uso.

Queste dinamiche hanno effetti profondi, come evidenziato da Downes e Nunes sulla ricerca e sviluppo (R&S) e sull’approccio alla capacità di resistere all’impatto dei cambiamenti e alla capacità delle aziende di “surfare” l’onda.

La necessità di innovazione continua diventa cruciale, con le aziende che devono investire costantemente in R&S per rimanere competitive e non lasciare al caso o alla rincorsa del cambiamento. L’attenzione si sposta verso la creazione di valore e innovazioni che possano innescare un meccanismo virtuoso incrementale o ancora di più verso innovazioni in grado di cambiare radicalmente e in modo dirompente i mercati esistenti, anziché migliorare solo marginalmente i prodotti esistenti. In questa fase, come descritto dai due autori del libro, le aziende devono sviluppare una forte capacità di adattamento per rispondere rapidamente ai cambiamenti del mercato e implementare strategie di mitigazione dei rischi, come la diversificazione del portafoglio prodotti e la flessibilità operativa.

Per affrontare l’impatto della disruption, le aziende sono state sollecitate ad adottare metodologie agili, snelle e adattative come Scrum e Kanban, per esempio, per migliorare la gestione dei progetti in modo flessibile e iterativo. Il Design Thinking, esploso nell’ultima decade, con il suo approccio centrato sull’utente e l’iterazione continua, è stato fondamentale per molte aziende per creare soluzioni innovative orientate alla risoluzione di problemi reali. La metodologia Lean Startup, con il ciclo Build-Measure-Learn, ha introdotto approcci e mindset orientati a sviluppare prodotti minimamente validi (MVP) e di iterare rapidamente basandosi sui feedback degli utenti, così da poter presidiare più rapidamente il mercato con un rapido time to market, un approccio incrementale ed una mitigazione del rischio di fallimento.

Un ulteriore approccio cruciale che è nato nel periodo della Disruption è anche quello del Platform Design, un approccio che permette, in sintesi, di ridefinire l’approccio e la progettazione della azienda facilitando l’interazione tra diversi attori dell’ecosistema. Questo include la standardizzazione dei protocolli e l’apertura dei servizi, e l’integrazione e creazione di un ecosistema di servizio che permette alle aziende di interagire facilmente con nuove tecnologie e di collaborare con partner esterni, accelerando l’innovazione e ampliando le capacità di sviluppo.

L’Open Innovation infine, negli ultimi anni, ha incoraggiato la collaborazione estesa con partner esterni, startup, università, community di territorio, e clienti, per accelerare l’innovazione e ampliare le capacità di sviluppo. Non ultimo lo Scenario Planning ossia una metodologia strategica che esplora diverse possibilità future per aiutare le organizzazioni a prepararsi all’incertezza. Identificando variabili chiave come cambiamenti tecnologici ed economici, si sviluppano scenari alternativi per capire meglio i potenziali impatti. Questo approccio permette (e sta permettendo) di creare strategie flessibili e resilienti, capaci di adattarsi a diverse evoluzioni del contesto, favorendo una preparazione robusta e la mitigazione dei rischi.

L’integrazione di questi approcci, metodologie, cambio di mindset sta consentendo alle aziende di essere più resilienti e adattabili, e allo stesso tempo robuste, rispondendo prontamente ai cambiamenti del mercato, mantenendo la competitività in un ambiente in rapida evoluzione.

Innovation Shockwave Curve: l’arrivo dell’AI e la convergenza tecnologica

Negli ultimi anni ho affrontato questi temi di cui ho scritto fin qui, di impatto ed innovazione, con differenti aziende clienti e partner affrontando, in industrie diverse, le modalità di gestione e sviluppo delle nuove tecnologie, dei nuovi media, dei linguaggi di diverse generazioni e come queste dovessero esser affrontate con metodologie e piattaforme sempre più adeguate, e con approcci di pensiero strategico sempre più snelli e adattativi.

Negli ultimi mesi, grazie al lavoro fatto su diverse piattaforme e dal confronto con diversi professionisti, ho iniziato a riflettere sulle ripercussioni derivanti oggi dall’AI e dalle nuove opportunità e complessità da affrontare considerata questa “nuova” onda d’urto che sta arrivando.

The Innovation Shockwave Curve | 2024 | Fabio Lalli – Image by Marco Lorio

Questa onda d’urto l’ho definita, già in diverse riunioni, la Innovation Shockwave Curve. Un concetto che descrive a mio avviso bene (sia in termini letterari che visuali) come l’intelligenza artificiale (AI) e altre tecnologie sempre più mature, in questa fase di convergenza e shift di cui parlo da un po’, stanno ridefinendo il panorama dell’innovazione.

La Shockwave Curve è un concetto emergente che descrive come l’intelligenza artificiale (AI) e altre tecnologie avanzate stiano ridefinendo il panorama dell’innovazione. Questo modello è nato dall’osservazione delle rapide e intense ondate di adozione che sta avendo l’AI e le altre tecnologie, che superano (e supereranno) i tradizionali modelli di diffusione dell’innovazione e di Disruption a mio avviso, andando oltre la previsione di Downes e Nunes.

ll termine “Innovation ShockWave Curve” l’ho scelto per descrivere un nuovo modello di adozione delle innovazioni caratterizzato da una rapida diffusione, un picco elevato e una fase di assestamento con continue iterazioni e che combina impatti intensi, appunto come uno shock le innovazioni emergono con un impatto immediato e significativo sul mercato e una diffusione rapida, proprio come un’onda le innovazioni si propagano velocemente attraverso il mercato, raggiungendo un’adozione massiva in breve tempo.

Con l’introduzione della Shockwave Curve, le caratteristiche chiave dei Big Bang Disruptors subiscono ulteriori evoluzioni per adattarsi al nuovo contesto tecnologico e di mercato dominato dall’intelligenza artificiale e dalle tecnologie convergenti. Ho mantenuto le stesse classificazioni per facilità di ragionamento:

  • Strategia indisciplinata (Undisciplined Strategy): mentre nella Big Bang Disruption i disruptors competono simultaneamente su molteplici valori strategici, offrendo prodotti migliori e più economici, nella Shockwave Curve questa strategia diventa ancora più pronunciata. La rapida iterazione e l’ottimizzazione continua consentita dall’AI permettono ai disruptors di personalizzare e adattare i prodotti in tempo reale alle esigenze dei clienti, aumentando ulteriormente la loro competitività su tutti i fronti.
  • Crescita senza vincoli (Unconstrained Growth): la crescita rapida e quasi verticale dei Big Bang Disruptors si intensifica nella Shockwave Curve. Grazie alle capacità predittive e di automazione dell’AI, la velocità di adozione diventa ancora più rapida, permettendo ai disruptors di scalare e raggiungere il mercato di massa in tempi record. Tuttavia, anche l’obsolescenza avviene più velocemente, con nuove ondate di innovazione che emergono costantemente e soppiantano rapidamente le tecnologie precedenti.
  • Sviluppo svincolato (Unencumbered Development): la capacità di sperimentare e lanciare rapidamente prodotti utilizzando componenti pronti all’uso, già evidente nella Big Bang Disruption, viene ulteriormente potenziata nella Shockwave Curve. Le tecnologie AI facilitano lo sviluppo e la sperimentazione continua, consentendo ai disruptors di iterare rapidamente e migliorare costantemente i loro prodotti. Questo ciclo accelerato di sviluppo e implementazione diventa fondamentale per mantenere il vantaggio competitivo in un mercato in continua evoluzione.

Per spiegare meglio la dinamica della Shockwave, ecco alcune differenze sostanziali a mio avviso:

  • Forma della Curva: Curva di Rogers: Una distribuzione normale, con una diffusione lenta e graduale. Curva della Disruption: Una rapida ascesa e declino, simile a una pinna di squalo. Shockwave Curve: Una rapida adozione iniziale, un picco molto alto e un periodo di assestamento con continue iterazioni, somigliante a un’onda d’urto.
  • Tempo di Adozione: Curva di Rogers: L’adozione avviene in anni o decenni. Curva della Disruption: L’adozione può avvenire in diversi mesi o pochi anni. Shockwave Curve: L’adozione è estremamente rapida, spesso in pochi mesi, grazie all’AI e alle tecnologie digitali.
  • Tipping Point: Curva di Rogers: Un punto critico dove l’adozione passa dalla minoranza alla maggioranza. Curva della Disruption: Un tipping point rapido e acuto. Shockwave Curve: Il tipping point è quasi istantaneo, con una diffusione simultanea tra early adopters e majority.

Le variabili già descritte anche nel modello della Disruption cambiano di nuovo:

  • Frequenza: Le innovazioni supportate dall’AI emergono a una frequenza molto alta, creando ondate successive di adozione, con impatto su diverse altre tecnologie e ambiti.
  • Velocità: La velocità di adozione è estremamente rapida, facilitata dalla connettività globale e dai sistemi AI che accelerano lo sviluppo e la distribuzione delle innovazioni.
  • Ampiezza: L’ampiezza del picco è molto elevata, indicando una rapida e vasta adozione, spesso coinvolgendo gran parte del mercato in tempi brevi.

Per quanto riguarda gli effetti che avrà sui processi di ricerca e sviluppo e sull’approccio che le aziende dovranno adottare per mitigare gli impatti e affrontare il repentino cambiamento e una aggressiva competizione, sarà necessario:

  • implementare processi di Innovazione Continua: le aziende dovranno investire costantemente in R&S per sviluppare tecnologie e modelli innovativi e sarà necessario rivedere il concetto purtroppo radicato che “Innovazione = costo”
  • focalizzare l’attenzione senza dubbio su AI e automazione: l’attenzione si concentrerà su tecnologie che possono essere rapidamente iterate e migliorate.
  • allenare l’adattabilità: le aziende dovranno essere estremamente flessibili per rispondere rapidamente alle nuove ondate di innovazione e rivedere modelli di offerta in funzione di un cambiamento repentino anche delle abitudini di consumo e comportamento del mercato
  • definire strategie di mitigazione: sarà sempre più necessario intervenire su processi e strategie per anticipare e rispondere ai rapidi cambiamenti del mercato, come la diversificazione e la flessibilità operativa, e la mitigazione di rischi operativi

Per quanto io veda nelle fasi di enorme cambiamento opportunità di sviluppo e crescita, credo che questa fase, per via di questa onda d’urto, si potrebbero creare e potrebbero emergere non pochi effetti collaterali che provo a buttare giù a livello di macro-pensiero:

  1. Saturazione del mercato: ogni mercato ha un limite massimo di adozione, oltre il quale non è possibile acquisire nuovi utenti senza sottrarli ad altri. Quando un’innovazione raggiunge una crescita come quella che stiamo vedendo, ad un certo punto (ed in questo caso presto), la crescita inevitabilmente rallenta e inizierà a decrescere quando non ci saranno più nuovi utenti da acquisire, o quando la velocità di acquisizione di nuovi utenti non potrà più compensare la perdita di quelli esistenti.
  2. Stanchezza da innovazione: un’accelerazione costante e la frequente introduzione di nuove tecnologie possono portare il mercato a “stancarsi” del continuo cambiamento. La “fatigue” dell’innovazione si verifica quando i consumatori diventano meno inclini a provare nuovi prodotti o servizi a causa dell’eccesso di novità. La resistenza al cambiamento aumenta, e i tassi di adozione iniziano a declinare poiché i consumatori preferiscono stabilità e familiarità.
  3. Limiti di risorse: le risorse necessarie per sviluppare, produrre e distribuire innovazioni non saranno illimitate, ed in alcuni contesti cominciamo a vedere già alcuni. Costi crescenti e la competizione per risorse scarse potranno rallentare il ritmo dell’innovazione. Le aziende rischiano di incontrare difficoltà nel mantenere il ritmo di innovazione, portando automaticamente ad un rallentamento nella diffusione di nuove tecnologie.
  4. Effetti di cannibalizzazione: le nuove innovazioni spesso sostituiscono quelle esistenti. Quando le nuove tecnologie cannibalizzano il mercato delle tecnologie precedenti senza espandere significativamente il mercato totale, il tasso complessivo di crescita può rallentare. La curva di crescita mostra un declino, poiché l’adozione di nuove innovazioni non genera un aumento netto degli utenti.
  5. Dinamiche economiche e sociali: i fattori macroeconomici come recessioni, cambiamenti nelle politiche governative o cambiamenti demografici possono influenzare la capacità di un mercato di adottare nuove tecnologie. Questi fattori possono portare a una stagnazione o a una riduzione nell’adozione delle innovazioni, interrompendo il modello della Shockwave Curve.
  6. Aumento della concorrenza: la rapida diffusione delle innovazioni altamente impattanti e generative, come l’AI appunto, crea mercati altamente competitivi. Le aziende devono competere non solo con le imprese tradizionali ma anche con nuove startup, più agili snelle e maggiormente aggressive in termini di capacità di insediamento sul mercato. L’aumento della concorrenza portare automaticamente ad una riduzione dei margini di profitto e a una maggiore pressione per innovare continuamente.
  7. Dipendenza dall’innovazione continua: un tema che non avrei pensato anni fa, è il tema della dipendenza (e da effetto Fomo). Le aziende non possono più non fare innovazione, ma ne potrebbero diventare troppo dipendenti, con la necessità costante di introdurre costantemente nuove proposizioni o miglioramenti di offerta. Questa rincorsa potrebbe generare, come sta succedendo già con l’effetto FOMO, a decisioni affrettate, investimenti rischiosi e un focus eccessivo sull’innovazione a breve termine a scapito della stabilità a lungo termine.
  8. Disuguaglianze di accesso: le innovazioni tecnologiche raggiungono prima i mercati sviluppati, lasciando indietro i mercati emergenti. Questa dinamica crea potenzialmente una disuguaglianza nell’accesso alle tecnologie avanzate, esacerbando le disparità economiche e sociali.
  9. Impatto ambientale: non ultimo un tema oggi più che mai attuale. La produzione e lo smaltimento rapidi di nuovi dispositivi tecnologici e di sistemi dall’impatto enorme in termini di consumo, possono avere effetti negativi sull’ambiente e sul consumo di risorse naturali.

Le metodologie fin ora adottate e suggerite anche dal precedente modello della BigBang Disruption, rimangono essenzialmente le stesse, centrate principalmente su alcuni principi: progettazione sempre più utente centrica, agilità di processo e metodo, collaborazione multidisciplinare per comprendere non solo gli impatti tecnici, ma anche sociali, economici, psicologici e normativi.

Per affrontare l’impatto della Shockwave Curve, le aziende dovranno continuare ad adottare diverse metodologie:

  • Metodologie Agili: Framework come Scrum e Kanban permettono una gestione flessibile e iterativa dei progetti.
  • Design Thinking: Approccio centrato sull’utente e iterazione continua per sviluppare soluzioni che risolvano problemi reali.
  • Lean Startup: Ciclo Build-Measure-Learn per sviluppare MVP e iterare rapidamente basandosi sui feedback degli utenti.
  • Platform Design: Creazione di piattaforme che facilitano l’interazione tra diversi attori dell’ecosistema, standardizzazione dei protocolli e apertura dei servizi attraverso API.
  • Open Innovation: Collaborazione estesa con partner esterni, startup, università e clienti per accelerare l’innovazione.
  • Scenario Planning: Previsione e preparazione per diverse possibili evoluzioni del mercato, sviluppando strategie per affrontare ciascun scenario.

Dato l’impatto estremamente rapido e intenso della Shockwave Curve, oltre metodologie agili, Design Thinking, Lean Startup, Platform design, Open Innovation e Scenario Platform sarà a mio avviso necessario sviluppare e adattare nuove metodologie per affrontare le sfide specifiche che questa nuova onda presenterà.

Credo, anche per l’esperienza che sto facendo su alcuni ambiti di industria, che sarà necessario includere:

  • AI-Driven Innovation: utilizzo di algoritmi di intelligenza artificiale per anticipare le tendenze e adattare rapidamente le strategie.
  • Continuous Deployment & Integration: processi automatizzati per implementare continuamente nuove funzionalità e miglioramenti, riducendo il tempo di risposta ai cambiamenti del mercato.
  • Ecosystem-Oriented Development: prodottizzazione di alcuni procesi, sviluppo di servizi con un approccio integrato all’ecosistema, favorendo la collaborazione tra diversi attori del mercato e sfruttando le sinergie.
  • Adaptive Governance: strutture di governance flessibili che permettano decisioni rapide e decentralizzate, facilitando l’innovazione continua e l’adattamento alle nuove condizioni di mercato.
  • Real-Time Analytics & Decision Making: Utilizzo di strumenti di analisi in tempo reale per prendere decisioni rapide e informate, migliorando la capacità di reagire ai cambiamenti del mercato.

La curva di innovazione ha subito un’evoluzione significativa dalle prime fasi rappresentate dalla curva gaussiana, attraverso la fase della curva a pinna di squalo, fino alla recente “emergenza” di fronteggiare l’onda d’urto della innovation shockwave curve, influenzata dall’AI.

Questa transizione riflette senza dubbio l’accelerazione e la dinamizzazione dei processi di innovazione nel contesto tecnologico attuale. Le aziende che non sapranno, più di prima, adattarsi subiranno non più l’effetto travolgente di una onda di grandi dimensioni, ma l’impatto di un muro verso cui si sta correndo senza possibilità di frenare. L’agilità e l’innovazione continueranno ad esser non una certezza di salvataggio, ma un approccio utile per interpretare, comprendere e adattarsi nell’era dell’intelligenza artificiale e delle tecnologie convergenti.

Dello Shift che stiamo vivendo ne ho scritto nel libro “Spatial Shift: La convergenza tecnologica di Computing, Mixed Reality, Artificial Intelligence e Blockchain” trattando in modo specifico lo shift della mixed reality e dell’AI, focalizzandomi sugli impatti dello Spatial Computing, ossia una piccola parte del grande cambiamento che stiamo vivendo.

Macro Trend 2024: dell’Intelligenza artificiale e (tanto) altro

Il 2024 si prospetta come un anno di notevole trasformazione tecnologica, in cui l’intelligenza artificiale (AI) emerge come un catalizzatore fondamentale, abilitando una moltitudine di trend emergenti e consolidati. Mentre alcuni di questi trend sono ancora nelle loro fasi iniziali, promettendo un terreno fertile per investimenti futuri, altri hanno già raggiunto una maturità tale da richiedere un’adozione immediata. Questa dinamica riflette un panorama tecnologico in cui l’AI non solo guida l’innovazione ma anche crea impatti collaterali in settori diversi, spingendo le aziende e gli investitori a valutare attentamente dove posizionare le loro pedine nel gioco dell’innovazione.

In questo contesto, alcuni trend si stanno affermando come pilastri per le strategie a lungo termine, mentre altri rappresentano opportunità di cambiamento e adattamento che le organizzazioni possono e devono cogliere nel presente. La convergenza di queste tendenze sta plasmando un futuro in cui la tecnologia non è solo uno strumento di progresso, ma anche un elemento chiave per affrontare le sfide globali e locali, offrendo nuove prospettive di crescita e sviluppo in un’ampia gamma di settori.

Sicurezza Pubblica nel XXI secolo

L’innovazione tecnologica sta rivoluzionando il settore della sicurezza pubblica. L’uso di droni e sistemi intelligenti di sorveglianza sta migliorando la risposta a emergenze e criminalità, consentendo una gestione più efficace delle risorse di sicurezza, riducendo i tempi di risposta e migliorando l’efficacia degli interventi.

Smart Grids

La transizione verso reti energetiche intelligenti è fondamentale per gestire in modo più efficiente le fonti di energia rinnovabile. Queste reti supportano il flusso bidirezionale di energia, permettendo non solo il consumo, ma anche la produzione e la vendita di energia da parte dei consumatori.

Swarming Cost-Effective per la Difesa

L’uso di sistemi di droni in scenari di difesa per creare un effetto di massa e sovraccarico offre un vantaggio strategico significativo. Questi sistemi possono essere utilizzati per missioni di sorveglianza, ricognizione o attacco.

Acquisizioni Tecnologiche

Le aziende stanno ampliando le loro competenze software attraverso acquisizioni strategiche. Questo permette loro di estendere la scala dei loro vantaggi software e migliorare il profilo del business acquisito.

Nuove Applicazioni per la Visione Artificiale

L’impiego della visione computerizzata in vari settori industriali come trasporti, agricoltura e miniere permette l’analisi e il monitoraggio automatico, migliorando l’efficienza e la sicurezza.

Nuova Era dell’Esplorazione Marittima

L’innovazione tecnologica sta rivoluzionando il settore marittimo. AI, hardware avanzati e visione computerizzata sono utilizzati per modernizzare le flotte e migliorare l’esplorazione e l’utilizzo sostenibile delle risorse marine.

Democratizzazione dei “Farmaci Miracolosi”

Lo sviluppo di terapie farmaceutiche innovative e la loro introduzione nel mercato in modo economicamente sostenibile rappresenta un trend importante. Questo include la gestione dei costi e la logistica complessa di tali farmaci.

Medicina Programmabile

La medicina programmabile rappresenta una rivoluzione nel modo in cui vengono sviluppate e distribuite le terapie, permettendo un approccio più rapido e mirato alla cura di varie malattie.

Potenziamento della Forza Lavoro Sanitaria

L’integrazione dell’intelligenza artificiale nel settore sanitario sta contribuendo a ridurre il carico di lavoro e migliorare l’efficienza del personale sanitario, contribuendo a ridurre il burnout e migliorare la qualità delle cure.

AI che Supera il Futuro della Salute

L’adozione dell’intelligenza artificiale nel settore sanitario non solo per l’automazione, ma anche per l’innovazione in diagnosi, trattamento e gestione dei pazienti è un trend in crescita.

App a Voce Primaria

Lo sviluppo di applicazioni che utilizzano l’interfaccia vocale come modalità principale di interazione sta migliorando l’accessibilità e la facilità d’uso.

AI Mirata e Costruita su Misura

Lo sviluppo di soluzioni AI specifiche per settori e esigenze particolari sta garantendo che l’AI sia ottimizzata per applicazioni specifiche piuttosto che per usi generali.

Strumenti AI per l’Educazione dei Bambini

Lo sviluppo di piattaforme AI progettate specificamente per l’educazione dei bambini, con focus sulla sicurezza, l’interattività e l’adattabilità alle diverse esigenze di apprendimento è un trend emergente.

Generatori AI senza Codice

La creazione di piattaforme che permettono agli utenti di generare contenuti e applicazioni senza la necessità di competenze di programmazione sta democratizzando l’accesso alla creazione digitale.

La Creatività Potenziata dall’AI

L’uso di strumenti AI che funzionano come co-piloti creativi, assistendo gli utenti nel processo creativo e rendendo l’arte e il design più accessibili è un trend in crescita.

Nuova Era di Decentralizzazione

L’importanza della decentralizzazione per garantire la libertà degli utenti e la neutralità delle infrastrutture internet, contrastando la centralizzazione del potere, è un trend emergente.

Rifacimento dell’Esperienza Utente nel Futuro

Innovazioni nell’esperienza utente nel settore delle criptovalute stanno rendendo il settore più semplice e accessibile.

Ascesa della Pila Tecnologica Modulare

La tendenza verso architetture modulari nelle reti per promuovere l’innovazione aperta e la concorrenza è un trend in crescita.

AI + Blockchain

La combinazione di intelligenza artificiale e blockchain per democratizzare l’innovazione nell’AI e garantire la sicurezza e la trasparenza è un trend emergente.

Dal Gioco per Guadagnare al Gioco e Guadagnare

La trasformazione dell’economia dei giochi per permettere ai giocatori non solo di divertirsi ma anche di trarre vantaggi economici dalle loro attività di gioco è un trend in crescita.

Intelligenza Artificiale come acceleratore di Giochi

L’uso di agenti AI nei giochi per creare esperienze di gioco più ricche e coinvolgenti è un trend emergente.

Verifica Formale meno “Formale”

Lo sviluppo di metodi di verifica formale più accessibili e meno complessi, particolarmente importanti nel settore dei contratti intelligenti, è un trend in crescita.

NFT come Asset di Marca Onnipresenti

L’uso degli NFT come strumenti per costruire identità di marca e coinvolgere la comunità è un trend emergente.

SNARKs Diventano Mainstream

L’adozione di SNARKs per la verifica sicura e efficiente di carichi di lavoro computazionali è un trend in crescita.

I trend tecnologici del 2024 abbracciano una vasta gamma di settori in rapida evoluzione, evidenziando il ruolo centrale dell’innovazione tecnologica nel plasmare il futuro in diversi ambiti. Nel 2024 le aziende adotteranno un approccio sempre più pragmatico all’innovazione, con un’attenzione crescente alle pratiche tecnologiche sostenibili e all’importanza di un’approccio alle decisioni tecnologiche strategico, ma anche concreto.

Generative AI: opportunità e rischi

L’AI generativa sta entrando nella discussione di tutti da un po’ di tempo e soprattutto negli ultimi giorni si è sentito parlare tanto di ChatGPT e altri simili.

I 3 motivi che emergono da tante discussioni di queste ore e per cui potrebbe cambiare alcune dinamiche della nostra vita professionale sono in particolare:

  1. Libertà creativa: l’AI generativa ci consentirà di esplorare nuovi livelli di creatività e innovazione, sbloccando possibilità che non sono mai state possibili prima.
    ▪️Provocazione: sarà in grado di non omologare invece?
  2. Automazione: l’AI generativa automatizzerà le attività noiose, dandoci più tempo per concentrarci sulle cose che contano di più.
    ▪️Provocazione: saremo in grado di discernere a quel punto cosa è giusto da cosa è sbagliato se tutto è automatizzato tanto da anticipare un processo di valutazione?
  3. Risoluzione dei problemi: l’AI generativa genererà nuove soluzioni a problemi complessi, facendoci risparmiare tempo e aiutandoci a prendere decisioni più informate.
    ▪️Provocazione: saremo realmente in grado di dedicarci a decisioni più importanti invece di appiattirci completamente?

L’intelligenza artificiale ora scrive codice, può rispondere a domande complesse, progettare interfacce 3D, con semplici input umani o anche senza alcuna interazione umana.

Stiamo sbloccando un nuovo livello di potenziale, nuove opportunità e tutto questo sta – nemmeno troppo gradualmente – abilitando dei cambiamenti di cui ancora non vediamo realmente gli impatti.

Eccitante? Sì 🖖
Allarmante? Forse 🤔

Il video (di circa un anno fa) dettaglia abbastanza alcuni ambiti di applicazione, attuali e potenziali.

E se questo articolo lo avesse scritto una AI?

Sono giorni che girano su Web screenshot di più strani dialoghi fatti tra personaggi storici e attuali, tra cartoni ed altro, completamente generati da sistemi di AI in grado di scrivere testi, interpretare testi e creare immagini o dare vita piccoli spezzoni di video. Di piattaforme di Intelligenza Artificiale generativa ne stanno nascendo parecchie e tra le più note di cui si parla c’è sicuramente MidJourney per le immagini, RunWay per video e OpenAI ChatGPT per i testi. Ieri dopo la richiesta di un cliente di fargli vedere come funzionassero, ho usato ChatGPT scrivendo:

Scrivi un articolo che parla di Intelligenza Artificiale generativa, applicata a video, immagini e testi. Inizia l’articolo con la domanda “E se questo articolo lo avesse scritto una AI?”

In meno di un paio di secondi ChatGPT mi ha risposto nel modo che segue:

E se questo articolo lo avesse scritto una AI? L’Intelligenza Artificiale generativa sta diventando sempre più avanzata e capace di creare contenuti come video, immagini e testi che possono essere difficili da distinguere da quelli creati da esseri umani.

L’Intelligenza Artificiale generativa può essere utilizzata in molti campi, dall’arte alla pubblicità, passando per la scrittura di testi tecnici o scientifici. Ad esempio, un’AI può essere addestrata su una vasta gamma di immagini per creare nuove immagini che sembrano realistiche, oppure può essere addestrata su un corpus di testi per scrivere articoli che hanno lo stile e il tono di un essere umano.

L’Intelligenza Artificiale generativa può anche essere utilizzata per creare video che sembrano girati da una telecamera, con personaggi che parlano e si muovono in modo realistico. Inoltre, può essere utilizzata per generare trascrizioni accurate di audio o video, o per creare sottotitoli per i contenuti audio o video.

L’Intelligenza Artificiale generativa sta facendo passi da gigante nella creazione di contenuti realistici e credibili, e il suo utilizzo sta diventando sempre più diffuso nel mondo dei media e della comunicazione. Tuttavia, ci sono anche preoccupazioni per quanto riguarda la possibilità che queste tecnologie vengano utilizzate per diffondere false informazioni o ingannare gli utenti.

In ogni caso, l’Intelligenza Artificiale generativa rappresenta un importante passo avanti nella creazione di contenuti realistici e convincenti, e sarà interessante vedere come evolverà e come verrà utilizzata in futuro.

Ho rifatto la stessa domanda per dimostrare che non fosse una risposta a “stato finito” e questa è la seconda generazione.

E se questo articolo lo avesse scritto una AI? Negli ultimi anni, l’Intelligenza Artificiale generativa sta diventando sempre più avanzata e sta trovando applicazioni in diversi campi, come la creazione di video, immagini e testi.

L’Intelligenza Artificiale generativa è un tipo di IA che è in grado di creare contenuti originali, utilizzando modelli di apprendimento automatico per analizzare dati esistenti e generare nuovi contenuti che rispettano determinate specifiche. Ad esempio, una IA generativa può essere utilizzata per creare video di alta qualità a partire da un set di immagini o per generare testi che rispettano determinati criteri, come un certo stile o un determinato argomento.

L’applicazione dell’Intelligenza Artificiale generativa ai video può offrire numerosi vantaggi rispetto ai metodi tradizionali di produzione. Ad esempio, una IA generativa può analizzare un gran numero di video e immagini e creare nuovi contenuti in modo più veloce e accurato rispetto a un team di editor umani. Inoltre, l’utilizzo di una IA generativa per la creazione di video può aiutare a ridurre i costi di produzione e aumentare l’efficienza.

Anche nel campo delle immagini, l’Intelligenza Artificiale generativa sta trovando importanti applicazioni. Ad esempio, una IA generativa può essere utilizzata per generare immagini di alta qualità a partire da dati di input scarsi o incompleti. In questo modo, è possibile creare immagini realistiche e dettagliate anche partendo da dati di scarsa qualità.

Infine, l’Intelligenza Artificiale generativa può essere utilizzata anche per la creazione di testi. Ad esempio, una IA generativa può analizzare un gran numero di testi e utilizzare queste informazioni per generare nuovi testi che rispettano determinati criteri, come uno stile specifico o un argomento particolare. In questo modo, l’IA generativa può aiutare a creare contenuti originali e di alta qualità in modo efficiente e veloce.

In conclusione, l’Intelligenza Artificiale generativa sta trovando sempre più applicazioni in campi come i video, le immagini e i testi, offrendo vantaggi come la velocità, l’accuratezza e la riduzione dei costi rispetto ai metodi tradizionali. In futuro, è probabile che questa tecnologia continui a evolversi e a trovare nuove e interessanti

Non vi racconto lo stupore perché sarà lo stesso che molti che leggeranno questo articolo proveranno, ma la cosa interessante è stata la convergenza della discussione sulle opportunità di business e le implementazioni potenziali che ne potrebbero derivare.

Data Is The New Oil: anche per Adidas con Runtastic

2015. Runtastic GmbH, applicazione per il fitness ed il running con 70 milioni di utenti viene acquisita da adidas, per 239 milioni di dollari. Per molti una follia, per tanti altri una operazione di brand e avvicinamento alla più grande community di fitness.

Per me, che ne parlo nelle lezioni in università e master dal momento dell’acquisizione, una operazione mirata principalmente ai dati. Si, ai dati: luoghi, percorsi, abitudini, prodotti indossati, mood, relazioni ed interessi sportivi.

Dati in grado di trasformare i processi di R&D, lo studio di nuove opportunità di mercato e rivoluzionare, attraverso i dati, la progettazione, il design stesso e perché no i materiali.

Oggi Runtastic ha oltre 170 milioni di utenti e Adidas, dopo aver lasciato inalterata la piattaforma per un periodo – così da non rompere la fiducia della community – e aver poi successivamente accostato il proprio brand alla piattaforma, esce allo scoperto con un primo prodotto ufficialmente DrivenByData: una scarpa con intersuola stampata sui dati di migliaia di atleti.

Il futuro delle aziende è nella capacità di creare, aggregare e acquisire dati ed utilizzarli per modellare processi, metodologie, prodotti e servizi e rendere se stesse sempre più veloci, competitive ed adattative.

DataIsTheNewOil

Design Thinking: l’importanza del metodo, la centralità dell’utente e l’efficacia della UX

Mi è stato chiesto più volte cosa fosse il Design Thinking, come viene utilizzato, in quali casi serve e come può esser applicato a determinati progetti.

Bene, partiamo dalla base: il Design Thinking

Il Design Thinking è essenzialmente un metodo per affrontare il problem solving in maniera creativa. Secondo l’Interaction Design Foundation (IDF),

“Il Design Thinking è un processo iterativo in cui si cerca di comprendere l’utente, sfidare convinzioni e ridefinire i problemi nel tentativo di identificare strategie e soluzioni alternative…”

Il punto chiave è che si tratta di un processo incentrato sull’uomo, sull’utente, sulla persona. Per lo UX Designer è fondamentale che l’utente sia in prima linea, il che significa che è necessario essere in grado di entrare in empatia con esso. Il Design Thinking crea un terreno fertile per l’empatia: è facile riconoscere un prodotto che pone al centro le esigenze degli utenti rispetto a uno che non lo fa. Ciò non vuol dire che gli obiettivi di business non siano altrettanto importanti, ma la UX si basa sul trovare un giusto equilibrio tra le esigenze dell’utente e le esigenze di business: incorporare i principi del Design Thinking fornirà una base per trovare quell’equilibrio.

 

Il metodo

Il processo di Design Thinking si basa su 5 fasi:

  1. Empatizzare – con gli utenti
  2. Definire – le esigenze degli utenti, i loro problemi e le tue intuizioni derivanti da essi
  3. Ideare – sfida le ipotesi e produci idee alla ricerca di soluzioni innovative
  4. Prototipare – inizia a creare soluzioni
  5. Testare – le soluzioni

È importante comprendere che questi step non sono lineari. Possono verificarsi in parallelo e spesso (quasi sempre) ripetersi. Tuttavia, il primo step è in genere quello dell’empatia.

 

Empatizzare per gli utenti

L’empatia non è solo applicabile alla UX. È una competenza importante da avere e che, talvolta, può sempre tornare utile in contesti differenti, non solo al lavoro e nei progetti. Tuttavia, anche se ci consideriamo empatici, può essere facile perdere di vista il modo di “connettersi” con l’utente. Quindi, come ci si può assicurare che questo non accada?

Il primo passo è conoscere gli utenti. Non si tratta solo di capire ciò che il cliente potenziale desidera e quello di cui ha bisogno. Piuttosto, questo step, consiste nel prendere il giusto tempo per analizzare, raccogliere e collezionare quanti più pensieri, emozioni, desideri ed informazioni degli utenti. Come dice Simon Sinek, People don’t buy what you do, they buy why you do it. Se si riesce a capire il “perché” del cliente, allora saremo in grado di trasmettere loro meglio il “perché” della nostra proposizione. In sostanza, si tratta di creare una connessione tra il prodotto e l’utente.

Possiamo dire di aver iniziato a sviluppare un senso di empatia per le persone per le quali stiamo progettando, quando abbiamo raccolto informazioni sui loro bisogni, desideri, comportamenti e pensieri e ne abbiamo compreso dinamiche, esigenze e criticità. Mentre facciamo osservazioni, è meglio tenere da parte i giudizi, così da evitare supposizioni o esperienze e non creare pregiudizi. Dobbiamo assicurarci di fare domande e ascoltare veramente ciò che l’utente dice.

Condurre interviste è un metodo utile per connettersi con i clienti. Prima dell’intervista, è produttivo individuare i temi e le domande che si vuole mettere in evidenza nelle conversazioni. Questo assicura di rimanere in tema e di entrare nel vivo di ciò che si vuole imparare da queste interviste e quali informazioni raccogliere.

 

Definire il problema

Una volta acquisita una conoscenza approfondita di come entrare in empatia con gli utenti e, quindi, una solida conoscenza delle persone per le quali stiamo progettando, si può iniziare a definire il problema e creare una soluzione human-centered. Durante questa parte del processo, è necessario sintetizzare tutte le intuizioni derivanti dalle interviste e dalle osservazioni. Una volta fatto, è possibile creare una chiara definizione del problema che aiuterà a produrre una soluzione pertinente.

Questa fase riguarda l’analisi e la sintesi. Secondo l’IDF, l’analisiriguarda la demolizione di concetti e problemi complessi in costituenti più piccoli e più facili da comprendere“. Mentre la sintesicoinvolge creativamente mettendo insieme il puzzle per formare idee“.

Una volta completati questi due step è necessario creare una definizione del problema, da seguire in modo tale da andare sempre nella giusta direzione per il resto del progetto e non perdere il focus rispetto al problema iniziale.

 

Dal problema all’idea

La prima fase creativa ha inizio con il brainstorming ed ha l’obiettivo di generare potenziali soluzioni sulla base di tutta la ricerca e l’attività di sintesi svolta precedentemente. Sarà essenziale mantenere un approccio sempre human-centered (in poche parole: non scordiamoci mai dell’utente!). La soluzione generata dovrà riflettere la ricerca effettuata sull’utente e i temi chiave emersi dalle informazioni raccolte nelle fasi precedenti.

Durante questo step, si dovranno creare quante più idee possibili. Più avanti, restringeremo l’analisi a poche idee selezionate. Questo momento è l’occasione migliore per pensare fuori dagli schemi ed dare un impatto creativo alla progettualità. Questo sarà un importante supporto alla produzione di soluzioni innovative, a cui potremmo non aver pensato in una prima analisi. La fase di ideazione permette di mettere in discussione le assunzioni tradizionali e di approfondire la conoscenza dell’utente e i suoi bisogni. Fare domande (io prediligo la tecnica della scatola dei perchè) continue e rivalutare le convinzioni comuni. Come scrive Don Norman, le domande “stupide” sono esattamente il modo giusto di acquisire la conoscenza necessaria per costruire un grande prodotto.

 

Prototipare velocemente

Dalla teoria alla pratica, portando le idee in vita. È uno step che di solito piace e coinvolge, in quanto si comincerà a progettare la soluzione potenziale che successivamente, ed eventualmente, verrà testata con le persone. È importante notare che in questa fase non stiamo ancora realizzando un prodotto finito. In questa fase, infatti, ci si focalizzerà su una versione “ridotta” del prodotto, detta anche MVP (Minimum Viable Product). IDF definisce così l’uso dei prototipi, “I prototipi sono costruiti in modo tale che i designer possano pensare alle loro soluzioni in maniera diversa (con prodotti tangibili più che idee astratte), così come possano fallire in maniera rapida ed economica, in modo tale che che meno tempo e denaro siano investiti in un’idea che poi si riveli essere non buona.

Il punto chiave è che in questa fase si può “fallire” velocemente e con un impatto economicamente minore. Prima di investire troppo tempo e risorse in un prodotto, raccogliere feedback dagli utenti mediante l’utilizzo di un “prototipo” è sicuramente più efficace , riduce l’impatto dell’errore, permette di ridefinire un percorso senza dover cestinare un eccesso di lavoro già fatto.

 

Testare la soluzione

Prendere questo step come un’opportunità per ridefinire ogni problema, e per imparare di più , ed in modo agile, sull’utente finale in termini di sensazioni, pensiero e comportamento. La fase di testing ti consente di costruire una conoscenza più profonda del cliente, circa la sua interazione con il prodotto e quindi di migliorare la user experience.

Un punto cruciale è quello di raccogliere quanti più feedback possibili: osservare come le persone interagiscono con il prototipo e chiedere loro di pensare a voce alta durante l’utilizzo è il miglior modo di sollevare ulteriori domande ed approfondimenti progressivi.

La fase di testing può confermare le ipotesi o può essere il segnale che bisogna ricominciare il processo, ma non importa se il feedback è positivo o negativo: quello che è importante è tutta la conoscenza che si sta accumulando durante il processo.

 

Concludendo

Applicare il Design Thinking significa iterare e migliorare, muovendosi agilmente attraverso ogni step del processo. Questi 5 step non sono lineari, e potremmo trovarci a ripercorrere la stessa fase più volte prima di arrivare alla giusta soluzione (succede puntualmente, esperienza personale!). Pensate al processo come un framework generale, da utilizzare in progetti differenti e senza la necessità di vederlo come uno strumento rigido. Indipendentemente dal percorso utilizzato, implementare la metodologia di Design Thinking porterà al miglioramento dell’esperienza utente e al tanto auspicato successo del progetto.

 

Perché comprare quando puoi copiare?

Il grande mangia il piccolo“, si è sempre detto. Ed è successo molte volte nel passato. Anche con una mia iniziativa.

Chi mena per primo, mena due volte“, si diceva, anche, nei migliori bar di Caracas, e a Roma. Si faceva riferimento al “First Mover” colui che, muovendosi prima degli altri, riusciva a prendere un vantaggio competitivo importante: tempo di ingresso sul mercato, brand loyalty e leadership tecnologica, diritto di opzione su risorse scarse, rafforzamento derivante dallo switching cost dell’utente e soprattutto il vantaggio dei rendimenti crescenti.

Poi c’era il concetto del “Make or Buy“, parte del processo decisionale strategico. “Fare o comprare?“, questo era il dilemma. E non avevi alternativa: o costruivi quello che ti serviva o compravi un servizio terzo. 

Poi, nel digitale, più che mai, tutto è cambiato.

Anche concetti come questi, sono quasi da rivedere, oggi.

Chi detiene grossi volumi di utenti, le loro informazioni ed è in grado di influenzarne lo spostamento ed il comportamento, ha un grosso potere aggiuntivo. Un potere che permette di rischiare meno (costo), ma fare meglio (qualità) e fare prima (tempo crescita). Un potere che permette di lasciare agli altri la possibilità di provare ad innovare, osservarne la validazione di un possibile nuovo modello, per poi muoversi e decidere: “comprare o copiare“? 

E come avrete letto ultimamente questo nuovo dilemma è sempre più frequente.

L’annuncio di Lasso, fatto ormai poco tempo fa, ha visto Facebook tornare alla sua strategia “se non puoi comprarlo, copialo“. Questa volta la strategia è stata applicata all’ex Musical.ly – ora TikTok (dopo l’acquisizione) – l’app popolare tra adolescenti che permette di sincronizzare il video registrato con routine di ballo a brevi porzioni di brani preferiti, dal valore stimato di oltre 1 miliardo di dollari.

Al momento dell’acquisizione, Musical.ly contava circa 60 milioni di utenti mensili attivi attirando l’attenzione di Facebook che, per via dal della sua popolarità con un pubblico più giovane e vedendone crescere la popolarità a livello mondiale, come già fatto in altre circostanze, ha deciso di lanciare una copia creata in un hackathon interno, dopo aver raggiunto un accordo con le etichette sui diritti delle canzoni.

La cultura dello sviluppo di Facebook e le risorse illimitate consentono di copiare praticamente qualsiasi modello. Questo è il punto.

Lasso è praticamente una ripetizione operativa di quello che è successo con Snapchat nel novembre 2013, dopo che Facebook fatta la proposta di acquisizione, ricevette un rifiuto: il team di Mark ha creato quattro versioni di Snapchat prima di lanciare Stories su Instagram, che alla fine è riuscito a detronizzare Snapchat in termini di popolarità creando un pubblico più vasto. Da allora, Snapchat ha mantenuto la fedeltà del pubblico più giovane negli Stati Uniti, ma Instagram Stories ha performato molto di più in termini di numero totale di utenti, attirando gli utenti più anziani che non erano particolarmente a proprio agio con Snapchat, ed è ora più del doppio in termini dimensionali.

La strategia evidenzia la “paranoia borderline” di Facebook riguardo l’ambiente altamente volatile dei social network, dove è essenziale muoversi rapidamente per acquisire o copiare qualsiasi cosa che rischia di causare un’interruzione nelle tendenze di utilizzo e allo stesso tempo possa invece diventare uno strumento ulteriore di rafforzamento dell’attenzione dell’utente e del tempo speso nel proprio “ecosistema”.

Il forte calo della popolarità di Facebook nei segmenti più giovani sta spingendo la società di Menlo Park a trovare o creare servizi per attrarre nuovi utenti: ovviamente è troppo presto per sapere se la strategia funzionerà con Lasso o se dovrà tentare più volte finché non troverà la formula giusta, ma di certo non è un caso un certo tipo di approccio al mercato.

Quindi è giusto ragionare così: perché comprare quando puoi copiarlo?

I vantaggi che una volta il “First mover” aveva, oggi non li ha praticamente più, soprattutto se non ha una forte barriera di ingresso o una protezione importante dell’innovazione che sta introducendo nel mercato: chi parte secondo, soprattutto se a partire è uno dei player del GAFAM (Google, Apple, Facebook, Amazon o Microsoft), del  BATX (Baidu, Alibaba, Tencent et Xiaomi) o anche del NATU (Netflix, AirBNB, Tesla, Uber), ha il vantaggio di poter capire come integrare un nuovo servizio, una possibile innovazione o una funzionalità di tendenza, su una base utenti forte e consolidata, spostando in poco tempo una % utenti sufficienti per validare il modello, aumentare il tempo di permanenza, e l’attenzione, distruggendo in un nulla il mercato di un player che quel mercato lo ha aperto.