Governance sintetica: sistemi decisionali mediati dall’AI per istituzioni e comunità

Un nuovo capitolo delle decisioni collettive

Un consiglio comunale si riunisce, ma non nel modo consueto. Cittadini, intelligenze artificiali e amministratori si ritrovano su una piattaforma digitale in cui un algoritmo mappa le opinioni, evidenziando sorprendenti punti di consenso. Ciò che un tempo richiedeva mesi di accesi dibattiti ora richiede settimane. Un registro sicuro basato su blockchain registra in modo trasparente ogni suggerimento e voto, visibile a tutti.

In questo scenario di un futuro prossimo, il governo stesso si è evoluto: le decisioni sono guidate dall’intelligenza artificiale, validate su reti distribuite e plasmate da una partecipazione di massa. Questa è la Synthetic Governance in azione – un mondo in cui le nostre scelte collettive sono aumentate e accelerate dalla tecnologia. È un cambiamento intelligente e visionario che potrebbe trasformare tutto, dai consigli comunali alle istituzioni globali.

Ma solleva anche una domanda: come sfruttare AI e blockchain per potenziare la democrazia, senza perdere il tocco umano?

Dal consenso lento alla collaborazione algoritmica

Il modo in cui prendiamo decisioni collettive è a un punto di svolta. I modelli tradizionali di governance – nei parlamenti come nei consigli di amministrazione – spesso arrancano di fronte a complessità, impasse e sovraccarico informativo. Grandi gruppi con obiettivi diversi faticano a collaborare, e gli strumenti convenzionali (sondaggi d’opinione, assemblee pubbliche, analisi manuali dei dati) sono sopraffatti dalla scala e dalla complessità.

Il risultato sono spesso stalli decisionali o politiche in ritardo rispetto ai bisogni della società. Entra in gioco l’approccio dei sistemi decisionali mediati dall’AI: un nuovo metodo che utilizza algoritmi e registri distribuiti per aiutare i gruppi a ragionare e decidere insieme. Grazie alla sua capacità di macinare enormi quantità di dati, rilevare schemi e persino simulare scenari futuri, l’AI offre un modo per superare i dilemmi collettivi. Può analizzare enormi moli di input, comprendere le preferenze di gruppo ed eseguire simulazioni in modi impossibili per gli umani senza aiuto.

Allo stesso tempo, blockchain e altri modelli distribuiti introducono trasparenza e fiducia radicali – ogni voto o decisione può essere verificato, immunizzato da manomissioni e aperto al controllo pubblico.

In sintesi, la Synthetic Governance sposta il focus da un consenso costruito lentamente e in modo frammentario a una collaborazione aumentata in cui umani e macchine elaborano insieme le decisioni. Promette intuizioni più rapide e una partecipazione più ampia, trasformando il decision-making da un’arte del compromesso in una scienza del consenso inclusivo.

I mattoni della Synthetic Governance

Nel suo nucleo, la Synthetic Governance fonde l’intelligenza collettiva con l’intelligenza artificiale. Tre pilastri sostengono questo cambiamento: algoritmi avanzati (AI), registri distribuiti (blockchain) e nuovi modelli di partecipazione.

Il ruolo dell’AI è supportare e potenziare il processo decisionale umano – non sostituirlo. Ad esempio, l’AI può setacciare migliaia di commenti pubblici per riassumere le preoccupazioni principali, oppure modellare l’impatto di una politica su una società simulata prima che venga attuata. Ricerche recenti mostrano persino che l’AI può fare da mediatore nelle discussioni: in uno studio, un sistema AI ha analizzato le opinioni dei partecipanti e generato enunciati di consenso che le persone hanno valutato come più chiari e imparziali rispetto a quelli scritti da facilitatori umani – aiutando i gruppi a trovare un terreno comune e a convergere su prospettive condivise. Questi mediatori AI funzionano come facilitatori virtuali, ampliando il tipo di dialogo produttivo di cui la democrazia ha bisogno.

Il ruolo della blockchain è fornire un’infrastruttura di fiducia. Le tecnologie a registro distribuito abilitano una governance decentralizzata, in cui le regole sono applicate dal codice e la trasparenza è intrinseca. Ne sono un esempio le Decentralized Autonomous Organizations (DAO): utilizzano blockchain, token digitali e smart contract per permettere a comunità di allocare risorse e prendere decisioni senza gerarchie tradizionali.

Nei settori della finanza, della filantropia e delle comunità online, le DAO stanno reinventando il modo in cui vengono governati i processi collaborativi, offrendo potenzialmente maggiore accountability e partecipazione allargata fin dalla progettazione. Una rete di cittadini può votare su proposte con la garanzia che i risultati non saranno manipolati – ogni voto è registrato in modo immutabile sulla catena. Gli smart contract eseguono automaticamente le decisioni (per esempio, sbloccando fondi al verificarsi di certe condizioni) con precisione e senza bisogno di intermediari.

Questa architettura può aumentare la fiducia e l’efficienza nel processo collettivo: i partecipanti sanno che il processo è trasparente e non falsificabile.

Nuovi modelli partecipativi costituiscono il terzo elemento. La Synthetic Governance attinge a innovazioni nelle pratiche democratiche – basti pensare a piattaforme deliberative online, policymaking aperto e metodi di voto innovativi. In tutto il mondo vediamo esperimenti come la democrazia liquida (in cui gli individui delegano dinamicamente i propri voti) e il voto quadratico (che consente alle persone di esprimere l’intensità delle preferenze). Questi metodi, spesso facilitati da strumenti digitali, mirano a rendere la partecipazione più sfumata e inclusiva.

Il filo conduttore è il passaggio verso una “crowdocracy” – un governo attraverso l’intelligenza collettiva di molti, invece che tramite decisioni calate dall’alto. L’AI e l’analitica aiutano a gestire questo flusso di input, identificando le idee chiave o le aree di accordo. L’obiettivo è un’inclusività aumentata: più voci nel dibattito, con algoritmi che garantiscono che nessuna voce vada persa nel rumore. Se progettati correttamente, questi sistemi possono elevare il dibattito riflessivo a scapito delle urla scomposte, concentrando l’attenzione sui fatti e sulle soluzioni piuttosto che sulla disinformazione o le provocazioni.

Ovviamente, comprendere questo cambiamento significa anche essere realistici. AI e blockchain non sono bacchette magiche – riflettono i dati e le regole che forniamo loro. Se i dati sono distorti o incompleti, le raccomandazioni dell’AI potrebbero essere faziose. Se un sistema di voto su blockchain è troppo complesso, potrebbe escludere i cittadini meno esperti di tecnologia. Dunque, la progettazione dei sistemi di Synthetic Governance è cruciale. Devono incorporare fin dall’inizio principi di equità, trasparenza e accessibilità.

Mentre costruiamo queste nuove architetture, la domanda guida diventa: come può la tecnologia amplificare i nostri istinti collettivi migliori (ragione, empatia, equità) e frenare i peggiori (pregiudizio, opacità, esclusione)? Rispondere a questa domanda è fondamentale per comprendere davvero la promessa della Synthetic Governance.

Fiducia, trasparenza e supervisione umana

Al cuore di questo cambiamento c’è un paradosso: stiamo affidando maggiori responsabilità alle macchine, per rafforzare la fiducia umana nelle decisioni.

L’obiettivo centrale della Synthetic Governance è produrre decisioni che le persone considerino legittime, eque e informate. L’AI può aiutare sul fronte informativo – migliorando l’efficienza e la profondità delle analisi – ma fiducia e legittimità dipendono da trasparenza e supervisione umana. Un algoritmo governativo che assegna benefici pubblici, per esempio, potrebbe essere estremamente efficiente; i cittadini, però, hanno pieno diritto di sapere come funziona e se è equo.

La responsabilità non può essere automatizzata – deve essere integrata in questi sistemi e vigilata da persone in carne e ossa. Organizzazioni internazionali come l’OCSE sottolineano che il settore pubblico ha una responsabilità speciale nell’uso dell’AI: questi strumenti devono essere impiegati in modo da minimizzare i danni, evitare bias e proteggere la privacy. Se un sistema AI è una “scatola nera” le cui decisioni non possono essere spiegate, rischia di minare la fiducia invece di accrescerla.

Per questo, un principio cardine della Synthetic Governance è la “trasparenza algoritmica” – rendere il più possibile comprensibile il funzionamento dei sistemi decisionali AI. Ciò può significare pubblicare i criteri con cui un algoritmo prioritizza i progetti infrastrutturali, oppure utilizzare algoritmi open-source che esperti e cittadini possano ispezionare. Alcuni governi stanno istituendo comitati etici per l’AI e registri degli algoritmi (elenchi pubblici degli algoritmi utilizzati dalle agenzie) per garantire supervisione.

L’obiettivo è prevenire problemi come i bias nascosti o le discriminazioni involontarie che, come avvertono gli analisti, potrebbero portare a esiti iniqui con implicazioni sociali gravi. Illuminando il codice, si difende il valore del due diligence in un mondo potenziato dall’AI.

Altrettanto importante è l’inclusione. Un sistema decisionale può essere equo solo quanto lo è la partecipazione che consente. La Synthetic Governance cerca di allargare la partecipazione – ma deve attivamente colmare i divari digitali. Non tutti sono fluenti nel “linguaggio dell’AI” o dispongono dell’ultimo smartphone; non ogni comunità ha uguale accesso a Internet. Senza una progettazione attenta, i processi mediati dall’AI potrebbero privilegiare le voci più alfabetizzate digitalmente o amplificare disuguaglianze esistenti.

Consapevoli di ciò, molte iniziative di Synthetic Governance pongono l’accento su ruoli umani aumentati: ad esempio, la piattaforma vTaiwan di Taiwan prevede facilitatori formati (e persino un ruolo governativo chiamato “Participation Officer”) per garantire che la tecnologia aumenti, anziché rimpiazzare, il coinvolgimento umano

. Nelle migliori implementazioni, l’AI gestisce il lavoro pesante – sintetizzando migliaia di commenti o individuando temi comuni – liberando gli umani per fare ciò che sanno fare meglio: discutere di valori, negoziare compromessi ed empatizzare gli uni con gli altri.

La fiducia è la valuta della governance, e questo cambiamento riguarda l’ottenere fiducia in modi nuovi. Immaginiamo politiche co-create dai cittadini insieme a consulenti AI, o bilanci decisi con input in tempo reale da parte dei membri della comunità tramite sondaggi su blockchain. Tali processi possono apparire più democratici e informati, rafforzando la fiducia – ma solo se i cittadini credono che i sistemi siano aperti e controllabili. Dunque, il nucleo della Synthetic Governance non è la tecnologia in sé; è un nuovo patto sociale attorno alla tecnologia.

Accettiamo di introdurre algoritmi e reti nei nostri processi decisionali, ma in cambio ci aspettiamo maggiore trasparenza, equità e decisioni basate sui fatti. Il mantra potrebbe essere: potenziare la governance, non automatizzarla. Gli esseri umani restano nel circuito come decisori finali, guidati dalle intuizioni dell’AI ma anche dai principi etici e democratici che la tecnologia da sola non può garantire. Se si trova questo equilibrio, la Synthetic Governance può produrre decisioni non solo più intelligenti, ma anche più degne della nostra fiducia.

Strategia, policy e design reinventati

Ciò che nasce nei forum governativi e nelle comunità online non vi rimane confinato – gli effetti a cascata della Synthetic Governance si estendono in lungo e in largo. Sul fronte della strategia, organizzazioni di ogni tipo stanno apprendendo da questi nuovi paradigmi decisionali. Le imprese, ad esempio, stanno adottando la pianificazione strategica assistita dall’AI per rendere le decisioni più adattive. Invece di affidarsi all’intuito o a piani quinquennali statici, i leader utilizzano simulazioni con agenti virtuali per stress-testare le strategie in condizioni variabili. Ne deriva un passaggio dalla strategia come tabella di marcia fissa alla strategia come processo di navigazione in continuo apprendimento. Si diffonde il portfolio planning (sviluppare opzioni strategiche alternative) e l’adattamento in tempo reale basato sui dati.

I principi della Synthetic Governance – apertura a input diversificati e adattamento fondato su evidenze – stanno trasformando la strategia in uno sforzo collaborativo e dinamico. Un’AI potrebbe segnalare deboli “segnali anticipatori” di cambiamento (ad esempio, una nuova preferenza dei consumatori o un rischio geopolitico emergente) permettendo a aziende o governi di reagire proattivamente.

L’impatto ampio è che il processo decisionale diventa più orientato al futuro e resiliente, sia nelle politiche pubbliche sia nelle strategie aziendali.

Nelle politiche pubbliche stiamo assistendo ai primi passi di una governance anticipatoria. I governi stanno inserendo strumenti previsionali potenziati dall’AI nel ciclo di policy-making. Si pensi ai “laboratori” di simulazione normativa: prima di implementare una nuova politica, i regolatori possono simularne gli effetti su una popolazione virtuale. Si sta valutando l’introduzione di un reddito di base universale? Lo si può simulare per capire come reagirebbero milioni di famiglie a livello economico.

Questo approccio, supportato dall’AI, può rivelare in anticipo conseguenze indesiderate, portando a progettare politiche più intelligenti. Istituzioni come la Commissione Europea e l’OCSE hanno creato unità di foresight strategico che utilizzano la modellizzazione di scenari e l’analisi dei dati per elaborare politiche robuste a diversi scenari futuri. L’ethos sta passando da una governance reattiva (“aggiustare i problemi dopo che si manifestano”) a una governance proattiva (“progettare politiche capaci di reggere agli shock futuri”).

Le politiche diventano così più guidate da evidenze e collaudate in scenari. Inoltre, l’aspetto deliberativo della Synthetic Governance significa che le politiche guadagnano legittimità: quando i cittadini vedono che le loro opinioni o i loro dati hanno concretamente plasmato una legge – tramite una consultazione online o una proposta crowdsourced adottata grazie all’analisi dell’AI – saranno più propensi ad accettarla e supportarla.

Sul versante del design – inteso sia come progettazione di sistemi sia di servizi e prodotti – l’influsso è profondo. Consideriamo come si progetta un processo di coinvolgimento pubblico o una piattaforma digitale per la partecipazione. L’emergere della mediazione AI richiede ai designer di dare priorità a esperienza utente, equità e chiarezza. Ad esempio, i progettisti della piattaforma Polis di Taiwan hanno dovuto assicurarsi che l’interfaccia incoraggiasse il consenso, non il conflitto: hanno deliberatamente impedito le risposte dirette ai post per evitare flame war, visualizzando invece le aree di accordo

È una nuova sfida di design all’incrocio tra tecnologia e sociologia. In pratica, stiamo progettando per l’intelligenza collettiva. Emergono concetti come la UX della governance: quanto è facile per un cittadino comprendere e interagire con un’assemblea virtuale facilitata dall’AI? Come presentiamo le intuizioni generate dall’AI in modo che le persone le trovino affidabili e non di parte? Il cambiamento più ampio qui è che designer, architetti di politiche e tecnologi devono lavorare insieme. Le soluzioni sono interdisciplinari: un po’ di data science, un po’ di economia comportamentale, un po’ di design civico.

Vediamo l’emergere di framework concreti da think tank e gruppi civic tech. Ad esempio, linee guida etiche di design per algoritmi pubblici insistono su trasparenza e progettazione human-centric, garantendo che, anche se le decisioni diventano guidate dai dati, restino comprensibili ed eque per le persone coinvolte.

Dobbiamo citare anche le riforme legali e istituzionali come parte di questo ampio cambiamento. Le nostre leggi e burocrazie non sono state create per AI e blockchain. Ora si stanno aggiornando. I Paesi stanno sviluppando quadri normativi per l’AI (ad esempio, l’AI Act dell’UE) per regolare come l’AI può essere usata in ambiti delicati. Analogamente, sul fronte di blockchain e DAO, c’è uno sforzo per chiarire lo status giuridico – chi è responsabile se “il codice è legge”?

Il World Economic Forum rileva che senza definizioni legali chiare, i partecipanti delle DAO affrontano incertezze (es. potrebbero avere responsabilità legali per decisioni prese collettivamente?). In risposta, stanno emergendo nuove politiche – alcune giurisdizioni ora consentono alle aziende di registrarsi come DAO o riconoscono gli smart contract come strumenti legali. In sostanza, stiamo ripensando le istituzioni di governance per adattarle a queste tecnologie. Ciò comporta l’istituzione di guardrail (per prevenire abusi come la discriminazione algoritmica o gli exploit negli smart contract) e di fattori abilitanti (come sistemi di identità digitale affinché i voti online siano sicuri e verificabili).

La visione a lungo termine è una fusione armoniosa tra vecchio e nuovo: principi e diritti costituzionali codificati o rispettati nei sistemi algoritmici, e sandbox normativi agili dove le innovazioni nella governance possono essere testate in sicurezza.

In sintesi, il cambiamento più ampio introdotto dalla Synthetic Governance va ben oltre esperimenti isolati – sta influenzando il modo in cui pianifichiamo, elaboriamo politiche e progettiamo i processi di governance. La strategia diventa più adattiva e guidata dai dati; la definizione delle politiche diventa più partecipativa e resiliente al futuro; la progettazione di tecnologie civiche diventa cruciale quanto le politiche stesse.

Si tratta di una trasformazione olistica della cultura della governance, che unisce la velocità e il rigore degli algoritmi con la saggezza e i valori delle comunità umane. Man mano che questo cambiamento si diffonde, potremmo scoprire che non solo governi e organizzazioni prendono decisioni migliori – ma forse ricostruiscono anche la fiducia pubblica, pezzo dopo pezzo, attraverso apertura e collaborazione.

Sfide e opportunità all’orizzonte

La Synthetic Governance è ancora agli inizi – una frontiera entusiasmante con molte domande aperte. Guardando avanti, una sfida urgente è scalare questi modelli in modo responsabile. Finora molti successi (come vedremo nel caso di Taiwan) si sono avuti a livello locale o nazionale in comunità tecnologicamente avanzate.

Il passo successivo è portare sistemi decisionali con AI e blockchain in contesti più ampi – dai piccoli comuni agli organismi internazionali – senza lasciare indietro nessuno. Ciò significa puntare sull’inclusione digitale: garantire che, man mano che dispieghiamo piattaforme sofisticate, investiamo anche in alfabetizzazione digitale e accesso equo. Un’assemblea cittadina aumentata dall’AI è un’ottima cosa, ma solo se ogni cittadino ha i mezzi e le competenze per partecipare. Colmare quel divario è di per sé una priorità politica. Potremmo vedere governi creare nuovi ruoli o dipartimenti per la “partecipazione digitale”, incaricati di rendere questi strumenti comuni e semplici quanto le urne elettorali.

Un altro fronte chiave è governare l’AI con l’AI – un concetto in un certo senso autoriferito. Man mano che i sistemi di AI diventano più centrali nei processi decisionali, potremmo impiegare AI per monitorare l’AI. Immaginiamo un’AI di oversight che controlli continuamente gli algoritmi governativi per individuare bias o errori, segnalando problemi a regolatori umani.

Ciò potrebbe migliorare l’accountability, individuando i problemi più velocemente rispetto alla supervisione tradizionale. In effetti, si stanno già formando collaborazioni: l’AI Governance Alliance del World Economic Forum riunisce stakeholder per esplorare idee simili. La cooperazione internazionale sarà cruciale, perché la tecnologia oltrepassa i confini, a differenza delle leggi. Potremmo aver bisogno di nuove istituzioni per l’era dell’AI – forse una sorta di “Consiglio Internazionale di Supervisione Algoritmica” in seno all’ONU, o trattati che garantiscano determinati standard di base (ad es. trasparenza o rispetto dei diritti umani) per qualsiasi uso pubblico dell’AI. Questi sono concetti iniziali, ma sottolineano che anche la governance deve innovare in parallelo con la tecnologia.

All’orizzonte, vediamo anche la maturazione dei modelli decentralizzati. Le DAO odierne, nonostante le potenzialità, affrontano ostacoli come bassa partecipazione e incertezza legale. Ma si stanno studiando soluzioni: piattaforme DAO più user-friendly, strutture giuridiche ibride (dove una DAO è affiancata da un’entità legale tradizionale), e meccanismi di incentivo migliorati per stimolare il coinvolgimento dei membri.

Nei prossimi anni, la governance decentralizzata potrebbe passare da comunità cripto di nicchia ad applicazioni mainstream. Potremmo assistere a quartieri che formano cooperative stile DAO per gestire risorse locali, o organizzazioni non-profit governate da stakeholder sparsi nel mondo che detengono token. Man mano che questi esperimenti proliferano, genereranno dati su cosa funziona e cosa no. È probabile che itereremo verso best practice di “governance 2.0”: ad esempio, combinando input diretti dei cittadini con analisi di esperti tramite AI, oppure utilizzando votazioni su blockchain in concomitanza con assemblee cittadine, così da unire deliberazione qualitativa e decisione quantitativa.

Fondamentale, la cultura attorno alla governance dovrà evolversi. Funzionari pubblici, manager e cittadini dovranno abbracciare mentalità più aperte e collaborative. Può essere scomodo – cedere parte del controllo ad algoritmi o folle può sembrare rischioso. Ci sarà resistenza, e non senza ragione: passi falsi (come uno strumento di AI fuori controllo o un voto su blockchain compromesso da un bug) potrebbero erodere la fiducia. Ecco perché progetti pilota e valutazioni rigorose sono essenziali.

Ogni città o organizzazione che sperimenta la Synthetic Governance dovrebbe prevedere audit e piani di riserva. La trasparenza sugli insuccessi sarà importante tanto quanto sbandierare i successi. Col tempo, man mano che cresce la fiducia, potremmo vedere un ciclo virtuoso: esempi riusciti creano domanda pubblica per una diffusione maggiore. Immaginiamo un futuro in cui, in campagna elettorale, i candidati si confrontino su come utilizzeranno AI e input dei cittadini per prendere decisioni più reattive – è un’ipotesi tutt’altro che remota.

Infine, ciò che ci attende implica fare i conti con questioni etiche e filosofiche. Come preserviamo i diritti fondamentali (come la privacy e la libertà di espressione) nelle discussioni mediate dall’AI? Chi è responsabile se la raccomandazione politica di un’AI causa danni – i funzionari, gli sviluppatori, l’algoritmo stesso? Abbiamo bisogno di una sorta di “giuramento di Ippocrate” per gli algoritmi che governano la vita pubblica? La società dovrà dibattere e rispondere a queste domande parallelamente allo sviluppo tecnico.

La buona notizia è che la Synthetic Governance, per sua natura, può includere la società in quel dibattito. Possiamo usare proprio gli strumenti di intelligenza collettiva per decidere come dovrebbero essere governati – una sorta di circuito riflessivo della democrazia.

In definitiva, il prossimo capitolo della Synthetic Governance sarà definito dall’equilibrio: equilibrio tra innovazione e cautela, efficienza ed equità, tecnologia e umanità. Le opportunità davanti a noi sono enormi – un governo a tutti i livelli più partecipativo, adattivo e basato sui dati. I rischi, se non controllati, sono altrettanto rilevanti – da una potenziale “tirannia” degli algoritmi a nuove forme di esclusione. Orientarsi verso le opportunità e lontano dai rischi è il grande compito che ci attende.

Nel procedere, una cosa è chiara: la governance non sarà più la stessa. Il cambiamento che stiamo attuando ora potrebbe rimodellare profondamente i contratti sociali di domani, auspicabilmente in meglio. Le decisioni che prendiamo su come usare AI e blockchain nella vita pubblica a loro volta determineranno la qualità delle nostre democrazie e istituzioni nel XXI secolo.

vTaiwan: un pioniere della democrazia digitale

Una protesta del 2014 a Taipei durante il Movimento dei Girasoli, che ha catalizzato le iniziative taiwanesi di democrazia digitale.
Nel 2014, Taiwan ha affrontato una crisi di fiducia nel proprio governo. Le polemiche su un accordo commerciale con la Cina hanno scatenato proteste di massa note come Movimento dei Girasoli, con studenti e attivisti che hanno occupato il parlamento. Invece di reprimere le proteste, è accaduto qualcosa di straordinario: funzionari governativi e civic hacker hanno unito le forze per co-creare un nuovo modo di prendere decisioni.

Ne è nato vTaiwan, una piattaforma di consultazione aperta lanciata nel 2015 che combina deliberazione online e offline per costruire consenso sulle politiche pubbliche. Nata dalla comunità civic tech g0v (“gov-zero”) e sostenuta dalla ministra digitale Audrey Tang, vTaiwan è stata concepita come uno spazio neutrale in cui qualsiasi cittadino potesse discutere di questioni di policy con la partecipazione del governo – dai regolamenti su Uber alle normative fintech. Alla base c’è l’idea che, anche su temi controversi, la tecnologia possa aiutare a trovare terreni comuni invece di amplificare le divisioni.

Il processo vTaiwan si articola in varie fasi. La prima è una fase “oggettiva”: raccolta di fatti, dati e definizione del problema. Segue una fase “riflessiva” di deliberazione online usando uno strumento chiamato Polis – il motore della piattaforma, basato su algoritmi, per costruire consenso. Polis consente a migliaia di partecipanti di pubblicare opinioni e votare (d’accordo/non d’accordo/astensione) sugli enunciati altrui. Una particolarità: nessuno può gridare o rispondere direttamente; Polis raggruppa invece algoritmicamente le persone in base alle somiglianze nei voti e mette in evidenza gli enunciati che ottengono ampio sostegno trasversale ai vari gruppi.

Man mano che la discussione avanza, emerge una visualizzazione: un “paesaggio di opinioni” che mostra cluster di gruppi di opinione e le aree di sovrapposizione tra essi. Gli stessi partecipanti possono vedere questa mappa in tempo reale, il che li stimola – quasi fosse un gioco – a formulare enunciati in grado di attrarre il sostegno altrui, incentivando la ricerca del consenso. Dopo poche settimane, in genere il processo porta alla luce una serie di affermazioni condivise.

Si passa poi a un incontro di persona (trasmesso in streaming per trasparenza) in cui gli stakeholder chiave – funzionari, esperti, rappresentanti dei cittadini – esaminano quei punti di consenso e elaborano raccomandazioni o azioni concrete. Infine, se opportuno, si formula una bozza di legge o di regolamento basata su questo lavoro e la si inoltra al normale iter legislativo.

Un “paesaggio di opinioni” generato da Polis nel dibattito di vTaiwan su UberX: ogni punto rappresenta un partecipante raggruppato in base ai modelli di voto, ed emergono enunciati di consenso (come uno con il 92% di accordo) che attraversano le divisioni.

I risultati testimoniano il potere di questo approccio. Tra il 2015 e il 2018, vTaiwan ha affrontato 26 questioni nazionali – dalla regolamentazione dei servizi di ride-sharing alla vendita online di alcol – e circa l’80% di questi processi ha portato a un’azione governativa concreta, sotto forma di nuove leggi o cambiamenti regolamentari. Finora oltre 200.000 persone hanno partecipato, un numero sorprendente considerando la popolazione di Taiwan (circa 23 milioni). Uno dei primi successi citati è stato il caso UberX: inizialmente il dibattito era polarizzato tra sostenitori e oppositori di Uber, ma attraverso Polis i partecipanti hanno convergito su principi condivisi (come garantire concorrenza leale e standard di sicurezza) che hanno plasmato un nuovo quadro normativo accettabile per entrambi gli schieramenti.

Il governo, vedendo quel consenso emergente, ha proceduto a varare regole che hanno legittimato il ride-sharing affrontando al contempo le preoccupazioni dei tassisti. È stato un punto di svolta su un tema che in molti altri paesi era rimasto bloccato.

Altrettanto importanti sono i benefici qualitativi. vTaiwan ha dimostrato che la partecipazione digitale può essere civicamente seria e costruttiva. Le discussioni sulla piattaforma si sono mantenute sorprendentemente civili e orientate al merito, in larga parte grazie alle scelte di design (nessun trolling o dirottamento di thread è possibile).

I partecipanti riferiscono spesso che vedere le questioni mappate visivamente li aiuta ad apprezzare altri punti di vista. Come ha detto Audrey Tang, “le persone passano molto più tempo a scoprire ciò che hanno in comune piuttosto che a infilarsi in una tana del disaccordo” – nel giro di tre o quattro settimane, invariabilmente si trova una configurazione in cui la maggior parte delle persone concorda sulla maggior parte delle affermazioni. Questo orientamento al consenso è in netto contrasto con le dinamiche tipiche dei social media. Ha anche costruito fiducia: i cittadini sanno che i loro input possono plasmare direttamente le politiche, e i funzionari ottengono un supporto pubblico che rende più agevole l’implementazione. In effetti, il modello di rough consensus di vTaiwan ha contribuito a formulare circa una dozzina di provvedimenti legislativi finora, coprendo temi dalla pornografia non consensuale (“revenge porn”) ai sandbox normativi per il fintech.

Tuttavia, vTaiwan non è una bacchetta magica – anche i suoi limiti offrono insegnamenti. I critici l’hanno definita “una tigre senza denti” per sottolineare che la piattaforma in sé non costringe il governo ad agire. Serve comunque la volontà politica di recepire le raccomandazioni della folla. Alcune consultazioni hanno visto calare la partecipazione col tempo o difficoltà a coinvolgere i cittadini meno esperti di tecnologia (una sfida a cui Taiwan ha risposto lanciando piattaforme complementari come “Join”, che coinvolge fasce di popolazione più ampie).

Inoltre, vTaiwan è stata utilizzata prevalentemente su temi legati all’economia digitale, dove l’engagement online è naturalmente elevato. Questioni più controverse o di principio (ad es. difesa nazionale o fisco) non sono ancora passate attraverso questo filtro. In breve, vTaiwan funziona al meglio come parte di un ecosistema democratico più ampio – non sostituisce le istituzioni rappresentative ma le integra. Il governo taiwanese l’ha adottata come canale consultivo che alimenta l’azione legislativa, e questo approccio ibrido sembra la chiave del suo successo.

L’influenza di vTaiwan ha iniziato a diffondersi a livello globale. La sua metodologia – in particolare l’uso di Polis per la deliberazione di massa – viene emulata altrove. La Finlandia, per esempio, ha recentemente sperimentato una consultazione supportata da Polis (“Cosa ne pensi, Finlandia?”) su temi sociali, citando esplicitamente l’esperienza taiwanese come ispirazione. Comunità negli Stati Uniti e nel Regno Unito hanno organizzato assemblee cittadine virtuali con Polis su questioni locali. Nel frattempo, Taiwan continua a innovare. Nel 2023, di fronte all’avanzata dell’AI, il governo ha lanciato le “Alignment Assemblies” in partnership con ricercatori internazionali – di fatto, deliberazioni pubbliche sulla governance dell’intelligenza artificiale, ancora una volta usando piattaforme digitali per raccogliere ciò che i cittadini considerano rischi e usi accettabili dell’AI. È l’etica di vTaiwan applicata a una nuova frontiera, assicurando che persino la politica sull’AI stessa sia plasmata dalla voce del pubblico.

In sintesi, vTaiwan offre un caso di studio convincente di Synthetic Governance in pratica. Dimostra che, se ben congegnati, AI e collaborazione aperta possono rafforzare la democrazia – non rimpiazzando gli esseri umani, ma potenziandoli. Taiwan ha trasformato un momento di crisi in un’opportunità per modernizzare la propria governance, fondendo la saggezza delle folle con l’assistenza algoritmica. Per altri governi e istituzioni, il messaggio è chiaro: è possibile attingere all’intelligenza collettiva su larga scala, trovando soluzioni “win-win” dove prima c’erano solo contrapposizioni. Il percorso non è stato facile né perfetto, ma vTaiwan prova che maggiore fiducia, trasparenza e inclusione nel decision-making sono traguardi raggiungibili nell’era digitale. Resta un pioniere che illumina la strada affinché comunità di tutto il mondo ripensino il modo in cui prendiamo le scelte che plasmano il nostro futuro collettivo.

Takeaways

  • Decisioni aumentate dalla tecnologia: La Synthetic Governance sfrutta l’AI e le piattaforme digitali per aiutare i gruppi ad affrontare decisioni complesse. L’AI può analizzare dati, simulare scenari e persino redigere proposte di consenso, permettendo scelte collettive più informate ed efficienti. Invece di rimpiazzare i decisori umani, potenzia il giudizio umano con un’intelligenza scalabile.

  • Decentralizzazione e fiducia: La blockchain e i registri distribuiti offrono nuovi modi per garantire fiducia nella governance. Tecniche come gli smart contract e i ledger trasparenti consentono la creazione di organizzazioni decentralizzate (DAO) in cui regole e votazioni sono codificate in modo visibile a tutti. Ciò riduce la dipendenza da autorità centrali e può rendere i processi decisionali più trasparenti, responsabili e aperti a stakeholder diversi

  • Migliori risultati e inclusione: Se ben progettata, la governance mediata dall’AI può portare a politiche più inclusive e reattive. I governi che utilizzano l’AI segnalano aumenti di produttività e efficacia nelle politiche, nonché servizi più su misura per le comunità. Le piattaforme digitali possono coinvolgere migliaia di cittadini nelle deliberazioni (come vTaiwan), fornendo ai decisori una comprensione più ricca dei bisogni pubblici. Questo può rafforzare la legittimità – le persone sono più propense a sostenere decisioni che hanno contribuito a plasmare.

  • Nuovi rischi e necessità di regole: Il cambiamento porta con sé rischi significativi da gestire. Senza un’adeguata supervisione, i sistemi AI potrebbero amplificare bias o operare in modo opaco, minando l’equità. Una scarsa partecipazione civica o un’“esclusione algoritmica” sono rischi reali (se solo élite o utenti tecnologicamente alfabetizzati dominano i forum digitali). Inoltre, le DAO affrontano sfide come bassa partecipazione al voto e incertezza giuridica. Servono solidi framework di governance – dalle linee guida etiche agli adeguamenti normativi – per garantire che queste innovazioni rafforzino la democrazia invece di eroderla.

  • Ruoli e competenze in evoluzione: La Synthetic Governance sta ridisegnando i ruoli di funzionari pubblici, leader e cittadini. Emergono nuove figure come gli officiali della partecipazione e data scientist nel settore pubblico per facilitare le politiche supportate dall’AI. I leader devono familiarizzare con la tecnologia e i metodi di crowdsourcing, mentre i cittadini potrebbero aver bisogno di nuove competenze digitali per impegnarsi in modo significativo. È in atto un cambiamento culturale verso maggiore trasparenza, collaborazione e apprendimento continuo sia nelle istituzioni pubbliche sia nelle organizzazioni private.

  • Impatto su strategia e design: I principi della Synthetic Governance stanno influenzando la strategia e il design in senso più ampio. Le organizzazioni adottano un decision-making anticipatorio – utilizzando simulazioni AI e pianificazione di scenari per rimanere agili nelle strategie. I designer di soluzioni civiche puntano a interfacce human-centric che incoraggino una partecipazione costruttiva (come visto con Polis, che riduce i fenomeni di trolling. In generale, la governance viene considerata un problema di design, con sperimentazioni su nuovi processi decisionali e circuiti di feedback per iterare su ciò che funziona.

  • Visione per il futuro: A lungo termine, la Synthetic Governance prefigura un futuro di governance più partecipativa, adattiva e fondata sui dati. Si possono immaginare decisioni di bilancio prese tramite votazioni comunitarie su blockchain, guidate dall’analisi di AI, o trattati internazionali negoziati con il contributo di milioni di cittadini attraverso piattaforme online. Idee del genere stanno diventando plausibili. L’obiettivo finale non è solo un governo potenziato dalla tecnologia, ma una governance migliore – più democratica, più trasparente e più capace di affrontare sfide complesse tramite l’intelligenza collettiva.

Verso una governance adattiva e inclusiva

Il passaggio alla Synthetic Governance è un viaggio in corso che reinventa il modo in cui prendiamo decisioni collettive. Siamo ancora ai primi capitoli di questa trasformazione. È chiaro che la governance nel XXI secolo non può più restare statica – deve diventare adattiva e intelligente quanto il mondo che serve.

Abbracciando con giudizio l’AI e i modelli decentralizzati, abbiamo l’opportunità di progettare istituzioni più trasparenti, reattive e inclusive che mai. La strada da percorrere richiederà sperimentazione, misure di sicurezza e collaborazione costante tra tecnologi, policymaker e cittadini. Eppure, la promessa è fonte di ispirazione: un futuro in cui comunità e organizzazioni possano navigare complessità e incertezza con una saggezza aumentata, in cui le decisioni siano guidate dai dati e dal dialogo democratico, e in cui la fiducia nelle nostre scelte collettive venga ricostruita sul fondamento della trasparenza.

Il cambiamento continua, alimentato dalla nostra aspirazione a governare meglio, insieme – combinando valori umani e visione tecnologica per plasmare un futuro della governance più resiliente e partecipativo.

Decentralized AI Economies. Mercati in cui gli algoritmi scambiano, negoziano e generano valore

Immagina un mercato in cui a negoziare accordi, eseguire transazioni e allocare risorse non sono persone, ma algoritmi autonomi. In questo scenario futuristico – ma sempre più reale – agenti di intelligenza artificiale agiscono come partecipanti economici indipendenti: comprano e vendono servizi o dati per conto degli utenti (o per conto proprio) senza un controllo umano costante. Ciò che poteva sembrare fantascienza sta diventando possibile grazie ai progressi dell’AI e alle tecnologie decentralizzate. I sistemi di intelligenza artificiale si stanno evolvendo da strumenti passivi a attori attivi nei mercati, capaci di prendere decisioni complesse e trasferire valore a qualsiasi ora del giorno. In questa edizione di InsideTheShift esploriamo il concetto di “economie decentralizzate dell’IA” – un paradigma emergente in cui agenti AI distribuiti danno vita a proprie economie, scambiando e collaborando su reti aperte senza un’autorità centrale.

Questo cambiamento rappresenta molto più di una semplice automazione avanzata. Segnala una visione trasformativa del futuro del commercio e dell’innovazione. Le economie decentralizzate dell’IA promettono di generare nuovo valore permettendo alle macchine di coordinare e ottimizzare attività economiche a velocità e scala impensabili per gli esseri umani. Allo stesso tempo sollevano domande importanti su fiducia, equità e governance in un mondo in cui gli algoritmi concludono accordi a nostro nome. Nei paragrafi seguenti approfondiremo le forze che guidano questo shift tecnologico, i meccanismi di base che lo rendono possibile, le implicazioni più ampie per la società e cosa aspettarci per il futuro prossimo.

The Shift in Focus

Negli ultimi tempi la prospettiva nel campo dell’AI è cambiata sensibilmente. Stiamo passando da un’era in cui l’AI era vista principalmente come un servizio centralizzato o uno strumento di supporto, a un’era in cui le entità di AI stesse partecipano ad attività economiche. Il 2025 è stato salutato dagli addetti ai lavori come “l’anno degli agenti”, poiché sono stati introdotti agenti AI avanzati capaci di navigare sul web, portare a termine progetti multi-step e prendere decisioni con minima supervisione umana. In altre parole, la narrativa si sta espandendo: non più solo “Come possiamo usare l’AI?”, ma anche “Cosa succede se gli agenti AI agiscono come attori economici autonomi?”.

Questa nuova focalizzazione emerge sulla scia di rapidi progressi nelle capacità dell’AI. I modelli fondamentali (come le grandi reti neurali di linguaggio) sono diventati potenti, ma impiegare un unico modello gigante per ogni problema non è né efficiente né pratico. Si sta quindi passando a collezioni di agenti AI specializzati, ognuno dedicato a un dominio o compito specifico, che coordinano le proprie azioni. Invece di un’unica AI monolitica, possiamo immaginare un ecosistema di agenti – un’“economia” di IA – in cui ogni agente scambia competenze e servizi con gli altri. È un cambiamento di prospettiva: dall’AI come utility centralizzata all’AI come rete distribuita di agenti intelligenti che creano valore insieme.

Tendenze convergenti alimentano questo shift: il calo dei costi di sviluppo e di compute; l’interesse per la decentralizzazione (spinto da blockchain e privacy); l’AI “allo stato brado”, incorporata ovunque e libera di interagire economicamente. Da qui la domanda: come sarebbe un mondo in cui i mercati sono popolati da agenti AI – e perché dovremmo auspicare uno scenario simile?

Understanding the Shift

Per economie decentralizzate dell’IA si intendono ambienti in cui agenti AI operano come attori economici autonomi. In pratica: scoprono opportunità, negoziano termini ed eseguono transazioni tra loro o con umani, senza intervento costante. Possono rappresentare individui, aziende o se stessi e interagiscono su reti distribuite, non su un’unica piattaforma centrale.

Abilitatori tecnologici. Gli agenti moderni (spesso basati su LLM) percepiscono, decidono e agiscono in modo prolungato e adattivo. A differenza dei bot rigidi, gestiscono compiti di lungo periodo, generano codice, usano strumenti, si interfacciano in tempo reale con sistemi digitali. Operano 24/7, sono replicabili, condividono informazioni alla velocità della rete e apprendono continuamente: in un ambiente idoneo, possono potenziare l’efficienza economica coordinando attività complesse con memoria perfetta e tempi di reazione sovrumani. Mercati di soli agenti risponderebbero a domanda/offerta e vincoli con rapidità e, idealmente, con allocazioni più efficienti.

Motivazioni economiche. L’approccio agentico e decentralizzato è più scalabile e adattabile dei modelli monolitici. In problemi multi-dominio (supply chain, mobilità, energia) conviene avere agenti specializzati che cooperano e competonocon protocolli aperti (aste, offerte, negoziazioni), lasciando emergere soluzioni dal basso. In questa “economia agentica”agenti specializzati e generali interagiscono, si coordinano e scambiano valore in un quadro di regole e incentivi condivisi. In breve: da AI come strumento a AI come partecipante.

Decentralizzazione come cornice. Come la DeFi ha rimosso intermediari finanziari, così le economie AI decentralizzate puntano a ridurre i “guardiani” dell’AI. Dati e capacità possono essere condivisi tramite mercati sicuri e apprendimento federato, attenuando monopoli informativi e bias, e democratizzando l’innovazione.

The Core

Al centro ci sono agenti autonomi e i mercati in cui operano.

  • Transazioni tra agenti. Invece di persone o aziende, agenti software scambiano beni/servizi e siglano contratti. Interagiscono con protocolli per aste, contrattazioni, baratto, smart contract. Nessun centro comanda: consenso distribuito e registri condivisi garantiscono fiducia tra sconosciuti.

  • Precedenti concreti. Il real-time bidding pubblicitario è già una negoziazione macchina-macchina su vasta scala: dimostra che mercati veloci e automatizzati possono funzionare.

  • Negoziato e coordinamento. Gli agenti LLM sostengono dialoghi negoziali (concessioni, compromessi, perfino bluff). Esperimenti AI vs AI mostrano disparità di performance e comportamenti imprevisti: servono guardrailper equità e robustezza.

  • Valore e pagamenti. Token e wallet on-chain permettono ad agenti di pagare e incassare; gli smart contractfanno da escrow e applicano gli accordi. Meccanismi di reputazione e penalità (slashing) incentivano la qualità. Il risultato è un bazar digitale di agenti, retto da crittografia e meccanismi economici.

The Broader Shift

L’ascesa delle economie AI decentralizzate riguarda chi beneficia dell’AI e come. La decentralizzazione può democratizzare l’innovazione: piccole imprese e individui schierano agenti che competono/collaborano su mercati aperti, senza infrastrutture proprietarie costose. Questo può distribuire meglio i benefici e generare soluzioni locali e globali.

La fiducia diventa centrale, su tre livelli:

  1. Umano-agente. Trasparenza, spiegabilità, allineamento agli obiettivi dell’utente, identità persistente e comportamenti prevedibili sono essenziali.

  2. Agente-agente. Servono identità verificabili, sistemi di reputazione e protocolli di fiducia condivisi per evitare caos e frodi.

  3. Sistema (governance). Meccanismi di sorveglianza e intervento per rischi sistemici (flash crash, collusioni), con policy aggiornate e responsabilità chiare.

Accelerazione economica. Entro pochi anni l’AI agentica sarà diffusa in molte applicazioni; una quota crescente di decisioni operative potrà essere automatizzata. Attesi benefici di produttività, ma anche impatti occupazionali e nuovi ruoli (auditor di comportamenti algoritmici, designer di mercati, orchestratori di agenti). L’obiettivo: liberare gli umani dalla decisione di basso livello per concentrarsi su strategia, creatività e governance.

What’s Next

Prossimi 2–5 anni. Emergeranno sistemi ibridi umano-AI nei software aziendali. Prevedibili marketplace di agenti(compute, logistica, dati). Priorità infrastrutturali: identità, interoperabilità, sicurezza, micropagamenti M2M. Finestra critica per standard tecnici e architetture di fiducia.

Regole e responsabilità. Crescerà il dibattito su capacità giuridica degli agenti e, nell’immediato, su accountability e catene di responsabilità. Possibili aggiornamenti a quadri internazionali su servizi e IP in chiave “agent economy”.

Anni ’30. Orchestrazione multi-agente matura, organizzazioni semi-autonome (es. AI-DAO), nuove nicchie (brokerage dati gestiti da AI, consulenze agent-to-agent), nuove professioni e formazione dedicata. Il tessuto socio-economico evolverà di pari passo.

Direzione di marcia. Ottimismo e cautela insieme: opportunità enormi, rischi reali. Serve sperimentazione guidata, governance, e coinvolgimento pubblico per garantire esiti equi.

Takeaways

  • Agenti AI come attori di mercato. Dallo strumento al partecipante: scambio, negoziazione e contratti tra algoritmi abilitano il commercio macchina-macchina su larga scala.

  • Efficienza e innovazione. Specializzazione + coordinamento multi-agente → migliore allocazione, operatività 24/7, soluzione di problemi complessi e nuovo valore.

  • Democratizzazione. Mercati aperti di servizi AI riducono barriere e diffondono i benefici oltre i grandi operatori; ma mettono in discussione assetti centralizzati.

  • Fiducia e governance. Identità verificabili, reputazione, protocolli sicuri, human-in-the-loop e quadri legali aggiornati sono imprescindibili.

  • Sfide emergenti. Esiti diseguali tra agenti, comportamenti imprevisti, rischio frammentazione e problemi di allineamento: servono standard e guardrail comuni.

Recommended Resources

  • World Economic Forum – Trust is the new currency in the AI agent economy. Ruolo della fiducia e roadmap per l’AI agentica nelle organizzazioni.

  • Yang et al. – Agent Exchange: Shaping the Future of AI Agent Economics. Proposta di agent marketplace e protocolli di asta.

  • Zhu et al. – Fair and Trustworthy Agent-to-Agent Negotiations. Evidenze su disparità e rischi nelle negoziazioni tra agenti.

  • MIT Media Lab – Decentralized AI (Overview). Visione e motivazioni della decentralizzazione dell’AI, con casi e opportunità.

  • Montes & Alvarez – Beyond the Sum. Ostacoli infrastrutturali (identità, discovery, interfacce, pagamenti) e come superarli con logiche di mercato.

Toolbox

  • Simulazione multi-agente: OpenAI Gym (estensioni multi-agent), PettingZoo per testare regole di mercato, aste e negoziazioni in sicurezza.

  • Smart contract / blockchain: Ethereum, Hyperledger; contratti escrow e pagamenti condizionati on-chain.

  • Identità & reputazione: DID (W3C), Veramo, Hyperledger Indy per “passaporti” agentici e attestazioni di performance.

  • Federated learning & privacy: Flower, TensorFlow Federated; differenziale e multi-party computation per scambio di valore senza esporre dati.

  • Librerie di mercato: NegMAS per negoziazioni; implementazioni di Vickrey e continuous double auctions per aste; prototipi AEX accademici.

  • Protocolli di comunicazione: FIPA ACL come base storica; evoluzione verso API e linguaggio naturale per LLM-agent.

The Shift Continues

La visione è audace e in piena evoluzione. Lo spostamento verso agenti autonomi e distribuiti è già in atto: ogni nuovo prototipo amplia il perimetro di ciò che è possibile. InsideTheShift continuerà a monitorare e decodificare questo percorso – tra esperimenti, battute d’arresto e progressi – per aiutare imprese, policy maker e comunità a plasmareun’economia dell’AI decentralizzata equa, sicura e generativa di valore condiviso.

Synthetic Foresight. Il futuro come ambiente generativo

Ripensare il nostro rapporto con il futuro

La trasformazione digitale e l’intelligenza artificiale stanno cambiando radicalmente il modo in cui concepiamo il futuro. Tradizionalmente, il futuro è stato trattato come un oggetto da prevedere: aziende e istituzioni si affidavano a previsioni lineari e trend estrapolati dal passato, nella speranza di indovinare “il” futuro più probabile. Oggi però assistiamo a una svolta di prospettiva: il futuro viene ripensato come ambiente generativo, un contesto aperto di possibilità molteplici in cui simulare, esplorare e co-creare scenari futuri invece di limitarsi a predirne uno solo. In altre parole, l’attenzione si sposta dal pronosticare cosa accadrà al plasmare attivamente molteplici futuri potenziali.

Questa svolta nel focus è guidata sia dall’aumento dell’incertezza globale sia dai progressi dell’AI e del calcolo. In un contesto caratterizzato da complessità e volatilità senza precedenti (pensiamo ai cambiamenti climatici, alle evoluzioni geopolitiche, alle disruption tecnologiche), le previsioni lineari mostrano tutti i loro limiti. Infatti, estrapolare il futuro dai dati passati spesso fallisce in sistemi non-lineari e complessi. Ecco perché cresce l’interesse verso approcci più adattivi e creativi: l’AI consente di generare migliaia di possibili futuri e di “immergerci” in essi virtualmente, trattando il futuro come un laboratorio vivente dove testare strategie e idee.

Questa nuova ottica generativa non rifiuta la previsione in sé, ma la inquadra diversamente: non più per ridurre il futuro a un singolo esito atteso, ma per navigare un ventaglio di possibilità ed anticipare l’incertezza in modo proattivo.

Dai modelli predittivi alle possibilità generative

Per capire a fondo questo cambiamento, è utile chiarire cosa intendiamo per foresight sintetico. Il termine foresight indica la disciplina che esplora, anticipa e cerca di plasmare il futuro, traendo insight utili al presente. Tradizionalmente il foresight strategico include attività come identificare trend emergenti, costruire scenari e sviluppare visioni di lungo termine. Finora molte pratiche di foresight si basavano su modelli predittivi: metodi statistici, analisi di trend storici, proiezioni che, per quanto sofisticate, tendevano a fornire un numero limitato di futuri “probabili” su cui prepararsi. Questo approccio funziona relativamente bene in contesti stabili, ma fatica in ambienti ad alta incertezza e complessità, dove eventi non-lineari o black swan possono smentire le estrapolazioni più solide.

La svolta “sintetica” consiste nell’adottare modelli generativi al posto (o in aggiunta) di quelli predittivi. Un modello generativo non si limita a prevedere l’output più probabile da input noti, bensì è capace di creare nuovi dati, scenari o simulazioni possibili. Nel nostro contesto, ciò significa utilizzare l’intelligenza artificiale e il calcolo per generare molteplici futuri alternativi e valutarne l’evoluzione. Ad esempio, algoritmi di machine learning e simulazioni al computer possono esplorare centinaia di scenari “what if”, inclusi quelli controintuitivi o poco probabili, fornendo una panoramica più ampia di ciò che potrebbe accadere. Questa differenza è cruciale: mentre il modello predittivo cerca di indovinare il futuro giusto, quello generativo abbraccia l’ambiguità di un futuro aperto e divergenze anche radicali. Di conseguenza, il processo decisionale diventa più robusto, anziché basarsi su un’unica scommessa, ci si prepara a più eventualità, sviluppando strategie flessibili che possano adattarsi a scenari differenti.

Dietro questa transizione c’è anche l’evoluzione verso una foresight computazionale. La crescente potenza di calcolo e la disponibilità di dati permettono oggi approcci prima impensabili: agent-based modeling, simulazioni Monte Carlo, digital twins, reti neurali generative. Tutti strumenti che rientrano nel cappello del computational foresight e che ampliano enormemente la nostra capacità di “vedere avanti”. Ad esempio, i modelli ad agenti simulano comportamenti di attori autonomi (persone, organizzazioni, nazioni) e le loro interazioni in un sistema, rivelando dinamiche emergenti che le analisi lineari non catturano. Allo stesso modo, i modelli generativi basati su reti neurali (come i transformer GPT) possono assimilare enormi moli di informazioni eterogenee e produrre scenari narrativi dettagliati, descrivendo come potrebbe evolvere una situazione sotto diversi presupposti. Studi recenti mostrano che l’integrazione progressiva di Large Language Model (LLM) nei framework di foresight ha già effetti positivi: aumenta la velocità di analisi e arricchisce la creatività nello sviluppo di scenari, fornendo insight strategici più sfumati.

Comprendere la svolta significa riconoscere che stiamo passando da un paradigma predittivo (affidato a trend storici e singole previsioni) a un paradigma generativo (basato su simulazione, esplorazione di possibilità e apprendimento iterativo).

Synthetic Foresight: simulazione, AI e iterazione

Il cuore del “Synthetic Foresight” risiede in un insieme di metodi e tecnologie che consentono di generare e sperimentare il futuro in modo tangibile. Al centro c’è la simulazione, la creazione di modelli del mondo in cui possiamo far evolvere virtualmente sistemi complessi e osservare cosa accade. Immaginiamo questi modelli come ambienti sintetici: veri e propri “laboratori” computazionali dove testare decisioni e vedere emergere comportamenti collettivi. Ad esempio, mediante la modellazione basata su agenti (ABM) possiamo costruire un mondo fittizio popolato da migliaia di agenti autonomi (cittadini, imprese, sensori IoT, ecc.), ciascuno programmato con determinate regole o preferenze, e poi farli interagire. Questo approccio bottom-up, definito una “terza via” del fare scienza accanto a deduzione e induzione, permette di scoprire effetti emergenti e non intuitivi: dal traffico urbano che si auto-regola, ai mercati che collassano per panico, fino alla diffusione virale di innovazioni.

In ambito strategico e di policy, tali simulazioni agent-based aiutano ad anticipare riforme o shock identificando punti leva del sistema che non sarebbero evidenti con analisi tradizionali. Una celebre massima recita che “tutti i modelli sono sbagliati, ma alcuni sono utili”; i modelli generativi puntano proprio ad essere utili offrendo intuizioni sperimentali, si provano interventi in un mondo sintetico per capire come potrebbero andare nel mondo reale, senza rischiare conseguenze dirette.

Un altro elemento chiave del nucleo è l’integrazione di AI generativa e dati massivi nei processi di foresight. Strumenti di NLP avanzati possono setacciare milioni di documenti, notizie, paper scientifici per individuare weak signals, deboli segnali di cambiamento che sfuggono all’analista umano. Allo stesso tempo, la generative AI può “mettere in scena” scenari complessi: non solo grafici e numeri, ma narrazioni immersive. Immaginiamo una strategia di difesa simulata dove agenti virtuali (guidati da LLM addestrati) impersonano decision-maker, alleati o avversari in un mondo simulato e ne testano le reazioni. Oppure uno scenario economico dove un LLM scrive racconti dettagliati di come sarebbe la vita quotidiana sotto certe condizioni (tassi di disoccupazione, clima estremo, nuove tecnologie pervasive), aiutando i decisori a visualizzare concretamente implicazioni altrimenti astratte. Generare scenari così ricchi e vividi, una sorta di realtà sintetica del futuro, li rende strumenti potenti per il brainstorming strategico, il training e il design di politiche resilienti. In sostanza, il core del foresight generativo è un ecosistema di modelli computazionali, agenti artificiali e data analytics che lavorano insieme per estendere la portata della nostra immaginazione strategica.

Il nucleo non è fatto solo di tecnologia, ma anche di un diverso approccio metodologico. Il futuro generativo richiede processi iterativi e adattivi. Ad esempio, l’approccio a scenari iterativi implica che gli scenari non vengano creati una tantum e messi in un cassetto, ma continuamente aggiornati, scartati o rinnovati man mano che il contesto evolve. Shell, pioniere del corporate foresight, ha proprio adottato questa filosofia: abbandonando cadenze fisse di scenario planning a favore di un refresh continuo “on demand” degli scenari, come scaffolding temporanei per sostenere la conversazione strategica senza cristallizzarla in uno schema fisso. Allo stesso modo, i modelli generativi di AI possono essere continuamente ri-addestrati con nuovi dati e feedback, creando un ciclo di apprendimento dove le simulazioni diventano via via più aderenti alla realtà e utili per elaborare strategie. Al centro c’è un’idea di adattività mutuata dai sistemi complessi adattivi: in un mondo in costante mutamento, anche la nostra visione del futuro deve sapersi ri-adattare di continuo.

Synthetic foresight abbraccia dunque un cambiamento culturale nel metodo: dal piano statico al processo dinamico, dal cercare certezze alla capacità di navigare e sperimentare in un mare di incertezze.

La mentalità generativa trasforma strategia, policy, design e cultura

Il passaggio da un futuro da prevedere a un futuro da generare non è solo un fatto tecnico: ridefinisce pratiche e mentalità in svariati ambiti. Vediamo alcune implicazioni chiave su strategia, policy, design, cultura organizzativa e visione sistemica.

  • Strategia: Nei processi di pianificazione strategica, l’adozione del foresight generativo porta a strategie più agili e resilienti. Invece di piani quinquennali scolpiti nella pietra sulla base di un unico scenario atteso, le organizzazioni lungimiranti sviluppano portafogli di scenari e strategie contingenti pronte ad attivarsi al variare delle condizioni. Ad esempio, leader aziendali e militari stanno iniziando a combinare piattaforme multi-agente e AI generativa per testare piani strategici in mondi simulati. Un articolo su Fortune nota che integrare la GenAI nella pianificazione, accoppiandola a modelli agent-based, consente di scoprire criticità e opportunità nascoste nei piani, aggiornandoli prima che gli eventi reali le rivelino. La strategia diventa così un processo di learning by simulating: si esplorano mosse e contromosse in ambienti virtuali, un po’ come fare prove generali del futuro, per poi implementare nel presente azioni già “collaudate” virtualmente. Questo aumenta la confidenza nel prendere decisioni anche in contesti incerti, perché i decision-maker hanno già visto una varietà di futuri possibili e sanno riconoscere segnali precoci di quale strada si sta imboccando.
  • Policy e Governance: Anche le istituzioni pubbliche stanno abbracciando questa svolta per sviluppare una governance anticipatoria. L’idea è passare da politiche reattive, formulate dopo che i problemi esplodono, a politiche proattive, disegnate sulla base di scenari futuri ipotetici ma plausibili. Ad esempio, l’Unione Europea ha attivato una Policy Foresight Unit che esplora come l’AI generativa possa supportare l’analisi prospettica e le decisioni strategiche. Un briefing del European Parliamentary Research Service sottolinea che LLM e agenti generativi possono aiutare i policymaker a farsi trovare pronti al futuro: dall’identificare trend e weak signals, al creare narrative di scenario ricche da vivere quasi in prima persona (tramite visualizzazioni immersive), fino a usare agenti AI per simulare comportamenti umani nelle analisi di policy. Organizzazioni internazionali come l’OECD promuovono toolkit di strategic foresight per i governi che includono esplicitamente la creazione di scenari multipli e l’analisi di sistemi complessi per aumentare la resilienza delle politiche. In parallelo, concetti come il décision-making under deep uncertainty e la adaptive policy design stanno entrando nel mainstream: significa concepire le politiche come strategie adattive, che incorporano fin dall’inizio piani alternativi a seconda di come evolverà il contesto, testati tramite simulazioni prima di implementarli sul campo.
  • Design e Innovazione: La cultura del futuro generativo influenza anche il modo di fare design di prodotti, servizi e soluzioni. Qui l’approccio si avvicina alla speculative design e ai futures study applicati: i designer creano prototipi di futuri possibili per ispirare innovazione nel presente. Ad esempio, nei progetti urbanistici avanzati si usano ambienti sintetici urbani, modelli digitali di città intere, dove si possono provare politiche di mobilità, piani di sviluppo o infrastrutture in scenari ipotetici (aumento della popolazione, cambiamento climatico, ecc.) e vedere l’effetto sulle dinamiche sociali ed economiche. Questi synthetic environments permettono di misurare e visualizzare l’impatto di decisioni future come fossero reali, aiutando progettisti e stakeholder a fare scelte più informate e robuste. Un esempio concreto citato dalla CEO di RUNWITHIT Synthetics, Myrna Bittner, riguarda la simulazione dell’impatto economico della riapertura dei voli internazionali durante la pandemia: creando vari scenari in un ambiente sintetico, si è potuto individuare il percorso migliore per garantire investimenti e sviluppo economico regionale. In generale nel design, il futuro generativo alimenta una cultura prototipale continua: si prototipa non solo il prodotto, ma anche il contesto futuro in cui quel prodotto esisterà, anticipando problemi e opportunità emergenti.
  • Cultura organizzativa: Forse l’aspetto più “soft” ma cruciale è la diffusione di una cultura anticipatoria nelle organizzazioni. Strumenti sofisticati servono a poco se le persone continuano a pensare in modalità reattiva e lineare. Una anticipatory culture è un ambiente in cui i team, a tutti i livelli, cercano attivamente di prevedere sfide e opportunità emergenti, abbracciando il cambiamento prima che venga imposto dall’esterno. Secondo il futurist Daniel Burrus, le imprese che coltivano questa cultura non aspettano che la disruption le travolga: anticipano i trend inevitabili (quelli che chiama Hard Trends), preparandosi ad essi con ampio anticipo. Ciò richiede formazione, mentalità aperta e spesso nuovi incentivi: i dipendenti vanno incoraggiati a esplorare scenari (“cosa accadrebbe se…”) e a proporre soluzioni preventive, anche a costo di sfidare lo status quo. Significa anche sviluppare competenze di futures thinking diffuse: capacità di scanning, di interpretare trend, di pensare per scenari. L’AI può supportare questo sforzo democratizzando l’accesso alle informazioni e rendendo pratiche di foresight (come la costruzione di scenari) più rapide e alla portata di tutti i team. In un’organizzazione anticipatoria, ogni progetto include momenti di future-proofing, ogni decisione importante viene “stress-testata” contro scenari diversi, e l’incertezza non è vista come un nemico da eliminare, ma come un dato di fatto da affrontare con creatività e preparazione.
  • Visione sistemica: Infine, il futuro come ambiente generativo impone un cambio di lente: dal puntare il focus su singoli eventi o variabili, al vedere il sistema nel suo insieme. Le sfide odierne (clima, pandemie, trasformazione digitale) sono sistemiche, attraversano domini molteplici e sono intrecciate in reti causali complesse. Il foresight generativo, con i suoi modelli e scenari, ci costringe (e ci aiuta) a mappare interdipendenze, retroazioni e effetti a cascata. Un esempio viene dal Strategic Foresight Toolkit dell’OECD, che invita i decisori a “mappare le interazioni sistemiche” come passo fondamentale prima di creare scenari. Approcci come i sistemi adattivi complessi (CAS) applicati al management suggeriscono di guardare alle organizzazioni come ecosistemi in evoluzione piuttosto che macchine prevedibili. Questo comporta valorizzare la diversità di prospettive (per capire un sistema servono punti di vista plurimi), promuovere la collaborazione intersettoriale, e accettare che non esistono soluzioni semplici a problemi complessi. La visione sistemica in chiave anticipatoria significa anche saper riconoscere i propri bias cognitivi e le assunzioni implicite: pratiche come lo scenario planning sono efficaci proprio perché costringono i leader a confrontarsi con futuri che sfidano le loro aspettative, smascherando ipotesi latenti e possibili errori di valutazione. Tutto questo contribuisce a decisioni più robuste e a una maggiore capacità di adattamento quando il mondo reale prende direzioni inaspettate.

What’s Next

Considerando l’evoluzione attuale, quali sono i prossimi sviluppi di questo shift verso il foresight generativo? In primo luogo, possiamo aspettarci una integrazione sempre più profonda dell’AI nei processi decisionali quotidiani. Se oggi strumenti come la generative AI sono impiegati in modo sperimentale per il foresight, in futuro diventeranno parte stabile della “cassetta degli attrezzi” di manager e policymaker. Ad esempio, i generative agent, agenti virtuali autonomi potenziati da LLM capaci di imitare comportamenti umani, potranno essere usati per simulare stakeholder in consultazioni di policy o comportamenti di consumatori in strategie di mercato. Immaginiamo un Consiglio dei Ministri virtuale in cui agenti AI rappresentano ciascun ministero e reagiscono in tempo reale a uno scenario di crisi simulato, aiutando a testare i protocolli di emergenza. Oppure mercati sintetici popolati da agenti investitori AI per valutare la resilienza di un business model sotto vari shock. Queste non sono più fantasie da fantascienza, ma potenziali estensioni degli strumenti già in via di sviluppo oggi.

Un altro fronte in espansione è quello delle esperienze immersive applicate al foresight. Già si parla di scenario planning immersivo grazie a realtà virtuale e aumentata: in futuro, leader e cittadini potrebbero “camminare” letteralmente dentro scenari futuri ricreati in VR, percependone gli impatti con i propri sensi. Questo tipo di esperienza aumenterebbe l’empatia e la comprensione dei problemi futuri, facilitando un dialogo più profondo sulle scelte da fare nel presente. Ad esempio, esperti di policy suggeriscono che narrazioni di scenario vivide e quasi esperienziali, abilitate dall’AI, possano migliorare la preparazione dei decisori perché offrono simulazioni concrete invece di astratti grafici su slide.

La parola chiave sarà sperimentare: il futuro come campo di prova dove formare la prossima generazione di leader attraverso simulazioni e giochi strategici, un po’ come dei “wargame civili” estesi a tutti i grandi temi (clima, società, economia).

Insieme alle opportunità, crescerà la consapevolezza delle sfide e responsabilità che accompagnano il foresight basato su AI. In particolare, sarà cruciale affrontare i temi di bias, etica e governance algoritmica. I modelli generativi imparano dai dati del passato: se quei dati contengono distorsioni (es. pregiudizi socio-economici) rischiamo di replicare o addirittura amplificare bias nelle nostre visioni del futuro. Inoltre, un’eccessiva fiducia nell’AI potrebbe portare a delegare al modello scelte che richiedono invece giudizio umano e valori. Ecco perché si parla già di foresight computazionale responsabile: un framework emergente che integra principi etici e centralità umana nell’uso dell’AI per il futuro. Significa, ad esempio, mantenere l’uomo nel loop nelle analisi (l’AI consiglia, ma l’esperto supervisiona e approva), garantire trasparenza sugli algoritmi usati per generare scenari, e valutare l’impatto sociale delle decisioni prese sulla base di simulazioni. Organizzazioni come il IEEE e l’EU stanno già sviluppando linee guida per l’uso etico dell’AI nei processi decisionali governativi.

Guardando ancora oltre, potremmo vedere un’ulteriore democratizzazione del foresight: strumenti AI user-friendly che rendono accessibili a comunità, piccole imprese e singoli cittadini capacità previsionali un tempo riservate a grandi istituzioni. Così come i PC hanno portato la “potenza di calcolo” su ogni scrivania, i futures analytics potrebbero un domani essere alla portata di chiunque, ad esempio tramite piattaforme online dove si possono creare scenari personalizzati con pochi clic. Questo aprirebbe la strada a un coinvolgimento più ampio della società nella co-creazione dei futuri desiderabili, rendendo reale quella futures literacy (alfabetizzazione al futuro) che le Nazioni Unite auspicano come competenza fondamentale del 21° secolo. In uno scenario ideale, comunità locali potrebbero usare simulazioni per deliberare su politiche urbane, o imprese emergenti potrebbero testare i propri modelli di business in una sandbox di futuri economici globali generata dall’AI.

Quello che ci aspetta è il consolidarsi di un nuovo paradigma di rapporto col futuro. Un paradigma in cui predizione e progettazione convergono: non si tratta più solo di prevedere cosa succederà, ma di plasmare attivamente quello che vogliamo accada, esplorando responsabilmente i rischi di ogni scelta. Il futuro cessa di essere una nebbia impenetrabile o un destino già scritto, e diventa un spazio di progettazione, un ambiente generativo in cui l’umanità, potenziata dagli strumenti AI, può esercitare creatività, visione e prudenza per navigare l’incertezza.

Questa transizione non avverrà in un giorno, ma la direzione è tracciata: il futuro del “futuro” sarà sempre più interattivo, collaborativo e generativo.

Takeaway

  • Dal prevedere al generare: L’AI e la simulazione stanno trasformando il futuro da oggetto di previsioni lineari a ambiente generativo dove esplorare possibilità. Si passa da modelli predittivi statici a modelli generativi in grado di produrre migliaia di scenari alternativi.
  • Resilienza nell’incertezza: In contesti complessi e incerti, le previsioni puntuali falliscono facilmente. Approcci come lo scenario planning e le simulazioni agent-based permettono di rompere l’abitudine all’estrapolazione dal presente e abbracciare la divergenza, preparando strategie robuste per futuri plurali.
  • Foresight computazionale: L’integrazione di AI nei processi di foresight (LLM, agenti generativi, data analytics) aumenta velocità e profondità delle analisi. L’AI può individuare weak signals, generare narrative di scenario immersive e fornire un supporto quantitativo alla visione strategica, ampliando la capacità umana di anticipare il cambiamento.
  • Cultura anticipatoria: La svolta generativa richiede un cambiamento culturale nelle organizzazioni. Serve promuovere una anticipatory culture dove trend emergenti e rischi futuri sono discussi apertamente, e dove si pianifica in modo adattivo. Ciò porta maggiore engagement dei dipendenti, innovazione continua e resilienza proattiva rispetto alle disruption.
  • Futuro aperto e co-creato: Sul piano filosofico, si consolida l’idea di un “futuro aperto” e non deterministico, in cui il futuro è uno spazio da co-creare con immaginazione ed etica. Strumenti partecipativi e democratizzazione del foresight possono coinvolgere più attori nella costruzione di futuri desiderabili, anziché subire passivamente il domani. Una pratica di scenari sostenuta nel tempo aiuta i leader a convivere con l’ambiguità di un futuro aperto, contrastando arroganza predittiva ed evitando sorprese strategiche.

Risorse Consigliate

  • Augmented foresight: The transformative power of generative AI for anticipatory governance, European Parliamentary Research Service, 2025. Briefing che esplora come l’AI generativa (LLM, agenti) può supportare l’analisi prospettica e il decision-making strategico nelle policy, evidenziando benefici (rapidità, scenari immersivi) e raccomandando supervisione umana ed etica nell’integrazione AI.
  • Use GenAI to Improve Scenario Planning, Harvard Business Review, 2023. Articolo che analizza i limiti degli approcci tradizionali allo scenario planning (difficoltà nell’identificare trend rilevanti, pochi scenari considerati, mancanza di indicazioni su come gestire scenari divergenti) e discute come l’AI generativa possa potenziare la creazione di scenari, l’esplorazione di narrazioni alternative e la preparazione strategica a molteplici futuri.
  • From Prediction to Foresight: The Role of AI in Designing Responsible Futures, Maria Pérez-Ortiz, Journal of AI for Sustainable Development, 2024. Paper accademico che conia il concetto di “foresight computazionale responsabile”, proponendo un framework in cui l’AI potenzia il foresight senza sostituire il giudizio umano. Sottolinea l’importanza di principi etici, trasparenza e centralità umana nell’uso di modelli predittivi e generativi per co-creare futuri sostenibili.
  • Living in the Futures, Angela Wilkinson & Roland Kupers, Harvard Business Review, 2013. Case study storico sul programma di scenario planning della Shell. Un classico che illustra come una pratica continuativa di scenari renda i leader più a loro agio con l’ambiguità di un futuro aperto, aiutando a smascherare assunzioni nascoste, sviluppare un linguaggio condiviso per la strategia e adattarsi rapidamente durante le crisi.
  • OECD Strategic Foresight Toolkit for Resilient Public Policy, OECD Strategic Foresight Unit, 2025. Toolkit metodologico che guida le istituzioni pubbliche attraverso un processo in cinque fasi: individuare possibili disruption future, mappare le interazioni sistemiche, creare scenari, definire strategie basate sugli scenari, e formulare politiche. Rappresenta un approccio organico e evidence-based per integrare il foresight nei processi di governo, con esempi di 25 potenziali disruption e relative implicazioni.

Strumenti (Toolbox)

  • Scansione dell’orizzonte (Horizon Scanning), Metodo per identificare tempestivamente segnali deboli e trend emergenti. Strumenti AI e text mining automatizzano la raccolta di segnali da pubblicazioni, news, social media, permettendo un monitoraggio continuo e una rilevazione precoce di cambiamenti potenzialmente dirompenti.
  • Scenario Planning Generativo, Evoluzione dello scenario planning classico: utilizza AI e simulazioni per generare molteplici scenari con maggiore velocità e dettaglio. Consente di introdurre discontinuità nelle narrazioni e di esplorare futuri non intuitivi, superando il bias di concentrare l’attenzione su pochi scenari familiari. Gli scenari generativi possono essere aggiornati iterativamente e resi immersivi (es. tramite visualizzazioni VR).
  • Modellazione ad Agenti (ABM), Strumento di simulazione in cui un sistema complesso viene modellato come un insieme di agenti individuali che seguono regole di comportamento e interagiscono. Utile per studiare dinamiche emergenti in economia, sociologia, epidemiologia, ecc. In ambito strategico, funge da laboratorio virtuale per testare policy e strategie osservandone gli effetti emergenti sul sistema.
  • Sistemi Complessi Adattivi, Cornice concettuale per affrontare problemi caratterizzati da molteplici attori interconnessi e adattativi (es. ecosistemi, mercati finanziari, organizzazioni). Strumenti correlati includono la system dynamics (modellazione di sistemi tramite equazioni differenziali e feedback loops) e metodi di Decisione in profonda incertezza (DMDU). Questi approcci aiutano a progettare strategie flessibili e robuste, evidenziando che non esiste un’unica previsione corretta ma una pluralità di possibili equilibri di sistema.
  • LLM e AI generativa per il Foresight, Utilizzo di Large Language Models e altri modelli generativi per potenziare le attività di foresight. Applicazioni includono: analisi automatizzata di dataset testuali alla ricerca di trend e correlazioni nascoste; generazione di report e scenari narrativi “stile futuribile” completi di descrizioni qualitative; costruzione di agenti simulati per role-play strategici. Ad esempio, l’AI può elaborare in poco tempo migliaia di pagine di report e sintetizzare insight strategici, oppure produrre diverse “versioni” di un possibile discorso o decisione governativa in risposta a scenari differenti, facilitando la pianificazione contingente.

Lo shift continua

Quella del Synthetic Foresight non è una moda passeggera, ma l’inizio di un cambiamento di lungo periodo nel nostro modo di pensare e progettare il futuro. La tensione tra predizione e generazione del futuro probabilmente accompagnerà questo decennio e oltre: da un lato continueremo ad affinare algoritmi predittivi (dall’AI alla quantistica) per ridurre le incertezze, dall’altro riconosceremo sempre più che nessuna previsione elimina il fatto fondamentale che il futuro è aperto e plasmandolo plasmiamo anche noi stessi.

La svolta generativa in atto ci invita, come individui e come organizzazioni, a un cambio di atteggiamento profondo: dal subire al creare. Non si tratta di pretendere di controllare il futuro, sarebbe illusorio, ma di interagirci in modo più ricco, esplorativo e propositivo.

In questo percorso, tecnologia e umanesimo dovranno procedere fianco a fianco. L’AI offrirà bussole sempre più sofisticate per orientarci nel mare dell’incertezza, ma spetterà all’ingegno e alla saggezza umana stabilire la rotta, scegliendo quali futuri vogliamo perseguire.

L’idea di fondo è che il futuro non è un luogo verso cui andiamo passivamente, ma un paesaggio che contribuiamo a disegnare attivamente, un ambiente generativo dove le nostre azioni, decisioni e aspirazioni seminano i possibili domani. Abbracciare questa visione significa dotarsi di nuovi strumenti, certamente, ma prima ancora di una nuova mentalità: curiosa verso l’ignoto, pronta a mettere in discussione lo status quo, collaborativa nel coinvolgere molte voci nella conversazione sul futuro.

Il cammino è appena iniziato. Dai pionieri del foresight computazionale agli esperimenti di governance anticipatoria, stiamo imparando giorno dopo giorno come rendere concreto il motto “prepararsi al futuro plasmando il futuro”. La sfida non è piccola e banale: richiede di unire rigore scientifico ed immaginazione, calcolo ed empatia, visione strategica e partecipazione inclusiva. Eppure, le ricompense sono enormi. Organizzazioni, comunità e nazioni capaci di utilizzare queste nuove lenti generative saranno meglio equipaggiate non solo per evitare i pericoli sulla strada, ma per scoprire sentieri inesplorati che conducono a opportunità straordinarie.

Lo shift continua: il futuro stesso sta divenendo un cantiere aperto, e noi tutti, con gli strumenti giusti e la giusta attitudine, possiamo diventarne gli architetti.

 

InsideTheShift #10 – Interfacce Temporali

Progettare il Tempo nell’Era dell’AI

The Shift in Focus

L’intelligenza artificiale non si limita ad accelerare il nostro lavoro: sta ridefinendo il nostro rapporto con il tempo. Storicamente, la tecnologia ci ha aiutato a risparmiare tempo in senso quantitativo,  il Chronos greco, misurato in ore e minuti. L’AI garantisce certamente efficienza: strumenti come ChatGPT o GitHub Copilot permettono di scrivere e programmare fino al 50% più velocemente. Ma l’AI non si limita a comprimere le tempistiche: ripensa il flusso del tempo, anticipa i bisogni, costruisce continuità automatica, sfuma i confini della giornata lavorativa. Il tempo diventa così una nuova interfaccia di design: un mezzo attraverso cui l’AI media produttività, attenzione e senso di urgenza. Questa edizione esplora come l’intelligenza artificiale stia riconfigurando il tempo, nella nostra percezione, nella nostra agenda, nel modo in cui dobbiamo progettarlo.

Dal Chronos al Kairos nell’era dell’AI

Understanding the Shift

Nel pensiero umano, il tempo ha due volti: Chronos, il tempo lineare, e Kairos, il momento giusto, qualitativo. L’AI costringe a confrontare questi due piani. Da un lato, migliora l’efficienza Chronos: secondo McKinsey, entro il 2030 l’AI potrebbe automatizzare fino al 30% delle ore lavorative. Dall’altro, altera l’esperienza Kairos: interfacce AI predittive (testi suggeriti, notifiche intelligenti) ci spingono ad agire nel momento “ottimale”. Il tempo diventa una interfaccia cognitiva: l’AI media quando ci concentriamo, rispondiamo, ci fermiamo.

I nostri cervelli, però, ne pagano il prezzo, o ne raccolgono i benefici. Se l’AI riduce il carico cognitivo (meno sforzo per cercare, scrivere, pianificare), può però ridurre anche il coinvolgimento profondo. Studi di Harvard mostrano che usare l’AI migliora performance a breve termine, ma può ridurre motivazione e qualità del ragionamento. Si genera un “flow artificiale”: lavorare è più semplice, ma meno significativo. Cal Newport (Deep Work) ricorda che la creatività profonda richiede tempi lunghi, concentrati, non frammentati. Ma l’AI, con i suoi suggerimenti costanti e la sua reattività, può frammentare l’attenzione. Gestire il tempo oggi significa progettarlo insieme all’AI: bilanciare velocità algoritmica con profondità umana, Chronos con Kairos.

Dal Workflow Lineare al Tempo Orchestrato

The Core

L’AI ci spinge oltre il workflow 9–17: entriamo nell’era del tempo orchestrato. Non eseguiamo più sequenze lineari: lavoriamo con agenti AI che operano in background, prevedendo bisogni (UX predittiva), rispondendo in tempo reale, attivandosi in autonomia.

Un assistente calendario che programma appuntamenti, un sistema email che scrive bozze in base al nostro stile: il lavoro si anticipa da solo. Le attività si distribuiscono lungo una linea temporale continua, orchestrata da automazioni che si attivano ciclicamente, rituali digitali. Chatbot che ogni mattina propongono i task del giorno, agenti che di notte analizzano dati e generano report: tutto questo costruisce una continuità apparente.

Questa fluidità potenzia la reattività. Gli sviluppatori, ad esempio, utilizzano AI assistant che scrivono codice boilerplate, propongono fix in tempo reale, e accelerano lo sviluppo. Il risultato è un senso di momentum costante. Ma c’è un rischio: questo ritmo può diventare troppo veloce e frammentato. Microsoft lo definisce “infinite workday”: le ore produttive si sovrappongono, i micro-task si moltiplicano, i meeting si rincorrono. Il 50% dei lavoratori afferma che la propria giornata è “caotica e spezzettata”. Senza progettazione consapevole, rischiamo che sia l’AI, e non noi, a decidere come usare il nostro tempo.

Temporalità Condivisa e Lavoro in Rete

The Broader Shift

L’AI sta ridefinendo il tempo organizzativo. Emergere un nuovo concetto: temporalità condivise. Il tempo non è più una linea personale, ma una rete distribuita tra team e fusi orari.

Esempio: team globali con AI che redige report notturni, passati poi a colleghi in un altro continente. Si crea un ciclo follow-the-sun, dove l’AI è collante temporale. Collaborare non significa più essere online contemporaneamente: grazie agli strumenti AI, è possibile coordinarsi in asincrono. Co-pilot aziendali assegnano priorità, sintetizzano aggiornamenti, aggregano feedback. Il tempo diventa un materiale di design collettivo: ogni task è programmato nel momento migliore per ognuno, anche quando dormiamo.

Ma questa fluidità genera tensione. Il lavoro diventa continuo, le aspettative implicite crescono. Il 40% dei lavoratori controlla email prima delle 6 e dopo le 20. Il 33% dichiara che il ritmo è diventato insostenibile. L’AI ci aiuta, ma aumenta anche la pressione a restare al passo. Ogni collega, o suo agente AI,  produce, programma, avanza. Rischiamo un tempo liquido, senza fine, dove la giornata lavorativa non ha più un inizio o una fine.

Le organizzazioni devono quindi progettare una cultura temporale condivisa. Silenzi digitali, “no meeting Friday”, AI che programmano email solo durante l’orario lavorativo del destinatario. Alcuni paesi (Francia, Australia) hanno introdotto il diritto alla disconnessione. Serve un design consapevole: il tempo non è solo produttività, ma una risorsa da proteggere.

Verso una Sostenibilità Temporale

What’s Next

Come evitiamo che l’AI trasformi il tempo in accelerazione tossica? Lavoro 24/7, microtasking costante, burnout. Microsoft avverte: aggiungere AI a un sistema disfunzionale accelera la disfunzione. Serve una nuova strategia: sostenibilità temporale.

Significa progettare AI e processi per rispettare il tempo umano. McKinsey parla di frontier firms mindset: eliminare l’80% delle attività a basso valore, valorizzare le persone come co-designer con l’AI. Usare l’AI per rimuovere l’infodemia, non per spremere più ore. Alcuni strumenti lo fanno già: Viva Insights (Microsoft) propone blocchi di focus da 4 ore. Altre aziende promuovono “giornate senza meeting”, co-pilot che accorpano riunioni, e AI che programmano pause.

È un cambio culturale. Dal design della velocità a quello del ritmo. Un AI coach che inserisce pause, notifiche ritardate, silenzi nei tool. App che suggeriscono di non inviare email alle 23, ma di programmarle al mattino. Notifiche disattivate nel weekend come default. Lavorare meglio, non di più.

Dal punto di vista etico, il tempo è una risorsa da curare, non solo da ottimizzare. I leader devono chiedersi: questa AI cosa mi fa risparmiare, ma anche: che tipo di giornata sta creando? Una giornata sostenibile, con spazio per pensiero, recupero e creatività, o una sequenza infinita di interazioni veloci? Il futuro del lavoro sarà di chi saprà progettare il tempo come una UX: efficiente, sì, ma anche umana.

Takeaways

  • L’AI riprogetta il tempo, non solo lo ottimizza: Non solo fa risparmiare minuti: cambia quando e come le cose accadono. Anticipa, orchestra, automatizza.
  • Chronos vs. Kairos: La sfida non è solo efficienza (Chronos), ma qualità (Kairos). Un’AI può ridurre la profondità e il senso se non usata consapevolmente.
  • Workflow continui e flow artificiale: L’AI può generare una continuità apparente. Ma se troppo fluida, rischia di annullare la motivazione o il coinvolgimento.
  • Collaborazione asincrona e tempo distribuito: Il lavoro non è più sincronizzato, ma orchestrato. Serve ripensare le regole del gioco per evitare un workday infinito.
  • Sostenibilità temporale: Lavorare bene significa anche progettare pause, silenzi e concentrazione. L’AI deve aiutare a proteggere tempo e attenzione, non consumarli.

Recommended Resources

  • Cal Newport – Deep Work
  • Harvard Business Review – “How is Your Team Spending the Time Saved by GenAI?”
  • HBR – “Gen AI Makes People More Productive—and Less Motivated”
  • Microsoft – Work Trend Index: The Infinite Workday (2025)
  • McKinsey – “GenAI and the Future of Work” (2023)
  • Stanford/CHB – “Cognitive Load and LLMs” (2024)
  • McKinley Valentine – “Kairos vs. Chronos”

Toolbox

  • Time-blocking & Focus Planning: Tool come Viva Insights, Calendly o RescueTime per bloccare tempo profondo.
  • Gestione delle notifiche: Do Not Disturb, Quiet Hours, notifiche raggruppate.
  • Assistenti AI per la pianificazione: Clockwise, ReclaimAI, ottimizzano il calendario per favorire blocchi di lavoro.
  • Collaborazione asincrona + AI: aggiornamenti automatici, sintesi AI, task manager condivisi.
  • Wellbeing analytics: Analisi dell’uso del tempo e alert sul burnout.

The Shift Continues

Il rapporto tra AI e tempo è solo all’inizio. Sta a noi diventare designer del nostro tempo, non vittime del suo ritmo. L’AI accelera, sì, ma possiamo scegliere come e quanto. Con strumenti, cultura e consapevolezza, possiamo creare un tempo più ricco, più sostenibile, più umano. Il tempo è la vera interfaccia. E lo shift continua.

InsideTheShift #9 – Realtà Sintetica

Tra realtà e simulazione: l’alba della realtà sintetica

Shift in Focus

Viviamo un momento in cui i confini tra reale e artificiale si fanno sfumati. La realtà sintetica, l’insieme di mondi digitali generati dall’AI, ambienti virtuali immersivi e contenuti deepfake iperrealistici è emersa come un nuovo paradigma. Non si tratta più di semplici effetti speciali in un film: oggi chiunque, con pochi strumenti, può creare immagini fotorealistiche di eventi mai accaduti, simulare la voce di un personaggio pubblico o costruire interi ambienti 3D in cui immergersi. Questo shift è tecnologico (abilitato da algoritmi sempre più potenti) ma anche profondamente culturale: ci spinge a rivedere cosa consideriamo “reale” e a confrontarci con esperienze sintetiche così convincenti da suscitare le stesse emozioni del mondo fisico.

In questa introduzione evocativa, immaginiamo per un attimo di scorrere un feed social: una foto mozzafiato di una città futuristica al tramonto – generata da un’AI – appare accanto al video di una celebrità che pronuncia parole che non ha mai detto (un abile deepfake). Poco più sotto, un amico condivide il suo ultimo acquisto fatto provando virtualmente un capo in un metaverso. Nulla di ciò che abbiamo visto è “reale” in senso tradizionale, eppure ha un impatto autentico sulle nostre percezioni e decisioni. Ecco perché la realtà sintetica è un punto di svolta: apre possibilità creative senza precedenti, ma solleva anche interrogativi inediti su fiducia, autenticità e esperienza umana.

Dalle premesse all’oggi: come siamo arrivati qui

Understanding the Shift

La realtà sintetica affonda le sue radici in evoluzioni tecniche e culturali degli ultimi anni. Sul fronte tecnico, abbiamo assistito a progressi impressionanti nell’Intelligenza Artificiale generativa: dal linguaggio (GPT e simili, capaci di scrivere testi realistici) alle immagini (con modelli come DALL·E e Midjourney in grado di creare opere visive da zero), fino ai video generati da AI come quelli prodotti da strumenti tipo Runway, VEO, midjourney e kling. I deepfake, comparsi intorno al 2017, hanno mostrato al mondo quanto fosse ormai possibile manipolare volti e voci nei video con risultati inquietantemente credibili. Parallelamente, i motori grafici 3D e i simulatori (come Unreal Engine o Unity) hanno reso accessibile la creazione di mondi virtuali dettagliati, mentre piattaforme di realtà estesa (XR) come visori VR/AR hanno iniziato a portare questi mondi simulati direttamente nei nostri sensi.

Le premesse culturali non sono meno importanti. La società si è lentamente abituata all’idea di filtrare e modificare il reale: basti pensare ai filtri di Instagram o Snapchat che da anni abbelliscono o trasformano i volti, una forma primitiva di realtà aumentata personale. Il concetto di “avere una vita online” parallela a quella offline ha preparato il terreno: dagli avatar nei videogiochi e nei primi mondi virtuali (Second Life, Minecraft) fino alle odierne sperimentazioni di metaverso, l’idea di interagire in spazi non fisici è entrata nell’immaginario comune. Anche la fiction ha giocato il suo ruolo profetico – film e romanzi da Matrix a Ready Player One – educando le masse a scenari in cui la simulazione può essere indistinguibile dalla realtà.

Tutti questi fattori si sono uniti nel 2022-2023 in una sorta di big bang della realtà sintetica: il grande pubblico ha visto il Papa in giacca di piumino bianca (un’immagine generata da AI diventata virale), ha ascoltato canzoni “cantate” da artisti in realtà imitati dall’AI, ha seguito notizie di video deepfake di leader politici. La percezione del reale ha iniziato a oscillare. Ciò che vediamo o sentiamo può essere autentico oppure no, e spesso è richiesto un occhio allenato (o strumenti specifici) per accorgersene. Questa consapevolezza collettiva segna lo shift: la realtà sintetica non è più solo un esperimento da laboratorio, ma qualcosa che tocca la vita quotidiana e che richiede nuovi riferimenti.

Fondamenti della realtà sintetica: tecnologie e concetti chiave

The Core
Che cosa intendiamo esattamente per realtà sintetica? Si tratta di un ecosistema di tecnologie e approcci che consentono di creare “gemelli” digitali del mondo e di generare contenuti ed esperienze simulate, spesso indistinguibili da quelle reali. Alla base vi sono alcuni concetti chiave:

  • Digital twin (gemello digitale) – È una replica virtuale di un’entità fisica, aggiornata in tempo reale attraverso dati e sensori. Nato in ambito industriale, il concetto di digital twin oggi si applica a tutto: dalle copie digitali di macchinari e città (usate per simulare scenari e ottimizzare processi) fino ai digital twin di esseri umani (per esempio avatar animati con dati biometrici). Questa tecnica permette di testare e prevedere eventi nel simulato prima di attuare cambiamenti nel reale.
  • Synthetic media – Rientrano qui tutti i contenuti prodotti o alterati dall’AI: testi, immagini, audio, video generati artificialmente. È synthetic media un articolo scritto da ChatGPT, un volto inesistente creato da StyleGAN, la voce clone di una celebrità usata in uno spot, o un video deepfake che altera il parlato di qualcuno. Questi media sintetici, grazie ai progressi delle reti neurali (come i modelli diffusivi e i GAN), hanno raggiunto un livello qualitativo tale da “riflettere” il mondo fisico in modo convincente. Non a caso Accenture ha definito questa tendenza The Unreal, sottolineando come aziende e consumatori ormai debbano spostare l’attenzione dalla distinzione vero/falso all’autenticità e trasparenza d’uso dei contenuti generati.
  • Ambienti XR generativi – XR (Extended Reality) è il termine ombrello per realtà virtuale, aumentata e mista. La novità oggi è l’integrazione dell’AI generativa in questi ambienti. Significa che mondi virtuali e oggetti 3D possono essere creati al volo dall’intelligenza artificiale. Immaginiamo di descrivere a un sistema VR una scena (“una spiaggia tropicale al tramonto con musica soffusa”) e vedere il mondo virtuale plasmarsi di conseguenza, in tempo reale. Questo apre la porta a esperienze immersive personalizzate: training simulativi che si adattano al volo alle esigenze dell’utente, giochi che generano livelli infiniti, spazi virtuali sociali creati in base ai partecipanti. Un esempio concreto sono i progetti di generative NPC (personaggi non giocanti con intelligenza generativa): invece di reagire con frasi programmate, gli avatar in un mondo virtuale possono conversare creativamente con l’utente, dando la sensazione di interagire con entità “vive” nel simulato.

Quali sono le applicazioni già in atto di questi elementi della realtà sintetica? Numerose e in rapida espansione:

  • Business e industria: aziende all’avanguardia utilizzano gemelli digitali per ottimizzare prodotti e impianti. Ad esempio, case automobilistiche e aerospaziali testano prototipi in simulazioni virtuali prima di produrli fisicamente, riducendo costi e tempi. In ambito retail, si sperimentano showroom virtuali dove il cliente può provare mobili o vestiti in un gemello digitale della propria casa o del proprio corpo. Inoltre, i dati sintetici generati da AI vengono impiegati per addestrare algoritmi evitando problemi di privacy o colmando lacune nei dati reali: Gartner prevede che entro il 2030 la maggior parte dei dati usati per addestrare l’AI potrebbe essere sintetica.
  • Formazione e training: la realtà simulata sta rivoluzionando come apprendiamo competenze. In medicina, già si addestrano chirurghi in sale operatorie virtuali; piloti e astronauti fanno training in ambienti simulati da decenni, ma ora con l’AI questi scenari diventano più realistici e adattivi. Un formatore può generare su misura una situazione di emergenza per addestrare uno staff (es. l’evacuazione in caso d’incendio in un edificio virtuale) e ripeterla infinite volte variando i parametri. Anche nel business si diffonde l’idea di “prove generali” in VR: dal simulare conversazioni difficili per il team HR, fino a corsi di public speaking in cui ci si allena davanti a un pubblico virtuale generato dall’AI, capace magari di reagire con espressioni e rumore di fondo verosimili.
  • Comunicazione e media: stiamo entrando nell’era dei volti e voci sintetici. Alcune aziende offrono già servizi di AI avatar per presentare notiziari o video aziendali in più lingue: un singolo presentatore virtuale (ad esempio creato con piattaforme come Synthesia) può parlare fluentemente italiano, inglese, cinese con lo stesso volto e timbro, grazie al voice cloning e al lip-sync automatico. Marchi e influencer utilizzano virtual influencer – figure di personaggi inesistenti ma dall’aspetto ultrarealistico – per campagne pubblicitarie e contenuti social, con un controllo totale sull’immagine e il messaggio (Lil Miquela, Shudu e altri casi hanno fatto scuola). Nei call center iniziano ad apparire agenti virtuali con voce ed espressioni empatiche, che simulano un operatore umano per mettere a proprio agio il cliente. La comunicazione immersiva passa anche per eventi in spazi virtuali: fiere, concerti e meeting nel metaverso dove magari ci si presenta con il proprio avatar ideale. Tutto ciò modifica profondamente il panorama mediatico e dell’intrattenimento, fondendo ruoli prima distinti di creatore e fruitore: lo spettatore può diventare parte attiva di un mondo narrativo sintetico, il cliente co-creare l’esperienza di marca insieme all’AI.
  • Creatività e produzione culturale: artisti, designer e creativi sono tra i primi ad abbracciare la realtà sintetica come nuova tavolozza. Si creano film interamente con scenari e personaggi generati dall’intelligenza artificiale, videogiochi con trame che nascono dall’interazione con l’utente, opere d’arte dove l’autore umano e algoritmo firmano insieme la produzione. La musica sintetica consente di emulare voci di cantanti famosi (non senza polemiche sul copyright) o di comporre brani in stili diversi premendo un pulsante. Nelle arti visive, l’AI permette di ricreare stili di pittori del passato o inventarne di nuovi fondendo generi. Questa democratizzazione degli strumenti creativi sta portando a un’esplosione di contenuti “sintetici”: da un lato una quantità enorme di media generati (con pro e contro per chi vi si deve orientare), dall’altro una qualità sorprendente che sfida il primato della creatività umana, sollevando dibattiti sul ruolo dell’artista nell’era dell’AI.

La realtà sintetica poggia su fondamenta tecnologiche solide e variegate (dall’AI alla grafica 3D) e sta trovando applicazione in ogni settore, ridisegnando pratiche e modelli di business. Ma se questi sono i mattoni tecnici, quali sono le implicazioni più ampie una volta che costruiamo con essi ambienti in cui vivere e interagire? È ciò che esploriamo nella prossima sezione.

Vivere nel virtuale: impatti culturali, psicologici ed epistemologici

The Broader Shift
L’avvento di ambienti sintetici e simulati solleva questioni che vanno oltre la tecnologia, toccando il modo in cui pensiamo, ci relazioniamo e conosciamo il mondo.

Percezione e verità: Come cambia la nostra idea di verità quando vedere non significa più credere? I deepfake e i media generati stanno erodendo la fiducia nei tradizionali segni di autenticità. Un video o una foto, un tempo prove quasi incontestabili, oggi possono essere artefatti digitali perfetti. Questo porta al paradosso evidenziato da analisti: il rischio non è solo che la gente creda alle cose false, ma anche che non creda più alle cose vere. In un mondo di deepfake, potremmo respingere fatti scomodi bollandoli come falsi, oppure cadere in un nichilismo informativo in cui “tutto è manipolabile”. La conoscenza stessa diventa labile, perché il nostro criterio di realtà vacilla. Il risultato può essere una società disorientata, frammentata in bolle di percezione personale (ognuno con i propri simulacri preferiti). Alcuni studiosi (Ignas Kalpokas) parlano di personalizzazione della realtà: i media sintetici consentono a ognuno di vivere in una sorta di bolla informativa estetica su misura, con il rischio di frammentare la società in universi paralleli.

Identità e psicologia: Se possiamo assumere qualsiasi aspetto e voce, creare avatar di noi stessi idealizzati, o persino multiple identità virtuali, cosa significa essere “noi”? La realtà sintetica permette forme di espressione identitaria fluide: online possiamo scegliere di apparire come un animale antropomorfo in VR, o come una versione perfezionata di noi stessi grazie a filtri e avatar. Questo da un lato libera creatività e consente di esplorare ruoli (pensiamo alla possibilità per chi ha disabilità o insicurezze di “rinascere” in forma diversa nel virtuale), ma dall’altro può creare dissonanza e disagio. Alcune ricerche sul comportamento in VR (effetto Proteus) indicano che le persone tendono a interiorizzare caratteristiche del proprio avatar – ad esempio, indossare un avatar alto e attraente può temporaneamente rendere più sicuri di sé, mentre uno dall’aspetto infantile può incoraggiare comportamenti più ingenui. La linea tra autenticità personale e costruzione virtuale diventa sottile: c’è chi passa talmente tanto tempo nei panni del proprio avatar da sentirlo più vero della propria identità fisica. A livello psicologico, inoltre, la dipendenza da esperienze sintetiche gratificanti (il classico esempio: un mondo virtuale utopico in cui rifugiarsi rispetto a una realtà deludente) potrebbe portare a forme di escapismo intensificate. Se oggi parliamo di addiction ai videogame, domani potremmo confrontarci con persone che preferiscono la compagnia degli amici virtuali generati (o di partner virtuali, come le AI companion tipo Replika) alle relazioni reali, perché programmati per essere emotivamente rassicuranti.

Culturalmente, stiamo già vedendo una normalizzazione del falso: figure come i virtual influencer hanno milioni di follower che sospendono volontariamente l’incredulità, interagendo con un’entità che sanno non essere umana, ma che comunque li coinvolge emotivamente. Questo può indicare una maggiore apertura mentale verso nuove forme di esistenza digitale, ma rischia anche di banalizzare la distinzione realtà/finzione. Pensiamo anche alla creatività: una canzone cantata da un’AI con la voce di Elvis Presley – è plagio, tributo, nuova opera? I riferimenti etici ed estetici tradizionali vacillano. Alcuni filosofi come Jean Baudrillard anticiparono concetti simili decenni fa: nella sua teoria della simulazione, Baudrillard sosteneva che la società contemporanea sostituisce la realtà e il significato con segni e simboli, una sorta di iperrealtà in cui i simulacri non nascondono la verità, ma la sostituiscono. In altre parole, potremmo arrivare a vivere esperienze dove il fatto che siano artificiali non conta più, perché sono vere per chi le vive soggettivamente.

Epistemologia e educazione alla verosimiglianza: Come formare le nuove generazioni a distinguere il vero dal sintetico, o quantomeno a navigare consapevolmente un mondo pieno di illusioni perfette? Si parla di introdurre l’alfabetizzazione ai media sintetici nei programmi scolastici, così come un tempo si insegnava a riconoscere una fonte affidabile o a smascherare una bufala sul web. Ora bisogna imparare a scovare tracce di AI in un’immagine (artefatti sui dettagli, incoerenze nelle mani o nel testo scritto), a utilizzare strumenti di verifica come i detector per testi generati o le analisi forensi per video. Serve però anche un approccio più profondo: educare a un sano scetticismo, a mettere in discussione quello che i sensi percepiscono in digitale, a chiedersi “chi ha creato questo contenuto e perché?”. Organizzazioni internazionali e aziende stanno iniziando campagne di sensibilizzazione su questi temi. Ad esempio, il MIT Media Lab ha condotto progetti come Detect Fakes per studiare come migliorare la capacità del pubblico di riconoscere i deepfake e promuovere una maggiore consapevolezza. Allo stesso tempo, si sviluppano soluzioni tecniche per aiutare: watermark invisibili, certificati digitali di autenticità, normative che obblighino a etichettare i contenuti sintetici. Ma la prima linea di difesa resta la preparazione mentale dell’utente.

Infine, vanno considerate le implicazioni sociali e politiche: in uno scenario in cui è facile fabbricare “prove” video o audio, come garantire la tenuta del dibattito democratico e della giustizia? Già oggi tribunali e testate giornalistiche devono iniziare a verificare con cura l’autenticità di registrazioni digitali prima di considerarle affidabili. Nel 2024, il World Economic Forum ha incluso disinformazione e deepfake tra i principali rischi globali a breve termine. Vivere in ambienti sintetici significa anche porre nuove basi di fiducia collettiva: forse si dovrà fare affidamento su autorità di certificazione che attestino che un certo video è reale, o paradossalmente tornare a dare peso alla testimonianza diretta umana (riportando importanza a ciò che è live e non mediatizzato). Ci troviamo quindi in una fase di transizione culturale ed epistemologica: stiamo imparando a convivere con l’idea che la realtà non è più un monolite, ma un mosaico di esperienze autentiche e artificiali intrecciate.

Oltre l’orizzonte: governance, etica e scenari futuri

What’s Next – Verso mondi persistenti e verità aumentate
Siamo solo agli inizi della realtà sintetica, e molte direzioni si profilano all’orizzonte, ognuna con opportunità entusiasmanti e rischi da governare. Un primo ambito cruciale è la governance dei contenuti sintetici. Per mitigare abusi e effetti negativi, si stanno studiando soluzioni tecnologiche come i watermark digitali: un caso recente è SynthID di Google DeepMind, un sistema che inserisce filigrane invisibili dentro le immagini generate da AI per poterle identificare in seguito. L’idea è che in futuro ogni contenuto artificiale di rilievo abbia una sorta di “firma” che ne dichiara l’origine sintetica, magari leggibile da piattaforme e software di verifica. Parallelamente, si parla di blockchain e registri distribuiti per tracciare la provenienza dei media: ad esempio, registrare l’hash di un video al momento della creazione autentica, così che ogni copia manipolata venga poi riconosciuta confrontandola con l’originale registrato su blockchain. Iniziative come la Content Authenticity Initiative (CAI) e lo standard C2PA (una coalizione che include Adobe, Microsoft, BBC e altri) vanno in questa direzione, proponendo formati di file che portano incorporata la “storia” delle modifiche e certificati crittografici su chi ha fatto cosa. Nel frattempo, i legislatori iniziano a muoversi: la UE con l’AI Act ha previsto obblighi di segnalazione per deepfake non satirici, e negli USA la FTC (Federal Trade Commission) sta valutando norme per vietare deepfake usati in frodi e impersonation, soprattutto in vista di proteggere i processi elettorali. La Cina già dal 2022 richiede per legge che i contenuti sintetici siano etichettati come tali. Insomma, la regolamentazione cercherà di mettere paletti senza frenare l’innovazione, un equilibrio delicato: imporre trasparenza e responsabilità (ad esempio sanzioni severe per chi usa deepfake per diffamare o truffare), senza criminalizzare usi legittimi e creativi della realtà sintetica.

C’è poi un fronte etico ampio legato alle identità AI e avatar sintetici. Come gestire il diritto di immagine nel mondo dei deepfake? Già oggi esistono avatar digitali di persone reali (attori “resuscitati” in spot pubblicitari, come l’ologramma di Audrey Hepburn in una recente pubblicità, o la voce clonata di chef famosi in nuovi programmi TV). Serve il consenso esplicito e magari linee guida su cosa si può fare con l’identità altrui. Alcuni propongono di riconoscere una forma di diritto alla personalità digitale: ognuno dovrebbe poter controllare l’uso del proprio volto/voce in ambito sintetico, e magari esistono business emergenti che tutelano i VIP creando i loro legittimi avatar per evitare abusi di terzi. Un altro dilemma è: se interagiamo sempre più con agenti virtuali realistici (che sembrano avere emozioni, volti, voci), dobbiamo definire uno statuto etico per queste interazioni? Ad esempio, utilizzare e maltrattare un assistente virtuale con fattezze umane potrebbe avere implicazioni psicologiche (disumanizzazione), e c’è chi ipotizza di dover dare diritti minimi agli agenti AI avanzati, o almeno regole sul loro aspetto (per esempio, non farli sembrare identici a persone reali senza disclosure).

Guardando più lontano nel futuro, possiamo immaginare mondi virtuali persistenti interamente generati dall’AI. Oggi un ambiente come Minecraft è in gran parte plasmato dai giocatori; domani potremmo avere un mondo tipo metaverso 2.0 dove l’AI funge da “dungeon master” onnipresente: crea territori, sfide, narrazioni infinite e personaggi che vivono di vita propria 24/7, anche quando nessun umano è loggato. Saranno vere e proprie realtà alternative co-abitate da umani e agenti AI. Un recente esperimento di ricerca di Stanford ha mostrato come 25 agenti AI in un quartiere simulato potessero comportarsi in modo credibile, svolgendo routine quotidiane e interagendo tra loro in modo emergente, al punto che un osservatore umano vi scorgeva dinamiche “sociali” analoghe a quelle reali. Immaginiamo di ampliare questo concetto: intere città virtuali con migliaia di abitanti AI sempre attivi, che portano avanti economia, politica, cultura nel loro mondo simulato. Gli umani potrebbero entrare e uscire da questi mondi come visitatori o residenti temporanei, trovando un ambiente coerente e vivo anche in assenza di altri umani. Le implicazioni qui sono fantascientifiche ma degne di riflessione: queste realtà simulate potrebbero diventare per alcuni più appaganti della realtà fisica, generando addirittura spostamenti esistenziali (c’è chi ipotizza futuri in cui passiamo la maggior parte del tempo collegati a esperienze sensoriali generate, un po’ come immaginava il filosofo Nozick con la sua “experience machine”).

Uno scenario estremo che spesso si cita è la possibilità di simulare completamente la realtà al punto che l’illusione sia totale – la cosiddetta iper-realtà credibile. Se combinassimo progressi in grafica, AI, interfacce neurali (brain-computer interface) e fisica simulata, potremmo arrivare a Matrix non per intrappolare l’umanità, ma come prodotto di intrattenimento o di sperimentazione: mondi in cui tutti i sensi sono stimolati perfettamente, e dove è impossibile distinguere il vero dal virtuale senza un controllo esterno. Alcuni futuristi discutono persino la simulazione della coscienza: creare NPC talmente avanzati da essere quasi indistinguibili da menti umane, aprendo questioni sullo status di queste intelligenze simulate. Anche senza spingerci così oltre, nei prossimi 5-10 anni sarà cruciale affrontare i rischi più terreni: disinformazione e propaganda sintetica, frodi identitarie (truffatori che chiamano al telefono imitando la voce di un familiare – è già successo – per estorcere denaro), erosione della privacy (se posso creare una tua copia digitale, posso farti dire/fare qualsiasi cosa, con impatti sulla tua reputazione). Allo stesso tempo, non vanno dimenticate le opportunità: la realtà sintetica potrebbe democratizzare l’accesso a esperienze incredibili (viaggiare virtualmente in epoche storiche ricostruite, avere un tutor AI personalizzato sempre disponibile che simula un insegnante ideale, ecc.), e addirittura aiutare l’umanità a risolvere problemi complessi simulandone gli effetti in mondi virtuali (ad esempio, testare politiche contro il cambiamento climatico in Earth simulators avanzati prima di applicarle davvero).

In questo futuro prossimo la sfida sarà massimizzare i benefici minimizzando i danni. Ci aspettano probabilmente certificazioni di autenticità ovunque (ogni notizia o contenuto con un “bollino” di veridicità verificabile), nuove professioni come gli ispettori di realtà (esperti incaricati di scovare manipolazioni sintetiche per aziende e governi), codici etici per l’uso di avatar e gemelli digitali (magari un galateo del metaverso). E ci sarà bisogno di una grande collaborazione multidisciplinare: tecnologi, legislatori, psicologi, filosofi dovranno lavorare insieme per stabilire dove tracciare i confini – ad esempio: quando un mondo virtuale persistentemente generato dovrà essere considerato alla stregua di una entità giuridica? Come proteggere i minori in una realtà dove anche il bullo a scuola potrebbe essere un agente AI generato per testare la loro resilienza? Le domande aperte sono tante.

Quello che è certo è che la realtà sintetica non farà marcia indietro. Troppo forte la spinta innovativa e l’interesse economico e sociale a suo favore. La chiave sarà dirigere lo sviluppo: costruire un ecosistema di fiducia (trust) attorno a queste tecnologie, imponendo ad esempio trasparenza by design (ogni contenuto sintetico porti con sé informazioni sulla sua origine), e investendo in alfabetizzazione digitale di massa per creare utenti consapevoli e non vittime passive. Se ben guidata, la realtà sintetica potrà diventare un amplificatore dell’esperienza umana, e non un suo detrattore: pensiamo alla possibilità di preservare lingue e culture creando musei virtuali viventi, o di migliorare l’empatia mettendosi nei panni altrui attraverso simulazioni immersive (ci sono esperimenti di VR che fanno percepire le difficoltà motorie di chi è in sedia a rotelle, aumentando la sensibilità dei partecipanti). Il futuro vedrà realtà fisica e sintetica coesistere e intrecciarsi; spetta a noi definire le regole della loro convivenza.

📌 Takeaways – Punti chiave strategici

  • Dal reale al sintetico: la linea di demarcazione tra realtà fisica e contenuti generati artificialmente si assottiglia. Mondi virtuali, media AI e gemelli digitali stanno affiancando (e in certi casi sostituendo) l’esperienza diretta del reale. Le aziende e le persone devono riconoscere che il sintetico diventerà parte integrante della nostra quotidianità, dalla formazione all’intrattenimento.
  • Opportunità infinite, nuove economie: la realtà sintetica apre spazi di innovazione straordinari. Si profilano economie totalmente nuove – dal mercato degli avatar e delle identità digitali, ai servizi di simulazione on-demand – e modelli di business che sfruttano gemelli digitali per ottimizzare costi e performance. Saper cogliere queste opportunità darà un vantaggio competitivo, ma richiede anche vision e sperimentazione continua.
  • Sfida dell’autenticità: in un mondo di contenuti generati, la fiducia diventa moneta preziosa. Marchi e istituzioni dovranno impegnarsi per garantire trasparenza su cosa è reale e cosa è sintetico, adottando sistemi di autenticazione e comunicando in modo etico. Allo stesso tempo, gli utenti vorranno esperienze sempre più immersive ma anche sicure: chi saprà offrire sintetico di qualità certificata guadagnerà credibilità.
  • Centralità dell’etica e della governance: la gestione responsabile della realtà sintetica sarà fondamentale. Questo include sviluppare policy interne (es. linee guida sull’uso di volti AI negli spot, o sul rispetto della privacy nelle simulazioni), investire in sistemi di watermarking e tracciabilità dei contenuti, supportare normative intelligenti. Le organizzazioni leader saranno quelle che contribuiranno a definire gli standard de facto di settore, bilanciando innovazione e protezione dei diritti.
  • Skill e cultura nuovi: l’adozione diffusa di ambienti simulati richiede competenze inedite. Dall’AI prompt design (saper istruire i sistemi generativi) all’interpretazione forense digitale (saper riconoscere media manipolati), fino alla capacità di progettare esperienze phygital (fisico+digitale) coerenti. Le aziende dovranno formare orchestratori della realtà sintetica e aggiornare la cultura organizzativa per collaborare efficacemente con agenti virtuali e mondi simulati.
  • Verso una simbiosi uomo-AI: in prospettiva, la realtà sintetica non è un separato dal reale, ma un continuum. Le vite fisiche saranno aumentate da strati digitali (AR) e da esperienze parallele. Chi riuscirà a orchestrare questa simbiosi – utilizzando il meglio dell’AI per potenziare creatività, conoscenza e interazioni, senza perdere di vista i valori umani – guiderà lo shift successivo.

📚 Recommended Resources – Fonti e approfondimenti internazionali

  • MIT Sloan – “Deepfakes, explained” (2020): Un’analisi chiara su cosa sono i deepfake, come vengono creati e quali rischi pongono per individui e aziende, con esempi reali e strategie iniziali di difesa.
  • Stanford HAI – Preparing for the Age of Deepfakes and Disinformation (Policy Brief, 2020): Documento strategico a cura di Dan Boneh et al. che esamina l’impatto dei deepfake sul panorama mediatico e politico, delineando raccomandazioni per policymakers su norme, regolamentazione e sviluppo di una resilienza sociale.
  • Ignas Kalpokas (SN Social Sciences, 2021) – Problematising reality: the promises and perils of synthetic media: Paper accademico che esplora deepfake, virtual influencer e realtà estesa, discutendo come la percezione della realtà diventi instabile e personalizzata nell’era dei media sintetici. Offre un inquadramento teorico (mediatisation theory) sugli effetti socioculturali di queste tecnologie.
  • Accenture Technology Vision 2022 – The Unreal: Making Synthetic, Authentic: Rapporto sulle tendenze tech che introduce il concetto di “unreal world”. Spiega come dati e contenuti generati dall’AI stiano convincendo come il mondo fisico e perché autenticità e trasparenza diventino imperativi per le imprese. Contiene statistiche sulle opinioni dei dirigenti riguardo all’uso di strumenti per autenticare i dati.
  • Google DeepMind – Identifying AI-generated images with SynthID (2023): Blog post tecnico che presenta SynthID, il sistema di watermarking invisibile per immagini AI. Descrive il funzionamento, gli obiettivi (impedire disinformazione, sostenere la fiducia online) e la visione di estendere questo approccio anche a audio e video.
  • Brookings – Artificial intelligence, deepfakes, and the uncertain future of truth (John Villasenor, 2019): Un commentary pionieristico che discute come i deepfake possono confondere la distinzione tra vero e falso. Illustra sia i pericoli (dall’uso malevolo in politica e pornografia non consensuale) sia le possibili risposte: tecnologia di rilevamento, interventi legali e maggiore consapevolezza pubblica.
  • World Economic Forum – In a world of deepfakes, we must build a case for trustworthy synthetic content (Beena Ammanath, 2024): Articolo che bilancia rischi e benefici dei contenuti sintetici. Sottolinea come, collaborando (aziende tech, governi, società civile), sia possibile costruire fiducia attorno all’AI generativa, identificando usi positivi (es. traduzione linguistica creativa) e promuovendo guardrail etici e normativi per minimizzare gli abusi.

The Shift Continues

Il viaggio nella realtà sintetica è appena iniziato. Ogni nuovo modello generativo, ogni ambiente virtuale costruito, ogni deepfake smascherato contribuisce a definire il perimetro di questa nuova frontiera tra il reale e l’immaginato. In questo futuro imminente, non parleremo più di digitale contrapposto a reale: saranno intrecciati in un’unica esperienza ibrida, dove il valore umano – creatività, giudizio etico, empatia – rimarrà la bussola per navigare mondi plasmati dall’AI.

Chi oggi sperimenta e impara a creare con questi strumenti, domani sarà in grado di guidare l’innovazione verso esiti positivi. Chi saprà bilanciare l’efficienza delle soluzioni sintetiche con l’autenticità e la responsabilità, costruirà esperienze e servizi capaci di ispirare fiducia e stupore insieme. La realtà sintetica non deve spaventarci, ma spronarci: è un’occasione per ripensare come raccontiamo storie, come apprendiamo, come collaboriamo – in uno spazio dove i limiti fisici cadono e resta solo la nostra immaginazione (amplificata dalle macchine).

Lo shift continua. Stare Inside the Shift significa abbracciare questo cambiamento da protagonisti consapevoli: coglierne le opportunità creative, anticiparne le sfide etiche, e plasmare una sintesi virtuosa tra umano e artificiale. In ultima istanza, la realtà sintetica sarà ciò che noi decideremo di farne – uno specchio del nostro ingegno e dei nostri valori. Guardiamoci dentro, dunque, e costruiamo una realtà (anche sintetica) a misura delle nostre migliori aspirazioni.

Lo shift continua.

InsideTheShift #8 – Intelligenza Orchestrata

Come i sistemi distribuiti di AI stanno ridefinendo automazione, agency e collaborazione

L’ascesa dei team di AI

Shift in Focus

Fino a poco tempo fa, pensavamo all’intelligenza artificiale come a un singolo “genio” che risolveva problemi in autonomia. Oggi, questo paradigma sta cambiando verso una nuova forma di AI collaborativa: team di agenti specializzati che lavorano insieme in modo coordinato. I modelli linguistici di grandi dimensioni (LLM) stanno diventando nel 2025 sempre più un gioco di squadra, passando dal “modello tuttofare” a un sistema composto da agenti esperti, ognuno focalizzato su ciò che sa fare meglio.

Questo significa che attività complesse, troppo pesanti per un singolo modello, possono ora essere suddivise tra agenti cooperativi, ognuno responsabile di una parte del compito. Dal punto di vista dell’utente, l’interfaccia può sembrare ancora un unico chatbot, ma dietro le quinte si muove una vera e propria orchestra di AI, dove ogni sezione lavora in sincronia come in un’orchestra sinfonica. Questo approccio orchestrato consente ai sistemi di intelligenza artificiale di affrontare problemi finora troppo complessi, segnando il passaggio da un’intelligenza isolata a un’intelligenza distribuita e cooperativa.

Verso una nuova grammatica della collaborazione uomo-AI

Understanding the Shift

L’intelligenza orchestrata non è solo un cambio tecnico: è un cambiamento semantico e culturale nel modo in cui pensiamo la collaborazione. In passato, la narrativa dell’AI era centrata sulla sostituzione: “l’AI farà il tuo lavoro meglio di te”. Oggi si sta affermando una visione più matura: l’AI lavora con te, non contro di te.

In questo nuovo contesto, l’AI assume la forma di una pluralità di voci coordinate, dove l’essere umano resta il direttore d’orchestra. Il concetto di delegare all’AI evolve: non si tratta più di chiedere a un unico modello di fare tutto, ma di saper comporre un ecosistema di agenti, assegnare ruoli, distribuire intelligenza. È un passaggio da “prompt engineering” a system orchestration.

Questa transizione modifica il modo in cui definiamo la collaborazione. Non è più uomo → macchina, ma umano + AI + AI, in un ciclo in cui i sistemi si parlano tra loro, apprendono insieme e ci riportano insight. L’utente passa da fruitore a coordinatore di processi intelligenti. E come ogni shift linguistico, anche questo richiede una nuova grammatica: linguaggi, standard e pattern per progettare l’interazione tra molteplici AI, e tra AI e umani.

La sfida non è solo tecnica: è cognitiva e organizzativa. Chi guida un sistema orchestrato deve comprendere le dinamiche del team digitale, gestire conflitti tra agenti, progettare feedback loop efficienti. Non basta più addestrare un singolo modello: bisogna comporre e dirigere una rete intelligente. E questo cambia il profilo di competenze, ruoli e governance aziendale.

Architetture distribuite di AI

The Core

Al centro dell’intelligenza orchestrata c’è il concetto di agenti autonomi che cooperano all’interno di un sistema coordinato. Nei sistemi multi-agente, più agenti (spesso basati su LLM) vengono progettati con ruoli e competenze specifiche, e comunicano tra loro per risolvere problemi in modo collaborativo.

Una delle architetture più comuni è il modello “manager-worker”: un agente supervisore funge da orchestratore, scomponendo l’obiettivo in sottocompiti e delegandoli ad altri agenti specializzati, per poi integrare i risultati. Questa struttura può essere gerarchica o peer-to-peer, e la comunicazione può avvenire in linguaggio naturale o attraverso protocolli strutturati. Ogni agente può essere dotato di strumenti propri o di un dominio di conoscenza specifico: ad esempio, uno per la ricerca online, uno per l’analisi dei dati, un altro per la generazione di contenuti.

Attraverso il meccanismo di task orchestration, il sistema funziona come un team ben organizzato: ogni AI contribuisce con la propria expertise, e insieme si raggiunge un risultato che nessun singolo agente avrebbe potuto ottenere da solo.

I vantaggi sono diversi.

Primo: maggiore affidabilità e precisione. Gli agenti possono validare a vicenda i propri output, riducendo errori o allucinazioni che un singolo modello non noterebbe.

Secondo: maggiore capacità di elaborazione. I diversi agenti possono gestire frammenti di un documento lungo o affrontare aspetti paralleli di un problema complesso, aumentando la memoria e l’attenzione complessiva del sistema.

Terzo: esecuzione parallela. Ogni agente lavora contemporaneamente su un compito, accelerando notevolmente flussi di lavoro e cicli decisionali.

Questi sistemi abilitano workflow AI-to-AI: processi che si passano compiti tra agenti senza bisogno di input umano continuo. Ma, nonostante l’autonomia, la supervisione umana resta cruciale: una persona può intervenire per correggere la rotta, validare le scelte e assicurare che l’intero team virtuale lavori in modo coerente con gli obiettivi. In sintesi: l’intelligenza orchestrata è un sistema cooperativo progettato per sfruttare le forze complementari di ogni agente, con una gestione intelligente e una direzione condivisa.

Dall’automazione alla collaborazione distribuita

The Broader Shift

Perché questo cambio di paradigma è importante oltre l’aspetto tecnico? Perché sta trasformando il modo in cui pensiamo il lavoro stesso. L’AI non è più solo un assistente per attività singole, ma diventa una squadra di risolutori autonomi in grado di portare avanti obiettivi complessi.

Immaginiamo AI che pianificano viaggi completi – dai voli agli hotel – o team virtuali che gestiscono processi aziendali end-to-end. Persino agenti AI in grado di fornire assistenza continua agli anziani, o costituire team su richiesta per progetti specifici. Non è fantascienza: sono prototipi concreti e primi prodotti di una nuova era di AI agentica.

Questi sistemi ampliano i confini dell’automazione: non più solo task semplici, ma interi progetti e flussi di lavoro. L’AI evolve da assistente a agente autonomo – o meglio, a un gruppo di agenti cooperanti. Questo ci obbliga a ripensare ruoli e modelli organizzativi: quando lasciamo all’AI il timone? Come collaboriamo con un team digitale?

Sul piano strategico e culturale, questa è un’inversione profonda. Le organizzazioni vedono già questi sistemi come una nuova forma di forza lavoro aumentata. Il concetto di “digital labor”, agenti AI come risorse operative, sta prendendo piede, ampliando la definizione stessa di “team”. Il mercato potenziale per questa forza lavoro digitale è valutato in migliaia di miliardi di dollari.

Ma per cogliere il potenziale, serviranno nuove figure professionali (orchestratori di AI, product owner di team agentici), nuovi modelli di governance e una cultura della collaborazione umano-AI. L’idea di “teamwork” si estende: ora include non solo persone, ma colleghi digitali. L’intelligenza orchestrata non è solo una novità tecnica – è un cambiamento socio-tecnico.

Verso sistemi cognitivi distribuiti e simbiotici

What’s Next – Dagli agenti cooperativi a ecosistemi di intelligenza simbiotica

Siamo solo all’inizio. Il futuro dell’intelligenza orchestrata non sarà fatto solo di più agenti, ma di sistemi cognitivi distribuiti, capaci di apprendere, adattarsi e coordinarsi in modo emergente.

Gli agenti del futuro avranno memoria persistente, specializzazione dinamica, capacità di osservare e ottimizzare se stessi. Non seguiranno solo piani predefiniti: impareranno dai propri errori, dal comportamento degli altri, e dal feedback umano. Il coordinamento sarà sempre meno centralizzato e sempre più emergente e adattivo.

Su scala più ampia, assisteremo alla nascita di reti di agenti AI inter-organizzative: ecosistemi distribuiti in grado di collaborare tra settori, aziende e contesti diversi. Immaginiamo un agente sanitario che dialoga in tempo reale con l’AI di un wearable, o agenti logistici e commerciali che negoziano in autonomia.

In parallelo, emergeranno nuove competenze umane: non solo prompt engineer, ma orchestratori di intelligenza collettiva, capaci di allineare sistemi autonomi a obiettivi umani. Sarà necessaria una leadership che sappia guidare collettivi digitali, bilanciare delega e controllo, e interpretare decisioni multi-agente.

Questo shift porterà con sé sfide (interoperabilità, responsabilità, governance) ma anche un’opportunità storica: costruire ecosistemi simbiotici in cui l’AI non sostituisce l’umano, ma ne estende le capacità.

L’intelligenza orchestrata sarà l’infrastruttura cognitiva del futuro. E ciò che verrà dopo non sarà un’aggiunta di agenti, ma un loro miglioramento profondo: più allineati, più consapevoli, più utili. A noi il compito di progettarli con visione, responsabilità e lungimiranza.

Takeaways – Lezioni chiave

  • Dall’unità alla sinfonia: l’AI si sta spostando da modelli singoli a sistemi cooperativi multi-agente.

  • Specializzazione e orchestrazione: ogni agente ha un ruolo, un compito, e lavora coordinato da un supervisore.

  • Maggiore affidabilità: gli agenti si validano a vicenda, riducendo errori e allucinazioni.

  • Efficienza parallela: task simultanei accelerano drasticamente i flussi operativi.

  • Lavoro distribuito e autonomia: workflow AI-to-AI permettono la gestione di progetti interi, riducendo l’intervento umano.

  • Forza lavoro aumentata: agenti AI come colleghi digitali che estendono le capacità operative delle imprese.

Toolbox – Strumenti e approcci per sperimentare

  • Architetture multi-agente: Progetta sistemi con pattern manager-worker per suddividere task tra AI specializzate.

  • Framework di orchestrazione: AutoGen (Microsoft), LangChain, CrewAI: soluzioni pronte per gestire sistemi multi-agente.

  • Prototipi open-source: AutoGPT, GPT Engineer e altri strumenti permettono di esplorare agenti autonomi passo dopo passo.

  • Equipaggia ogni agente: Dotali di tool e contesti specifici per massimizzare l’efficacia (memoria, strumenti, API).

  • Supervisione umana integrata: Punti di controllo umani garantiscono qualità, allineamento ed etica nei processi autonomi.

Risorse consigliate

The Shift Continues

Il viaggio dell’intelligenza orchestrata è solo iniziato. Ogni prototipo, ogni agente collaborativo, ogni workflow testato ci avvicina a una nuova interfaccia tra azione umana e intelligenza distribuita. In questo futuro, non parleremo più di AI singole ma di sistemi cognitivi collettivi, reti fluide e adattive capaci di lavorare con e per noi.

Chi impara oggi a progettare e guidare questi sistemi, domani sarà pronto a co-dirigere l’innovazione. E chi saprà orchestrare con equilibrio tra efficienza e responsabilità, costruirà infrastrutture cognitive a prova di futuro.

Lo shift continua.

NOTA: questo testo, maggiormente approfondito, in inglese lo trovate su insidetheshift.substack.com

Designed to Be Lived : quando l’interazione smette di essere visiva e diventa spaziale.

Dallo schermo allo spazio digitale da abitare

The Shift In Focus

Apple ha appena reso il testo più difficile da leggere. E no, non è un errore: è un cambio di prospettiva. Con l’introduzione dell’interfaccia “Liquid Glass” su visionOS 2 per il visore Vision Pro, molti utenti si sono sentiti spaesati e hanno reagito con perplessità (e le solite polemiche) prima ancora di comprenderne il senso. Caratteri meno leggibili, trasparenze ovunque, elementi dell’interfaccia sospesi nell’aria: non è solo una scelta estetica ardita, ma una fase di training invisibile con cui Apple prepara il terreno. L’azienda sta addestrando il nostro sguardo a una nuova grammatica del vedere: un’interfaccia che non blocca più la realtà ma la lascia filtrare, uno spazio digitale che non compete col mondo fisico ma vi convive. In altre parole, l’interfaccia non è più qualcosa da osservare su uno schermo piatto – diventa qualcosa da abitare intorno a noi.

Questa transizione rappresenta uno shift percettivo profondo: si passa dalle interazioni bidimensionali su display, mediate da tocchi e swipe, a interazioni immersive in un ambiente che integra reale e virtuale. Il design dello spazio diventa esso stesso interfaccia. Non a caso, il tema centrale di questa edizione è proprio il Spatial Shift: il passaggio dai tradizionali schermi 2D alle interfacce immersive, percettive e ambientali che ci circondano. Apple, con Vision Pro e la nuova interfaccia “Liquid Glass”, sta inaugurando quella che potremmo chiamare una fase di allenamento cognitivo degli utenti verso questo futuro di interazioni spaziali. Il focus si sposta dall’esperienza utente su schermo (UX) a una esperienza spaziale (“SX”) pervasiva. È uno spostamento che coinvolge tecnologia, design e comportamenti umani – uno shift da tenere bene a fuoco.

Educare l’utente a un nuovo paradigma percettivo

Understanding the Shift

Per capire la portata di questo cambiamento, conviene osservare la strategia ricorrente di Apple nell’introdurre nuove interfacce. In passato è già successo: la rimozione del tasto Home dall’iPhone fu inizialmente vissuta come un fastidio; i nuovi gesti parevano poco intuitivi e la curva di apprendimento era scoraggiante. Eppure in breve tempo quei gesti sono diventati la norma, tanto che oggi un iPhone col tasto fisico ci sembra archeologia tecnologica. Lo stesso copione si è visto con l’eliminazione improvvisa del jack audio per le cuffie (accolta da proteste feroci) che ha però spianato la strada al paradigma wireless-first, e ancor prima con l’addio alla tastiera fisica sui telefoni, spazzata via in favore del touchscreen. Ogni cambiamento ha seguito lo stesso iter: disorientamento iniziale, adattamento rapido, standardizzazione definitiva. Prima ci lamentiamo, poi ci abituiamo, infine non vogliamo più tornare indietro.

Questa ripetuta trasformazione non è solo una questione tecnica, ma di psicologia dell’utente. Apple da sempre progetta non solo prodotti, ma comportamenti: esercita una sottile pedagogia tecnologica abituando gradualmente le persone a nuovi paradigmi. Anche stavolta, con Vision Pro e visionOS, la scelta di un’interfaccia semi-trasparente e “difficile” è una leva gentile che spinge a guardare in modo diverso. L’utente è costretto a non fissare più elementi grafici netti su uno schermo, bensì a prestare attenzione a contenuti digitali che si fondono con l’ambiente. Apple sta di fatto educando il nostro modo di vedere: prepara un futuro in cui interagiremo attraverso occhiali AR, o magari lenti a contatto intelligenti e micro-proiettori ambientali, dove sarà la realtà stessa il canvas di informazioni. Per arrivarci, l’interfaccia deve cominciare già oggi a perdere opacità e a uscire dai suoi confini tradizionali. Nel silenzio, Apple sta già dicendo addio al concetto stesso di “display” come lo conosciamo, inaugurando un paradigma in cui lo schermo non c’è più – perché l’interazione avviene tutto intorno a noi.

In questo contesto, Vision Pro non va visto solo come un nuovo gadget, ma come un vero punto di rottura cognitivo. Indossare un computer spaziale modifica la nostra postura e la nostra attenzione, cambia perfino la nozione di “app” e di notifica: in un ambiente tridimensionale, una notifica non è più un semplice alert, ma una presenza accanto a noi; un gesto nell’aria diventa linguaggio espressivo, mentre lo sguardo funge da puntatore e focus semantico. Insomma, Apple sta ribaltando assunti decennali di interazione uomo-computer. E lo fa con la consueta determinazione: non chiederà il permesso di cambiare, ma cambierà – con pazienza e precisione, forte di una visione che spesso è chiara solo col senno di poi. Noi utenti, come sempre, inizialmente ci lamenteremo; poi ci adatteremo; infine chiameremo tutto ciò progresso. Capire questo processo è fondamentale per comprendere lo shift in atto: Apple sta allenando la nostra percezione oggi per prepararci alle interfacce di domani.

Interfacce percettive e la fine del display tradizionale

The Core

Al centro di questa evoluzione c’è un’idea dirompente: l’interfaccia del futuro non sarà progettata per essere guardata, ma per essere vissuta. Non più una Graphical User Interface confinata in una finestra luminosa, bensì una “interfaccia percettiva” diffusa nello spazio attorno a noi. È un cambiamento radicale di paradigma. Per decenni abbiamo misurato il progresso in pollici di schermo, densità di pixel e brillantezza dei display. Ora il display è destinato a dissolversi nell’ambiente: il futuro non è un nuovo schermo, è l’assenza di schermo. I contenuti e le funzioni digitali verranno distribuiti tra diversi elementi: forse un bracciale smart per il controllo interattivo, un device in tasca per la potenza di calcolo, un paio di occhiali (o lenti a contatto) per la visualizzazione. Il dispositivo non starà più “di fronte” a noi, ma su di noi e intorno a noi. In breve, l’esperienza sarà ambientale, invisibile, continua.

Questa prospettiva richiama un principio noto nel design: il buon design tende a diventare invisibile. Come osserva Don Norman (guru dell’usabilità), un prodotto ben progettato si adatta talmente bene ai nostri bisogni da risultare quasi impercettibile nella sua funzione. Un’interfaccia perfetta non attira attenzione su di sé, ma ci permette di svolgere compiti e vivere esperienze in modo naturale. È ciò a cui mira il paradigma spaziale: tecnologie così integrate nel contesto da non sembrare neppure “tecnologia” nel senso tradizionale. Del resto, già nel 1991 il visionario Mark Weiser scriveva che “le tecnologie più profonde sono quelle che scompaiono. Si intrecciano nel tessuto della vita quotidiana fino a diventare indistinguibili da essa”. Oggi quella profezia sembra realizzarsi: l’interfaccia si dissolve nell’ambiente, lo spazio stesso diventa l’interfaccia.

Pensiamo alle implicazioni di questa dissoluzione del display. Per gli utenti significa meno barriere tra mondo digitale e fisico: le informazioni ci “vengono incontro” negli spazi che abitiamo, anziché costringerci a piegare la testa su uno schermo. Ciò potrebbe rendere la tecnologia più umana e a misura dei nostri sensi, restituendo centralità al nostro modo naturale di percepire lo spazio. Non a caso si parla di “spatial computing”: un calcolo computazionale che non vive più dentro uno scatolo luminoso, ma si espande nell’ambiente. In termini di progettazione, questo richiede un cambio di mentalità: dal design di interfacce 2D si passa al design di esperienze tridimensionali, dove entrano in gioco la prospettiva, la distanza, il tatto, il sonoro e persino la cinestetica del corpo. Si passa dalla classica UX alla SX (Spatial Experience), una disciplina ancora in definizione che combina principi di UX design con architettura, psicologia ambientale e design sensoriale.

In sintesi, il cuore dello shift in atto è la trasformazione dell’interfaccia da elemento visibile e separato, a ambiente invisibile e incorporato nella nostra realtà. È una nuova era in cui “lo spazio è il nuovo schermo”. Chi progetta tecnologie dovrà pensare meno a pixel e pannelli, più a esperienze situate nello spazio dell’utente. E l’utente, da parte sua, dovrà sviluppare nuovi alfabeti percettivi per interagire con informazioni che si presentano nel mondo reale invece che su un vetro. È un cambio di core paradigm paragonabile a quello introdotto dallo smartphone, se non più grande: allora il telefono divenne una finestra universale sul digitale; ora quella finestra si spalanca e scompare, perché il digitale permea direttamente la stanza in cui siamo.

Oltre Apple: tentativi, fallimenti e visioni ambientali

The Broader Shift

Sebbene Apple stia guidando con Vision Pro questa transizione, il paradigma delle interfacce ambientali è nell’aria da tempo e coinvolge l’intero settore tecnologico. Da anni si parla di ambient computing, cioè di un computing ubiquo che ci assiste ovunque in modo naturale, senza dover fissare uno schermo. Google, per esempio, descrive la sua missione hardware proprio in termini di ambient computing: tecnologie sempre presenti nella vita quotidiana, pronte all’uso “in qualsiasi momento, in modo che sembri naturale”. L’idea è di interagire con l’ambiente e avere i servizi digitali che rispondono ai nostri gesti, voce e bisogni, invece di farci concentrare su un dispositivo specifico.

Tuttavia, realizzare davvero questa visione si sta rivelando complesso. Alcuni prodotti recenti che provavano ad anticipare il futuro post-schermo hanno incontrato difficoltà e fallimenti, dimostrando che il timing e l’UX devono essere maturi. Ad esempio, il Rabbit R1 (nella foto, a sinistra) e il Humane AI Pin (a destra) sono due dispositivi lanciati con l’obiettivo di superare lo smartphone tradizionale. Il Rabbit R1, presentato nel 2024, è un piccolo gadget tascabile con schermo da 2,9 pollici e un assistente AI integrato, concepito per svolgere in autonomia molte funzioni oggi legate al telefono. Il suo fondatore lo ha descritto come un dispositivo AI-native talmente ambizioso da poter sostituire lo smartphone (prima o poi) – “solo non subito”, ammise realisticamente. Nelle intenzioni, il R1 avrebbe dovuto essere un tuttofare intelligente, un coltellino svizzero digitale capace di usare le nostre app per noi attraverso un modello di AI chiamato “Large Action Model”. In pratica però, già dai primi test è parso chiaro che l’idea superava le capacità concrete del prodotto: l’R1 non è abbastanza potente per rimpiazzare un telefono e finisce per sembrare più che altro un assistente vocale evoluto con un piccolo schermo aggiunto. La visione di Rabbit – per quanto intrigante – è risultata poco definita e prematura rispetto alla tecnologia attuale. Non a caso, di recente Jony Ive (storico designer di Apple) ha liquidato sia il Rabbit R1 che l’AI Pin come “prodotti molto scadenti”, criticando la mancanza di reale innovazione in quelle proposte.

Ancora più emblematica è la parabola del Humane AI Pin, una sorta di spilla intelligente progettata da ex-dirigenti Apple per offrire un’esperienza computing senza schermo. Humane presentava il Pin come l’inizio di un futuro post-smartphone, in cui passeremo meno tempo con la testa chinata sugli schermi e più tempo di nuovo nel mondo reale. L’AI Pin, lanciato a fine 2023, si agganciava agli abiti e combinava fotocamera, micro-proiettore laser e un’assistente AI (sistema operativo CosmOS) per rispondere a comandi vocali ed eseguire varie operazioni al volo. Nelle promesse, doveva fare da filtrato intelligente tra noi e il mondo digitale: niente app da aprire, niente display da toccare – bastava chiedere all’assistente per telefonare, mandare messaggi, tradurre conversazioni o ottenere informazioni sugli oggetti intorno a noi. In teoria, un computer indossabile che “non è un telefono, ma neanche non lo è”, completamente basato sull’intelligenza ambientale.

Purtroppo, tra la visione e la realtà si è aperto un divario. Al debutto, il Pin si è rivelato acerbo e malfunzionante su molti fronti: dalla batteria misera (2-3 ore di autonomia) ai ritardi nelle risposte vocali, dall’interazione tramite proiezione sul palmo (affascinante ma problematica in ambienti luminosi e scomoda nei gesti) fino a funzioni base mancanti. Il verdetto dei recensori è stato impietoso – “promette di liberarti dallo smartphone, ma c’è un problema: semplicemente non funziona titolava The Verge. Dopo un debutto costellato di bug e limiti, Humane ha visto sfumare rapidamente l’entusiasmo: nel giro di pochi mesi l’azienda ha cercato acquirenti e infine è stata venduta a HP, che ha spento il progetto e ritirato dal mercato tutti gli AI Pin già venduti. Un epilogo amaro per un dispositivo lanciato a $699 più abbonamento mensile, che avrebbe dovuto mostrare la via di una “ambient intelligence” indossabile ma si è scontrato con la realtà di un’esperienza utente frustrante e tecnologie non all’altezza.

Casi come Rabbit R1 e Humane AI Pin evidenziano quanto sia difficile anticipare il paradigma giusto al momento giusto. Spesso l’idea può essere valida (meno schermi, più presenza nel mondo reale) ma la maturità dell’ecosistema e dell’UX risulta ancora insufficiente. Queste sperimentazioni però non sono vane: indicano una direzione. Come scriveva un commentatore, il Pin di Humane prometteva un futuro oltre lo smartphone “di gran lunga oltre ciò che la sua tecnologia può fare nel presente” – un po’ come accadde negli anni ’90 a General Magic con il suo Magic Link (un antesignano PDA creato da ex Apple, rivelatosi troppo avanti per l’epoca). I fallimenti insegnano che serve tempo per colmare il gap fra visione e realtà. E insegnano anche che certe idee richiedono un ecosistema integrato per prosperare: proprio ciò in cui Apple tradizionalmente eccelle. Infatti, come notava Fast Company, spesso i prodotti Apple hanno successo perché possono contare su reti di sviluppatori e contenuti che li rendono utili e appetibili, mentre startup come Humane hanno tentato di imporre hardware radicalmente nuovo senza un adeguato parco di applicazioni e servizi di terze parti pronti all’uso.

Dal punto di vista culturale, questa transizione porta con sé anche riflessioni profonde. Il filosofo Byung-Chul Han osserva come la nostra società digitale abbia trasformato gli oggetti in “non-cose”, sostituendo la tangibilità degli oggetti cari con esperienze fugaci e swipe effimeri su schermi. In altre parole, molta della “magia” degli oggetti fisici si è persa in favore di interazioni digitali disincarnate. L’idea di un’interfaccia percettiva ambientale potrebbe rappresentare un tentativo di ricucire lo strappo: riportare il digitale dal regno disincarnato dello schermo a una presenza più concreta nel nostro spazio, ridando corpo e contesto alle informazioni. Anche Don Norman, con la sua enfasi sul design umano-centrico, indirettamente ci ricorda che la tecnologia dovrebbe adattarsi ai comportamenti naturali delle persone e non viceversa – e un computing ubiquitario, integrato nell’ambiente, promette proprio di rispettare maggiormente le nostre abitudini sensoriali e sociali. L’obiettivo ultimo, condiviso da molti innovatori, è un futuro in cui l’informatica sia pervasiva ma discreta, potente ma invisibile, costantemente disponibile ma quasi impercettibile nella routine quotidiana. Arrivarci richiede conquiste sia tecniche (miniaturizzazione, AI sempre più intelligente, nuove interfacce neuronali magari) sia di design ed ergonomia (nuovi linguaggi d’interazione intuitivi, rispetto per l’attenzione e i limiti cognitivi umani). Siamo, in definitiva, di fronte a uno shift non solo tecnologico ma anche di mindset collettivo: reimmaginare il rapporto uomo-macchina in termini più simbiotici e meno mediati da artefatti visibili.

Scenari futuri e opportunità all’orizzonte

What’s Next

Guardando avanti, la domanda non è più se questo spatial shift accadrà, ma quando e come si compirà. Apple sembra seguire un piano ben preciso. Il Vision Pro in uscita (per ora un dispositivo costoso rivolto a sviluppatori e early adopter) è probabilmente solo il primo passo: una sorta di fondamenta su cui costruire un ecosistema di applicazioni spaziali e abituare gli sviluppatori al nuovo paradigma. Già l’anno prossimo o entro un paio d’anni, possiamo aspettarci un’evoluzione verso hardware più compatto – magari un Apple Glass leggero, occhiali AR pensati per il grande pubblico – una volta superate le attuali sfide di produzione e autonomia. Nel frattempo Apple ha iniziato a seminare concetti e interfacce (come il Liquid Glass di visionOS 2) che fungono da ponte cognitivo: ci abitua a testi semi-trasparenti oggi, così domani saremo pronti a indossare un display sugli occhi senza trovare strano vedere il mondo attraverso l’informazione digitale.

In parallelo, l’intero settore tech si muove verso l’immersivo e il percettivo. Meta sta investendo nella sua visione di realtà mista (gli ultimi Quest e prototipi di occhiali AR), Google continua la ricerca su occhiali e sensori ambientali (puntando a realizzare la promessa dell’ambient computing integrato nei suoi servizi cloud), e persino nuove collaborazioni emergono: ad esempio Jony Ive e Sam Altman (OpenAI) hanno annunciato di lavorare insieme a un dispositivo AI innovativo per il 2026 – segno che l’idea di un gadget personale potenziato dall’AI e privo di interfaccia tradizionale è tutt’altro che tramontata, anzi alletta i protagonisti della scena tecnologica. Possiamo aspettarci quindi una proliferazione di esperimenti nei prossimi anni: dagli assistenti personali ambientali (in auto, in casa, integrati nell’IoT) a interfacce neuronali più dirette (Neuralink e affini), fino a piattaforme software che ridefiniscono il concetto di “app” in chiave spaziale e contestuale.

Dal punto di vista del business, si apre una nuova frontiera di opportunità. Chi saprà definire gli standard delle interfacce spaziali – linguaggi gestuali, formati per contenuti AR, protocolli per oggetti intelligenti – potrebbe dominare il prossimo ecosistema come Apple e Google hanno dominato l’era smartphone con iOS e Android. Immaginiamo nuovi servizi: mappe che non si guardano sul telefono ma compaiono direttamente lungo il nostro percorso in strada, e-commerce che materializza schede prodotto in forma di ologrammi nel salotto prima dell’acquisto, assistenti AI che ci sussurrano consigli nell’orecchio contestualmente a ciò che stiamo guardando. Interi settori (dal retail all’education, dalla sanità all’intrattenimento) verranno ripensati in chiave di esperienze miste fisico-digitali. Aziende di design dovranno unire competenze di UX, realtà aumentata e persino architettura d’interni per progettare spazi interattivi. E sul piano culturale e sociale, dovremo monitorare attentamente l’impatto: queste tecnologie potrebbero renderci più liberi dagli schermi, più presenti nella vita reale – o, se mal gestite, creare una nuova ondata di sovrastimolazione e dipendenza, stavolta distribuita ovunque andiamo. La differenza la farà un approccio etico e human-centric: come garantire che l’AR non diventi una continua distrazione invasiva? Come proteggere la privacy in un mondo di sensori ambientali? Come mantenere un controllo consapevole sui flussi informativi che ci raggiungono in realtà aumentata? Queste sono sfide aperte, di design, di regolamentazione e di educazione all’uso.

Quel che è certo, riprendendo le parole del mio libro “Spatial Shift”, è che siamo all’alba di un cambiamento epocale nel nostro modo di vivere, pensare e relazionarci. Un cambiamento paragonabile a ciò che fu l’introduzione dell’iPhone, ma amplificato dalla convergenza simultanea di più tecnologie mature: intelligenza artificiale sempre più avanzata, sensori ambientali diffusi, realtà mista e 3D, connettività pervasiva. Questa convergenza sta preparando il terreno per riscrivere radicalmente le regole dell’interazione uomo-macchina e, di conseguenza, tanti modelli di business e di uso quotidiano. Siamo in un momento di rara energia innovativa, in cui device come Vision Pro o esperimenti come l’AI Pin fanno parlare di una nuova entusiasmante fase del tech come non succedeva da anni. Ma – come sempre accade nelle grandi transizioni – l’hype iniziale dovrà tradursi in adozione reale e valore pratico. La strada dei prossimi anni vedrà iterazioni continue: prototipi, versioni beta, successi sorprendenti e flop clamorosi. È un processo di learning by doing collettivo, dove ogni tentativo (anche fallito) contribuisce ad avvicinarci all’obiettivo finale: un computing realmente invisibile, naturale e potenziante.

Dentro lo shift, verso un futuro da abitare

The Shift Continues

In conclusione, lo shift continua. Siamo solo alle prime pagine di questa nuova storia tecnologica: come hanno ammesso i fondatori di Humane, “oggi non siamo nemmeno al primo capitolo, ma alla prima pagina” di un futuro in cui l’AI ambientale e le interfacce spaziali ridisegneranno la nostra relazione con la tecnologia. Ogni giorno che passa aggiungiamo un tassello – una riga di codice in visionOS, un nuovo sensore indossabile, un gesto che diventa standard – e ci spingiamo un po’ più in là verso l’era dell’interfaccia diffusa. All’inizio potrà sembrare strano, scomodo o prematuro (come tutte le grandi rivoluzioni all’inizio sembrano). Ma se la storia recente ci insegna qualcosa è che ci abituiamo in fretta ai nuovi paradigmi, quando questi risolvono problemi reali o migliorano la qualità della vita. E a quel punto, voltandoci indietro, ci chiederemo come potevamo vivere chiusi dentro gli schermi senza abitare anche il lato digitale del nostro spazio.

Questo numero di InsideTheShift ha voluto esplorare il passaggio dalle interfacce da osservare a quelle da vivere, dai pixel ai luoghi aumentati, dagli oggetti alle esperienze. È uno shift che coinvolge tecnologia, business, cultura e design in egual misura. Continueremo a seguirne gli sviluppi nelle prossime edizioni, analizzando come evolvono i dispositivi, le piattaforme e – soprattutto – le abitudini delle persone. Come sempre, restiamo dentro lo shift per coglierne per tempo le opportunità e le sfide. Ci aspetta un futuro in cui l’interazione uomo-macchina sarà tanto pervasiva quanto trasparente, un futuro da costruire con visione ma anche con responsabilità. Il viaggio continua: la spatial shift è iniziata, e saremo qui a raccontarla passo dopo passo.

Stay Inside the Shift.

Il resto dei Toolbox, delle risorse linkate e dei takeaway lo trovate qui su Substack InsideTheShift in inglese.

Learning by Building with AI: come la prototipazione veloce sta riscrivendo l’innovazione

In un’epoca di trasformazione accelerata, l’avvento dell’AI generativa rappresenta un cambiamento dirompente – quasi uno shock organizzativo – che impone alle aziende di apprendere più velocemente che mai. Invece di pianificare a lungo termine nell’incertezza, le organizzazioni stanno adottando un approccio learning-by-doing potenziato dall’AI: imparare costruendo prototipi e soluzioni reali con l’AI, in tempo reale. Questo cambio di focus nasce dalla necessità di adattarsi a contesti ad alta incertezza e rapidità di cambiamento. Basti pensare che strumenti come ChatGPT hanno raggiunto oltre 1 milione di utenti in cinque giorni dal lancio, segnale di un’adozione senza precedenti. Parallelamente, l’adozione aziendale dell’AI sta crescendo in modo esplosivo: nel 2024 il 78% delle organizzazioni dichiarava di usare l’AI, rispetto al 55% dell’anno precedente. Di fronte a questa accelerazione, le imprese all’avanguardia stanno passando dal semplice “studiare l’AI” al “costruire con l’AI” – sperimentando sul campo per capire rapidamente come creare valore. Il focus di questa sesta edizione di InsideTheShift è dunque su “Learning by Building with AI”: come apprendere facendo leva sull’AI generativa, trasformando l’incertezza in opportunità di innovazione concreta.

Understanding the Shift: capire l’incertezza

Perché “imparare facendo” con l’AI è diventato il mantra dell’innovazione odierna? In contesti turbolenti, nessuno possiede tutte le risposte su come usare al meglio l’AI generativa – nemmeno i CEO. Un recente sondaggio BCG ha rivelato che il 52% dei CEO ammette di non comprendere appieno l’AI generativa e addirittura ne scoraggia l’uso interno, temendo rischi e incognite. Eppure, questa incertezza generalizzata è esattamente il motivo per cui è fondamentale sperimentare: nessuno oggi “capisce pienamente” l’AI generativa, perciò attendere passivamente chiarimenti è un errore. La pattern di successo emersa è piuttosto quella di coltivare una cultura di sperimentazione consapevole e di “apprendimento attivo sul campo”. Le organizzazioni che osano fare testando l’AI nel proprio contesto sviluppano conoscenze pratiche e vantaggi competitivi, mentre chi rimane in attesa rischia di subire il peggio di entrambi i mondi: non comprenderanno l’AI riusciranno a tenere il passo dei concorrenti proattivi.

Inoltre, molte aziende scoprono che i propri dipendenti sono pronti e motivati a sperimentare con l’AI. In un sondaggio su 500 leader IT, solo il 2% vedeva l’AI come una minaccia per la propria carriera, mentre il 61% crede che l’AI migliorerà il proprio lavoro o creerà nuove opportunità. Piuttosto che resistere al cambiamento, i talenti in azienda sono “ready, willing and able” di abbracciare l’AI e trovare modi ingegnosi per fare meglio il proprio lavoro. Questa predisposizione positiva riduce l’attrito e favorisce un mindset di apprendimento continuo.

Non è la prima volta che viviamo una trasformazione così rapida: l’adozione massiccia dello smartphone fu un precedente “shock” tecnologico – ricordiamo che persino leader visionari inizialmente sottovalutarono l’iPhone. La lezione appresa è che chi sottostima un cambiamento di paradigma poi se ne pente. Oggi, con l’AI generativa, “nessuno fra qualche anno rimpiangerà di averla presa troppo sul serio o di essersi mosso troppo velocemente”. Al contrario, le aziende lungimiranti riconoscono che per capire davvero come l’AI può creare valore, bisogna sporcarsi le mani: provare casi d’uso reali, iterare rapidamente e imparare dagli errori. In sintesi, comprendere questo shift significa accettare che sperimentazione e apprendimento pratico non sono attività parallele al lavoro – sono il lavoro stesso in epoca di AI.

The Core: un nuovo motore per l’innovazione

Al cuore di “learning by building with AI” c’è una metodologia pragmatica: sperimentazione rapida, prototipazione veloce, validazione continua. In pratica, le aziende pioniere adottano cicli brevi di sviluppo in cui l’AI generativa è integrata come strumento creativo e acceleratore. I passaggi fondamentali di questo approccio comprendono:

  • Rapid Prototyping con AI: sfruttare modelli generativi (come LLM tipo GPT-4, generatori di immagini o di codice) per sviluppare proof-of-concept in tempi lampo. Funzionalità che prima richiedevano mesi di sviluppo possono oggi essere costruite in giorni o ore semplicemente scrivendo i giusti prompt. Come osserva Andrew Ng, grazie all’AI “capacità che prima richiedevano mesi possono a volte essere prototipate in giorni o ore”. Ciò consente ai team di materializzare un’idea quasi immediatamente e metterla alla prova sul campo. Un esempio pratico: startup tech riferiscono di riuscire a generare MVP (Minimum Viable Product) basati su AI in un weekend, laddove uno sviluppo tradizionale avrebbe impiegato settimane – cambiando radicalmente le regole del gioco per il time-to-market.
  • Validazione ed Iterazione Continua: una volta creato un prototipo con l’ausilio dell’AI, si passa subito a testarlo e raccogliere feedback rapidi (dai colleghi, da un piccolo gruppo di utenti, o tramite simulazioni interne). L’adozione del classico ciclo build–measure–learn del Lean Startup viene così compressa e accelerata dall’AI: se costruire un prototipo richiede solo pochi giorni, anche il ciclo di feedback deve contrarsi di conseguenza. Le organizzazioni di successo implementano mini-esperimenti continui, pronti a cambiare rotta (“pivot”) sulla base di ciò che funziona o meno. Importante è anche definire metriche chiare per valutare rapidamente ogni esperimento (es. % di miglioramento in un processo, gradimento utenti, riduzione tempi). Questa iterazione costante crea un flusso di apprendimento pratico: ogni prototipo insegnia qualcosa, anche quando fallisce.
  • Scale-up responsabile: mano a mano che un’idea è validata in piccolo, l’approccio learning-by-doing prevede di scalarla gradualmente, integrando l’AI nei processi reali. In questa fase entrano in gioco “guardrail” (corridoi di sicurezza) per un’adozione sicura: linee guida etiche, governance e monitoraggio dei risultati. Molte imprese creano team dedicati o champion interni per guidare questi progetti AI in fase pilota e garantirne l’allineamento strategico. Ad esempio, si nominano esperti per “sorvegliare, fare coaching e arbitrare” l’uso dell’AI nei team, bilanciando libertà di innovazione con controllo dei rischi. L’approccio “learn by building” non è anarchia creativa, ma sperimentazione strutturata: piccoli progetti, obiettivi chiari, monitoraggio costante e condivisione delle lezioni apprese in tutta l’organizzazione.

Questo nucleo metodologico si applica trasversalmente: dai team di sviluppo prodotto, ai reparti marketing che testano campagne generate dall’AI, fino alle risorse umane che prototipano chatbot interni per il training. La parola d’ordine è “fare per imparare”, il che richiede strumenti e un ambiente adeguato. Tool e tecniche abilitanti includono: piattaforme di prototipazione veloce (anche no-code/low-code con AI integrata), API cloud AI pronte all’uso, servizi come GitHub Copilot per accelerare la programmazione, e tecniche di prompt engineering per ottenere dall’AI output utili nei primi tentativi. Alcune organizzazioni allestiscono veri sandbox o AI Lab interni, dove i team possono sperimentare liberamente con modelli generativi su dati aziendali, senza impattare i sistemi di produzione. Il core di learning-by-building è dunque un mix di mindset (sperimentiamo!), metodo (cicli rapidi, MVP, feedback loop) e tecnologia (gli strumenti AI che rendono tutto più veloce).

Un esempio emblematico di questo approccio in azione: CVS Health, colosso USA della sanità, ha lanciato un hackathon aziendale di 6 settimane per esplorare l’AI generativa. In poco più di un mese, 21 team interfunzionali hanno prodotto 36 idee, sviluppato 18 prototipi e infine selezionato 6 soluzioni pilota pronte per l’implementazione. Il tutto, affrontando sfide reali: ad esempio, uno dei prototipi vincenti è stato un chatbot AI per i clienti, destinato a ridurre drasticamente il volume di chiamate ai call center. La chiave del successo? Un processo ben orchestrato: primo, partecipazione diffusa (hanno coinvolto dipendenti da 21 reparti diversi); secondo, prototipazione lampo (idee raccolte su una piattaforma condivisa e trasformate in demo funzionanti in pochi giorni); terzo, allineamento strategico (i criteri di valutazione premiavano le idee in linea con le priorità di business di CVS). Iniziative come questa dimostrano che un’innovazione strutturata e inclusiva può trasformare tecnologie emergenti in soluzioni scalabili rapidamente. In sostanza, CVS non ha semplicemente studiato le potenzialità dell’AI su carta: ha imparato facendola, costruendo prototipi concreti e traendo in poche settimane intuizioni che avrebbero richiesto mesi con approcci tradizionali.

The Broader Shift: come ripensare le aziende nell’era degli shock

L’adozione trasversale dell’approccio learning-by-building con l’AI porta benefici che vanno oltre i singoli progetti, innescando un cambiamento più ampio in azienda. In primis, i risultati tangibili di queste sperimentazioni alimentano un circolo virtuoso strategico: riduzione drastica del time-to-market, maggiore agilità e una cultura aziendale improntata all’apprendimento continuo. Ad esempio, ripensando i propri processi di marketing con l’ausilio massiccio di agenti AI, Accenture è riuscita a ridurre i compiti manuali del ~30% e accelerare la velocità di go-to-market dal 25% fino al 55%. Questi numeri indicano un vantaggio competitivo notevole: prodotti e campagne lanciati in metà tempo rispetto al passato significano soddisfare i bisogni dei clienti prima dei concorrenti. Inoltre, i dipendenti liberati da attività ripetitive possono concentrarsi su compiti strategici e creativi a valore aggiunto. Infatti, gli studi confermano che l’AI generativa, se ben usata, aumenta la produttività e può aiutare a colmare gap di competenze nel workforce invece di ampliarle. In altre parole, la sperimentazione con l’AI non solo velocizza i processi, ma fa crescere le persone: ogni progetto è un’occasione per sviluppare nuove skill digitali e per diffondere una mentalità più aperta al cambiamento.

Un altro beneficio strategico è l’adattabilità organizzativa. Un’azienda che pratica il learning-by-doing allenato dall’AI diventa più reattiva agli shock esterni. Si consideri l’esempio di un grande gruppo manifatturiero che, di fronte a improvvisi cambi di mercato, attiva in poche settimane decine di micro-progetti con AI per esplorare soluzioni (dall’ottimizzazione della supply chain con modelli predittivi, a nuovi servizi digitali per i clienti). Alcune organizzazioni hanno persino istituito nuove figure per orchestrare questo fermento: una manager intervistata riporta di aver creato il ruolo di “Head of Generative AI” il cui compito è “dare un senso e coordinare le centinaia di esperimenti che abbiamo in corso ogni giorno”. Ciò illustra come le imprese leader stiano passando da progetti AI isolati a un portfolio continuo di esperimenti, governati però con metodo. Dal punto di vista organizzativo, ciò implica rompere sili e favorire la contaminazione di competenze: sviluppatori, data scientist, esperti di business e persino figure non tech collaborano fianco a fianco in team agili focalizzati su prototipi AI. Questa collaborazione cross-funzionale – spesso emersa nei contesti di hackathon interni – alimenta un trasferimento di conoscenze rapido e crea coesione attorno all’innovazione.

Naturalmente, abbracciare questa filosofia richiede un’evoluzione della leadership e del mindset aziendale. I leader devono incoraggiare l’apprendimento attivo e accettare un certo grado di rischio calcolato. Serve leadership “visionaria” ma concreta, capace di ispirare sperimentazione ma anche di fornire i giusti strumenti e supporti. Ad esempio, le aziende più mature in questo percorso investono in programmi di upskilling massicci: Accenture, per dire, ha lanciato un programma di training generativo per migliaia di dipendenti, e nel suo reparto Marketing ha affiancato ad ogni “AI agent” un people lead umano incaricato di “addestrare” l’agente e trasferire feedback bidirezionale. Questo approccio riflette una cultura di sperimentazione continua, dove umani e AI imparano insieme in un rapporto di partnership e fiducia reciproca.

Cambiano anche i modelli di apprendimento organizzativo: dal tradizionale training top-down si passa a un apprendimento on-the-job distribuito. I dipendenti diventano studenti e insegnanti allo stesso tempo – imparano dall’AI ma anche insegnano all’AI (ad esempio tramite il feedback iterativo ai sistemi generativi). Le organizzazioni all’avanguardia valorizzano e premiano questo comportamento. Alcune hanno introdotto sistemi di incentivazione che riconoscono chi sperimenta nuove soluzioni AI o condivide le lezioni apprese con il resto dell’azienda.

In sintesi, il broader shift consiste nel vedere l’AI generativa non come un semplice strumento tecnico, ma come un catalizzatore per ridisegnare il modo in cui l’azienda apprende e innova. Si tratta di “ri-cablare” processi e workflow perché l’AI possa esprimerne tutto il potenziale. Questo può voler dire riorganizzare interi flussi di lavoro attorno a nuove capacità (McKinsey rileva che già il 21% delle aziende che usano l’AI ha fondamentalmente ridisegnato almeno alcuni processi grazie all’AI). In definitiva, il cambiamento più ampio portato dal learning-by-building with AI è una azienda più veloce, adattabile e ‘apprendente’: veloce nel portare innovazioni sul mercato, adattabile ai cambiamenti di contesto, e sempre in modalità di apprendimento e miglioramento continui.

What’s Next: imparare e scalare il business

Cosa ci riserva il futuro prossimo se percorriamo la strada del learning by building con l’AI? Possiamo aspettarci un’ulteriore pervasività dell’AI generativa in ogni aspetto del business e del lavoro quotidiano. Molto presto, ogni nuovo dipendente arriverà in azienda con strumenti come ChatGPT sul proprio telefono e li considererà parte naturale della cassetta degli attrezzi. Analogamente, i clienti diventeranno sempre più abituati ad interagire con assistenti AI nelle app, nei siti e nei servizi di supporto di qualsiasi azienda. Questo significa che le imprese dovranno continuare a imparare e costruire insieme all’AI per stare al passo con aspettative in rapida evoluzione. Chi oggi sperimenta con l’AI per migliorare prodotti e processi, domani dovrà integrarla stabilmente su scala più ampia. Ciò richiederà di passare dalla fase pionieristica (molti esperimenti localizzati) a una fase di implementazione sistematica: le metodologie e buone pratiche apprese nei pilot andranno incorporate nei processi standard, e le infrastrutture aziendali (IT, governance, data management) dovranno adeguarsi per supportare un uso massiccio dell’AI.

All’orizzonte vi sono anche nuove frontiere dell’AI stessa che spingeranno ulteriormente il paradigma del learning-by-doing. Ad esempio, si parla di “agentic AI” – sistemi AI più autonomi che possono compiere serie di azioni complesse. Quando queste tecnologie matureranno, le organizzazioni dovranno nuovamente sporcarsi le mani per capire come sfruttarle responsabilmente: immaginare casi d’uso, testare prototipi di AI agent che coadiuvano (o automatizzano) interi flussi di lavoro, e definire nuovi ruoli umani per supervisionarli. Il learn by building rimarrà l’approccio vincente anche di fronte a queste novità: nessun manuale preconfezionato spiegherà come impiegare un agent AI nella vostra supply chain o nel vostro team creativo – lo scoprirete solo provandoci direttamente, in piccolo, e crescendo da lì.

È lecito aspettarsi anche un’evoluzione nelle strutture organizzative. Mentre oggi molte aziende operano con Centers of Excellence centralizzati per l’AI, in futuro l’AI diventerà più democratica e diffusa. Potremmo vedere la nascita di “AI fluency” come skill fondamentale per ogni dipendente, analogamente a come l’uso del PC è diventato ubiquo. Programmi di formazione interna sul prompting e sull’uso efficace degli strumenti AI diventeranno parte integrante dello sviluppo professionale. Accenture, ad esempio, ha lanciato un programma chiamato LearnVantage per diffondere competenze di AI generativa in tutta la sua forza lavoro, segno che grandi imprese stanno investendo nell’alfabetizzazione AI di massa. Questa democratizzazione permetterà di ampliare ancora di più la pratica del learning-by-doing: ogni team potrà fare piccoli esperimenti con l’AI nel proprio ambito, senza dover aspettare indicazioni dall’alto, creando un tessuto di innovazione distribuita.

Sul fronte dei modelli di leadership, assisteremo probabilmente all’emergere di leader più tech-savvy e orientati alla sperimentazione. Harvard Business Review avverte che molti leader attuali non sono preparati a sfruttare appieno il potenziale dell’AI generativa e devono sviluppare competenze tecniche e nuove mentalità. I leader di domani dovranno essere facilitatori dell’apprendimento organizzativo: capaci di costruire visioni chiare sull’AI ma anche di incoraggiare l’azione decentralizzata, tollerare gli errori come parte del processo di innovazione e assicurare al contempo che sperimentazione e governance vadano a braccetto.

Infine, what’s next include sicuramente il tema della scalabilità sostenibile ed etica. Mano a mano che il numero di prototipi e progetti AI cresce, le aziende dovranno dotarsi di solide pratiche per scalare ciò che funziona in modo responsabile. Questo significa integrare considerazioni di AI responsabile fin dalla fase di sperimentazione: valutare i rischi (bias, privacy, sicurezza) di ogni nuovo caso d’uso AI e coinvolgere funzioni come compliance e IT security nel processo di innovazione. Fortunatamente, vediamo segnali positivi: sempre più organizzazioni stanno mitigando attivamente rischi legati all’AI come inaccuratezza, violazioni IP e cybersecurity. La sfida sarà continuare su questa strada, così che il “fare presto” non comprometta il “fare bene”.

In conclusione, il prossimo capitolo di learning by building with AI vedrà aziende ancora più immerse nell’AI, che imparano non solo a correre con l’AI, ma anche a governarla con saggezza mentre corrono. Chi saprà combinare velocità e responsabilità plasmerà i nuovi standard dell’innovazione. Per tutti gli altri, il rischio è di farsi trovare in ritardo in un mondo che non aspetta: come ammonisce Stanford HAI, l’AI non è confinata a un settore, sta trasformando ogni industria, e il suo impatto continuerà a crescere. What’s next è quindi un invito all’azione: continuare ad imparare costruendo, oggi più che mai.

Takeaways

  • Sperimentare per Sopravvivere: Nell’era dell’AI generativa, la sperimentazione pratica è diventata una necessità strategica. Attendere di “capire tutto” prima di agire è un lusso che le aziende non possono permettersi – l’unica via per comprendere davvero l’AI è provarla nei propri processi. Le organizzazioni stanno scoprendo che l’apprendimento avviene facendo, e chi inibisce l’uso dell’AI per paura dell’ignoto rischia di restare indietro rispetto ai concorrenti più audaci.
  • Cultura del Learning-by-Doing: Le imprese di successo coltivano una cultura in cui si impara attivamente costruendo cose nuove con l’AI. Ciò implica incoraggiare l’esperimento continuo, accettare piccoli fallimenti come lezioni e diffondere competenze AI tra tutti i livelli. Un ambiente del genere stimola i talenti – già ben disposti verso l’AI – a proporre idee e soluzioni innovative (il 61% dei lavoratori tech vede l’AI come un potenziamento del proprio ruolo). Una cultura di sperimentazione continua garantisce anche che il feedback tra umani e AI sia costante e bidirezionale, migliorando entrambi.
  • Prototipi Veloci, Benefici Tangibili: Adottare tecniche come rapid prototyping, hackathon interni e sviluppi Agile accelerati dall’AI porta risultati concreti in tempi brevissimi. Ad esempio, CVS Health ha ottenuto 6 prototipi pronti al pilot in 6 settimane grazie a un hackathon su AI generativa. Questa velocità di iterazione riduce drasticamente il time-to-market: realtà come Accenture testimoniano incrementi di velocità dal 25% fino oltre il 50% in alcune attività grazie all’integrazione dell’AI nei flussi di lavoro. L’effetto cumulativo è un’innovazione più rapida e una capacità di risposta agile alle esigenze del mercato.
  • Adattabilità e Vantaggio Competitivo: Il learning-by-building con l’AI rafforza la resilienza e l’adattabilità organizzativa. Le aziende che sperimentano a ampio raggio possono riconfigurare processi e offerte in risposta ai cambiamenti con rapidità, mitigando l’impatto degli shock esterni. L’adozione dell’AI si sta estendendo a tutte le funzioni aziendali (oltre il 70% delle imprese la usa regolarmente almeno in un’area) e sta iniziando a tradursi in benefici misurabili: aumenti di ricavi e riduzioni di costi sono già osservati in diversi reparti grazie all’AI. Anche se a livello di intera azienda l’impatto sul bottom-line è ancora agli inizi, le organizzazioni più grandi stanno predisponendo le pratiche e strutture per scalare queste sperimentazioni (roadmap dedicate, KPI chiari, team di trasformazione), costruendo un vantaggio competitivo sostenibile.
  • Leadership e Governance Evolutiva: Infine, il learning-by-doing amplificato dall’AI richiede leadership evolutive e un nuovo approccio alla governance. I leader devono fungere da facilitatori – fornendo visione e guida etica, ma anche lasciando autonomia ai team per iterare rapidamente. Strutture come center of excellence per l’AI e figure come gli AI product owner o gli AI ethicist diventano cruciali per diffondere best practice e gestire i rischi. La governance dell’AI non è più solo controllo, ma diventa un processo di “policing, coaching and refereeing” interno, per assicurare che ogni esperimento sia sia audace che responsabile. Le organizzazioni che bilanciano libertà di innovare con solide linee guida vedono crescere fiducia e adozione: i dipendenti usano l’AI con consapevolezza e i clienti accolgono positivamente i nuovi servizi basati sull’AI quando c’è trasparenza e affidabilità.

Recommended Resources

  • McKinsey – The State of AI 2024: Un rapporto globale con dati su adozione e impatto dell’AI. Evidenzia l’accelerazione dell’uso dell’AI generativa (71% delle aziende la usa in almeno una funzione) e l’importanza di ridisegnare processi e formazione per catturare valore. Utile per capire trend e best practice di scala.
  • MIT Sloan Management Review – “Want More Clarity on Generative AI? Experiment Widely” (2023): Articolo di Lynda Gratton che paragona l’avvento dell’AI generativa a uno “scenario COVID” per il mondo del lavoro. Sottolinea come l’ambiguità iniziale vada affrontata con esperimenti diffusi, citando organizzazioni con centinaia di esperimenti AI in parallelo e indicando che il processo è “ricco di ambiguità, esperimenti e cambi di idea”, ovvero un vero processo di apprendimento. Offre insight sul change management e il coinvolgimento dei leader.
  • CIO.com – “Generative AI: now is the time to learn by doing” (Bryan Kirschner, 2023): Un punto di vista che incoraggia i CIO e i dirigenti IT a adottare subito l’AI con una mentalità di apprendimento pratico. Contiene dati interessanti (ad es. la maggioranza dei professionisti IT si sente già in grado di costruire applicazioni AI) e mette in guardia dai rischi di restare fermi. Enfatizza la necessità di una cultura sperimentale consapevole e di non aspettare una comprensione teorica perfetta che non arriverà mai.
  • Case Study – Scaling Generative AI in Healthcare with Hackathons (CVS Health, 2023): Descrizione dettagliata dell’hackathon GenAI organizzato da CVS Health. Mostra come un’azienda tradizionale possa attivare 21 team cross-funzionali e generare decine di idee e prototipi in poche settimane. Il case study evidenzia elementi di successo trasferibili: inclusione di tutta l’organizzazione, domanda sfidante focalizzata, piattaforma per raccogliere idee, criteri di valutazione chiari e percorso verso il pilot. È un modello replicabile per chi vuole organizzare iniziative simili.
  • Accenture – Making Reinvention Real with Gen AI (2023): Report (case study Accenture Marketing + Communications) che racconta come Accenture ha reinventato la propria funzione marketing integrando 14 AI agent nel team. Notevole la parte su cultura e competenze: spiega come hanno formato 954 marketer a collaborare con gli agenti AI e istituito un meccanismo di feedback continuo uomo-macchina. Risultati concreti: +25% valore di brand, –30% attività manuali, velocità di esecuzione aumentata fino al 50%. Una lettura ispirazionale su come orchestrare cambiamento di mindset, skill e processi attorno all’AI.

(Ulteriori risorse consigliate includono l’AI Index 2025 di Stanford HAI per dati aggiornati su investimenti e adozione dell’AI, e articoli HBR come “How the Next Generation of Managers Is Using GenAI” per capire le sfide di leadership nella gestione dell’AI.)

Toolbox

Per implementare efficacemente Learning by Building with AI, le organizzazioni possono fare affidamento su una varietà di strumenti e metodi pratici:

  • Strumenti di AI Generativa: Utilizzare modelli di linguaggio (LLM) come OpenAI GPT-4 o Claude come “co-piloti” per brainstorming, stesura di documenti e persino generazione di codice. Per la creazione rapida di interfacce o prototipi software, strumenti come GitHub Copilot integrati negli IDE aiutano gli sviluppatori a scrivere codice più velocemente sfruttando l’AI. Sul versante creativo, generatori di immagini (es. DALL-E, Midjourney) o di video possono produrre in pochi minuti asset visivi per testare concept di design o campagne di marketing. Secondo un’indagine, oltre il 60% delle aziende già usa l’AI generativa per creare testi, un terzo genera immagini e almeno un quarto produce codice con questi strumenti, segno che tali tool sono ormai parte integrante del toolkit di prototipazione.
  • Piattaforme di Prototipazione e No-Code: Piattaforme di sviluppo rapido come Bubble, Adalo o soluzioni enterprise come Power Platform di Microsoft con integrazione di AI (AI Builder) permettono a team non tecnici di costruire applicazioni semplici potenziate da servizi AI (es. modelli pre-addestrati per visione o linguaggio). Questo democratizza la fase di build, consentendo a innovatori di business di creare MVP AI-driven senza dover scrivere codice complesso. Ad esempio, grazie a tool del genere un team HR può prototipare un chatbot HR addestrato su policy aziendali in pochi giorni, da testare internamente per automatizzare FAQ dei dipendenti. Queste piattaforme spesso includono connettori API per integrare facilmente servizi come OpenAI, Google Cloud AI o altri, amplificando le capacità dei prototipi.
  • Framework e Metodi Agile con AI: Integrare l’AI nei framework di innovazione esistenti. Ad esempio, utilizzare Design Thinking arricchito con AI: nella fase di ideazione, generare molteplici soluzioni con strumenti generativi; nella fase prototipazione, usare AI per creare rapidamente mockup o simulazioni da sottoporre agli utenti. Oppure applicare la metodologia Lean Startup in chiave AI, come suggerito da esperti: sfruttare l’AI per comprimere la fase “Build” (prototipo pronto in giorni), e adottare tattiche di rapid user feedback (anche informale) per velocizzare la fase “Measure”. Questo consente iterazioni molto più rapide del normale. Inoltre, pratiche Agile come sprint brevi possono includere nel definition of done delle user story la sperimentazione con un modello AI e la valutazione del risultato rispetto ai criteri attesi. Team di sviluppo stanno anche introducendo il ruolo di AI Prompt Engineer all’interno degli sprint, ossia uno specialista che durante lo sviluppo ottimizza le richieste ai modelli AI per ottenere le funzionalità desiderate.
  • Infrastruttura e Sandboxing Sicuro: Allestire ambienti di sandbox dove i team possano giocare con dati aziendali e modelli AI senza rischi per i sistemi core. Strumenti containerizzati o ambienti cloud isolati (ad es. istanze Jupyter/Colab aziendali con accesso a modelli) permettono ai data scientist di provare algoritmi e ai developer di integrare API AI in modo controllato. Contestualmente, dotarsi di un framework di governance – linee guida su cosa è consentito (es. usare dati non sensibili nei test), come validare gli output AI e come documentare ogni esperimento. Soluzioni di ML Operations (MLOps) come MLflow o Kubeflow possono aiutare a tenere traccia degli esperimenti AI, versionare i modelli e promuovere facilmente un prototipo efficace dallo stadio di test a un pilot in produzione. In pratica, l’azienda costruisce una “fabbrica di sperimentazione” dove è facile avviare nuovi progetti AI e altrettanto facile spegnerli o scalarli, il tutto con la dovuta supervisione.
  • Community di Pratica & Knowledge Sharing: Un toolbox non è fatto solo di tecnologia, ma anche di persone e conoscenza. Creare comunità interne (es. un canale dedicato all’AI generativa su Slack/Teams, incontri mensili di un AI Guild) dove i pionieri condividono le loro esperienze, trucchi e fallimenti, è fondamentale. Questo trasforma ogni progetto individuale in apprendimento collettivo. Molte aziende di successo hanno lanciato programmi di ambasciatori AI o hub di risorse (wiki interne con linee guida su prompt efficaci, repository di codice riutilizzabile, ecc.). Ad esempio, Medium riporta il consiglio di adottare la metafora dell’“AI come intern entusiasta”: trattare l’AI come fareste con un neoassunto proattivo ma inesperto – dandogli compiti, verificando il lavoro e fornendo feedback. Diffondere questo genere di mental model tramite workshop pratici aiuta i dipendenti a interagire con l’AI in modo costruttivo e senza timori reverenziali, massimizzando l’apprendimento.

In sintesi, la toolbox per il learning-by-building comprende sia tecnologie abilitanti (modelli, piattaforme rapide, infrastrutture sicure) sia processi agili e comunità di apprendimento. Dotarsi di questi strumenti consente all’azienda di passare dall’idea all’azione con l’AI in modo veloce, sicuro e ripetibile, creando le condizioni ottimali per un miglioramento continuo.

Shift Continues

La trasformazione verso una cultura di apprendimento continuo attraverso il fare, potenziata dall’AI, è appena iniziata – e non mostra segni di rallentamento. Ogni nuovo progetto pilota, ogni prototipo costruito e ogni lezione appresa alimentano il prossimo ciclo di innovazione, in un percorso iterativo in cui l’azienda diventa ogni giorno più intelligente e adattiva. Come abbiamo visto, imprese di ogni settore stanno scoprendo che il segreto per prosperare in tempi di incertezza non è chiudersi in analisi teoriche o attendismi prudenti, ma abbracciare l’incertezza sperimentando.

Questo shift richiede coraggio organizzativo: significa fidarsi delle proprie persone – dare loro spazio per provare idee nuove con l’AI – e al tempo stesso costruire i giusti guardrail per non uscire di strada. Significa anche rivedere vecchi paradigmi: dai modelli di business (che possono evolvere man mano che l’AI apre possibilità prima impensabili) ai modelli di apprendimento (dal training formale a quello sul campo), fino ai modelli di leadership. Non tutti i tentativi daranno frutti immediati, ma un’organizzazione che impara velocemente dai propri esperimenti diventa antifragile, capace di trarre vantaggio anche dagli errori. In fondo, ogni prototipo non riuscito ci dice qualcosa su cosa evitare o migliorare al giro successivo.

Guardando avanti, possiamo aspettarci che questo movimento continui a evolvere e ampliarsi: più aziende adotteranno pratiche di learning by building, più casi d’uso innovativi emergeranno (oggi ancora inimmaginabili), e più la comunità di pratiche intorno all’AI crescerà, generando conoscenze condivise. È un po’ come una grande palestra collettiva: ogni azienda che sperimenta contribuisce a far progredire lo state of the art dell’AI applicata, i cui benefici ricadono poi sull’ecosistema economico più ampio.

Nel frattempo, le organizzazioni dovranno continuare a bilanciare velocità e saggezza, innovazione e responsabilità. Come sottolinea Stanford HAI, siamo in un momento in cui l’ottimismo globale sull’AI è in crescita nonostante le sfide: c’è una finestra di opportunità per guidare questa trasformazione in modo positivo, umano-centrico e sostenibile. Chi saprà imparare facendo con l’AI, mantenendo i valori e lo scopo al centro, non solo accelererà la propria crescita ma contribuirà a plasmare un futuro in cui tecnologia e creatività umana si potenziano a vicenda.

Il viaggio di InsideTheShift ci insegna proprio questo: il shift è un processo continuo, una serie di passi in avanti guidati dalla curiosità e dal miglioramento costante. L’edizione #6 ha esplorato come learning by building with AI stia ridefinendo le regole del gioco. Ma il cambiamento non si ferma qui. The shift continues – e spetta a noi essere protagonisti attivi, builders instancabili, di questa nuova era di innovazione. Con ogni progetto che costruiamo e da cui impariamo, acceleriamo il passo verso il futuro. E il futuro, grazie a questa attitudine, lo costruiamo – e impariamo – un prototipo alla volta.

System Thinking nell’era del comportamento intelligente

The Shift in Focus

Dalla progettazione delle interfacce alla progettazione delle condizioni

Il design sta attraversando un cambiamento di paradigma profondo: ci stiamo spostando dalla creazione di interfacce rigidamente predeterminate alla progettazione di sistemi adattivi, capaci di apprendere, evolvere e mostrare comportamenti emergenti. In un mondo di prodotti digitali guidati dall’AI, i designer non possono più specificare ogni risultato in anticipo: “non possiamo progettare per risultati assoluti. Dobbiamo progettare per l’emergenza”. Questo spostamento è alimentato dalla crescita dell’intelligenza artificiale e del machine learning, che infondono nei prodotti un comportamento intelligente e imprevedibile. Sistemi generativi come ChatGPT, ad esempio, hanno raggiunto oltre 100 milioni di utenti nei primi due mesi dal lancio, portando l’interazione con l’AI nella quotidianità. Una diffusione così rapida segnala che progettare per sistemi intelligenti e non deterministici non è più un tema sperimentale o marginale.

La posta in gioco è alta: oggi è essenziale per designer e innovatori accettare l’incertezza e passare da un approccio orientato al controllo a uno orientato all’orchestrazione. Non si tratta più di disegnare ogni passaggio dell’esperienza, ma di creare le condizioni per esperienze adattive, personalizzate e in evoluzione.

Perché tutto questo è così rilevante proprio ora? Perché il comportamento intelligente è ovunque: nelle app che usiamo, nei servizi che ci supportano, perfino negli oggetti connessi delle nostre case. Secondo i dati del 2024, il 72% delle aziende dichiara di utilizzare l’AI in almeno una funzione. Gartner prevede che l’85% delle interazioni clienti entro il 2025 sarà gestito senza intervento umano. Ciò significa che le esperienze utente sono sempre più modellate da algoritmi che apprendono dai dati e rispondono in tempo reale. I prodotti iniziano a comportarsi non più come strumenti statici, ma come sistemi vivi, in grado di adattarsi continuamente al contesto. Il focus del design cambia di conseguenza: il compito diventa guidare questi sistemi viventi, definendo regole, vincoli e obiettivi capaci di orientare i comportamenti emergenti verso risultati desiderabili.

Questa evoluzione arriva in un momento chiave: il comportamento intelligente dei sistemi abilitati dall’AI apre nuove possibilità e sfide. I designer che ne comprendono il senso sono in grado di trasformare l’imprevedibilità in una risorsa: per stimolare creatività, personalizzazione, intelligenza contestuale. In sintesi, progettare per l’emergenza è oggi una competenza centrale per chi costruisce la nuova generazione di prodotti e servizi digitali.

 

Understanding the Shift

Capire il cambiamento: perché progettare per l’emergenza adesso

Il movimento verso un design emergente non è nato all’improvviso: è il frutto della convergenza di trend tecnologici e bisogni urgenti che designer e strategist non possono più ignorare.

Il primo elemento è la crescente complessità dei prodotti digitali. Le esperienze digitali moderne si estendono su ecosistemi vasti di dati, utenti e algoritmi, in cui “tutto è connesso a tutto il resto”. Una modifica in una parte del sistema può produrre effetti imprevisti altrove. Gli approcci lineari tradizionali faticano a gestire questa rete di interdipendenze. Al loro posto si sta diffondendo una mentalità system thinking: i designer imparano a considerare il sistema nella sua totalità, non solo schermate isolate o feature singole. Come ha affermato un design lead, pensare in modo sistemico significa riconoscere che ogni elemento che progettiamo è connesso a un altro: modificandone uno, influenziamo tutto il sistema. Questo richiede capacità di anticipare relazioni, retroazioni e conseguenze: una competenza cruciale quando si lavora con l’AI, il cui comportamento è emergente e modellato da logiche complesse, non da regole fisse.

In secondo luogo, è la natura stessa dell’AI a richiedere un nuovo approccio. L’AI è intrinsecamente non deterministica: può generare output diversi anche a parità di input, a causa di processi probabilistici e meccanismi di apprendimento. Come ha scritto Cheryl Platz, “l’AI è per sua natura imprevedibile, e le tecniche di product design che abbiamo sviluppato in passato presupponevano esiti controllabili e prevedibili”. Questo mismatch ha già prodotto casi problematici, da chatbot incontrollabili a bias algoritmici dannosi. In alcuni casi, la mancata anticipazione di comportamenti atipici dell’AI ha persino contribuito a conseguenze tragiche (come nei casi di fallimento di sistemi autonomi in ambiti critici). Questi episodi sottolineano che i manuali di design tradizionali non bastano più.

Progettare per l’emergenza è, prima di tutto, una risposta concreta a queste sfide. Significa accettare che non possiamo prevedere ogni scenario, e quindi dobbiamo progettare cornici flessibili e meccanismi di sicurezza che consentano ai sistemi AI di esplorare lo spazio delle soluzioni, restando nei limiti desiderabili. I dati confermano l’urgenza: l’uso dell’AI generativa cresce a ritmi vertiginosi, con molte aziende che integrano queste tecnologie nei prodotti. Ma le preoccupazioni restano: conseguenze inattese, errori, distorsioni e problemi di sicurezza richiedono una progettazione più attenta, responsabile e reattiva.

Infine, c’è un fattore umano. Le aspettative degli utenti sono in evoluzione: vogliono esperienze personalizzate, contestuali e intelligenti – esattamente ciò che solo i sistemi adattivi e AI-driven possono offrire. Ormai ci aspettiamo feed che si adattano a noi, assistenti vocali che apprendono preferenze, suggerimenti sempre più su misura. Ma quando queste esperienze falliscono, la frustrazione cresce. La fiducia diventa un elemento centrale: dobbiamo fidarci di sistemi che si comportano in modo leggermente diverso ogni volta.

Per questo, i designer stanno spostando il focus su trasparenza, feedback e segnali di affidabilità nell’interfaccia: ad esempio, mostrare quando l’AI è incerta, offrire spiegazioni sulle decisioni. Questo insieme di nuove priorità progettuali – pensiero sistemico, apertura all’incertezza, focus sulla fiducia – è la risposta concreta del design alla scossa sismica provocata dall’intelligenza artificiale.

Come ha dichiarato un report recente: “Quella dell’AI non è solo un’ondata di innovazione, è una vera rivoluzione. E non se ne andrà più”. Capire questo shift significa leggere con lucidità i segnali del contesto: o il design si adatta a un mondo guidato da comportamenti emergenti, o rischia di diventare irrilevante davanti a prodotti che, letteralmente, iniziano ad avere una mente propria.

 

The Core

Architetture, ruoli e impatto sulla progettazione

Al cuore di “Designing for Emergence” c’è un cambiamento radicale nel modo in cui concepiamo la progettazione delle esperienze. Invece di specificare soluzioni definitive, oggi i designer progettano le condizioni affinché le soluzioni possano emergere. In pratica, significa concentrarsi su regole, vincoli e contesto piuttosto che su esiti fissi.

Un classico esempio arriva dalla natura: uno stormo di uccelli in volo non ha un leader, eppure si muove in modo sorprendentemente coordinato. Ogni individuo segue poche semplici regole (mantenere la distanza, allinearsi ai vicini), e da queste interazioni nasce un comportamento collettivo emergente. I designer stanno traendo ispirazione proprio da sistemi come questi. In un esperimento, un gruppo di studenti di design ha scritto regole base di interazione per un esercizio collettivo: quando i partecipanti hanno seguito quelle istruzioni, il comportamento risultante non è stato quello previsto dai progettisti. Una scoperta illuminante: il design dell’interazione non riguarda solo lo schermo, ma anche il modo in cui le persone interagiscono tra loro e con l’ambiente. Piccole modifiche nelle regole iniziali generavano risultati completamente diversi – proprio come piccoli cambi in un algoritmo AI o nel dataset possono alterare significativamente il comportamento di un prodotto.

Il messaggio è chiaro: i designer devono sentirsi a proprio agio con l’iterazione, l’adattamento e la sorpresa. Progettare per l’emergenza significa “creare spazio per molteplici possibilità, anche imprevedibili o apparentemente impossibili”. Il nostro ruolo cambia: non stiamo più cercando di imporre un’esperienza fissa, ma di orchestrare un insieme di esperienze possibili, guidando il sistema con principi progettuali capaci di mantenere i risultati entro limiti desiderabili.

Uno dei framework teorici che supporta questo approccio è il pensiero sistemico, arricchito dalle lezioni provenienti dalla scienza della complessità. Pensatori come Donella Meadows e Russell Ackoff hanno spiegato già decenni fa che nei sistemi complessi, non influenziamo i risultati controllandoli direttamente, ma modificando leve e vincoli del sistema. I team di prodotto più avanzati stanno applicando questo concetto: stabiliscono vincoli abilitanti (enabling constraints) che fungono da guida, permettendo al contempo libertà e creatività entro limiti sicuri. Come ha scritto il teorico del design Jabe Bloom, “i principi di design possono agire come vincoli abilitanti fondamentali, che modellano e raffinano l’interazione tra elementi di un sistema dinamico”.

Tradotto in termini pratici: impostiamo regole (ad esempio, un filtro AI che blocca output estremi, o un framework di tono che mantiene coerente la personalità di un chatbot) e lasciamo che il sistema operi liberamente entro quei confini. Questo approccio è molto diverso dal design prescrittivo tradizionale, dove si cerca di prevedere ogni possibile azione dell’utente. Nei sistemi AI-driven, scrivere ogni passo è impossibile: il sistema impara e cambia nel tempo. Per questo, oggi progettiamo l’impalcatura del comportamento, non il comportamento stesso.

Ad esempio, una piattaforma con AI può includere funzioni di rinforzo o loop di feedback che spingono l’intelligenza verso comportamenti desiderabili. Anche qui, si progetta l’incentivo piuttosto che l’esito. A questo si aggiungono meccanismi di supervisione, come i checkpoint human-in-the-loop (dove un umano può intervenire) o modelli di autonomia vincolata, che consentono all’AI di decidere solo entro certi limiti di rischio. Le ricerche confermano che trovare il punto d’equilibrio tra autonomia e controllo è cruciale: “gli agenti troppo rigidi faticano con input inediti; quelli troppo liberi rischiano comportamenti imprevedibili”. Le soluzioni ibride – regole rigide per le decisioni critiche, AI flessibile per il resto – stanno emergendo come best practice.

Un altro aspetto centrale è il design degli agenti AI – sistemi dotati di una certa autonomia e proattività. Quando si progettano agenti intelligenti, non consideriamo solo le interazioni con l’utente, ma anche il modo in cui l’AI prende decisioni. Serve una mentalità simile all’insegnamento o all’allenamento: definiamo gli obiettivi, i limiti etici, le azioni possibili – proprio come si stabilirebbero le regole di un gioco.

Il nodo critico è l’alignment problem: l’AI potrebbe trovare scorciatoie impreviste per raggiungere un obiettivo. Per evitarlo, designer e data scientist simulano scenari, testano comportamenti potenziali, progettano safeguard. Ad esempio, in un generatore di immagini AI, si possono inserire filtri sui contenuti (vincoli statici) e feedback dagli utenti (loop dinamico), in modo che il sistema apprenda anche norme sociali.

Così facendo, il design si estende oltre l’interfaccia: include la progettazione del comportamento del modello, la selezione dei dati, il tuning continuo. Come ha detto la ricercatrice Claudia Canales, “il futuro del design non riguarda solo gli schermi, ma la progettazione dell’intelligenza che alimenta le nostre esperienze digitali”. I designer collaborano con ingegneri AI per regolare i parametri, scrivere template di prompt, progettare fallback quando l’AI è incerta. Emergono nuovi strumenti e metodi: pattern di design AI, checklist contro hallucination o bias, framework per agenti affidabili e comprensibili. Un recente lavoro propone persino un “linguaggio dei pattern per l’AI agentica”: un set di modelli riutilizzabili che aiutano a garantire coerenza e robustezza nei sistemi emergenti.

Tutto ciò sottolinea il vero cambio di mindset: progettare per l’emergenza significa progettare un sistema che, in parte, si progetta da solo. Non costruiamo più soluzioni fisse, ma strutture che generano molte soluzioni, e contesti che guidano il sistema verso risultati coerenti con i bisogni umani.

 

The Broader Shift

Implicazioni culturali e strategiche del design emergente

Questo nuovo paradigma progettuale ha implicazioni che vanno ben oltre il singolo prodotto. Sia dal punto di vista culturale che operativo, sta ridefinendo che cosa significa essere designer, innovatori o strategist nell’era digitale.

Un primo grande cambiamento riguarda il ruolo stesso del designer: ci stiamo spostando dall’essere “creatori” di artefatti al diventare facilitatori e curatori di risultati. Andy Budd lo ha espresso bene: “l’AI sta trasformando il design, spostando i designer da creatori operativi a curatori strategici”. Le attività ripetitive (mockup pixel perfect, varianti illimitate di layout) sono sempre più automatizzate da strumenti intelligenti, liberando i designer per decisioni di livello più alto: definire regole, vincoli e qualità desiderate dell’esperienza. In pratica, il designer assume il ruolo di orchestratore del sistema. Imposta le condizioni iniziali e osserva come il sistema evolve nel tempo, intervenendo per raffinarlo.

Questa trasformazione richiede nuove competenze: capacità di analizzare i dati per comprendere come interagiscono utenti e AI, padronanza della sperimentazione rapida, e abilità di lavorare in team interdisciplinari. Il lavoro del designer si sovrappone sempre più a quello di product manager, data scientist e persino eticisti. I team si trovano ad affrontare domande che riguardano non solo la progettazione visiva ma anche la policy e la filosofia: la nostra AI dovrebbe fare questo? Come affronta un caso limite in modo etico? Tutto questo impone ai designer di ampliare le proprie conoscenze: etica, sociologia, sistemi adattivi complessi. Perché progettare un sistema AI significa intervenire in dinamiche umane e tecnologiche.

Stiamo assistendo anche a un cambiamento nei riferimenti teorici che guidano la progettazione. Il design tradizionale si basava su psicologia cognitiva ed estetica. Ora stanno entrando nel toolkit dei designer la cibernetica, l’ecologia e le scienze dei sistemi. Concetti come loop di feedback, auto-organizzazione ed emergenza (prima dominio di ingegneri e scienziati) sono oggi linguaggio comune nei team di progetto.

Pensatori come Ross Ashby tornano attuali: la sua Legge della Varietà Requisita afferma che “un sistema di controllo deve essere tanto vario quanto il sistema che vuole controllare” – un principio chiave per governare l’AI: serve una strategia progettuale tanto adattiva quanto l’AI che vogliamo guidare.

Visionari come John Seely Brown e Ann Pendleton-Jullian offrono una base culturale solida per questo nuovo mindset. Descrivono il nostro mondo come un “white water world”, rapido e turbolento, dove la causalità è sistemica, intrecciata, mutevole e sfuggente – e la pianificazione lineare non funziona più. Nel loro manifesto Design Unbound sostengono che i designer devono abbracciare la complessità ed equipaggiarsi con strumenti tratti dalle scienze dei sistemi e dalla teoria delle reti.

Nella loro visione, il design non è più creazione di oggetti statici, ma progettazione di contesti: condizioni e regole che permettono ai sistemi dinamici di evolversi. Per chi ha imparato a disegnare interfacce, è un cambio culturale profondo: significa passare dalla forma all’intervento strategico.

Stanno emergendo anche approcci come il systemic design, che unisce design thinking a strumenti sistemici come mapping, analisi degli stakeholder e identificazione di punti leva (ispirati a Donella Meadows). Un recente report internazionale ha confermato che “il design oggi si espande e coinvolge temi come tecnologia, potere, cultura, clima, economia, equità di genere e razza”. Sono tutte questioni sistemiche. Progettare per l’emergenza è una risposta naturale a queste sfide: prepara i team a lavorare con situazioni aperte, dinamiche e non completamente prevedibili (pensiamo a smart cities, piattaforme per il clima, social network globali).

Per innovatori e strategist, questo significa rivedere processi, metriche e governance. Come si fa roadmap per un prodotto in cui alcune feature emergeranno attraverso l’apprendimento dell’AI? Come si testa qualitativamente qualcosa che non si comporta mai due volte allo stesso modo?

Le organizzazioni più evolute adottano workflow sperimentali e iterativi. Si diffondono simulazioni e test in sandbox: prima di rilasciare un sistema AI, lo si stressa con migliaia di scenari in ambiente virtuale. Cultura e processi spingono verso team cross-funzionali, in cui designer, tecnologi e specialisti di dominio co-progettano. Perché l’emergenza si genera spesso nell’interazione tra domini (tecnico, umano, sociale).

L’etica diventa centrale. Quando un’AI può evolvere nel tempo, garantire che resti allineata ai valori umani non può essere un controllo una tantum: è un processo continuo. Le aziende più mature creano board etiche e integrano da subito principi di responsible AI. Alcuni framework descrivono tre sfide fondamentali da affrontare nel progettare agenti AI: ambiente complesso, equilibrio autonomia-controllo, comportamento sicuro e etico. Ognuna di queste ha ricadute culturali e organizzative. Ad esempio, garantire l’etica dell’AI potrebbe richiedere di coinvolgere filosofi, giuristi o psicologi nella progettazione: uno scenario impensabile nella UX tradizionale.

Il quadro generale è chiaro: il design sta diventando più inclusivo, interdisciplinare, e sistemico. I problemi che affrontiamo oggi sono tanto tecnici quanto profondamente umani. E la progettazione per l’emergenza è lo strumento che ci permette di navigarli con consapevolezza, responsabilità e visione a lungo termine.

 

What’s Next

Scenari futuri e sfide nella progettazione per l’emergenza

Guardando avanti, emergono diversi scenari e sfide affascinanti all’orizzonte della progettazione e dell’intelligenza artificiale. Una delle evoluzioni più significative è la nascita di sistemi davvero autonomi e agentici. Gli assistenti AI di oggi (dai bot di customer service ai trader algoritmici) sono ancora per lo più vincolati a compiti circoscritti. La prossima generazione, invece, punta a sistemi più generici, adattivi e auto-diretti: agenti in grado di navigare il web per raggiungere obiettivi, o coordinarsi con altri agenti per risolvere problemi complessi. Progettare per questa autonomia sarà una sfida cruciale. Come isolare agenti così, per evitare che escano dai limiti previsti? Come rendere trasparente la loro presenza agli utenti per mantenere la fiducia? Probabilmente creeremo ambienti simulati o veri e propri “playground digitali” dove addestrare e testare gli agenti in sicurezza prima di rilasciarli nel mondo reale. Tecniche come la simulazione multi-agente – in cui più agenti interagiscono in un contesto virtuale – sono già utilizzate per osservare comportamenti emergenti inattesi: potrebbero diventare pratica standard nei team AI-oriented.

Un altro ambito da osservare è l’unione tra creatività umana e AI nella progettazione. Se l’AI diventa co-creatrice, allora anche il processo di design diventa emergente. Gli strumenti generativi già oggi producono migliaia di varianti progettuali a partire da pochi parametri, lasciando al designer il compito di selezionare e rifinire: un po’ come un giardiniere che pota e guida la crescita.

Questo rovescia il flusso tradizionale e solleva nuove domande: i designer dovranno sviluppare intuito e sensibilità per guidare l’AI (es. nel prompt design e nella definizione dei vincoli), invece di costruire direttamente l’output finale? Come garantire che i contributi dell’AI siano coerenti con i valori umani e l’identità del brand?

Alcune aziende stanno già sperimentando sistemi AI pair-designer: agenti che affiancano il designer umano e propongono suggerimenti in tempo reale. Il passo successivo potrebbe essere un’AI che conduce in autonomia ricerche utente o test di usabilità, simulando l’interazione di milioni di utenti virtuali con un nuovo feature. Il designer potrebbe ottenere in pochi minuti un feedback su pattern emergenti o problemi latenti che non sarebbero emersi con test manuali tradizionali. Questa insight generation iper-scalabile, alimentata da AI, potrebbe accelerare drasticamente il ciclo di iterazione, ma richiede al designer di saper leggere, interpretare e reagire a una mole enorme di dati.

Sul fronte strategico, la policy e la governance diventeranno elementi essenziali della progettazione. Ci si attende una maggiore attenzione normativa al comportamento dell’AI (trasparenza, controllo umano, spiegabilità). I designer dovranno tradurre principi astratti (come equità, responsabilità, inclusività) in requisiti concreti di progetto: in pratica, dovranno codificare i valori della società nei “parametri” che regolano i sistemi intelligenti.

Nei prossimi anni potremmo vedere la nascita di framework standard per la governance dell’AI, analoghi a quanto oggi esiste per l’accessibilità. Modelli come le model card (documenti che spiegano come un modello AI funziona e dove può fallire) o strumenti di audit (che esaminano output dell’AI alla ricerca di bias o anomalie) diventeranno parte integrante della cassetta degli attrezzi dei team di prodotto. In questo contesto, progettare per l’emergenza vorrà dire anche progettare per la responsabilità: creare le condizioni per tracciare, spiegare e correggere comportamenti imprevisti.

E per il mondo dell’educazione e della community del design? Probabilmente vedremo aggiornamenti nei curricoli accademici: pensiero sistemico, etica e fondamentali di AI diventeranno parte del percorso formativo. La community sta già condividendo attivamente conoscenza su questi temi, con nuove conferenze, articoli e forum dedicati ai problemi pratici della UX non deterministica.

Resta aperta una domanda fondamentale: come mantenere l’approccio human-centered nel design, quando parte dell’esperienza è gestita da attori non umani (gli agenti AI)? La risposta a questo interrogativo filosofico modellerà il futuro della disciplina. La visione ottimista è che, se impariamo a gestire l’emergenza, potremo creare esperienze altamente adattive, resilienti e migliorabili nel tempo. Immaginiamo un sistema sanitario che apprende da ogni paziente per triagare meglio i successivi, o piattaforme educative che adattano strategie didattiche in tempo reale, guidate da designer che impostano i parametri e gli argini etici.

La visione più critica mette in guardia: delegare troppo potrebbe portare a esperienze caotiche o a conseguenze negative non previste. Il vero compito del designer, nei prossimi anni, sarà navigare tra queste due polarità. Come suggerisce con ironia Cheryl Platz, dobbiamo diventare “ottimi-pessimisti”: fiduciosi nel potenziale dell’AI, ma sempre vigili sui suoi rischi.

In sostanza, il prossimo capitolo della progettazione per l’emergenza sarà espandere le buone pratiche (affinché diventino standard nei progetti AI) ed espandere la prospettiva (affinché le decisioni di design considerino l’impatto sistemico e di lungo periodo). Il viaggio è appena iniziato, e ogni designer, innovatore e strategist oggi ha la possibilità di contribuire a scrivere le nuove regole di questo cambiamento.

 

Takeaways

5 principi chiave per progettare in contesti emergenti

  • Dal controllo alla coltivazione: il ruolo del designer si sposta dal controllo di ogni dettaglio all’orchestrazione di sistemi dove gli esiti desiderati emergono. Progettiamo regole, vincoli e loop di feedback per orientare il comportamento, non per prescriverlo.
  • Il pensiero sistemico è fondamentale: progettare prodotti con AI richiede una visione olistica. Ogni elemento è parte di una rete interconnessa. Mappe di sistema, loop causali e feedback sono strumenti chiave per anticipare effetti collaterali e comportamenti inattesi.
  • Progettare il comportamento dell’AI: il design non riguarda più solo l’interfaccia, ma anche il comportamento dell’agente intelligente. Bisogna stabilire limiti, obiettivi e margini decisionali, bilanciando l’autonomia dell’AI con supervisione umana e vincoli progettuali.
  • Nuovi ruoli e collaborazione: il designer diventa curatore e orchestratore dell’esperienza. Serve collaborazione costante con data scientist, ingegneri e specialisti etici per garantire che i sistemi AI siano utili, comprensibili e allineati ai valori umani.
  • Accogliere l’incertezza e iterare spesso: sistemi non deterministici generano sempre sorprese. Serve una cultura del test continuo, basata su sperimentazione rapida, monitoraggio post-lancio e strategie adattive. L’obiettivo è evolvere insieme al comportamento che emerge.

Recommended Resources

Letture, articoli e strumenti da esplorare

  • Design Unbound: Designing for Emergence in a White Water World (Pendleton-Jullian & Brown, 2018) – Un testo fondativo che introduce strumenti e teoria per agire in un mondo complesso e in rapido cambiamento. Sostiene che “dobbiamo progettare per l’emergenza” nei sistemi dove non possiamo prevedere gli esiti.
  • Frederick van Amstel – Designing for emergent performances (2024) – Approfondimenti di un ricercatore sul design come creazione di contesti che favoriscono l’imprevisto. Include esempi come la simulazione Boids e progetti studenteschi dove il design segue il processo di emergenza anziché controllarlo.
  • Claudia Canales – Beyond the Model: A systems approach to AI product design (UX Collective, 2025) – Un articolo che promuove un design olistico dell’AI. Propone di considerare l’intero ecosistema che circonda gli agenti intelligenti (dati, workflow, policy) per progettare relazioni e non solo interfacce.
  • Cheryl Platz – “Opti-pessimism: Design, AI, and our uncertain future”

    (2019) – Riflessioni sulla necessità di cambiare processo progettuale con l’arrivo dell’AI. Spiega come la UX tradizionale sia inadeguata a gestire l’imprevedibilità e propone un nuovo approccio mentale, tra ottimismo e consapevolezza.

  • The Future of Design: From Makers to Curators (UXMag, 2024) – Analizza come gli strumenti AI stanno trasformando il ruolo del designer. Descrive la transizione verso un ruolo più strategico, basato su selezione, supervisione e regole.
  • People + AI Guidebook – Google (2022) – Raccolta completa di best practice per progettare AI in modo human-centered. Include linee guida su incertezza, controllo dell’utente, apprendimento iterativo. Molto pratico per chi costruisce prodotti AI-driven.
  • Guidelines for Human-AI Interaction (Amershi et al., Microsoft Research, 2019) – Paper accademico che sintetizza 18 principi per progettare interazioni con AI. Esempi: come mostrare l’azione dell’AI, come ricevere feedback dall’utente. Un riferimento chiave per chi vuole progettare esperienze affidabili.
  • AI Incident Database (aiid.partnershiponai.org) – Archivio di casi reali in cui sistemi AI hanno avuto effetti inattesi o dannosi. Ottima risorsa per imparare dagli errori e sviluppare pre-mortem progettuali: “cosa potrebbe andare storto?”.

 

Toolbox

Metodi e tecniche per progettare sistemi intelligenti emergenti

  • System Mapping & Causal Loops – Utilizza strumenti come mappe di sistema o diagrammi di loop causali per visualizzare come gli elementi del tuo ecosistema di prodotto si influenzano tra loro. Aiuta a identificare retroazioni, punti critici e leve progettuali (es. mappare come l’input dell’utente viene elaborato dall’AI e restituito).
  • Scenario Planning & World-Building – Applica esercizi di world-building (ispirati a futurologi come Ann Pendleton-Jullian) per immaginare futuri alternativi del tuo prodotto. Crea scenari di comportamento dell’AI in casi migliori, medi e peggiori. Questo prepara il design a situazioni impreviste e stimola la progettazione di salvaguardie.
  • Agent-Based Simulation – Prima di lanciare una funzionalità complessa, simulala. Con modelli agent-based (anche con tool semplici), puoi approssimare come attori indipendenti (utenti o agenti AI) si comportano in gruppo. Ad esempio: simulare come evolve un feed algoritmico mentre gli utenti lo usano, per capire se si generano bias o effetti non voluti.
  • Enabling Constraints Framework – Quando definisci i requisiti di prodotto, pensa in termini di principi e vincoli, non di soluzioni. Esempio: invece di dire come dev’essere un contenuto, puoi dire “non deve mai contenere X” o “il tono deve restare amichevole-professionale”. Questi diventano vincoli abilitanti che guidano lo sviluppo e il training AI.
  • Human-in-the-Loop Controls – Integra pattern che mantengono il tocco umano sul timone. Può essere una semplice approvazione manuale di contenuti generati dall’AI, o un’interfaccia per monitorare e intervenire sulle decisioni AI in tempo reale. Pensa a questo sistema di supervisione come una valvola di sicurezza del prodotto.
  • Continuous Training & Feedback Tools – Costruisci nel prodotto meccanismi di apprendimento. Esempio: un feedback da parte dell’utente (“questo consiglio era utile?”) che alimenta il modello AI. Oppure cicli periodici di aggiornamento, con nuovi dati reali. Tieni nel toolbox anche analitiche sulle performance dell’AI e sugli esiti utente, per migliorare il sistema nel tempo.
  • Ethical Assessment Checklist – Mantieni una checklist (o usa toolkit esistenti come AI FactSheets di IBM o Responsible AI toolkit di Google) da usare durante le review. Controlla: bias, equità tra gruppi di utenti, trasparenza (spieghiamo cosa fa l’AI?), privacy. Verificando questi aspetti, ti assicuri che i comportamenti emergenti siano coerenti con i valori dell’organizzazione e le aspettative della società.
  • Modular Design Systems for AI – Usa o contribuisci a design system emergenti che includano componenti AI. Così come esistono UI component riutilizzabili, iniziano a esistere pattern riutilizzabili per interazioni AI (es. come mostrare il livello di confidenza di un output, o come annullare un’azione AI). Avere un “design system per il machine learning” accelera il lavoro e garantisce coerenza.

Ogni strumento di questa cassetta degli attrezzi aiuta a gestire la complessità del comportamento emergente, trasformandola in qualcosa di allineato agli obiettivi e ai valori dell’utente. Usando questi metodi – come uno chef che seleziona gli ingredienti – puoi costruire un processo di design robusto, adatto all’era dei sistemi intelligenti e imprevedibili. Adottare questi strumenti significa non solo affrontare il futuro, ma plasmarlo attivamente per creare esperienze tecnologiche più umane, e ispiranti.

Lo Shift continua

Se hai trovato interessante questa edizione, condividila con un collega, un cliente o una mente curiosa che sta attraversando il proprio cambiamento.

E se non l’hai ancora fatto, iscriviti per ricevere la prossima InsideTheShift direttamente nella tua inbox — ogni lunedì alle 9:41.

In arrivo su InsideTheShift #5: “From Hybrid to Continuous: La nuova evoluzione dei workflow Uomo + AI”

A presto, dentro lo shift.

Dalla previsione alla creazione: il vero shift dell’Intelligenza Artificiale è appena iniziato

Per anni abbiamo considerato l’intelligenza artificiale come uno strumento predittivo. Un sistema capace di analizzare grandi moli di dati per dirci cosa sarebbe potuto accadere: dalla domanda di un prodotto all’andamento di un mercato, fino alla prossima mossa di un cliente.

Era l’epoca dell’AI come prediction machine, come l’hanno definita Agrawal, Gans e Goldfarb nel loro libro. Un’epoca in cui il valore si generava ottimizzando: supply chain, previsioni finanziarie, raccomandazioni personalizzate.

Oggi, però, stiamo assistendo a un vero e proprio cambio di paradigma. Un shift profondo, culturale prima ancora che tecnologico: l’AI non si limita più a prevedere, inizia a creare.

L’avvento dei modelli generativi ha trasformato l’AI in un alleato nella progettazione, nella scrittura, nella scoperta scientifica. Algoritmi capaci di produrre contenuti originali, generare codice, disegnare prodotti, ipotizzare molecole. Non è solo efficienza: è creatività aumentata. E chi lavora sull’innovazione non può più ignorarlo.

Il nuovo mindset dell’innovatore

In questa prima newsletter di InsideTheShift, che esce il lunedi alle 9:41, racconto proprio questo cambiamento: il passaggio dall’AI come oracolo statistico a co-creatore artificiale. Una trasformazione che ridefinisce il ruolo di chi guida il cambiamento, obbligando aziende e professionisti a rivedere approcci, processi, ruoli e strumenti.

Non parliamo più solo di usare l’AI per “prevedere meglio”. Parliamo di usarla per “immaginare di più”. Le aziende più lungimiranti stanno già applicando questo approccio: avviano brainstorming con modelli generativi, prototipano idee in tempo reale, validano alternative attraverso simulazioni aumentate.

Dati, segnali e accelerazione

Il cambiamento è documentato e accelerato. L’adozione di strumenti generativi ha raggiunto livelli senza precedenti. ChatGPT ha superato i 100 milioni di utenti mensili in meno di due mesi. Secondo l’AI Index Report di Stanford, nel 2024 il 71% delle aziende ha già integrato l’AI generativa in almeno un’area del proprio business. Gli investimenti privati sono esplosi. I costi si sono abbattuti drasticamente, rendendo queste tecnologie accessibili anche a startup e singoli professionisti.

La domanda non è più se adottare queste tecnologie, ma come integrarle strategicamente, in modo consapevole e sostenibile.

L’AI generativa come leva strategica

In newsletter esploro anche il funzionamento dei modelli generativi, dai Transformer ai modelli di diffusione, e il loro impatto concreto: non solo nella produzione creativa, ma anche nella trasformazione delle organizzazioni. Dall’emergere di nuove figure professionali (AI strategist, prompt engineer, ethics designer) alla necessità di nuove strutture di governance.

È un momento in cui serve visione, ma anche capacità operativa. Ecco perché condivido anche i pattern e strumenti concreti che uso nel mio lavoro quotidiano: dai modelli “human outlining + AI filling” alla simulazione narrativa con agenti AI.

E poi? Verso un futuro co-creato

Il futuro che si sta delineando è quello della co-creazione continua, della strategia aumentata, della personalizzazione radicale. Dove i team creativi collaborano con modelli generativi, e ogni idea nasce da un dialogo ibrido tra mente umana e intelligenza artificiale. Un futuro in cui non si tratta solo di produrre più velocemente, ma di progettare meglio, con più varianti, più intelligenza, più prospettiva.

Con un messaggio chiaro: la vera trasformazione non sta nell’AI in sé, ma in come scegliamo di usarla per creare ciò che davvero ha senso, impatto e valore.


📩 Leggi la newsletter completa (in inglese):
InsideTheShift #1 – The Shift in Focus

📌 In arrivo nel prossimo numero:
“Quando l’AI diventa interfaccia: la nascita delle piattaforme cognitive”