La rivoluzione dell’AI non avverrà dall’oggi al domani

Da un paio di anni, ogni giorno, nel nostro stream social appaiono proclami entusiasti su come l’intelligenza artificiale rivoluzionerà tutto in un lampo. Secondo previsioni, fin troppo ottimistiche, l’AI sarebbe già alle soglie di “allacciarci le scarpe, cucinare al posto nostro, gestire le nostre aziende e risolvere la fame nel mondo”, con un impatto economico annuo stimato in decine di migliaia di miliardi di dollari.

Questa visione è seducente, senza dubbio, ma, per dirla con le parole di Paul Hlivko, è anche una “allucinazione”. La realtà che vivo da consulente e imprenditore nel digitale mi insegna che abbiamo già visto film simili con altre tecnologie emergenti, e raramente il finale è all’altezza del trailer promozionale, per quanto, io stesso, penso che questa volta ci sia molta differenza rispetto ai precedenti impatti e tutto potrebbe andare decisamente in modo diverso. L’AI revolution tanto decantata arriverà, sì, ma non in modo istantaneo né magico. E su questo ne sono certo, perché lo vedo, e perché la preparazione culturale, infrastrutturale e tecnologica nelle aziende non è cosi matura come necessiterebbe per poter veramente avere gli effetti desiderati.

Come disse il pioniere Alan Turing nel 1950, la domanda era se le macchine potessero pensare; oggi la vera domanda è se noi sappiamo pensare in modo intelligente a come usare le macchine. In altre parole, il fattore critico non è la potenza dell’AI in sé, ma la nostra capacità di adottarla con giudizio e integrarla concretamente nel tessuto dell’innovazione aziendale. Con questo approfondimento, riflessivo e provocatorio, provo a far capire perché la rivoluzione dell’AI sarà un percorso graduale (e accidentato), e quale mentalità dovrebbero adottare manager e aziende per trarne valore reale.

Perché l’adozione dell’AI sarà lenta, complessa e piena di attriti

La storia ci insegna che ogni ondata tecnologica, dal cloud alla blockchain, è stata accompagnata da un picco di hype seguito da un lungo declino (utile a far pulizia di progetti non sostenibili) e subito dopo da un arduo processo di consolidamento e adozione. E l’AI non farà eccezione, per quanto tutto stia viaggiando ad una velocità di crociera assurda: implementarla in azienda significa toccare processi, abitudini e modelli di business consolidati.

Il problema non è scrivere qualche riga di codice in più, ma affrontare il cambiamento culturale e organizzativo necessario per far funzionare davvero queste soluzioni nella pratica quotidiana. Spesso le grandi organizzazioni si muovono lentamente: procedure di compliance, revisioni di sicurezza e approvazioni multiple, processi incancreniti, paura del cambiamento che fanno sì che l’adozione di un semplice strumento AI richieda mesi invece che giorni, creando attriti interni che soffocano l’innovazione. Questa cautela è comprensibile (proteggere dati e rispettare normative è essenziale) ma a volte si trasforma in una iperprudenza paralizzante. Il risultato? Le aziende più lente rimangono indietro mentre concorrenti più agili sperimentano e imparano sul campo. Chi aspetta troppo rischia di perdere quote di mercato, talenti e opportunità di crescita, perché il vero rischio oggi non è l’AI in sé, ma restare fermi mentre gli altri avanzano. A me fa ridere quando sento imprenditori dire “Noi ci muoviamo dopo, e mentre gli altri sbagliano fatturiamo su altro. Poi ci muoviamo e facciamo meglio degli altri”. Fa ridere perché se da una parte il concetto è anche corretto “lasciamo che gli altri sbaglino, noi bruciamo meno” nella pratica, in un contesto nuovo, chi sbaglia con metodo, impara prima e agisce di conseguenza, con maggiore consapevolezza e maturità.

Un caso emblematico è quello di IBM Watson: dopo la vittoria trionfale a Jeopardy! nel 2011, Watson venne annunciato come il medico AI infallibile che avrebbe rivoluzionato la sanità. Eppure, fuori dai laboratori, anche una tecnologia potentissima si è scontrata con la dura realtà operativa: integrare l’AI nei flussi clinici e nei sistemi ospedalieri si è rivelato incredibilmente difficile, al punto che molti progetti sono naufragati nonostante gli ingenti investimenti. Come osservava amaramente un esperto coinvolto, IBM “è partita con il marketing prima e il prodotto poi”, generando aspettative altissime, ma “quando si è passati ai fatti, la strada si è rivelata incredibilmente dura”.

Questa lezione vale per tutti: non basta una demo spettacolare perché una soluzione AI funzioni nel mondo reale, bisogna fare i conti con legacy tecnologico, processi disallineati e resistenze umane.

Le statistiche degli ultimi anni sui fallimenti nei progetti di trasformazione digitale sottolineano ulteriormente questo punto. Studi di Harvard Business Review indicano che circail 70% delle trasformazioni digitali fallisce, e non per problemi tecnici, ma a causa di resistenze culturali e mancanza di allineamento nella leadership. In altre parole, sette volte su dieci la tecnologia era pronta, ma l’organizzazione no. Implementare l’AI richiede quindi una seria strategia di change management: governance chiara, sponsor forti ai vertici e coinvolgimento delle persone a tutti i livelli. Senza questi ingredienti, anche l’algoritmo più potente rimane inutilizzato o, peggio, genera caos invece di efficienza.

Il problema delle aspettative e dei bias cognitivi

Perché continuiamo a sopravvalutare la velocità con cui l’AI trasformerà tutto? La risposta risiede in alcuni bias, non quelli dell’AI, ma quelli umani, i bias cognitivi che affliggono anche manager navigati. In particolare (e confermo che ne ho ho avuto riscontri da vicino) tre bias giocano un ruolo chiave nell’alterare le nostre aspettative:

  • Fallacia della pianificazione. Tendiamo sistematicamente a sottostimare il tempo e la complessità necessari per implementare cambiamenti su larga scala. Con l’AI, molti leader assumono che “basterà lanciare un progetto pilota e in pochi mesi vedremo risultati rivoluzionari”, ignorando le lunghe fasi di integrazione, formazione del personale, aggiustamenti e iterazioni che invece sono la norma. È lo stesso ottimismo ingenuo che porta a sforare tempi e budget in tanti progetti IT.
  • Bias dell’ottimismo. Ci illudiamo che l’adozione sarà fluida e indolore, sottovalutando gli ostacoli. Quando una nuova tecnologia sembra promettere benefici enormi, scatta in noi una propensione a vedere il bicchiere mezzo pieno: crediamo che dipartimenti, partner e clienti abbracceranno con entusiasmo la novità. La realtà insegna che spesso ci sono più resistenze che entusiasmo iniziale, ed è normale, perché ogni novità rompe equilibri esistenti.
  • Bias di “recency”. Siamo sviati dai successi recenti in altri contesti. Ad esempio, il boom virale di ChatGPT tra i consumatori (oltre 100 milioni di utenti in pochissimo tempo) porta alcuni a credere che anche nelle imprese l’adozione sarà immediata e spontanea. Ma ciò che avviene nel mercato consumer, dove un tool può diffondersi organicamente grazie alla curiosità individuale, non si replica automaticamente in azienda, dove subentrano considerazioni di sicurezza, compliance, ROI e integrazione con sistemi preesistenti. E aggiungo di trust.

Questi bias generano aspettative irrealistiche. Chi decide, preda dell’entusiasmo, annunciano grandi trasformazioni a tappe forzate, sottovalutando la fase di transizione. Si crea così un pericoloso gap tra promesse e realtà: quando i risultati tardano (perché inevitabilmente tarderanno rispetto alle fantasie iniziali), si rischiano disillusione, tagli ai fondi e un effetto boomerang sul supporto interno all’AI.

Per evitare questo ciclo negativo, i leader dovranno fare un passo indietro e adottare un approccio più lucido, bilanciando visione e pragmatismo. Come recita la cosiddetta Legge di Amara, di cui ho scritto anche tempo fa, tendiamo a sopravvalutare l’impatto di una tecnologia nel breve termine e a sottovalutarne gli effetti nel lungo termine. Serve quindi pazienza nel breve e perseveranza strategica per coglierne il vero potenziale nel lungo periodo.

I limiti economici e infrastrutturali dei modelli di AI attuali

Al di là delle questioni organizzative, esistono constraint tecnici ed economici molto concreti che rallentano l’adozione massiva dell’AI oggi. I modelli di Generative AI di ultima generazione,  come i GPT di OpenAI, richiedono una potenza di calcolo e una quantità di dati semplicemente fuori scala rispetto ai sistemi tradizionali. Allenare da zero un modello come GPT-3, ad esempio, è stato stimato costare fra i 4 e i 12 milioni di dollari, e l’evoluto GPT-4 ha probabilmente richiesto investimenti nell’ordine di decine di milioni.

Non si tratta solo di comprare qualche server: servono migliaia di GPU specializzate, enormi dataset, team di ricerca altamente qualificati e un consumo energetico impressionante (centinaia di tonnellate di CO₂ per una singola addestramento di modello di grandi dimensioni). Questo significa che pochissime organizzazioni al mondo possono permettersi di sviluppare in house modelli AI generalisti di questo calibro.

La maggior parte delle aziende dovrà affidarsi a modelli e infrastrutture fornite dai grandi player (OpenAI/Microsoft, Google, Amazon, Anthropic, ecc.), con implicazioni in termini di costi operativi (accesso via cloud a pagamento), dipendenza strategica e gestione dei dati sensibili.

Anche utilizzare questi modelli pre-addestrati non è banale: integrarli nei propri prodotti o processi richiede lavoro di ingegnerizzazione, personalizzazione e manutenzione continua. Le attuali implementazioni di GPT, ad esempio, tendono a “allucinare” (ovvero generare output errati o inventati) e a riflettere bias presenti nei dati di training. Per usare queste AI in contesti aziendali mission-critical, serve costruire intorno ad esse tutta un’architettura di guardrail, con controlli, filtri e validazioni che ne imbrigli il comportamento. Questo aggiunge complessità ulteriore. Vi è poi il tema cruciale dei dati. Un algoritmo di AI è solo potente quanto i dati di cui si nutre. Molte imprese scoprono, avviando progetti AI, di non avere dati di qualità sufficiente, o di averli in silos non comunicanti, pieni di errori e incoerenze.

Secondo un rapporto Deloitte, in gran parte delle organizzazioni meno di un terzo dei progetti pilota di AI generativa arriva a essere messo in produzione, spesso proprio perché le aziende faticano a raccogliere e ripulire tutti i dati necessari su cui far correre i modelli. Non sorprende quindi che, per capitalizzare sulle tecnologie GPT, molte aziende stiano investendo non solo nell’AI in sé, ma in massicci sforzi di data engineering e gestione del dato. Senza basi dati solide, l’AI resta un motore potente ma senza carburante.

C’è poi una considerazione infrastrutturale: poche realtà dispongono già oggi di piattaforme IT in grado di integrare senza colli di bottiglia gli output di un modello generativo nei workflow esistenti. Ad esempio, se un modello GPT elabora in linguaggio naturale richieste dei clienti, come si collega poi ai sistemi di CRM, ai database interni, ai flussi di lavoro del servizio clienti? Spesso sono necessarie integrazioni custom, middleware e adattamenti dei sistemi legacy, tutte attività che richiedono tempo, competenze (scarse) e investimenti (con budget ancora più scarsi). E nel frattempo la tecnologia AI continua a evolvere rapidamente, il che significa che ciò che integriamo oggi potrebbe dover essere rivisto tra 6 mesi (se faccio una valutazione pessimistica eh). Anche questo contribuisce a frenare un’adozione immediata e ubiqua dell’AI in azienda: c’è un delta temporale inevitabile tra l’emergere della tecnologia e la sua maturazione in soluzioni industrializzate, scalabili e affidabili.

Il vero valore dell’AI: integrazione nei processi e nei flussi decisionali

Dove risiede allora il vero valore dell’AI in azienda? La risposta, controintuitiva per alcuni, che spiego costantemente quando faccio formazione, è che il valore non deriva dall’AI in isolamento, ma dalla sua integrazione intelligente nei processi esistenti e nei flussi decisionali quotidiani.

L’AI da sola non creerà valore; saremo noi umani, con il nostro ingegno organizzativo, a creare valore grazie all’AI, se saremo disposti a fare il duro lavoro di integrarla, governarla e scalarla con criterio. Ciò significa ripensare comeprendiamo decisioni, come sviluppiamo prodotti, come interagiamo con clienti e dipendenti, inserendo l’AI come “copilota” che amplifica le nostre capacità.

Per capire questo concetto, è utile pensare all’AI non come a una bacchetta magica, ma come a un nuovo membro del team, uno strumento che va orchestrato. Prendiamo l’esempio di OpenAI: hanno rilasciato un modello potente come ChatGPT al pubblico, ma il suo impatto in ambito enterprise si sta realizzando davvero solo quando viene inglobato in piattaforme di lavoro. Un caso pratico è Microsoft, che sta integrando le capacità di GPT-4 nel suo ecosistema Office (il progetto Microsoft 365 Copilot). Invece di lanciare un’ennesima applicazione stand-alone, Microsoft sta portando l’AI dentro Word, Excel, Outlook, Teams e gli altri strumenti che milioni di persone usano ogni giorno. Questo è emblematico: il salto di produttività non avviene insegnando ai dipendenti ad usare un nuovo software miracoloso, ma potenziando gli strumenti familiari con funzionalità AI.

Ad esempio, in Teams l’AI potrà trascrivere e riassumere riunioni, in Outlook smistare la posta e proporre risposte, in Excel analizzare trend nei dati. L’AI diventa così parte del flusso di lavoro esistente, riducendo le frizioni nell’adozione perché gli utenti non devono cambiare abitudini radicalmente, ma trovano semplicemente “un aiutante in più” nelle attività di sempre.

Stesso discorso nel caso di Google e l’integrazione della suite di workplace, oltre alle piattaforme dedicate di Gemini, o ancora anche Apple che sta puntando a portare l’AI nel device, ma non con una app, ma integrata nell’esperienza completa. Allo stesso modo, molte aziende stanno ottenendo benefici concreti dall’AI dove la integrano nel processo decisionale: sistemi di raccomandazione che suggeriscono al marketing la prossima offerta da fare a un cliente (ma lasciano al manager la decisione finale), dashboard arricchite da previsioni AI che supportano i dirigenti nel pianificare produzione o scorte, chatbot interni che aiutano i dipendenti a navigare tra le policy aziendali o a reperire informazioni rapidamente.

In tutti questi casi, l’AI non sostituisce la decisione umana, bensì la informa e la velocizza con insight aggiuntivi. Il valore non sta nell’aver “messo un modello di deep learning in produzione” per vanto tecnologico, ma nell’aver risolto un problema di business, che sia ridurre i tempi di risposta al cliente, aumentare la personalizzazione di un servizio o migliorare la qualità delle decisioni grazie a dati che prima erano inutilizzabili.

Un concetto chiave qui è l’economia dell’innovazione: le tecnologie producono ritorni quando riescono a combinarsi con altre innovazioni e con complementi organizzativi. L’energia elettrica, per esempio, ha trasformato l’industria solo dopo che le fabbriche hanno riprogettato completamente i processi produttivi attorno ad essa (decentralizzando le macchine e cambiando il layout delle linee). Analogamente, l’AI darà il meglio di sé quando le imprese ristruttureranno processi e flussi di lavoro per sfruttarne le capacità. Ciò può richiedere di ripensare ruoli, ridefinire KPI e instaurare meccanismi di governance per monitorare l’operato dell’AI (dati utilizzati, accuratezza, imparzialità) così da fidarsi dei suoi output. Sono cambiamenti manageriali e organizzativi profondi, non semplici upgrade tecnologici.

La capitalizzazione delle tecnologie GPT , ossia la capacità di generare valore tangibile dai vari ChatGPT, GPT-4, ecc., dipende da quanto bene le aziende sanno prodottizzarle nei propri servizi e prodotti. Ad esempio, c’è differenza tra limitarsi a usare ChatGPT per generare qualche testo e invece incorporare un modello linguistico nel proprio servizio clienti automatizzato, integrato con la base di conoscenza aziendale e tarato sul tono di voce del brand. Il secondo approccio richiede più sforzo iniziale, ma crea un asset che differenzia davvero l’azienda e genera efficienza continua.

In sostanza, non si tratta di provare l’ultimo giocattolo AI in modo estemporaneo, bensì di costruire soluzioni in cui l’AI sia un componente stabile e ben congegnato. Chi riesce in questo trasforma l’AI da costo sperimentale a leva di produttività e vantaggio competitivo.

Perché il futuro non è (solo) il generative AI, ma sistemi compound e multimodali

In questo periodo l’attenzione mediatica si è polarizzata sulla Generative AI (modelli che creano testi, immagini, ecc.). Ma se allarghiamo l’orizzonte, il futuro dell’AI aziendale non sarà unicamente il prossimo modello generativo più potente o “senziente”.

Più probabilmente, vedremo emergere sistemi compound e multimodali: ovvero ecosistemi di modelli più piccoli e specializzati che collaborano, e piattaforme AI capaci di gestire input e output molteplici (testo, visione, audio, dati strutturati) all’unisono. I risultati più avanzati già oggi nell’AI derivano sempre più da queste architetture composte anziché da un singolo modello monolitico. Molti applicativi, per esempio, usano la tecnica del RAG retrieval-augmented generation: un motore di ricerca interno recupera informazioni da fonti affidabili e un modello generativo le usa per comporre la risposta, aumentando accuratezza e freschezza dei contenuti. Oppure pensiamo agli assistenti vocali: combinano modelli di riconoscimento vocale, modelli di NLP per comprendere il testo, modelli di dialogo per rispondere e magari moduli di visione (se devono anche interpretare immagini).

L’AI del futuro somiglierà più a un’orchestra che a un solista: tanti micro-servizi intelligenti coordinati per un obiettivo. Questo approccio “a sistemi” massimizza i risultati attraverso un’ingegneria ingegnosa, non solo facendo training su un unico mega-modello. In altre parole, conterà molto come progettiamo l’ecosistema aziendale, non solo quanto è grosso, e questo Simone Cicero con Boundaryless lo sa bene e lo predica da tempo.

Un trend già in atto è la proliferazione di modelli specializzati: invece di usare un modello generico enorme per tutto, le aziende iniziano ad adottare più modelli piccoli, ognuno ottimizzato per un compito o un dominio (es: un modello linguistico per analisi di sentiment nei feedback clienti, un modello diverso per generare codice, un altro per riconoscere immagini di prodotti, ecc.). Questo approccio “modulare” può essere più efficiente: ogni modello più piccolo richiede meno risorse, può essere addestrato sui dati specifici dell’azienda (guadagnando in pertinenza) e soprattutto può essere combinato con gli altri quando serve affrontare compiti complessi.

Immaginiamo per esempio un sistema AI per ecommerce che: analizza la foto che carica un utente (modello visivo), ne descrive il contenuto a parole (modello generativo multimodale), fa una ricerca nel catalogo prodotti per trovare oggetti simili (motore di ricerca AI), e infine dialoga col cliente per affinare la ricerca (modello conversazionale). Nessun singolo modello fa tutto da solo: è la combinazione orchestrata che realizza l’esperienza utente desiderata. Questo è il potere dei sistemi compound.

La direzione è poi multimodale: già nel 2024 sono stati mostrati i primi modelli in grado di elaborare input misti (immagini + testo) e generare output in vari formati (es. la cosiddetta GPT-4 “Omni” di OpenAI). La strada dei modelli multimodali è agli inizi e procede più lentamente del previsto,  richiede quantità di dati e risorse ancora maggiori, e porta con sé sfide come il rischio di hallucination e bias su più dimensioni, ma promette applicazioni aziendali interessantissime. Si va da sistemi in grado di “vedere” e “leggere” (pensiamo alla qualità che può raggiungere un servizio di ispezione automatica che analizza sia immagini da telecamere sia report testuali, o un consulente AI che esamina insieme tabelle numeriche e grafici per dare consigli finanziari), fino a interfacce utente più naturali dove l’AI capisce un comando vocale complesso e risponde con un grafico generato al volo e una spiegazione parlata.

Un altro fronte emergente è quello degli AI agent autonomi (agentic AI): piccoli software intelligenti capaci non solo di rispondere a domande, ma di intraprendere azioni in autonomia coordinandosi tra loro. In futuro, nemmeno troppo lontano, potremmo avere un agente AI specializzato nel monitorare metriche finanziarie aziendali, che “dialoga” con un altro agente specializzato nel gestire operazioni bancarie, per poi insieme eseguire transazioni o generare report, il tutto con supervisione minima umana.

È un’estensione del concetto di sistemi compound: non solo modelli multipli, ma agenti multipli che interagiscono e si passano il testimone sui compiti, un po’ come fa un team di persone. Questo scenario è ancora sperimentale, ma aziende come Salesforce e ServiceNow già parlano di queste possibilità. Il vantaggio potenziale è enorme: delegare routine complesse a squadre di “assistenti digitali” che lavorano 24/7, liberando gli umani per attività a maggior valore aggiunto. Ma anche qui, non aspettiamoci un salto immediato: servirà tempo per fidarsi a lasciare che le macchine dialoghino tra loro e agiscano sulle nostre piattaforme, e ci vorranno nuovi paradigmi di sicurezza per evitare incidenti quando più agenti AI hanno accesso ai sistemi aziendali.

Il messaggio chiave che voglio passare e che di solito è una chat dei miei workshop, è che il futuro dell’AI aziendale non sarà un chatbot onnipotente che rimpiazza ogni applicazione, bensì un tessuto connettivo di intelligenze diffuse.

Le imprese che vinceranno saranno quelle capaci di comporre queste intelligenze in modo strategico, scegliendo “il cavallo giusto per ogni corsa” invece di cercare un singolo cavallo di razza da far correre ovunque. Sarà una rivoluzione più silenziosa e graduale di quanto il clamore mediatico suggerisca oggi, ma non meno dirompente sul lungo termine: semplicemente, avverrà tramite molte piccole evoluzioni sommate, anziché con un’unica epifania tecnologica.

La tecnologia da sola non basta. Serve leadership.

Se c’è una cosa che un imprenditore esperto in innovazione e trasformazione digitale impara presto, è questa: la tecnologia da sola non basta. Serve leadership. E mai come nell’adozione dell’intelligenza artificiale questo risulta vero. I management si trovano stretti tra due fuochi: da un lato la necessità di non perdere il treno di una tecnologia potenzialmente rivoluzionaria, dall’altro il dovere di filtrare il rumore dell’hype e prendere decisioni ponderate. La leadership paziente non significa immobilismo o scetticismo cronico verso l’AI, bensì la capacità di dosare entusiasmo e pragmatismo:

  • vuol dire saper articolare ai propri stakeholder una visione di lungo periodo in cui l’AI permea l’azienda, ma allo stesso tempo evitare di promettere miracoli nel prossimo trimestre (come si sente invece spesso)
  • vuol dire investire in competenze, infrastrutture e dati fin da ora, sapendo che i frutti veri matureranno magari fra qualche anno. E va bene così, perché chi inizierà per tempo a costruire fondamenta solide sarà in netto vantaggio quando l’AI raggiungerà la piena maturità.

Una leadership strategica nell’era dell’AI implica anche fare scelte coraggiose e spesso controintuitive. Resistere alla tentazione di lanciarsi su ogni moda effimera di AI generativa, e invece concentrarsi su pochi progetti chiave allineati alla strategia aziendale, anche se questo significa andare contro la pressione (FOMO) di mostrare subito qualcosa di “sexy” al mercato:

  • significa allocare risorse per ripulire e strutturare i dati di cui disponiamo, anche se questo lavoro oscuro non farà notizia, perché senza dati di qualità, l’AI è un castello di carte
  • significa sperimentare con pilota e prototipi veloci ben disegnati (usando criteri di successo chiari) e poi scalare gradualmente ciò che funziona, anziché puntare tutto su un grande progetto monolitico calato dall’alto. In altre parole, pensiero big picture ma approccio graduale.

Dal punto di vista del change management, l’azienda dovrà costruire team di evangelisti e formatori allo stesso tempo: comunicare una visione ispiratrice (far capire al team perché l’AI è importante e come migliorerà il lavoro di tutti), ma anche mettere a disposizione formazione, linee guida e supporto pratico perché le persone sviluppino fiducia verso questi nuovi strumenti. E la fiducia, come invece succede in molte realtà, non si impone: si guadagna col coinvolgimento e dimostrando concretamente che l’AI può rendere il lavoro più interessante, non sostituire cinicamente le persone.

Una metafora utile è quella dell’AI comeesoscheletro per la forza lavoro: il compito dei team di formazione ed evangelizzazione è far sì che ogni persona abbia l’“esoscheletro” giusto (gli strumenti AI adatti) e sappia come usarlo per moltiplicare le proprie capacità, anziché temere di essere rimpiazzata dalla macchina.

Guidare un’azienda nell’adozione dell’intelligenza artificiale richiede visione, pazienza e concretezza, ecco perché il concetto “Patience is Prompt”. Visione per immaginare nuovi modi di operare abilitati dall’AI e sfidare lo status quo. Pazienza per navigare la fase iniziale di entusiasmo e disillusione senza perdere la rotta, consapevoli che le vere trasformazioni richiedono anni, non mesi. Concretezza per focalizzarsi sul valore di business reale, integrando l’AI dove aggiunge valore e misurandone l’impatto con rigore.

Bisognerà avere umiltà in questo viaggio e sarà fondamentale ammettere ciò che non funziona, apprendere dagli errori e adattare la strategia man mano che si impara cosa davvero genera risultati (in un campo così nuovo, nessuno ha tutte le risposte in tasca).

La buona notizia è che chi saprà attuare questa guida strategica e paziente avrà costruito un vantaggio difficilmente colmabile dai concorrenti. Per citare un concetto espresso in un rapporto Deloitte, che ho trovato condivisibile, applicare l’AI solo per velocizzare vecchi modi di fare le cose significa sprecare il suo potenziale o, peggio, amplificarne i bias.

Le aziende con management più illuminato e coraggioso useranno invece l’AI come catalizzatore per inventare “next practices” e modelli organizzativi pensati per un mondo potenziato dall’AI. Saranno quelli che non si limiteranno a digitalizzare l’esistente, ma che reimmagineranno il proprio business con l’AI in mente, mantenendo però i piedi per terra sull’esecuzione. La rivoluzione dell’AI, in fondo, non avverrà in una notte di tempesta, ma sarà il risultato della somma di tanti sforzi mirati. E sarà guidata non dagli algoritmi in sé, ma da leader che avranno saputo traghettare le proprie organizzazioni, con lungimiranza e tenacia, attraverso le acque agitate del cambiamento tecnologico verso un nuovo approdo di valore.

Cosa portarsi a casa? Un messaggio semplice.

Non aspettatevi miracoli immediati dall’AI, ma non sottovalutate nemmeno per un istante la portata trasformativa che avrà sul lungo periodo. Agite con strategia, investite nelle fondamenta (dati, processi, persone) e preparatevi a navigare qualche scossone iniziale.

L’adozione dell’AI è un viaggio, non uno scatto: iniziate ora, con passo deciso ma misurato, perché chi saprà pazientemente accelerare al momento giusto farà la differenza nel prossimo decennio dell’economia digitale. La vera rivoluzione non sarà delle macchine pensanti, sarà di chi avrà imparato a pensare (e agire) meglio con le macchine.

ROT: il Return on Trust, cosa e come implementarlo

Ho coniato il termine ROT – Return on Trust, “ritorno sulla fiducia”.

Credo fermamente che nel mondo aziendale trasformato dall’Intelligenza Artificiale la fiducia stia diventando e sarà sempre più un fattore critico da misurare e coltivare al pari dei classici e noti indicatori finanziari.

Di recente, durante una tavola rotonda su AI e mentoring, ho riflettuto in prima persona su come l’adozione di sistemi intelligenti metta alla prova la fiducia: l’AI può agire da catalizzatore ma anche da stress-test delle nostre relazioni, smontando certezze e costringendoci a ridefinire la “grammatica” dei rapporti umani e digitali.

AI amplificatore (o erosore) di relazioni

Prima di arrivare al ROS vale la pena però prima soffermarsi un attimo sull’impatto ambivalente che l’AI sta già esercitando sulle relazioni in azienda (e non solo) e gli effetti che ci troveremo a dover gestire.

Quando una organizzazione e gli strumenti di AI sono progettatati con trasparenza ed empatia, l’intelligenza artificiale si comporta da amplificatore: elimina attività ripetitive, fa emergere insight nascosti e personalizza le interazioni, così che mentor, manager e colleghi possano investire le proprie energie migliori in empatia, visione strategica e problem solving creativo. Il risultato è un engagement più profondo, cicli di feedback accelerati e una cultura dove la condivisione della conoscenza diventa naturale e gratificante.

Ma gli stessi algoritmi, se introdotti come black box opache o come meri strumenti di taglio dei costi, rischiano di trasformarsi in erosori di relazione: possono rafforzare i bias di conferma, indurre i leader ad abdicare alla responsabilità, atrofizzare il “muscolo dell’apprendimento” e impoverire la sicurezza psicologica necessaria al confronto onesto. I team allora obbediscono in apparenza, ma interiormente diffidano sia dello strumento sia di chi lo ha imposto.

L’AI amplifica il terreno relazionale che trova—che sia nutriente o tossico. Ed è proprio questa polarità a spiegare perché, insieme al Return on Trust, dobbiamo ora monitorare una seconda dimensione: il Return on Skills (ROS), ossia la capacità dell’organizzazione di trasformare quella (auspicabilmente alta) fiducia in un processo continuo di sviluppo di competenze adatte al futuro.

Da questa consapevolezza è nata l’idea del ROT come nuova chiave di lettura del cambiamento in atto.

Che cos’è il ROT (Return on Trust)?

Partiamo dalle basi del concetto che sto esplorando. ROT significa considerare la fiducia generata (o distrutta) da ogni iniziativa come un ritorno misurabile. Se il ROI (Return on Investment) è storicamente la metrica dominante per valutare progetti e strategie, soprattutto legate all’AI, oggi c’è secondo me il bisogno di affiancargli un indicatore complementare: quanto valore in termini di fiducia stiamo creando?

In altre parole, il ROT ci invita a chiederci non solo

“Questa tecnologia/processo migliorerà i profitti?” ma anche “Migliorerà la fiducia tra le persone coinvolte?”.

L’obiettivo del ROT vuol esser quello di rendere tangibile l’intangibile, ossia dare peso alla fiducia in ogni valutazione strategica. Vuole spingere leader e organizzazioni a progettare soluzioni people-centric, in cui il successo si misuri anche dal grado di fiducia che dipendenti, clienti e partner ripongono nel cambiamento.

In un contesto di AI diffusa, ciò significa, ad esempio, valutare se un algoritmo aumenta la fiducia dei clienti (grazie a trasparenza e risultati equi) o se un nuovo tool AI rafforza la fiducia dei dipendenti nel sentirsi supportati anziché rimpiazzati. Il ROT intende quindi arricchire le metriche di successo: non solo risultati economici o di efficienza, ma anche indicatori di clima, collaborazione e sicurezza psicologica.

Parlare di fiducia tocca però un perimetro ampio. Il ROT abbraccia la fiducia a 360°: tra colleghi, tra leader e team, tra azienda e clienti, e persino tra esseri umani e macchine. Ogni nuova tecnologia, riorganizzazione o scelta manageriale ha un impatto su queste dinamiche di fiducia. La complessità sta nel fatto che la fiducia è multidimensionale e delicata: è influenzata dalla cultura aziendale, dalle comunicazioni, dai comportamenti quotidiani e dall’etica con cui implementiamo gli strumenti digitali. A differenza di un KPI finanziario, la fiducia è difficile da quantificare direttamente e può variare nel tempo o tra gruppi. Ma soprattutto è asimmetrica: richiede tempo per costruirla, ma può essere persa in un attimo con un singolo passo falso. Questo rende la misurazione del ROT una sfida che richiede un mix di metriche quantitative e qualitative.

La domanda che giustamente mi è stata posta è

Come approcciare o introdurre qualcosa di cosi intangibile in una organizzazione?“.

Introdurre il ROT come metrica significa anche rivedere alcune logiche interne. In primo luogo occorre diffondere una cultura della fiducia: ambienti in cui le persone si sentono ascoltate, rispettate e sicure nel poter esprimere idee o dubbi. Le ricerche che accenanavo anche nel precedente post indicano chiaramente che un clima di alta fiducia produce benefici tangibili: aziende con elevata fiducia registrano 74% meno stress, 106% più energia, 50% più produttività, 76% più engagement rispetto a realtà a bassa fiducia.

In pratica, la fiducia funziona da moltiplicatore di valore, migliora la collaborazione, l’innovazione e la resilienza ai cambiamenti. Di conseguenza, adottare il ROT implica inserire la “gestione della fiducia” nelle responsabilità di leadership e HR: significa progettare percorsi di cambiamento coinvolgendo attivamente le persone, comunicare con trasparenza, investire in formazione etica sull’AI, e predisporre meccanismi per ascoltare feedback e preoccupazioni. Può voler dire introdurre nuove figure o competenze (ad esempio esperti di people analytics focalizzati sul clima, o comitati etici per l’AI) e includere parametri di fiducia nei report periodici.

Le aziende che decideranno di orientarsi ad un principio del genere potrebbero anche rivedere politiche di valutazione delle performance, premiando manager che sanno creare ambienti fiduciosi e team coesi. Insomma, il ROT porta con sé un’evoluzione organizzativa: dal comando-controllo alla organizzazione “trust-centric”, in cui la fiducia non è solo un valore dichiarato ma un obiettivo operativo progettato e misurato, nei piani di sviluppo, crescita e valutazione individuale.

Implementare il ROT in azienda: modello operativo

Come passare dalla teoria alla pratica? L’idea è quella di un modello scandito da alcuni step chiave, con ruoli e responsabilità ben definiti:

  1. Mappatura iniziale della fiducia: prima di tutto, è necessario misurare lo stato attuale. Questo significa condurre un’analisi del clima e della fiducia esistente,  tramite survey interne, focus group, interviste aperte, come è già in alcuni contesti applicato.
    È fondamentale ascoltare le persone a tutti i livelli per capire dove la fiducia è forte e dove presenta criticità. In questa fase si possono usare strumenti consolidati (alcuni descritti più avanti, come il Trust Index o questionari sulla sicurezza psicologica) per ottenere un baseline. Tipicamente l’HR insieme ai team di organization development o consulenti esterni specializzati in clima aziendale hanno responsabilità di questa fase.

  2. Definizione di obiettivi e governance del ROT: sulla base della mappatura, il top management, in prima persona, deve definire cosa significhi fiducia per la propria organizzazione e fissare obiettivi chiari di miglioramento. Una idea, spesso discussa, potrebbe porsi di aumentare dell’X% l’engagement o di ridurre il tasso di turnover legato a scarsa fiducia nel management.
    È utile istituire una sorta di cabina di regia del ROT: un team interfunzionale (HR, Comunicazione, IT, Legal, ecc.) guidato da un executive sponsor (ad esempio il Direttore HR o il CEO stesso) che sovrintenda alle iniziative. Assegnare ruoli e responsabilità è cruciale: i leader di funzione devono essere ambasciatori della fiducia nei propri team, l’IT deve garantire che gli strumenti di AI siano affidabili e trasparenti, la funzione Legal/Ethics assicura conformità e uso etico dei dati, e così via.

  3. Progettazione di iniziative “trust-driven”: in questa fase si passa alla messa a terra, disegnando interventi pratici per migliorare la fiducia. Parliamo di formazione e coaching per i manager sulla leadership empatica e inclusiva (imparare a dare feedback costruttivi, riconoscere gli errori, comunicare vulnerabilità quando serve, il tutto per far sentire i team al sicuro).
    Si introducono pratiche di trasparenza nelle decisioni: per esempio è importante a mio avviso condividere le ragioni dietro cambiamenti organizzativi o spiegare il funzionamento degli algoritmi AI che affiancano le persone, visto che molto spesso i cambiamenti sono semplicemente una comunicazione top-down e gli strumenti decisionali sono blackbox i cui razionali sono noti a pochi.
    Tra le attività che a mio avviso sono necessarie ci sono i programmi di mentoring interno (colleghi esperti che guidano i meno esperti, instaurando fiducia trasversale, indistintamente da età o ruolo, e non necessariamente su hard skills) e creare spazi di dialogo aperto (town hall meeting regolari, canali anonimi per domande difficili, ecc.). Un’altra leva operativa è rivedere i processi per assicurarsi che siano “trust-friendly”: semplificare policy troppo burocratiche che segnalano mancanza di fiducia, oppure introdurre workflow che richiedono collaborazione interfunzionale (rompendo silos e costruendo fiducia reciproca tra team). Su questo i modelli per esempio che stiamo studiando con Boundryless vanno esattamente in questa direzione. Ogni iniziativa va disegnata coinvolgendo attivamente i destinatari, co-creare soluzioni con i dipendenti aumenta sia la fiducia che la probabilità di successo.

  4. Integrazione della fiducia nelle tecnologie AI: dato che l’adozione dell’Intelligenza Artificiale è spesso il fattore scatenante del ROT, un passo operativo specifico è assicurarsi che le soluzioni AI implementate siano degne di fiducia. Questo implica adottare principi di AI etica e “explainable AI” durante lo sviluppo o l’acquisto di sistemi: modelli che sappiano spiegare le proprie decisioni, audit algoritmici per eliminare bias discriminatori, rispetto della privacy dei dati.
    Il team IT/AI deve collaborare con esperti di dominio, HR (dove necessario) e rappresentanti degli utenti finali per validare che l’AI venga percepita come alleata e non come “scatola nera” imprevedibile. Per capirci, se in un’azienda che introduce un sistema AI per suggerire decisioni ai manager riguardo valutazioni di percorso e carriera, potrebbe essere utile inizialmente affiancare suggerimenti dell’AI a spiegazioni su perché quella raccomandazione viene data, e raccogliere il feedback dei manager su quanto la ritengono affidabile, così come rendere trasparente il processo anche al valutato. In questo modo si affina il sistema e si costruisce gradualmente fiducia nell’interazione uomo-macchina.

  5. Misurazione continua e adattamento: come ogni approccio gestionale, ciò che non si misura non si migliora. Il ROT richiede di stabilire KPI di fiducia e monitorarli nel tempo. Questo significa, ad esempio, ripetere survey di clima periodiche per vedere l’evoluzione dei punteggi di fiducia o engagement, analizzare i tassi di adozione delle nuove tecnologie (quanti dipendenti usano attivamente il nuovo tool AI, segno di fiducia in esso), monitorare indicatori come il turnover volontario o l’assenteismo (spesso correlati con la rottura della fiducia). I dati vanno discussi apertamente nel team di governance ROT e col management, individuando aree di miglioramento.
    Il modello è iterativo: in base ai risultati, si adattano o rafforzano le iniziative. Se ad esempio una particolare unità aziendale mostra ancora basso livello di sicurezza psicologica, ci si può focalizzare con azioni mirate (workshop, ascolto dedicato, cambi di leadership se necessari). Implementare il ROT è un percorso continuo di apprendimento organizzativo. La responsabilità ultima di questa fase è sia del team di progetto che di ogni manager: creare un rito di accountability dove periodicamente si discute “come stiamo andando sulla fiducia” allo stesso modo in cui si discutono i numeri di vendita.

L’implementazione del ROT richiede impegno condiviso e coerenza nel tempo. Tutti in azienda, dal CEO all’ultimo arrivato, devono capire che la fiducia è una risorsa strategica “e non una leva di marketing interno“: va alimentata giorno per giorno e riconosciuta nei fatti (decisioni, comportamenti, investimenti) oltre che a parole.

KPI e metriche per misurare la fiducia oggi

Per misurare il ROT dobbiamo affidarci sia a metriche già esistenti che valutano aspetti di fiducia e coinvolgimento, sia a nuovi indicatori emergenti (che vedremo dopo). Partiamo dagli strumenti attuali che le aziende utilizzano per sondare fiducia, engagement, apertura al cambiamento e clima interno:

  • Trust Index: è l’indice di fiducia utilizzato, ad esempio, nei questionari di Great Place to Work. Si basa su survey ai dipendenti con una serie di affermazioni che esplorano 5 dimensioni chiave dell’esperienza lavorativa: Credibilità, Rispetto, Equità, Orgoglio e Coesione. Le prime tre dimensioni (Credibilità, Rispetto, Equità) misurano la fiducia dei collaboratori nel management, vale a dire quanto i leader comunicano in modo trasparente, mantengono le promesse, trattano le persone con equità e le rispettano.
    Le ultime due (Orgoglio e Coesione, detta anche Camaraderie) valutano invece il rapporto dei dipendenti con il proprio lavoro e i colleghi, indicando il livello di identificazione positiva e di spirito di squadra. Il Trust Index fornisce un termometro del clima aziendale: un punteggio alto segnala un ambiente in cui c’è fiducia verticale (verso i manager) e orizzontale (tra pari), oltre a un forte senso di appartenenza. Molte aziende lo usano annualmente per capire se sono un “great place to work” e dove intervenire sul clima.

  • Psychological Safety Score: la sicurezza psicologica è un concetto reso celebre dalle ricerche di Amy Edmondson e dal progetto Aristotle di Google. Indica il grado in cui le persone si sentono sicure nel prendere rischi interpersonali in un team: ad esempio ammettere un errore, esprimere un’idea controcorrente, o fare una domanda “sciocca” senza paura di conseguenze negative. Edmondson la definisce come “la convinzione condivisa che non si verrà puniti o umiliati per aver espresso idee, domande, preoccupazioni o errori”. In pratica è la misura della fiducia interna al team: fiducia che l’ambiente sia supportivo e non giudicante.
    Molte aziende valutano la sicurezza psicologica attraverso questionari specifici, chiedendo ai membri di indicare il loro accordo con frasi tipo “Nel mio team posso fare domande senza essere deriso” oppure “Il mio superiore accoglie bene gli errori come opportunità di apprendimento”. Da queste survey si ricava un punteggio medio di sicurezza psicologica (Psychological Safety Score) per team o reparto. Un PSI (Psychological Safety Index) alto è spesso correlato con team più innovativi e performanti, proprio perché le persone osano di più quando c’è fiducia reciproca. Al contrario, un punteggio basso è un campanello d’allarme: segnala barriere di paura che ostacolano la comunicazione onesta (e quindi frenano anche il miglioramento e l’innovazione).

  • eNPS (Employee Net Promoter Score): adattamento del famoso Net Promoter Score usato verso i clienti, l’eNPS misura quanto i dipendenti promuoverebbero la propria azienda come buon posto di lavoro. Viene tipicamente calcolato con una domanda molto diretta: “Con quale probabilità consiglieresti la tua azienda come luogo di lavoro a un amico o conoscente?”, da rispondere su una scala 0-10.
    I risultati sono classificati in Promotori (chi risponde 9-10, entusiasta), Passivi (7-8) e Detrattori (0-6); sottraendo la percentuale di detrattori da quella dei promotori si ottiene l’eNPS.
    Un valore alto (es. +30) indica che la maggior parte delle persone parlerebbe positivamente dell’azienda all’esterno – segnale di fiducia nell’organizzazione, di engagement e di soddisfazione generale.
    Valori negativi invece indicano prevalenza di detrattori interni (molti sconsiglierebbero l’azienda, indice di problemi di fiducia o clima).
    L’eNPS ha il pregio di essere semplice e immediato, fornendo uno “score” sintetico dello stato d’animo collettivo. Tuttavia è anche una misura abbastanza grezza (dice cosa pensano i dipendenti ma non perché). Per questo spesso viene usato in combinazione con survey più approfondite: l’eNPS come segnale generale di allerta o successo, e altre domande per diagnosticare le cause (ad esempio domande sulla fiducia nel management, sulle opportunità di crescita, ecc., che influenzano quel punteggio).

  • Altre metriche di clima e engagement: oltre ai tre indicatori citati, le aziende monitorano diversi altri KPI relativi alla salute organizzativa che intercettano dimensioni di fiducia. Ad esempio, molte imprese fanno survey di engagement più articolate, che includono domande sull’affidabilità del management, sulla chiarezza nella comunicazione dei vertici, sul livello di coinvolgimento nel cambiamento percepito dai dipendenti.
    Esistono indici compositi come l’Organizational Trust Index o il Climate Index nelle indagini di clima, che combinano vari item per dare un punteggio globale di fiducia interna. Alcune organizzazioni utilizzano metriche di open feedback (quante idee o segnalazioni vengono spontaneamente inviate dai dipendenti verso l’alto – indice di fiducia nell’essere ascoltati) o analizzano il tasso di adozione di nuovi programmi/progetti (un’adesione elevata spesso riflette fiducia nell’iniziativa e nei suoi promotori).

  • Anche il tasso di turnover volontario e il tasso di assenze vengono letti come indicatori indiretti: un aumento improvviso in specifici reparti può suggerire un calo di fiducia o problemi relazionali con un manager. In sintesi, già oggi non mancano strumenti per misurare aspetti della fiducia in azienda; il valore del concetto di ROT è semmai di riunire questi vari indicatori sotto un’unica lente strategica, evidenziandone il peso complessivo nelle trasformazioni organizzative.

Ed i nuovi indicatori da includere nel ROT

Accanto alle metriche tradizionali, un approccio ROT maturo dovrebbe sviluppare anche nuovi indicatori ad hoc, per cogliere segnali di fiducia che spesso sfuggono alle misure classiche.

Ho provato ad immaginare alcune categorie di indicatori emergenti utili a misurare il “ritorno di fiducia” in modo più completo:

  • Metriche relazionali interne: la fiducia si manifesta nella qualità delle relazioni. Possiamo quindi misurare, ad esempio, il grado di connessione e collaborazione tra reparti. Strumenti di Organizational Network Analysis potrebbero rilevare l’ampiezza e la forza delle reti informali: quanti scambi avvengono tra team diversi? Chi sono i trust broker che collegano funzioni altrimenti silos? Un aumento delle interazioni trasversali dopo un intervento organizzativo potrebbe indicare maggiore fiducia e apertura.
    Anche i programmi di mentoring o cross-training possono fornire dati: il numero di coppie mentor-mentee attive o di collaborazioni interfunzionali avviate volontariamente può essere un indicatore di fiducia reciproca crescente (le persone si affidano a colleghi di altre aree per imparare, cosa che soprattutto nelle grandi aziende, per un tema di “tifoseria” non succede). Un’altra metrica relazionale potrebbe essere un indice di coesione del team calcolato tramite survey sociali interne: chiedere fino a che punto ci si sente parte di una “famiglia lavorativa” o se si percepisce supporto dai colleghi; punteggi alti riflettono fiducia nel gruppo.

  • Segnali comportamentali e culturali: qui parliamo di tracce indirette che il comportamento organizzativo lascia. La frequenza di condivisione della conoscenza, ossia quante volte al mese un dipendente pubblica una best practice sulla intranet o tiene una sessione formativa per i colleghi? Un aumento suggerisce un clima di fiducia (ci si sente al sicuro nel condividere ciò che si sa, senza timore di perdere il proprio “vantaggio” personale).
    Oppure, il tasso di segnalazione di problemi/criticità: in un ambiente fiducioso le persone evidenziano errori o rischi prima che diventino grossi guai, perché si fidano che segnalare non comporterà punizioni. Dati dal sistema di ticketing interno, o dalle hotline etiche, potrebbero essere letti in questa chiave (un basso numero di segnalazioni non è sempre positivo, se la gente teme ritorsioni, potrebbe non parlare!).
    Un altro segnale comportamentale: la partecipazione volontaria a workshop, community interne, gruppi di miglioramento. Quando c’è fiducia nell’azienda, i dipendenti tendono a impegnarsi attivamente oltre il minimo, dando tempo ed energie extra. Monitorare quante persone si candidano spontaneamente per iniziative interne o quanti partecipano a sondaggi facoltativi può dare insight sulla fiducia/engagement. Persino l’analisi del tone of voice nelle comunicazioni interne (ad esempio usando tecniche di sentiment analysis su intranet o Slack aziendale) può fornire un termometro: parole positive, scherzi, ringraziamenti pubblici tra colleghi indicano una cultura aperta; al contrario prevalenza di toni formali o assenti può suggerire distacco e poca fiducia nel dialogo informale.

  • Dati di percezione e segnali emotivi: la fiducia ha anche una dimensione percettiva e emotiva, che possiamo cercare di catturare. Implementando delle pulse survey frequenti e brevi, dove ogni settimana o mese i dipendenti rispondono anonimamente a poche domande sul loro stato d’animo: “Mi sento motivato e fiducioso questa settimana?”, “Mi fido delle decisioni prese dal management di recente?”. Queste rilevazioni continue creano un indicatore dinamico di fiducia (un Trust Pulse?) che può essere correlato temporalmente ad eventi (es. dopo l’annuncio di una riorganizzazione, il sentiment di fiducia cala? dopo un town hall chiarificatore risale?).
    Anche i colloqui periodici con campioni di dipendenti (employee focus group) possono essere codificati in metriche: ad esempio assegnando uno score alla “qualità percepita delle relazioni” in azienda sulla base delle parole chiave che emergono. In ottica ROT, potremmo includere metriche come un indice di fiducia percepita nella leadership, misurato chiedendo “quanta fiducia hai nel fatto che il tuo leadership team prenda decisioni nel tuo migliore interesse?”. Se questo indice migliora nel tempo, è un chiaro ritorno positivo. Sul fronte clienti/partner, dati di percezione raccolti tramite sondaggio NPS o analisi reputazionali online (review, social listening) possono completare il quadro: ad esempio un incremento di commenti dove i clienti definiscono l’azienda “affidabile” o “trasparente” è un segnale che le iniziative interne di trust si riflettono anche all’esterno.

  • Indicatori di collaborazione uomo-macchina: dato il focus sull’AI, un modello ROT deve includere anche metriche che valutino la fiducia nelle soluzioni AI e la qualità della collaborazione ibrida. Questo è un campo nuovo, e non c’è dubbio che siamo ancora prima degli albori, ma i temi vanno affrontati per tempo e non come pezza di recupero, per cui credo che si possano ideare alcune misure.
    La percentuale di adozione delle raccomandazioni AI: se un algoritmo fornisce suggerimenti a un operatore, è pensabile monitorare in che percentuale questi suggerimenti vengono effettivamente seguiti vs. ignorati. Un tasso di adozione alto indica che l’utente si fida dell’AI (o quantomeno la trova utile), mentre se molti suggerimenti vengono scartati c’è forse diffidenza o scarsa utilità percepita.
    Un altro potrebbe essere il tasso di override umano: in sistemi dove l’AI può agire autonomamente ma l’umano ha facoltà di intervenire (pensiamo a sistemi di autopilota con supervisione umana), misurare quante volte gli umani intervengono per correggere l’AI. Se il valore è estremamente alto, significa che l’AI non gode di fiducia o non è ancora all’altezza (quindi le persone sentono spesso il bisogno di disabilitarla); se è moderato e decrescente nel tempo, sta crescendo la fiducia nel lasciar fare alla macchina routine operative.
    Possiamo anche considerare indici compositi come un Human-AI Trust Index, rilevato tramite survey interne specifiche: chiedendo agli utenti di un software AI quanto si fidano delle sue analisi in scala 1-5, e monitorando l’evoluzione media.
    Nella valutazione delle performance dei team ibridi, oltre a metriche classiche di produttività/errore, sarebbe utile introdurre misure della qualità dell’interazione tra umano e AI. La ricerca accademica sul tema suggerisce di guardare a come vengono prese le decisioni in coppia con l’AI, non solo a cosa si ottiene. Si può tracciare il tempo medio speso a spiegare al collega umano le decisioni dell’AI (segno che l’AI è trasparente e l’umano partecipa attivamente) oppure misurare la fiducia calibrata: quante volte l’operatore conferma l’esito dell’AI quando questo è corretto vs. quante volte lo conferma quando era errato (idealmente in un sistema fidato ma con supervisione attiva, l’operatore confermerà spesso decisioni corrette e correggerà quelle sbagliate – segno di fiducia calibrata, non cieca).

Non c’è dubbio che questi indicatori richiedono un po’ di creatività e sperimentazione nella fase attuale, ma diventano fondamentali a mio avviso per quantificare il ROT in termini di sinergia uomo-macchina. In un’era di organizzazione aumentata, mi piacerebbe vedere dashboard dove accanto ai KPI di business ci siano KPI come “Indice di fiducia team-AI: 8/10, in aumento di 1 punto rispetto al trimestre scorso”.

Naturalmente, non tutte le metriche nuove avranno la stessa importanza o facilità di raccolta, ma anche solo il processo di individuare questi indicatori è utile: forza l’organizzazione a chiarire cosa intende per fiducia nei vari contesti e a trovare modi concreti di osservarla.

L’approccio ROT, guardando oltre il semplice processo di misurazione di qualcosa, spinge a combinare dati hard e soft, dalle statistiche d’uso di un software alle percezioni emotive – per avere un’immagine più ricca e multidimensionale della salute della fiducia in azienda.

Dall’“effetto oracolo” all’etica hacker

Nel ragionare sul Return on Trust, e ricollegando letture fatte negli anni, ho trovato un legame di questo discorso con concetti culturali e scientifici che offrono prospettive complementari sul tema della fiducia nell’era digitale.

Helga Nowotny e l’effetto oracolo: la scienziata sociale Helga Nowotny, nel suo libro In AI We Trust”  e successivamente inLe Macchine di Dioparla di un curioso paradosso: tendiamo ad attribuire agli algoritmi predittivi un’aura di oggettività e infallibilità quasi oracolare. Un po’ come nell’antichità ci si affidava alle sibille o all’Oracolo di Delfi per conoscere il destino, oggi rischiamo di riporre fiducia cieca nei sistemi di AI, prendendo le loro previsioni come verità definitive.

Nowotny avverte che questo effetto oracolo può diventare pericoloso: se iniziamo a conformare il nostro comportamento a ciò che l’algoritmo predice, cediamo pezzi di libero arbitrio e rischiamo di trasformarci in “marionette algoritmiche” in balia dei sistemi di IA. Se la lettura la facciamo dall’angolazione ROT, questa è una chiamata alla consapevolezza: misurare la fiducia non significa promuovere fiducia indiscriminata verso la tecnologia. Al contrario, un alto “Return on Trust” implica una fiducia informata e calibrata. Dobbiamo progettare ambienti in cui le persone si fidano dell’AI quel tanto che basta per beneficiarne, ma mantengono senso critico e controllo. Il ruolo dell’umano resta centrale nel processo decisionale: l’AI può essere una consulente potente, ma non un oracolo incontestabile. Ricordarci di questo principio, come suggerisce Nowotny, ci aiuta a sviluppare pratiche di ROT che valorizzano la fiducia insieme alla trasparenza e all’autonomia individuale.

Paul Zak e la chimica della fiducia: un altro collegamento affascinante viene dal campo della neuroeconomia. Paul Zak, studioso noto come “Dr. Love” per le sue ricerche sull’ossitocina, ha dimostrato che la fiducia ha letteralmente una base biochimica. Quando qualcuno si fida di noi e ci affida qualcosa di valore (nel celebre “gioco della fiducia” in laboratorio si trattava di denaro), il nostro cervello rilascia ossitocina, un neuro-ormone che genera sensazioni di empatia e connessione. Più ossitocina, più tendiamo a comportarci in maniera cooperativa e affidabile verso l’altro. Zak ha persino mostrato che somministrando ossitocina sintetica a persone inconsapevoli, il loro livello di fiducia verso estranei aumenta significativamente (affidavano fino al 17% di denaro in più in custodia a sconosciuti).

Cosa c’entra questo col mondo aziendale e il ROT? C’entra parecchio perché dimostra che la fiducia non è un concetto astratto, ma ha effetti reali e misurabili sugli esseri umani, fin dentro il nostro organismo. Un ambiente lavorativo ad alta fiducia innesca un circolo virtuoso: i dipendenti rilasciano più ossitocina, si sentono più legati ai colleghi, più motivati ad aiutarsi a vicenda e a dare il meglio. Questo si traduce in performance superiori, come già visto (meno stress, più energia, più produttività).

In pratica, fiducia = miglior neuroclima aziendale. Inserire il ROT nella gestione d’impresa vuol dire anche tenere a mente questa dimensione “umana, troppo umana”: i KPI di fiducia non misurano solo fenomeni organizzativi, ma intercettano qualcosa di profondamente radicato nel nostro cervello sociale. Quando racconto ai manager di ossitocina e neuroscienze, il mio messaggio è: investire in fiducia paga perché rende le persone biologicamente più predisposte a impegnarsi. Non è solo buonismo: è biologia e business allo stesso tempo.

L’etica hacker di Pekka Himanen: poi c’è un aspetto culturale-valoriale che collega fiducia e innovazione tecnologica in modo ispiratore. Pekka Himanen, filosofo finlandese, descrive nella sua Etica hacker una diversa etica del lavoro nell’era digitale, contrapposta alla rigida etica protestante. Al centro dell’etica hacker ci sono valori come passione, creatività, condivisione, libertà e impegno gioioso in ciò che si crea.

Ma c’è anche un forte elemento di fiducia decentralizzata: la cultura hacker promuove la circolazione libera dell’informazione (“All information should be free”), la sfida all’autorità precostituita a favore di sistemi aperti e meritocratici, dove ci si fida del merito e delle capacità più che dei titoli.

Pensiamo al modello open source: sviluppatori di tutto il mondo collaborano volontariamente a un progetto software, spesso senza gerarchie rigide, condividendo codice liberamente, contando sulla reciproca fiducia che ognuno contribuirà al meglio delle proprie abilità. E funziona, Linux, Wikipedia e tante innovazioni ne sono la prova. Questa fiducia orizzontale “tra pari” è un ingrediente chiave dell’etica hacker e si collega al ROT in modo interessante: suggerisce che per massimizzare il ritorno della fiducia dobbiamo favorire ambienti aperti, dove le persone abbiano autonomia e responsabilità e dove l’accesso alle informazioni sia ampio.

Se i dipendenti hanno accesso alle conoscenze (anziché silo informativi) e si sentono valutati sul merito delle idee e non sul ruolo in organigramma, l’innovazione decolla e con essa la fiducia che ciascuno ripone nell’organizzazione. L’etica hacker incoraggia anche la sperimentazione senza paura dell’errore, “fail fast, learn faster”, che è possibile solo quando c’è fiducia di base.

Nel contesto ROT, adottare un po’ di questa filosofia significa strutturare le organizzazioni in modo più fluido e partecipativo: ad esempio creare comunità di pratica interne dove sviluppatori, data scientist, esperti di business condividono liberamente soluzioni AI e si aiutano (imitando l’open source); oppure dare ai team la libertà di scegliere strumenti e approcci (entro linee guida etiche) in modo che sentano fiducia riposta in loro e la ricambino con risultati eccellenti.

Fiducia chiama fiducia

come diceva anche Stephen Covey, e la cultura hacker mostra che puntando su fiducia, apertura e autonomia si possono ottenere ritorni straordinari in creatività e produttività. Per un leader, ispirarsi a questi principi vuol dire forse rinunciare a un po’ di controllo verticale, ma guadagnare in velocità, motivazione e apprendimento collettivo.

Queste prospettive (dall’oracolo di Nowotny all’ossitocina di Zak, fino all’etica hacker) condividono un principio fondante: la fiducia è un concetto sfaccettato, tecnico, umano e culturale al tempo stesso. Implementare il ROT con successo richiede di tener conto di tutte queste sfumature: dosare fede nella tecnologia e senso critico, considerare i bisogni emotivi delle persone e alimentare una cultura di apertura. È questa visione olistica che rende il Return on Trust non solo una nuova metrica, ma una vera strategia di trasformazione nell’era dell’AI.

Fiducia e oltre, verso il ROS (Return on Skills)

Definire e applicare il ROT significa dotarsi di una bussola per navigare la trasformazione digitale mettendo le persone e le relazioni al centro. Significa chiedersi, ad ogni progetto di AI o riorganizzazione, non solo “qual è il ROI?” ma anche “qual è l’impatto sulla fiducia?”.

La fiducia può essere misurata, allenata, protetta e che farlo porta benefici tangibili in performance e benessere. Il ROT è quindi un approccio che arricchisce la gestione aziendale di una dimensione etica e umana fondamentale, senza la quale le migliori tecnologie rischiano di fallire nell’adozione o di generare resistenze sotterranee.

Ma questa è solo una parte del percorso.

Riflettendo sul futuro prossimo e sulla velocità con la quale oggi le competenze tendono ad esser obsolete, mi rendo conto che accanto al ritorno sulla fiducia c’è un altro pilastro da considerare per guidare le organizzazioni attraverso l’era dell’AI: quello della formazione di nuove competenze, attraverso nuove modalità.

L’innovazione infatti richiede non solo fiducia, ma anche sviluppo continuo di nuove capacità, tanto hard skills quanto e soprattutto soft skills come il pensiero critico, l’adattabilità, l’intelligenza emotiva.

Sto iniziando a chiamare questo secondo concetto ROS – Return on Skills, il ritorno sulle competenze, inteso come la capacità di un’azienda di ottenere valore dagli investimenti in formazione, apprendimento e crescita del proprio capitale umano, non solo come elemento necessario di sopravvivenza e ottimizzazione, quanto di definizione strategica futura.

Fiducia e competenza sono gemelli siamesi da affiancare nel percorso di trasformazione attraverso questo passaggio storico, culturale e tecnologico che stiamo attraversando. La fiducia crea terreno fertile perché le persone mettano a frutto e condividano le loro competenze; allo stesso tempo, nuove competenze riducono la diffidenza e aumentano la fiducia verso le tecnologie e i colleghi.

Prossimamente approfondirò proprio il tema del Return on Skills, per esplorare come implementare nuovi modelli di formazione (da affiancare o sostituire ai metodi tradizionali non più efficaci), misurare e massimizzare il valore delle competenze in evoluzione.

Per ora, mi piace concludere sottolineando questo: nell’era dell’AI, il vero capitale competitivo risiede nelle persone, nella fiducia che riescono a costruire tra loro e nel continuo arricchimento del loro bagaglio di abilità. ROI, ROT e (presto) ROS diventeranno così le tre metriche cardinali di un’innovazione sostenibile e centrata sull’umano.