L’intelligenza artificiale è l’attore principale della scena che stiamo vivendo, ormai in tutte le riunioni, richieste e riflessioni. Ed è un tema talmente caldo che, come succede sempre, ne è nata una nuova stella ai piani alti delle aziende: il Chief AI Officer (CAIO).
La “febbre” dell’AI è tale che quasi la metà (48%) delle aziende FTSE 100 ha già nominato un CAIO o una figura equivalente, e oltre il 40% di questi incarichi è stato creato solo dall’inizio del 2024. Questo trend riflette l’importanza strategica crescente attribuita all’AI.
Tutti pensano a CAIO: c’è grande enfasi su strumenti, modelli e piattaforme da implementare, nella speranza che l’AI porti innovazione e vantaggio competitivo. Ma dietro l’entusiasmo tecnologico, come dico da po’, c’è una domanda cruciale che non tutti si stanno ponendo: ci stiamo preparando adeguatamente sul lato organizzativo, culturale e umano? In altre parole, mentre nelle aziende tutti corrono a pensare a “Caio”, forse dovremmo iniziare a mettere la testa su “Sempronio” un nome di fantasia per indicare ciò che spesso manca all’appello: l’attenzione al fattore umano nel successo dell’AI.
Già, perché l’AI non si limita a hardware e algoritmi; trasforma il lavoro delle persone, i processi decisionali e la cultura aziendale. Ed è proprio su questo che si gioca la vera partita dell’innovazione e dell’adozione, in modo corretto.
Il paradosso: enfasi sulla tecnologia, ma la cultura resta indietro
C’è un paradosso evidente nell’adozione dell’AI oggi. Da un lato, le aziende investono in tecnologie all’avanguardia e creano ruoli dedicati come il CAIO, spesso affidati a esperti con un solido background tecnico (il 67% dei Chief AI Officer proviene da data science, ingegneria o IT). Dall’altro lato, molti progetti di AI stentano a produrre risultati concreti o falliscono del tutto, nonostante le risorse impiegate. Anzi, alcune ricerche stimano che oltre l’80% dei progetti di AI non riesca a raggiungere gli obiettivi prefissati.
Perché succede? Spesso perché ci si concentra più sulla tecnologia in sé che sui problemi reali da risolvere e sulle persone coinvolte. In pratica, molte organizzazioni finiscono col costruire “cattedrali” tecnologiche che però non risolvono alcun problema concreto, per citare le parole di un esperto del settore. Succede quando si adotta l’AI per moda o pressione competitiva, senza una chiara focalizzazione sugli obiettivi di business e senza considerare l’impatto sui collaboratori. Il risultato? Iniziative sperimentali che rimangono al palo, diffidenza interna e valore aggiunto vicino allo zero.
La verità è che il principale ostacolo non è (solo) tecnico, ma culturale. Molte imprese scoprono che implementare l’AI richiede un cambiamento profondo nel modo di lavorare e pensare. Ad esempio, esperienza personale vissuta, nelle aziende italiane una delle sfide maggiori è proprio la resistenza culturale e organizzativa: l’AI è spesso percepita come una minaccia per l’occupazione o come una complessità non necessaria, generando sfiducia e approcci conservativi. In queste condizioni l’innovazione viene rallentata, mentre l’adozione efficace dell’AI richiede un cambiamento culturale profondo, che parta dalla leadership e coinvolga tutti i livelli aziendali.
Un’altra dimensione del paradosso è la differenza di velocità: la tecnologia evolve a ritmo esponenziale, mentre le persone e la cultura aziendale cambiano a ritmo molto più lento. Questo crea un “gap” pericoloso. Come ha osservato Javier Zamora dell’IESE Business School, l’unico modo per colmare questo divario è che il top management dia priorità strategica all’adozione dell’AI, investendo risorse e promuovendo attivamente una cultura aperta al cambiamento.
In teoria, lo stesso CAIO dovrebbe essere il regista di questa trasformazione culturale: il suo ruolo ideale infatti “non è solo guidare l’adozione dell’AI, ma orchestrare il cambiamento culturale necessario perché la tecnologia sia integrata nell’organizzazione”. Nella pratica però, ciò avviene di rado se l’attenzione dell’azienda resta puntata unicamente su algoritmi e dashboard invece che su persone, processi e mindset, ma soprattutto su professionisti con un background estremamente (solo) tecnico.
Ma dopo tutto come hanno sintetizzato diversi studi “il percorso verso maggiore efficienza ed efficacia grazie all’AI non è tecnico, bensì umano”. Servono competenze di change management, adozione culturale diffusa e formazione, ambiti che non sono tradizionalmente il forte di data scientist e ingegneri. Ecco il cuore del paradosso: stiamo investendo tantissimo in CAIO e tecnologia, ma troppo poco in quel lavoro paziente di evoluzione culturale e organizzativa senza cui l’AI rimane un corpo estraneo.
Ma chi è “Sempronio”?
A questo punto entra in scena “Sempronio”. Nell’antico detto italiano “Tizio, Caio e Sempronio” i nomi valgono per chiunque; qui li usiamo per rappresentare due approcci. Se CAIO (Caio) incarna l’approccio focalizzato sulla componente tecnologica dell’AI, strategie algoritmiche, modelli da implementare, infrastrutture IT – Sempronio rappresenta invece tutto ciò che riguarda le persone, la cultura e i processi nell’era dell’intelligenza artificiale.
Immaginiamo Sempronio come la funzione o l’insieme di competenze dedicato a far sì che l’AI attecchisca davvero nel tessuto aziendale. Non è necessariamente una singola persona o un nuovo titolo formale (anche se qualcuno ironicamente potrebbe proporre un “Chief Adoption Officer” o un “Chief Change Officer” per l’AI). Più che un ruolo unico, Sempronio è un approccio integrato: è chi cura il cambiamento culturale, la formazione continua, la definizione di governance etica e la gestione quotidiana del cambiamento organizzativo legato all’AI.
Possiamo dire che Sempronio è, metaforicamente, il “partner” invisibile del CAIO. Mentre il CAIO spinge l’AI dall’alto, Sempronio crea le condizioni perché l’AI venga accolta positivamente dal basso. Sempronio parla con i team, rassicura chi teme di essere sostituito dalle macchine, spiega ai non-tecnici cosa può (e non può) fare l’AI, e li coinvolge nella co-creazione di soluzioni. Sempronio aggiorna le politiche interne per incorporare l’AI in modo responsabile, assicurandosi che vengano rispettati valori ed etica aziendale. Sempronio, in sostanza, mette le persone al centro dell’innovazione tecnologica.
Oggi, tutti guardano a CAIO, perché è naturale focalizzarsi sulla novità tangibile (la tecnologia, l’esperto che la guida). Ma la vera differenza la farà Sempronio, ovvero la capacità dell’organizzazione di adattarsi e imparare. Sempronio è quel collega (o quell’insieme di colleghi e leader) che si premura di fare domande come: “I nostri dipendenti sono pronti per questa innovazione? Come possiamo aiutarli a esserlo? Abbiamo cambiato i nostri processi, le metriche, la mentalità per sfruttare davvero l’AI?” Senza qualcuno che si ponga queste domande, senza un Sempronio, il rischio è di inseguire l’AI come fine a se stessa, implementando soluzioni che sulla carta sono potenti, ma che nessuno utilizza appieno o di cui non ci si fida.
Sempronio incarna la consapevolezza che l’AI nelle aziende è prima di tutto una trasformazione umana. È un richiamo a non lasciare indietro le persone mentre la tecnologia avanza. E ora vediamo più concretamente cosa significa attivare questo “spirito di Sempronio” nelle nostre organizzazioni.
Cosa serve alle aziende (oltre al CAIO)
Come possono le aziende passare dalla semplice implementazione di tecnologie AI a una vera integrazione dell’AI nel modo in cui lavorano e creano valore? Di seguito i “pilastri” del lavoro di Sempronio per abilitare un’adozione efficace e sostenibile dell’intelligenza artificiale.
- Visione chiara e sponsorship dall’alto: ogni trasformazione riuscita parte da una leadership convinta e coinvolta. Il top management deve includere l’AI nella strategia aziendale e comunicarne l’importanza a tutta l’organizzazione. Senza una sponsorizzazione attiva da parte del management, le iniziative AI faticano a decollare. Inoltre, i vertici devono prepararsi a un percorso non banale: come detto, la cultura non cambia alla stessa velocità della tecnologia, quindi servono pazienza e investimenti costanti. La direzione deve creare un senso di urgenza positivo attorno all’AI (non paura), definendo obiettivi concreti e condivisi che l’AI aiuterà a raggiungere (es. migliorare l’esperienza cliente, rendere i processi interni più efficienti, ecc.), anziché puntare sull’AI come moda del momento. In poche parole, serve una visione in cui l’AI sia un mezzo per un fine chiaro, e questa visione va raccontata e incarnata dal management giorno per giorno.
- Cambiamento culturale e mindset aperto: adottare l’AI richiede nuove abitudini di lavoro e mentalità. Non basta installare un software di machine learning se poi le persone non si fidano dei suoi output o continuano a prendere decisioni come prima. È dunque fondamentale coltivare una cultura aziendale “AI-ready”, in cui l’innovazione venga accolta con curiosità anziché timore. Come ho detto in diversi articoli, molte iniziative falliscono perché “si perde di vista l’obiettivo utente e di business”, costruendo soluzioni spettacolari ma inutili. Per evitarlo, bisogna partire dal problema da risolvere, non dalla tecnologia: chiedersi quale risultato concreto vogliamo ottenere e solo poi come l’AI possa contribuire. Questa è una vera svolta di mindset. Inoltre, i leader devono incoraggiare un ambiente di sperimentazione e apprendimento continuo. Creare spazi in cui fare prove, anche sbagliare, e imparare insieme è cruciale per assimilare l’AI. Servono quindi iniziative per diffondere curiosità e sicurezza psicologica: ad esempio, promuovere domande aperte (“Come potremmo usare l’AI per…?”) e dare il buon esempio nel mettersi in gioco con le nuove tecnologie. Le aziende AI-ready sono quelle dove c’è apertura mentale a tutti i livelli e dove l’AI non è vista come una minaccia, ma come un’opportunità da esplorare collettivamente. In poche parole occorre riallineare la cultura: dall’avversione al rischio tipica di contesti tradizionali, verso un atteggiamento di exploration guidata, in cui l’AI è uno strumento per innovare insieme.
- Formazione diffusa e sviluppo di competenze: l’AI non potrà mai diventare parte del DNA aziendale se rimane appannaggio di pochi esperti. È vitale investire in upskilling e ** alfabetizzazione ai dati e all’AI (data literacy)** su larga scala. Tutti i livelli organizzativi dovrebbero avere l’opportunità di capire, almeno nelle basi, cosa sia un algoritmo di AI, quali tipi di problemi può risolvere e come collaborare con esso. Questo non significa trasformare ogni dipendente in un data scientist, ma fornire il contesto e la confidenza necessari per interagire con le soluzioni AI senza paura. Ad esempio, formare i manager non tecnici a porre le domande giuste sui progetti AI, o i knowledge worker ad usare strumenti AI (come i sistemi di machine learning o le piattaforme di analytics) nei propri processi quotidiani. Come osserva Zamora, il CAIO dovrebbe farsi promotore di questa democratizzazione, formando i dipendenti e diffondendo la “data literacy” in azienda. Ciò può avvenire tramite workshop, e-learning, progetti pilota in cui i team imparano facendo (test & learn o learning by doing). Un altro aspetto formativo è la condivisione di best practice interne: far raccontare alle persone i successi (e fallimenti) nell’uso dell’AI, per normalizzare l’AI come parte del lavoro. In ogni caso, l’obiettivo è creare una forza lavoro che si senta partecipe della trasformazione AI, competente abbastanza da utilizzarla e da dare feedback. Senza questo sforzo educativo, il rischio è di avere da un lato una ristretta élite tecnica che “fa cose con l’AI”, e dall’altro la maggioranza dei dipendenti che guarda da lontano con scetticismo. La formazione diffusa abbatte questa barriera, creando coinvolgimento e fiducia.
- Governance ed etica nell’uso dell’AI: un elemento spesso sottovalutato, ma fondamentale, è la definizione di una solida governance per l’AI. Significa stabilire regole, processi e ruoli chiari per assicurare che l’AI venga utilizzata in modo responsabile, trasparente e allineato ai valori aziendali. Le domande etiche e di compliance abbondano: come evitare che un algoritmo di recruiting sia influenzato da bias discriminatori? Chi è responsabile se un modello AI prende una decisione errata con impatti su clienti o operazioni? Come garantire la privacy dei dati usati per allenare i modelli? Per affrontare questi temi, le imprese devono dotarsi di principi e policy ad hoc – talvolta riuniti in codici etici per l’AI – e meccanismi di controllo. Si parla molto spesso di rischio FATE (Fairness, Accountability, Transparency, Ethics) per l’AI, a indicare le principali sfide da governare. A livello pratico, servirà ad esempio un comitato di governance dell’AI, che coinvolga oltre al CAIO anche figure di compliance, HR, legali ed esperti di processo, per valutare rischi e impatti delle soluzioni AI introdotte. Costruire fiducia è la parola chiave: i dipendenti e gli utenti finali adotteranno l’AI solo se la percepiranno come affidabile e fair. Quindi, trasparenza sugli algoritmi (per quanto possibile), spiegabilità dei risultati, test rigorosi prima del deployment e possibilità di intervento umano in caso di errore sono tutti aspetti da curare. Come indicato in una recente lista di linee guida, le aziende dovrebbero predisporre fin da subito meccanismi per aumentare la comprensione e la fiducia in come l’AI viene testata, validata e introdotta nei flussi di lavoro, oltre a pianificare la scalabilità con un’adeguata infrastruttura e readiness culturale. In pratica: governare l’AI significa sia gestire i rischi (etici, legali, reputazionali), sia preparare il terreno per un’adozione in grande scala, creando standard interni e linee guida che facciano sentire tutti più sicuri nell’utilizzo di queste tecnologie.
- Change management e coinvolgimento attivo: ultimo ma non meno importante pilastro è la gestione del cambiamento vero e proprio. L’introduzione dell’AI impatta su processi, ruoli e abitudini quotidiane – è quindi fondamentale accompagnare le persone in questo percorso, comunicando, ascoltando e coinvolgendo. Un errore classico è calare dall’alto nuovi strumenti AI aspettandosi che vengano adottati automaticamente. Al contrario, come avverte Zamora, se i progetti sono percepiti come imposti da un comitato centrale, le resistenze all’adozione aumentano significativamente. Serve dunque un approccio partecipativo: coinvolgere sin dall’inizio i team destinatari delle soluzioni AI nella loro progettazione, raccogliere feedback, individuare insieme i casi d’uso più rilevanti. Le figure di change agent (che possono essere manager illuminati o referenti interni formati allo scopo) dovrebbero fare da ponte tra il team AI e il resto dell’organizzazione, spiegando benefici e affrontando le preoccupazioni. Una comunicazione chiara è essenziale: raccontare perché si adotta una certa AI, quali vantaggi porterà e come cambierà (o non cambierà) il lavoro quotidiano delle persone. Bisogna anche riconoscere e gestire le paure legittime: ad esempio, rassicurare sul fatto che l’AI supporta le decisioni umane senza automatizzare via il giudizio critico, oppure che l’introduzione di automazione libererà tempo per attività a maggior valore aggiunto. Un buon piano di change management include quick win (piccoli successi iniziali da pubblicizzare internamente), formazione sul campo, e magari il coinvolgimento di champion interni (persone rispettate che fanno da ambasciatori positivi dell’AI verso i colleghi). L’obiettivo finale è far sì che l’AI non sia vista come il “progetto dell’IT” o un’imposizione misteriosa, ma come un’evoluzione naturale e condivisa del modo di lavorare. Quando le persone si sentono parte del cambiamento, lo abbracciano con molta più convinzione. Ecco perché il ruolo di Sempronio – cioè di chi orchestra questo processo umano – è cruciale tanto quanto quello di chi installa l’ultima tecnologia.
Una adozione necessaria
Il messaggio è chiaro: l’adozione efficace dell’AI è un gioco a due dimensioni. Da un lato la dimensione tecnica, guidata dal CAIO o figure simili, fondamentale per scegliere le giuste soluzioni AI, implementarle e portarle in produzione. Dall’altro la dimensione umana-organizzativa, incarnata da “Sempronio”, che è altrettanto fondamentale per far fiorire quelle soluzioni nell’ecosistema aziendale.
Oggi molte aziende hanno fretta di mettere in piedi la prima dimensione “Assumiamo un esperto AI, compriamo questa piattaforma di machine learning, e il futuro è risolto” ma poche dedicano la stessa cura alla seconda. È comprensibile: i risultati di un algoritmo si possono misurare subito, mentre i cambiamenti culturali sono più sfumati e richiedono tempo. Eppure, ignorare Sempronio significa condannare l’iniziativa AI a restare lettera morta. Senza investire in cultura, competenze e change management, l’AI migliore del mondo rimarrà inutilizzata o osteggiata, un potenziale mai realizzato.
La provocazione finale che voglio condividere è questa: nel prossimo meeting strategico, accanto alla domanda “Qual è la nostra strategia AI?” iniziate a chiedervi “Qual è il nostro piano di cambiamento culturale per l’AI?”. Se avete nominato (o state per nominare) un CAIO, pensate a chi o cosa sarà il vostro “Sempronio”. Potrebbe essere una task force interfunzionale, un programma di trasformazione interna, o semplicemente un insieme di leader illuminati che si fanno carico di guidare le persone attraverso il cambiamento. L’etichetta conta poco; ciò che conta è riconoscere esplicitamente questa esigenza.
In un’epoca in cui l’AI promette di ridisegnare interi settori, le aziende di successo non saranno solo quelle con gli algoritmi più avanzati, ma quelle con le persone più preparate e una cultura abbastanza adattiva per sfruttarli al meglio. In altre parole, vincerà chi saprà far collaborare Caio e Sempronio, ossia tecnologia e umanità, in una orchestra ben sincronizzata.

Comments are closed