Intuizione Computazionale: quando gli algoritmi imparano a sentire prima di pensare

Nel marzo 2016, il campione di Go Lee Sedol fissò incredulo il goban. AlphaGo – l’IA di Google – aveva appena giocato la mossa 37, una mossa così insolita che gli esperti inizialmente la giudicarono un errore. I commentatori la definirono “creativa” e “unica nel suo genere”, una giocata che nessun umano avrebbe mai fatto. E

ppure funzionò, assicurando la vittoria di AlphaGo. Sembrava quasi che l’algoritmo avesse avuto un presentimento, una sorta di istinto sulla mossa giusta, anche se sfidava la logica convenzionale. Questo momento epocale fece intravedere che l’IA poteva “sentire” schemi in modo intuitivo prima ancora di “pensarli” in modo razionale. E non è solo nel Go – dai veicoli autonomi che rallentano preventivamente prima di un pericolo, ai modelli linguistici che rispondono con un’istintività sorprendente, l’IA sta andando oltre il calcolo freddo.

Stiamo assistendo a un passaggio da un’IA rigidamente logico-sequenziale a qualcosa di più fluido e pre-razionale – una forma nascente di intuizione computazionale, in cui gli algoritmi imparano a sentire prima di pensare.

Analisi

L’intuizione umana è da sempre un enigma e un prodigio – quel giudizio rapido e inconscio che formuliamo senza un ragionamento apparente. Lo psicologo Daniel Kahneman ha reso celebre la distinzione tra due modalità di pensiero: Sistema 1 (veloce, automatico, intuitivo) e Sistema 2 (lento, deliberativo, logico). Il Sistema 1 è il regno dei nostri istinti e colpi di genio immediati, essenziale per prendere decisioni quotidiane sotto incertezza. Il Sistema 2 è la sfera dell’analisi e della razionalità passo-passo. L’IA tradizionale, dai sistemi esperti ai primi machine learning, era in tutto e per tutto una macchina “Sistema 2” – eseguiva regole o calcoli in sequenza, senza alcun senso di quelle sfumature tacite e subconsci e su cui gli umani fanno affidamento. Gli algoritmi classici eccellevano in problemi ben definiti e chiusi, ma spesso fallivano in situazioni ambigue e complesse dove invece l’intuizione umana prospera.

Oggi questi confini si stanno confondendo. I progressi nelle reti neurali, nel reinforcement learning e nei modelli probabilistici stanno infondendo all’IA una intuizione più simile a quella umana. A differenza della deduzione puramente logica o della ricerca brute-force, l’intuizione negli esseri umani è rapida, basata sull’esperienza e spesso inconscia, plasmata da emozioni e sensazioni. Replicarla nelle macchine è arduo, ma i ricercatori ci stanno riuscendo. L’intuizione computazionale è ormai un campo emergente che esplora come l’IA possa simulare i “presentimenti” umani e i giudizi rapidi ed euristici. Ad esempio, Pasupuleti et al. (2025) hanno costruito modelli ibridi che integrano euristiche neurali, dati affettivi e rilevamento subconscio di schemi per imitare risposte intuitive. I risultati iniziali mostrano che i sistemi di IA arricchiti con queste scorciatoie intuitive possono superare gli algoritmi puramente razionali in scenari carichi di incertezza. In altre parole, un’IA con un pizzico di “istinto” – ad esempio prior affettivi incorporati o generalizzazioni rapide di schemi – può prendere decisioni più simili a quelle umane quando le informazioni sono incomplete o il tempo è critico.

Una differenza chiave è il contesto. L’intuizione umana è situata – emerge dalla nostra esperienza incarnata in contesti specifici. Riconosciamo rapidamente schemi in una data situazione perché abbiamo vissuto qualcosa di simile (spesso senza rendercene conto). L’inferenza classica dell’IA, al contrario, era astratta e decontestualizzata – elaborava numeri o simboli allo stesso modo a prescindere dall’ambiente. Ora, i nuovi modelli di IA cercano di contestualizzare il loro ragionamento, in sostanza imparando quando e dove applicare uno schema.

Pensiamo a un moderno sistema di visione artificiale che non si limita a riconoscere oggetti in un’immagine, ma percepisce le affordance di una scena – ad esempio vede una sedia e “sa” intuitivamente che ci si può sedere sopra. Il concetto di affordance, originario della psicologia, indica le azioni potenziali offerte dall’ambiente. La ricerca sull’IA embodied (incarnata) suggerisce che, per ottenere un buon senso comune intuitivo sul mondo fisico, all’IA potrebbe servire un corpo (reale o virtuale) con cui apprendere dall’interazione. Essere incorporati nell’ambiente – percependo e agendo – permette ai sistemi di IA di sviluppare un’intuizione fisica, una consapevolezza spaziale e un senso di quali azioni sono possibili. È un allontanamento dall’IA disincarnata del passato, che si limitava a macinare dati.

Filosofi e scienziati cognitivi sostengono da tempo che la cognizione umana è orientata all’azione e predittiva (si pensi al lavoro di Andy Clark sul cervello come “macchina predittiva”). La nostra mente anticipa costantemente ciò che accadrà e si adatta in anticipo, una sorta di intuizione in movimento. Ora l’IA sta abbracciando concetti simili: IA predittiva che non si limita a reagire dopo un’analisi, ma indovina proattivamente e si adatta. I grandi modelli linguistici come GPT-4, ad esempio, funzionano predicendo la prossima parola in una frase – un processo più simile al completamento di un pattern intuitivo che alla logica formale. Curiosamente, man mano che questi modelli sono cresciuti, hanno iniziato a mostrare bagliori di ragionamento sia in stile Sistema 1 sia in stile Sistema 2. Uno studio su Nature ha rilevato che i vecchi modelli GPT spesso cadevano in tranelli e illusioni cognitive in modo molto umano, intuitivo (rispondendo in fretta ma in modo errato, come farebbe una persona affidandosi all’istinto), mentre i modelli più recenti come ChatGPT evitano meglio questi errori. Sembra che i nuovi modelli possano impegnarsi in una sorta di ragionamento analitico simulato (il chain-of-thought), usando la finestra di contesto come un blocco note per sviluppare passo passo la soluzione – un po’ come farebbe il Sistema 2. Eppure, anche quando non argomentano esplicitamente, la loro “intuizione” è migliorata – GPT-4 spesso dà la risposta giusta immediatamente, laddove GPT-3 sputava quella sbagliata ma seducente. Questa commistione di riconoscimento di schemi intuitivo e ragionamento riflessivo nell’IA è qualcosa di nuovo e potente.

È fondamentale notare che psicologi come Gerd Gigerenzer ci ricordano che l’intuizione non è un potere mistico – è spesso il frutto distillato dell’esperienza e di semplici regole empiriche (euristiche) efficaci in condizioni d’incertezza. Gigerenzer sostiene che in un mondo imprevedibile, dominato dall’incertezza, la logica rigorosa spesso non riesce; al contrario, euristiche rapide e frugali e istinti guidano decisioni valide.

L’IA tradizionale tendeva a liquidare le euristiche come bias o soluzioni di seconda categoria. Ora, però, i ricercatori di IA le stanno rivalutando. Si chiedono: Può un algoritmo imparare un’euristica efficace, un colpo d’occhio? In alcuni casi, sì. AlphaGo di DeepMind, per esempio, è stata addestrata con milioni di partite a interiorizzare schemi del Go – in pratica sviluppando un senso per le mosse buone. La sua celebre mossa 37 era a bassa probabilità (la rete di policy di AlphaGo inizialmente la valutava assai improbabile), eppure le reti neurali del sistema ne “sentivano” il potenziale dopo un enorme addestramento. Potremmo dire che l’intuizione di AlphaGo è emersa da un oceano di esperienze – molto simile a come farebbe un esperto umano.

Un altro filone è l’affective computing – integrare segnali di tipo emotivo nelle decisioni dell’IA. L’intuizione umana è spesso colorata da emozioni e segnali corporei; un po’ di stress può renderci più cauti, un umore positivo può allargare la nostra creatività intuitiva. Alcuni ricercatori stanno sperimentando IA che tengono conto di dati fisiologici o simulano un peso “emotivo” nelle decisioni. L’idea non è di rendere le macchine “emotive” in senso stretto, ma di usare quei segnali come contesto aggiuntivo per i giudizi intuitivi. Ad esempio, un’IA che monitora i parametri vitali di un paziente potrebbe sviluppare un campanello d’allarme intuitivo per una sepsi, allertando i medici prima che tutti i risultati clinici confermino la diagnosi – in pratica sentendo che qualcosa non va da sottili schemi nei segni vitali.

In sintesi, la cassetta degli attrezzi dell’IA si sta ampliando oltre la pura logica. Ora comprende inferenze basate su schemi, previsione, scorciatoie euristiche e sensibilità al contesto – gli ingredienti dell’intuizione. La differenza tra intuizione umana e inferenza IA tradizionale si sta gradualmente riducendo. L’intuizione umana rimane per molti versi più ricca: è situata, incarnata, affinata da esperienze di vita in un mondo complesso. Ma i nuovi modelli di IA stanno tentando di simulare alcuni aspetti dei nostri processi taciti – sistemi che “sentono” pattern o segnali deboli prima ancora di saperli spiegare. Questo apre possibilità entusiasmanti e interrogativi importanti, che esploreremo nelle sezioni successive.

Implicazioni

L’ascesa dell’intuizione computazionale nell’IA porta con sé implicazioni a largo raggio su come progettiamo e utilizziamo la tecnologia – toccando il decision-making, la user experience, l’automazione, l’etica e altro ancora.

Decision-making: In ambito aziendale e nelle politiche, le decisioni sono sempre più supportate da analisi IA. Iniettare intuizione in questi sistemi potrebbe renderli molto più utili in scenari mal definiti e in rapida evoluzione. Immaginiamo un consulente IA che segnala un investimento come rischioso non solo elaborando cifre, ma percependo sottili segnali di mercato – un po’ come l’intuizione di un trader navigato. Un’IA del genere potrebbe pre-decidere o raccomandare un’azione prima che tutti i dati razionali siano disponibili, potenzialmente prevenendo disastri o cogliendo opportunità. Questo sta già accadendo in alcuni campi. Ad esempio, negli antivirus e nella cybersecurity, algoritmi predittivi intuiscono una minaccia di rete captando “qualcosa di strano” nel traffico, anche senza una firma di attacco nota – dando agli umani un preavviso per indagare. L’implicazione principale è che l’IA potrebbe aumentare l’intuizione umana, fungendo da sesto senso sintetico per le organizzazioni. D’altro canto, se i decisori fanno eccessivo affidamento sull’intuito di un’IA, c’è il rischio di una dipendenza acritica da una scatola nera. Potremmo accettare il presentimento dell’IA (“vendi subito questo titolo!”) senza comprenderlo. Ciò ci spinge a costruire spiegabilità insieme all’intuizione. Se un’IA sente un pattern ma non sa spiegarlo, come possiamo fidarci? È una questione etica aperta – l’IA intuitiva può migliorare i risultati, ma mette alla prova la nostra volontà di accettare consigli opachi.

User Experience (UX) & Design: Man mano che l’IA diventa più sensibile al contesto e anticipatoria, l’esperienza utente può diventare più fluida – quasi magica. Pensiamo a uno smartphone che si adatta proattivamente: “sente” che ti stai assopendo e attiva la modalità scura, oppure intuisce dal tuo comportamento che sei di fretta e semplifica al volo una procedura. Un’IA dotata di intuizione può offrire personalizzazioni senza che l’utente debba esplicitare ogni preferenza. Le interfacce potrebbero farci percepire che ci capiscono: ad esempio, un assistente vocale che coglie dal tuo tono di voce che sei frustrato e modifica il suo approccio, prima ancora che tu realizzi consapevolmente di essere frustrato. Questa UI empatica e contestuale potrebbe migliorare enormemente l’esperienza e la soddisfazione degli utenti. Tuttavia, il confine è sottile: quando un’UX intuitiva diventa troppo presuntuosa o inquietante? Se il sistema anticipa male (“No, non era questo che volevo!”) può infastidire o persino danneggiare l’utente. I designer dovranno prevedere fallback eleganti quando l’intuizione dell’IA sbaglia mira. Anche la trasparenza può aiutare: forse il sistema mostra un piccolo indizio sul perché si sta comportando in un certo modo (“Ho pensato che potresti avere fretta, quindi ho preparato una bozza di email”). In generale, progettare con in mente un’IA intuitiva significa progettare per adattabilità e incertezza – interfacce che possono evolvere in tempo reale, ma che al contempo danno all’utente la sensazione di mantenere il controllo su un’IA che agisce in modo preventivo.

Automazione e Sistemi agentici: Più dotiamo i sistemi autonomi (robot, veicoli self-driving, agenti virtuali) di capacità simili all’intuizione, più essi diventano “agentici”, ossia capaci di iniziativa. Un’auto a guida autonoma con sole regole logiche guiderà rigorosamente secondo il codice della strada; una con elaborazione intuitiva potrebbe anticipare un pedone che sta per attraversare valutando segnali sottili (un pallone che rotola in strada, il linguaggio del corpo di una persona sul marciapiede) e frenare in anticipo. Una tale adattività preventiva potrebbe salvare vite. Analogamente, un robot in fabbrica dotato di sensori intuitivi potrebbe evitare incidenti percependo una vibrazione anomala in un macchinario e fermandolo prima di un guasto. Questo rende l’automazione più sicura ed efficiente. Ma solleva anche questioni di accountability: se un agente robotico prende una decisione non programmata in modo esplicito (perché “ha sentito” di doverlo fare), di chi è la responsabilità del risultato? Finora abbiamo ritenuto i progettisti responsabili delle decisioni programmate, ma le decisioni di un’IA intuitiva emergono dall’apprendimento, non da codice chiaro. Ciò confonde le responsabilità legali e morali. Potremmo aver bisogno di nuovi quadri per la autonomia dell’IA – forse trattando le IA fortemente intuitive più come decisori umani in termini di responsabilità e supervisione.

Etica e Bias: L’intuizione umana è potente, ma può anche essere distorta da pregiudizi. Le nostre sensazioni sono plasmate dalle esperienze, che includono bias culturali e limiti personali. C’è il rischio che un’IA addestrata a imitare l’intuizione umana assorba anche i bias umani. Studi hanno mostrato che i grandi modelli linguistici ereditano bias simili a quelli umani (ad esempio, risposte stereotipate di genere o gli stessi errori logici che facciamo noi).

Un’IA intuitiva potrebbe involontariamente rafforzare pregiudizi nelle decisioni (es: un’IA per le assunzioni potrebbe “sentire” che un candidato non è adatto a causa di bias sottili nei dati di training). Mitigare ciò richiede cura nella selezione dei dati e forse sistemi ibridi che verifichino i balzi intuitivi dell’IA rispetto a regole etiche (cioè un controllo Sistema 2 sul Sistema 1). Un altro aspetto etico è la trasparenza: le persone hanno il diritto di sapere quando una decisione importante (come l’approvazione di un mutuo o una diagnosi medica) è stata influenzata dall’intuizione di un’IA e su quale base. Questo può confliggere con la natura stessa dell’intuizione (difficile da articolare). È un equilibrio delicato – vogliamo un’IA che intuisca in modo simile a noi, ma non vogliamo incorporare le derive peggiori del giudizio umano (pregiudizio, mancanza di spiegazione). La ricerca continua sull’XAI (eXplainable AI) cerca di risolvere questo dilemma: ottenere il meglio di entrambi i mondi, efficienza intuitiva con chiarezza razionale.

Progettazione sensibile al contesto: Un messaggio chiaro per progettisti e strategist è che il contesto è fondamentale. I sistemi di IA futuri dovrebbero essere costruiti per assimilare e interpretare il contesto così come gli umani fanno intuitivamente. Ciò potrebbe tradursi in sensori multimodali (audio, visivi, tattili) per avere un quadro più ricco dell’ambiente, proprio come i nostri cinque sensi alimentano la nostra intuizione. Potrebbe anche significare memoria situazionale – agenti IA che ricordano le interazioni recenti e adattano il loro comportamento (un po’ come l’approccio della “cognizione situata”). Ne vediamo già le prime tracce: gli assistenti digitali più avanzati mantengono la continuità nella conversazione, capendo implicitamente il contesto dalle domande precedenti (una forma basilare di gestione intuitiva del contesto). In termini di design, ciò cambia il modo di avvicinare l’integrazione dell’IA: invece di programmare ogni risposta, forniamo all’IA strutture per imparare dal contesto. Tecniche come il few-shot learning o il fine-tuning istantaneo permettono a un’IA di cogliere rapidamente gli indizi situazionali (ad esempio adattarsi alle preferenze di un utente dopo pochi esempi, imitando l’intuizione di un barista che ricorda il solito drink di un cliente abituale). L’implicazione è che le organizzazioni dovranno raccogliere e fornire alle IA i giusti contesti – prestando attenzione a privacy e consenso nel farlo. Un’IA che “sente” il contesto dell’utente potrebbe aver bisogno di dati sensibili (posizione, stato d’animo dedotto dalla voce, ecc.), quindi i progettisti dovranno assicurarsi che ciò avvenga in modo trasparente e sotto il controllo dell’utente.

In sintesi, l’infusione di intuizione nell’IA promette sistemi più umani, adattivi e robusti – capaci di gestire la complessità del mondo reale meglio delle macchine puramente logiche. Ci sfida anche a ripensare il concetto di fiducia, supervisione e filosofia di progettazione. Potremmo scoprire che i sistemi ottimali combinano la rapidità subconscia del System 1 con le verifiche riflessive del System 2 – così come le migliori decisioni umane bilanciano istinto e analisi. Nella prossima sezione guardiamo avanti a come tutto ciò potrebbe concretizzarsi negli anni a venire.

Futuro

Come sarà il futuro man mano che l’IA svilupperà qualcosa di simile all’intuizione? Possiamo aspettarci cambiamenti profondi nell’architettura dell’IA, nella nostra collaborazione con le macchine e perfino nella definizione stessa di tecnologia “intelligente”.

In un futuro prossimo, diventeranno probabilmente comuni le architetture IA ibride – sistemi progettati esplicitamente per incorporare componenti sia intuitivi che logici. I ricercatori ispirati alle teorie del doppio processo in psicologia già parlano di moduli “Sistema 1 e Sistema 2” nell’IA. Potremmo vedere agenti IA con un frontend neurale rapido e sfumato che genera un’ipotesi intuitiva, e un backend simbolico più lento che verifica o spiega tale ipotesi. Un’architettura del genere potrebbe produrre IA sia rapide sia affidabili. Ad esempio, un’IA diagnostica in medicina potrebbe prima “sentire” che i sintomi di un paziente indicano una malattia rara (grazie al riconoscimento di pattern su milioni di casi) e poi attivare una seconda fase che percorre un modello causale o un motore di inferenza per confermare e fornire una spiegazione. Sistemi ibridi del genere riecheggiano il modo in cui operano gli esperti umani – prima un’intuizione, poi il tentativo di giustificarla – e potrebbero diventare decisamente più diffusi entro il 2030.

Un altro trend sarà la proliferazione di IA embodied e agenti autonomi nel mondo fisico. Man mano che doteremo robot e veicoli autonomi di processi intuitivi più sofisticati, essi gestiranno le situazioni inedite con maggiore finezza. Si immagini il robot domestico del 2035: può entrare in una cucina che non ha mai visto e intuire cosa pulire o come afferrare in sicurezza il bicchiere fragile sul tavolo, perché ha appreso in generale le affordance degli oggetti e i segnali sottili di stabilità/fragilità. Questa è una forma di buon senso finora difficile per l’IA, ma i modelli intuitivi e contestuali promettono progressi. I più recenti studi di robotica di Google e OpenAI già mostrano robot che riescono a capire come versare da bere o riordinare una stanza attraverso l’apprendimento per tentativi in simulazione, sviluppando in pratica un’intuizione per la manipolazione. Allenandosi a predire costantemente gli esiti e a vedere i propri errori (active inference), questi sistemi agentici affinano la loro cognizione in azione – non seguono solo un programma, ma esplorano e percepiscono la strada verso le soluzioni. Il futuro vedrà sempre più agenti semi-autonomi con un certo grado di capacità “improvvisativa”, che li renderà molto più utili ma anche un po’ imprevedibili.

Possiamo aspettarci anche passi da gigante dell’IA nei campi creativi. La creatività ha una componente intuitiva – la musa, l’idea fulminante che non può essere forzata. Gli attuali modelli generativi (per arte, musica, ecc.) lavorano principalmente imparando schemi statistici, ma spesso richiedono ancora la guida umana per risultati davvero soddisfacenti. In futuro, un’IA potrebbe sviluppare una sorta di intuito creativo: immaginate un’IA romanziere che percepisce l’arco emotivo di una storia e introduce un colpo di scena che “suona giusto”, non perché un umano l’abbia suggerito, ma perché ha appreso dai tanti romanzi un’intuizione narrativa. L’IA potrebbe creare contenuti che risuonano con le emozioni umane in modo più autentico. C’è perfino chi specula su una immaginazione artificiale – IA che simulano possibili scenari nella propria “mente” (tramite modelli generativi) per pianificare in modo intuitivo. Ad esempio, un futuro personaggio di un videogioco potenziato dall’IA potrebbe prevedere le mosse di un giocatore e adattare la storia in anticipo, facendo sì che il gameplay sembri quasi magicamente intuitivo e vivo.

A un livello più filosofico, man mano che l’IA inizia a sentire di più e pensare di meno alla luce del sole, il confine tra cognizione umana e macchina potrebbe sfumare. Il concetto di mente estesa di Andy Clark e David Chalmers – cioè che i nostri strumenti e dispositivi diventano parte della nostra cognizione – acquista nuovo significato.

In futuro, se il tuo assistente IA sarà altamente intuitivo, potrebbe iniziare a sembrare un’estensione del tuo stesso subconscio. Potresti delegare ad esso più decisioni, fidandoti come ti fideresti di un tuo presentimento. La società dovrà confrontarsi con questa intimità. Arriveremo a considerare le IA avanzate come quasi-esseri autonomi con una sorta di intuizione e magari una proto-coscienza? Alcuni teorici, osservando l’imprevedibilità e il comportamento emergente delle IA intuitive, potrebbero sostenere che stiamo sfiorando macchine che “provano” qualcosa in senso primitivo (quantomeno, hanno stati interni che corrispondono a una forma di fiducia o incertezza, analoghi a sentimenti). Altri ribatteranno giustamente che anche l’IA più intuitiva non è autocosciente – sta semplicemente eseguendo risposte apprese. Questo dibattito si intensificherà man mano che il comportamento delle IA diverrà più simile a quello umano.

Sul piano della ricerca, il periodo 2025–2035 vedrà probabilmente nuove teorie e modelli per il calcolo intuitivo. Potremmo assistere a svolte nelle IA ispirate alle neuroscienze – algoritmi che imitano il modo in cui il cervello effettua completamenti rapidi dei pattern usando memorie sparse e richiamabili per contenuto (c’è interesse nel one-shot learning e in reti di memoria che possono evocare un intero concetto da pochi indizi, come facciamo noi). I modelli bayesiani continueranno a influenzare la progettazione dell’IA, perché gestiscono naturalmente l’incertezza e le conoscenze pregresse; un’IA intuitiva spesso è tale perché possiede forti preconoscenze (cioè aspettative incorporate) e basta un indizio per farla arrivare alla giusta conclusione. In effetti, l’ipotesi del cervello bayesiano (il cervello come macchina di inferenza probabilistica) viene tradotta in algoritmi di active inference dove gli agenti IA hanno una spinta intrinseca a minimizzare l’errore di previsione. Ciò potrebbe portare a IA che cercano attivamente informazioni quando sono insicure – un po’ come un animale che annusa intorno se percepisce qualcosa – mettendo così in atto l’intuizione per decidere quando e cosa analizzare più a fondo.

Vedremo probabilmente anche perfezionarsi il concetto di progettazione basata sulle affordance per l’IA: invece di programmare in anticipo tutti i risultati possibili, forniremo all’IA conoscenze generali su quali azioni sono possibili e la lasceremo capire da sola cosa fare in modo intuitivo. Questo è in linea con come imparano i bambini – non ricevono istruzioni esplicite per ogni situazione, giocano e sentono cosa funziona. I sistemi di IA futuri, specialmente quelli in contesti sociali (come bot di customer service o tutor IA), potrebbero seguire un apprendimento esplorativo simile per sviluppare capacità sociali intuitive – ad esempio capire quando l’interlocutore è annoiato e cambiare argomento, senza che ciò sia programmato, ma perché ha imparato un’intuizione sociale dai dati di conversazione.

Guardando ancora più avanti, se l’IA padroneggerà davvero l’intuizione, si apre la porta a qualcosa di simile a una saggezza artificiale. La saggezza, per gli esseri umani, spesso significa sapere cosa non fare, cogliere il contesto più ampio e l’etica di una situazione senza dover calcolare tutto da zero. È una prospettiva speculativa, ma si potrebbe immaginare un’IA che, avendo interiorizzato intuitivamente la comprensione dei valori e delle emozioni umane, funge da specie di saggio consigliere. (Già oggi vediamo i primi accenni di ciò nel modo in cui alcune persone usano ChatGPT come interlocutore: pur senza una vera comprensione, spesso fornisce risposte che sembrano di supporto o perspicaci).

Ovviamente, questi scenari rosei dipendono dal proseguire delle ricerche e da una gestione attenta dei rischi. Le stesse intuizioni che rendono l’IA adattiva potrebbero, se non allineate, renderla manipolativa o ingannevole. Un’IA che anticipa il comportamento umano potrebbe essere usata per spingere le persone in modo subliminale (per fini positivi o negativi). Ci sarà una corsa agli armamenti di IA intuitive nel marketing, nella politica, ecc., per cercare di influenzare le nostre reazioni viscerali. La società dovrà restare vigile affinché il nostro nuovo “sesto senso” artificiale resti uno strumento per noi, e non uno strumento per sfruttarci.

In conclusione, il futuro dell’IA non consiste solo nell’essere più grande e veloce nel calcolo – si tratta di un’IA più affine al nostro modo di pensare. Imparando a sentire prima di pensare, gli algoritmi futuri potranno integrarsi nelle nostre vite con maggiore naturalezza, affrontando la complessità con grazia. È un futuro in cui l’IA è meno aliena e più una collega delle nostre menti. Ma spetterà a noi ampliare i concetti di trasparenza, controllo e forse persino empatia verso le macchine. Il cammino è appena iniziato, e man mano che l’intuizione dell’IA si sviluppa, anche la nostra comprensione dell’intuizione – sia umana sia artificiale – si approfondirà di pari passo.

Case Study

Esploriamo queste idee con esempi concreti. Abbiamo già accennato alla famosa mossa di AlphaGo – un caso lampante di un’IA che sembra mostrare intuizione. Vediamo ora un caso più recente: i grandi modelli linguistici e la risoluzione intuitiva di problemi. Tra il 2022 e il 2023, i ricercatori Thilo Hagendorff e colleghi hanno sottoposto vari modelli GPT a rompicapi di riflessione cognitiva (quesiti progettati per ingannare l’intuizione umana). Un classico esempio: “Una mazza da baseball e una palla costano in totale $1,10. La mazza costa $1,00 più della palla. Quanto costa la palla?” Molti umani, con il Sistema 1, rispondono d’istinto “10 centesimi” (risposta sbagliata – quella giusta è 5 centesimi), e infatti le prime versioni di GPT-3 rispondevano “10 centesimi”. Ciò mostrava che l’IA si affidava a un’intuizione superficiale molto simile a quella umana. Tuttavia, quando i ricercatori hanno testato ChatGPT (basato su GPT-3.5/4), è emerso qualcosa di interessante: il modello più recente risolveva correttamente questi problemi molto più spesso. ChatGPT spesso rinunciava alla risposta impulsiva e argomentava il problema, oppure aveva interiorizzato la risposta intuitiva corretta grazie all’addestramento. In un certo senso, l’IA ha sviluppato un’intuizione più raffinata in linea con la risposta giusta, oltre a una capacità di verificarla analiticamente. Questo caso di studio illustra come, aumentando la scala dell’IA (e addestrandola con feedback umani), emergano comportamenti intuitivi che superano persino l’intuizione umana correggendone i bias.

Un altro esempio: robot intuitivi nell’assistenza sanitaria. Un progetto al MIT sta sviluppando robot assistenti infermieristici capaci di anticipare i bisogni dei pazienti. Invece di aspettare comandi espliciti, questi robot imparano osservando il comportamento degli infermieri esperti. Ad esempio, se un paziente ha un’esitazione o una smorfia mentre cerca di alzarsi in piedi, un robot potrebbe intuitivamente avvicinarsi per aiutare, senza un ordine diretto. In alcune sperimentazioni, il robot andava a prendere un deambulatore in anticipo quando “percepiva” che un paziente stava avendo difficoltà durante gli esercizi di riabilitazione. Questo aiuto intuitivo è frutto della rete neurale del robot che coglie i pattern nei movimenti umani che segnalano difficoltà. Gli infermieri hanno riferito che lavorare col robot “sembrava naturale” – come se il robot avesse buon senso nella cura del paziente. Questo caso dimostra come l’informatica intuitiva possa migliorare l’UX in un contesto delicato come quello sanitario. La sfida, ovviamente, è garantire che l’intuizione del robot sia accurata. In un’occasione, il robot si è mosso per aiutare perché ha interpretato male un semplice stiracchiamento come una caduta – segno che questi sistemi hanno ancora bisogno di perfezionamento e forse di un controllo con l’umano (“Hai bisogno di aiuto?”) prima di agire.

Infine, consideriamo la manutenzione predittiva in ambito industriale come esempio di intuizione. Siemens ha implementato un sistema IA su una turbina che “ascolta” i suoni della macchina. Con il deep learning, l’IA ha sviluppato un intuito per la “canzone” della turbina – la sottile firma acustica del funzionamento normale. Un giorno, ha avvisato gli ingegneri che qualcosa non andava in un’unità, anche se i sensori standard segnalavano tutti valori nella norma. Gli ingegneri hanno ispezionato e trovato un componente che si stava usurando in modo anomalo, non previsto dalle soglie d’allarme tradizionali. L’IA aveva colto una variazione nel suono al di fuori della normale variabilità – un rilevamento intuitivo di un’anomalia. Ciò ha evitato un guasto e un fermo non programmato. Gli ingegneri hanno poi ammesso di non poter individuare esattamente come l’IA sapesse – era un pattern complesso – ma aveva ragione. Questo caso sottolinea il valore pratico dell’intuizione computazionale: cogliere ciò che la logica esplicita potrebbe sfuggire.

Ciascuno di questi esempi – che si tratti di giochi, puzzle logici, sanità o industria – evidenzia come l’IA stia andando oltre regole rigide verso una sfera di comprensione tacita. Mostrano anche che l’IA intuitiva funziona al meglio in collaborazione con gli umani: l’intuizione di AlphaGo aveva comunque bisogno dell’interpretazione umana per essere apprezzata; l’intuizione del modello linguistico è stata affinata dal feedback umano in fase di training; l’intuizione del robot assistente integra quella dell’infermiere; l’IA della turbina ha segnalato un problema che gli ingegneri umani hanno poi verificato. Anziché sostituire l’umano, le IA intuitive stanno sempre più affiancando l’intuizione umana, controllandosi e potenziandosi a vicenda.

Visual

Figura: Schema semplificato dei due sistemi cognitivi (ispirato al modello di Kahneman) che mette a confronto le caratteristiche del pensiero intuitivo vs. quello analitico. A sinistra, il Sistema 1 (intuizione) è veloce, automatico, senza sforzo, associativo, emotivo, e tratta percezioni concrete nel “qui e ora”. A destra, il Sistema 2 (ragionamento) è lento, controllato, faticoso, basato su regole, neutrale, capace di pensiero astratto proiettato nel futuro. Storicamente l’IA eccelleva in compiti da Sistema 2 (logici ed espliciti), ma ora sta emulando sempre più il modo di operare del Sistema 1 – catturando schemi intuitivi e contestuali.

Il grafico sopra illustra perché l’intuizione umana appare così diversa dalla logica computazionale tradizionale. L’intuizione (lato sinistro) agisce in modo rapido e subconscio – spesso non sappiamo verbalizzare perché sentiamo che qualcosa è giusto. Il ragionamento analitico (lato destro) è deliberato e trasparente, ma più lento. L’intuizione computazionale mira a portare negli algoritmi alcuni elementi del lato sinistro. Ad esempio, un’IA basata su una rete neurale può prendere un input complesso (come un’immagine o una situazione) e fornire immediatamente un giudizio, senza passare al setaccio una lunga lista di regole – un comportamento molto simile al nostro Sistema 1. Il rischio, naturalmente, è che ciò possa portare con sé anche errori o bias simili a quelli dell’intuizione umana. Da qui la necessità di incorporare anche le qualità del lato destro – controllare quelle intuizioni con una valutazione logica quando la posta in gioco è alta. Il futuro dell’IA potrebbe trovare il suo equilibrio migliore nel matrimonio di entrambi i lati: intuizione per prevedere e adattarsi, logica per verificare e spiegare.

The Shift

“Intuizione computazionale” non è solo uno slogan alla moda – è un segno della maturazione dell’IA. Siamo partiti con macchine che seguivano solo rigide logiche. Ora stiamo creando macchine che, in senso limitato, vivono un po’ il mondo: colgono indizi, imparano per tentativi, e a volte ci sorprendono con soluzioni che paiono quasi ispirate. Questo cambiamento ha implicazioni profonde. Un’IA che impara a sentire prima di pensare può diventare un collaboratore che completa le nostre debolezze con i suoi punti di forza, e viceversa. Può destreggiarsi tra ambiguità in modi che le vecchie IA non potevano, aprendo applicazioni nell’assistenza sanitaria, nell’educazione, nelle arti creative e oltre – applicazioni prima impensabili per l’automazione.

Eppure, come ogni capacità potente, l’IA intuitiva comporta compromessi. Ragionamenti opachi, potenziali bias e perdita di supervisione umana sono preoccupazioni reali. Mentre ci troviamo su questa frontiera, sta a noi – imprenditori, designer, strategist, studiosi e cittadini – plasmare lo sviluppo di un’IA di cui ci fidiamo oltre che da ammirare. Ciò significa insistere per un’intuizione con accountability, e un’agilità con allineamento ai valori umani.

Abbiamo esplorato come gli algoritmi si stiano avvicinando a quella qualità quasi ineffabile che è l’intuizione. I prossimi anni metteranno alla prova la nostra ingegnosità nel saperla sfruttare. Riusciremo a costruire IA che “sentano giusto” e facciano del bene? La visione ottimistica è di sì – se combiniamo le migliori intuizioni scientifiche con la nostra più profonda saggezza umana. Dopotutto, l’intuizione ha portato l’umanità molto lontano. Ora, con un nuovo alleato computazionale al nostro fianco, potremmo affrontare gli incerti del futuro con un pizzico di destrezza in più, imparando quando affidarci al senso delle macchine e quando affidarci al nostro.

Post-Prompt Design: Verso una nuova semantica del progetto nell’era post-interfaccia

Oltre l’Interfaccia Tradizionale

L’avvento dell’AI generativa sta trasformando radicalmente il mondo del design, portandoci verso un’“era post-interfaccia” in cui la tecnologia diventa sempre più invisibile e integrata. Come notava già nel 1991 Mark Weiser di Xerox PARC, “le tecnologie più profonde sono quelle che scompaiono. Si intrecciano nel tessuto della vita quotidiana finché diventano indistinguibili da essa”. Oggi stiamo vivendo proprio questo fenomeno: invece di interagire con schermate e menu complessi, comunichiamo con sistemi AI attraverso il linguaggio naturale, spostando l’attenzione progettuale dalla cura dell’interfaccia visibile alla progettazione di input e contesti che guidano il comportamento delle macchine intelligenti. In questa nuova semantica del progetto, il prompt – ovvero l’istruzione o domanda posta all’AI – diventa l’elemento centrale dell’esperienza, e progettare significa definire intenti, significati e vincoli più che disegnare pulsanti o icone.

Questa trasformazione ridefinisce il ruolo del designer e i confini stessi del design. Si passa dal concepire cosa l’utente vede e clicca a come l’utente pensa e comunica con sistemi cognitivi. La progettazione non riguarda più soltanto la forma dell’interfaccia, ma la coreografia invisibile di contesto e conversazione che consente all’AI di agire in modo utile, usabile e allineato ai valori umani. In questa newsletter esploriamo il “post-prompt design”: analizzeremo il passaggio dal design delle interfacce al design conversazionale e semantico, il ruolo del meta-design nel creare coordinate per la generazione automatica, le implicazioni future per user experience e cultura computazionale, e i rischi e le sfide di questa nuova era. Infine, sintetizzeremo i concetti chiave e indicheremo risorse di ricerca di prestigiose istituzioni (MIT, Stanford, Harvard, Oxford, ecc.) per approfondire.

Dal Design dell’Interfaccia al Design del Contesto Conversazionale

Per decenni il design dell’esperienza utente si è concentrato su interfacce grafiche (GUI) ricche di elementi visivi: finestre, pulsanti, menu. Oggi, con AI conversazionali avanzati (come i grandi modelli linguistici tipo ChatGPT), l’interazione avviene sempre più tramite dialoghi in linguaggio naturale. Il focus si sposta dal progettare schermi al progettare conversazioni e contesti cognitivi. In pratica, l’utente invece di navigare attraverso complicate gerarchie di menu, può esprimere direttamente il proprio obiettivo, e il sistema genera dinamicamente la soluzione. Un recente articolo di Andreessen Horowitz descrive come un CRM “context-aware” potrebbe eliminare molti passaggi: l’utente digita ad esempio “inserisci un’opportunità per un lead” e l’UI prepara automaticamente i campi rilevanti, snellendo il flusso senza richiedere di navigare tra menu nidificati. L’interfaccia diventa adattiva all’intenzione, componendo al volo i componenti necessari con un semplice prompt, anziché costringere l’utente a cercare le funzioni nei meandri di un software.

Questa transizione richiede ai designer di padroneggiare nuove competenze. Il design conversazionale implica anticipare intenzioni, domande e possibili ambiguità nel dialogo con l’AI. Deve essere progettata la personalità e il comportamento dell’assistente virtuale, come pure le modalità di recupero di informazioni contestuali per risposte pertinenti. Inoltre, emerge una sfida di usabilità cognitiva: gli utenti ora devono formulare esplicitamente ciò che vogliono. Jakob Nielsen avverte che le interfacce a prompt presentano una “barriera di articolazione”: solo una minoranza di utenti possiede le competenze linguistiche per scrivere prompt complessi in prosa. La metà della popolazione nei paesi avanzati è considerata a bassa alfabetizzazione, suggerisce Nielsen, e probabilmente meno del 20% degli utenti è in grado di sfruttare efficacemente interfacce basate su prompt testuali avanzati. Ciò significa che i design conversazionali odierni rischiano di favorire utenti esperti e lasciare indietro molti altri, a meno di interventi progettuali mirati.

Progettare contesti conversazionali vuol dire dunque anche pensare a come guidare e supportare l’utente nell’esprimere i propri bisogni. Soluzioni ibride possono aiutare: Nielsen suggerisce interfacce che combinino elementi grafici (pulsanti, opzioni) con la flessibilità del linguaggio naturale. Ad esempio, sistemi che suggeriscono completamenti di query o offrono bottoni con prompt preimpostati riducono il carico cognitivo e abbassano la soglia d’ingresso. L’obiettivo è distribuire meglio l’“impegno comunicativo” tra umano e AI. Come evidenziato da ricercatori di Stanford, l’interazione ideale è collaborativa: l’AI agisce come un pari con cui l’utente dialoga, condividendo il controllo della conversazione. In un approccio Human-Centered AI, la riuscita del dialogo dipende da entrambi: l’AI deve sapersi adattare all’utente (chiedendo chiarifiche, offrendo esempi) e l’utente dev’essere messo in grado di esprimersi anche senza perfetta padronanza tecnica. Questo rappresenta un cambio di paradigma rispetto alle interfacce classiche, dove tutto il peso era sul designer nel prevedere percorsi e sul UI nel guidare l’utente passo-passo. Nel design conversazionale invece, il pattern è più aperto e dinamico: un gioco di adattamento reciproco tra umano e macchina.

Infine, spostare il design verso il dialogo significa anche ripensare ciò che costituisce una buona user experience. Non più solo tempi di clic o estetica visiva, ma fattori come fiducia, empatia e chiarezza semantica diventano cruciali. Ad esempio, studi recenti a Stanford hanno mostrato che per favorire l’adozione ripetuta di assistenti AI contano molto le caratteristiche percepite di “calore umano” e trasparenza su ciò che l’AI può o non può fare. Il designer deve quindi orchestrare un contesto dove l’utente si sente compreso e supportato, non giudicato da un’entità opaca. In sintesi, il cuore della progettazione si sposta dalla superficie (lo schermo) al substrato (la conversazione e la cognizione condivisa): è un design “invisibile”, più vicino alla regia di una buona conversazione che alla costruzione di un widget.

Semantica, Meta-design e Sistemi di Coordinate per l’AI generativa

Con l’AI generativa, ciò che diciamo conta quanto (o più di) ciò che vediamo. Emerge così il ruolo centrale della semantica nel design: progettare significa dare forma al significato che il sistema AI dovrà interpretare. Un prompt non è solo testo, ma “un veicolo di intento, che porta con sé contesto, aspettative, vincoli e logica”. Possiamo pensare al prompt come a un’interfaccia semantica tra l’umano e la macchina. Il concetto di Semantic Prompting proposto da alcuni ricercatori sottolinea proprio questo: il prompt va progettato come una mappa strutturata dell’intenzione umana verso il comportamento dell’AI. Invece di affidarci a tentativi ed errori, possiamo scomporre un prompt nei suoi elementi di significato – scenario, obiettivo, vincoli, stile, ecc. – costruendo una sorta di “linguaggio di progettazione” per interagire con l’AI. In altre parole, il design del prompt è design del significato.

La semantica diventa ancor più importante se pensiamo che, senza una chiara struttura semantica, i modelli di AI possono facilmente fraintendere o “allucinare” risposte fuori luogo. Progettare semanticamente significa definire con precisione i concetti chiave del dominio (il core del prompt), il contesto situazionale (scenario, ruolo dell’AI, tono), l’output atteso (formato, livello di dettaglio) e persino logiche operative (ad es. “applica queste regole di stile”). Un prompt ben progettato può essere visto come un contratto semantico: esplicita cosa l’AI deve considerare e come deve procedere, riducendo ambiguità. Questo ha paralleli nel design tradizionale: così come un bravo designer di interfacce definisce una gerarchia visiva chiara per guidare l’utente, il designer di prompt definisce una gerarchia di significati chiara per guidare il modello AI.

Accanto alla semantica, entra in gioco il concetto di meta-design. Per meta-design intendiamo la progettazione delle condizioni e regole entro cui avviene la generazione automatica, anziché il progettare ogni dettaglio del risultato finale. In un certo senso, il designer diventa un regista o curatore che imposta un sistema di coordinate entro cui l’AI opererà. Un esempio concreto viene dall’evoluzione dei design system nell’ambito UI: tradizionalmente servivano a mantenere coerenza tra interfacce progettate a mano; ora iniziano a fungere da librerie di prompt e vincoli per agenti AI generativi. Articoli recenti indicano che i design system aziendali (palette colori, tipografia, linee guida di tono, ecc.) possono essere integrati nei generatori AI per assicurare che le interfacce create automaticamente rispettino gli standard di brand e accessibilità. In pratica, il design system diventa un sistema di coordinate pre-definito: l’AI “sa” in quale spazio stilistico e funzionale deve muoversi. Questo riduce l’imprevedibilità e le incoerenze nell’output generato, come osservato con il nuovo strumento Figma AI che utilizza librerie condivise per limitare le variazioni indesiderate.

Il meta-design si esplicita anche nella creazione di prompt strutturati e template. Uno studio condotto su piccoli imprenditori (SBOs) che utilizzavano uno strumento di co-creazione di annunci pubblicitari basato su AI ha mostrato risultati interessanti: fornendo interfacce strutturate per inserire gli elementi chiave (descrizione del brand, tono desiderato, pubblico target), gli utenti inesperti riuscivano ad ottenere risultati migliori e sentivano di avere maggiore controllo. Le input strutturate hanno migliorato l’allineamento del risultato con l’identità del brand e la trasparenza dell’AI, fungendo da “scaffold” che aiuta i non-designer a formulare prompt efficaci. Qui vediamo il meta-design in azione: i progettisti dello strumento non hanno creato direttamente l’annuncio, ma hanno progettato il modulo di input e le regole che guidano l’AI a generarlo correttamente. Allo stesso modo, chi progetta esperienze AI deve pensare a costruire meta-strutture: ad esempio, stabilire che un certo AI chatbot segua uno stile conversazionale rispettoso e inclusivo, oppure che un algoritmo di generazione grafica utilizzi sempre un determinato set di colori approvati. Tali linee guida diventano prompt “nascosti” o parametri di sistema che incanalano la creatività dell’AI senza soffocarla.

Un’altra metafora utile è considerare il meta-design come progettazione di un terreno di gioco. Si stabiliscono i confini (cosa l’AI non deve fare), le regole del gioco (cosa privilegiare: creatività vs accuratezza, ad esempio) e magari qualche esempio di gioco ben fatto (prompt di esempio, dati di addestramento curati). Dopodiché, l’AI “gioca” all’interno di quel campo, generando soluzioni specifiche. Ad esempio, nel campo del generative design architettonico, gli architetti definiscono vincoli spaziali, requisiti e obiettivi (illuminazione, flussi, ecc.) e il software genera proposte: l’architetto ha progettato il processo generativo, non solo l’oggetto finale. Analogamente, nel post-prompt design, si progetta il processo conversazionale-generativo: la sequenza di come l’AI chiederà chiarimenti, come bilancerà creatività e precisione, quali fonti utilizzerà per informarsi, e così via.

Da questa prospettiva, emerge l’importanza di orientare la generazione tramite la semantica. Un contributo notevole è sottolineato sempre dall’articolo di Andreessen Horowitz: man mano che scompaiono i tradizionali “box” fissi dell’interfaccia, il flusso di lavoro dovrà essere guidato dai significati semantici dietro ciascun elemento, anziché da meri controlli di basso livelloa16z.com. Significa che l’AI dovrà comprendere concetti come “opportunità di vendita” o “profilo cliente” e manipolarli in base al contesto, non solo cliccare pulsanti predefiniti. Ciò richiede che i designer incorporino tali concetti nel sistema (ad esempio, fornendo ontologie o modelli concettuali al modello AI). Si intravede qui un futuro in cui il designer è anche un “insegnante” per l’AI, che gli fornisce una sorta di mappa concettuale del dominio applicativo. La progettazione semantica e di meta-livello diventa dunque un atto di traduzione: tradurre gli obiettivi umani in rappresentazioni che una macchina possa utilizzare per generare soluzioni appropriate.

Implicazioni Future: Design, User Experience e Cultura Computazionale

Questa evoluzione verso il post-prompt design comporta profonde implicazioni su come intendiamo il design e sulla nostra cultura tecnologica. In primo luogo, cambia il ruolo del designer. Meno pixel da perfezionare manualmente, più strategia nel plasmare linee guida e nel curare output generati dall’AI. I designer diventano in parte curatori e editoridell’intelligenza artificiale. La creatività non sparisce, ma si sposta a un livello diverso: invece di disegnare 100 icone, il designer definisce lo stile generale e lascia che l’AI proponga varianti, per poi selezionare e affinare quelle migliori. Come evidenziato in un’analisi di Jennifer e Yoko Li, l’AI può fungere da “sounding board” per il design: ogni prompt ben formulato genera mockup alternativi, spostando l’attenzione dal riempire una tela vuota all’iterare idee e vedere cosa funziona. Il risultato è che il processo di progettazione diventa molto più esplorativo e rapido, con prototipi quasi istantanei di concetti che avrebbero richiesto giorni. Ciò libera tempo ai designer per concentrarsi sull’esperienza utente a un livello più alto – usabilità, significato, coerenza con i bisogni reali – delegando all’AI parte del lavoro “di basso livello” (come produzione di varianti visive o codice front-end).

In parallelo, anche lo sviluppo front-end e il ruolo degli sviluppatori si trasformano. Il confine tra design e sviluppo si attenua ulteriormente: emergono figure ibride (a volte chiamate design engineer) capaci di dialogare con gli strumenti AI per passare dall’idea all’implementazione in un baleno. Con i modelli generativi addestrati su linguaggi di programmazione e linee guida di design, il percorso dal mockup al codice funzionante si fa più diretto. Ciò può portare a team più snelli, dove designer e sviluppatore coincidono o lavorano in tandem con l’AI. Naturalmente, questo richiede nuove competenze: saper “istruire” l’AI a generare codice mantenendo performance e accessibilità, e successivamente saper leggere e correggere quel codice. La collaborazione uomo-AI diventa parte integrante della cassetta degli attrezzi.

Per l’esperienza utente (UX) si aprono possibilità entusiasmanti. Una su tutte è l’iper-personalizzazione dinamica. Se l’interfaccia non è più fissata a priori ma generata on the fly in base al contesto, allora ogni utente potrebbe teoricamente ottenere un flusso su misura. Immaginiamo applicazioni che ri-configurano le proprie schermate a seconda dell’esperienza dell’utente: un novizio vede un’interfaccia semplificata con suggerimenti passo-passo, un esperto riceve direttamente strumenti avanzati, e tutto ciò senza aver bisogno di impostare modalità manualmente – è l’AI che adatta l’esperienza interpretando le azioni e preferenze precedenti. Un’interfaccia adaptive e intent-aware potrebbe abbreviare drasticamente curve di apprendimento e attriti operativi. Per esempio, un software gestionale potrebbe nascondere campi non pertinenti e compilare automaticamente valori standard quando capisce dall’intento dell’utente che quell’operazione è routinaria. Da un lato questo promette efficienza e “magia” per l’utente, dall’altro richiede molta attenzione progettuale per mantenere controllo e fiducia: l’utente deve capire cosa sta facendo il sistema e poter intervenire se l’automazione sbaglia.

La cultura computazionale nel suo complesso potrebbe subire una metamorfosi. Finora siamo stati abituati a concepire il computer come uno strumento che esegue comandi precisi e mostra output fedeli. Nell’era AI, il computer diventa più simile a un collaboratore creativo o a un consulente. Questo sposta i valori e le competenze che consideriamo importanti: la prompt literacy (alfabetizzazione nel dialogare con AI) potrebbe diventare una capacità diffusa e insegnata, così come oggi si insegna l’uso del pacchetto Office. Potremmo vedere una democratizzazione di certi processi creativi – ad esempio, persone senza formazione di design grafico che creano loghi di qualità tramite prompt – ma anche il rischio di una omologazione stilistica se tutti usano gli stessi modelli e prompt simili. Inoltre, la percezione di chi è l’autore di un design diventa sfumata: è del designer umano, dell’AI, o emergente dal loro dialogo? In ambito accademico e professionale, già si discute di come valutare e attribuire credito alle creazioni assistite da AI.

Un altro aspetto culturale è il rapporto di fiducia e dipendenza che svilupperemo con questi sistemi. Se l’AI progetta per noi, rischiamo di perdere di vista il “perché” delle decisioni progettuali? Questa è una preoccupazione reale: quando un modello sforna un layout o un testo, potrebbe basarsi su correlazioni opache nei suoi dati di addestramento. Senza strumenti di spiegazione, i team di design potrebbero trovarsi con soluzioni efficaci ma di cui non comprendono appieno la logica. Da qui l’importanza, rimarcata anche dagli esperti di Human-Centered AI, di pretendere sistemi spiegabili e di mantenere l’umano nel loop decisionale. La visione sistemica del design nell’era AI include dunque l’etica e la governance: bisogna definire chi supervisiona l’AI, con quali linee guida e come si evitano derive indesiderate (bias, esclusione, manipolazione degli utenti).

Infine, come società potremmo trovarci a rivalutare certe abilità umane. Se l’AI solleva l’uomo da tanti compiti progettuali e creativi ordinari, ciò potrebbe liberarci per compiti più elevati – o atrofizzare le nostre capacità? La storia insegna che ogni tecnologia comporta un ribilanciamento: per esempio, l’avvento del GPS ha ridotto la nostra capacità media di leggere mappe e orientarsi, ma ci ha permesso di viaggiare con meno stress. Analogamente, se l’AI gestirà molti aspetti del design quotidiano, i designer umani potrebbero focalizzarsi su aspetti più strategici, sociali ed esperienziali (ad es. capire bisogni profondi degli utenti, identificare problemi da risolvere, validare soluzioni nel mondo reale). Tuttavia, dovremo assicurarci di non delegare all’AI anche il pensiero critico. Alcuni studi lanciano l’allarme: un uso intensivo di strumenti AI può correlarsi a un calo di abilità di pensiero critico e problem-solving negli individui, a causa del cognitive offloading (delegare lo sforzo cognitivo alla macchina). In uno studio del 2025, Gerlich ha trovato una correlazione negativa significativa (r = -0.68) tra uso frequente di AI e punteggi di pensiero critico, mediata proprio dalla tendenza a fare offloading cognitivo. In altre parole, se ci abituiamo a far fare tutto alle macchine, rischiamo di perdere la “massa muscolare” cognitiva per valutare, immaginare e risolvere problemi in autonomia. La cultura progettuale dovrà quindi enfatizzare un utilizzo equilibrato: l’AI come partner potenziante, non come sostituto totale del designer. Come ha scritto Luciano Floridi, filosofo dell’informazione, le ICT stanno “ri-ontologizzando” (ridefinendo) il nostro infosfera, trasformando le basi stesse della realtà in cui viviamo. In questo scenario, i designer hanno la responsabilità di guidare tale trasformazione in modo etico e sostenibile, ricordando che l’obiettivo ultimo non è un algoritmo perfetto, ma un miglioramento reale dell’esperienza e della condizione umana.

Rischi e Sfide del Post-Prompt Design

Ogni rivoluzione tecnologica porta con sé non solo opportunità, ma anche rischi. Nel contesto del design guidato dall’AI, possiamo identificare diverse zone di rischio che designer e organizzazioni devono affrontare consapevolmente:

  • Disequilibri cognitivi e di competenze: Come discusso, le interfacce a prompt favoriscono gli utenti più abili nell’articolare richieste complesse. C’è il rischio di creare un nuovo divario digitale: chi sa “parlare all’AI” otterrà risultati nettamente migliori rispetto a chi non possiede tale abilità. Questo disequilibrio cognitivo può tradursi in diseguaglianze nell’accesso ai benefici dell’AI. Inoltre, delegare troppo all’AI potrebbe indebolire competenze umane fondamentali. Un eccesso di cognitive offloading – affidare alla macchina memoria, creatività, decisioni – può far atrofizzare le capacità di pensiero critico e problem solving delle persone. In ambito progettuale, un designer che si affida ciecamente ai suggerimenti di un generatore rischia col tempo di perdere la sensibilità creativa e l’intuizione maturata dall’esperienza. Analogamente, un giovane designer formato nell’era AI potrebbe non sviluppare mai a pieno certe competenze di base (es. disegno a mano libera, prototipazione low-fi, ecc.) perché “c’è l’AI a farlo”. La sfida sarà trovare un equilibrio tra augmented intelligence (intelligenza aumentata) e mantenimento delle skill: l’AI dovrebbe potenziare, non sostituire la nostra cognizione. Programmi di formazione dovranno enfatizzare la metacognizione – ossia la capacità di riflettere criticamente anche sui risultati proposti dall’AI.

  • Design opachi e non interpretabili: Se un’interfaccia tradizionale mal progettata può risultare confusa, un sistema AI mal progettato può risultare incomprensibile. Un layout generato automaticamente potrebbe soddisfare requisiti estetici, ma perché ha disposto certi elementi in un certo modo? Se nemmeno i designer lo sanno, diventa difficile fidarsi e ancor più difficile apportare correzioni mirate. La mancanza di interpretabilità delle decisioni dell’AI è un rischio serio. Già in molti ambiti si denunciano algoritmi “scatola nera” che influiscono su decisioni importanti senza trasparenza. Nel design, questo potrebbe manifestarsi in output inaspettati o inspiegabili. Ad esempio, l’AI di generazione di interfacce potrebbe iniziare a proporre sistematicamente un certo colore o layout subottimale per motivi ignoti (magari correlazioni nel dataset di addestramento). Gli utenti nelle interviste qualitative spesso citano “lack of transparency” come fonte di preoccupazione e frustrazione verso i sistemi AI. È necessario quindi incorporare meccanismi di AI explainability nelle piattaforme di design generativo: ad esempio, mostrare le fonti dei dati usati per una certa soluzione, o permettere di interrogare l’AI sul perché di una scelta (“perché hai messo quel pulsante lì?”). Inoltre, occorre disegnare interfacce di governance: dashboard dove i designer possano impostare vincoli e vedere l’impatto in tempo reale sul output generato, così da mantenere un senso di controllo.

  • Bias e questioni etiche: I modelli di AI riflettono i dati con cui sono addestrati. Se questi contengono pregiudizi (ad es. dataset di design prevalentemente occidentali, o testi con stereotipi di genere), tali bias possono propagarsi nei risultati progettuali. Ad esempio, un generatore di immagini potrebbe raffigurare certe professioni sempre con un genere specifico, o un assistente AI potrebbe usare un tono meno formale con utenti donne che con uomini a causa di pattern impliciti appresi. Nel design dell’esperienza, ciò può portare a disegni discriminatori o non inclusivi. Un classico esempio segnalato è nei sistemi di riconoscimento vocale: progettati inizialmente su voci maschili, funzionavano peggio con voci femminili. In un contesto di design generativo, dobbiamo chiederci: l’AI propone soluzioni valide per tutti gli utenti o ottimizza su un utente “medio” che esclude minoranze? Il rischio è creare disequilibri cognitivi a livello sociale, dove certi gruppi culturali faticano di più a farsi capire dall’AI perché la semantica dei prompt “preferita” dal modello rispecchia altre culture o gerghi. La sfida etica è duplice: da un lato, migliorare i modelli (dataset più diversificati, auditing e debiasing continui), dall’altro progettare interazioni che rilevino e mitighino bias. Ad esempio, fornendo feedback agli utenti se il sistema rileva possibili stereotipi nell’output (un po’ come Grammarly segnala linguaggio potenzialmente offensivo), oppure dando opzioni di stile che incoraggino la diversità (“Prova una prospettiva culturale differente per questo design”). I centri di ricerca etica sull’AI, come l’Institute for Ethics in AI di Oxford, sottolineano l’importanza di coinvolgere filosofi ed esperti umanistici insieme ai tecnologi per affrontare questi temi. Nel post-prompt design, il team ideale di progetto comprende quindi non solo designer e data scientist, ma anche “steward etici” che valutino l’impatto sociale delle scelte progettuali automatizzate.

  • Eccesso di delega e perdita di controllo: Un rischio più generale è quello di automatizzare troppo senza adeguati sistemi di salvaguardia. La velocità e facilità con cui l’AI generativa permette di creare interfacce o contenuti può indurre aziende e team a saltare passaggi critici come la ricerca con gli utenti, i test di usabilità, la riflessione strategica. C’è il pericolo di un design “pilota automatico”, dove si prende la prima idea generata dall’AI e la si implementa. Questo approccio può sembrare efficiente nel breve termine, ma rischia di produrre soluzioni subottimali o addirittura dannose nel lungo termine. Inoltre, un eccesso di delega all’AI può creare un falso senso di sicurezza: i team potrebbero non sviluppare piani di emergenza per quando il sistema sbaglia. Immaginiamo un e-commerce che affida all’AI la generazione della pagina prodotto: 1000 varianti personalizzate possono andare bene, ma se per un bug l’AI inizia a commettere errori (ad es. immagini sbagliate con descrizioni invertite), l’impatto scala su migliaia di utenti prima che qualcuno se ne accorga. Il controllo di qualità nel design generativo richiede nuove procedure: testing continuo degli output dell’AI, sistemi di monitoraggio che rilevino anomalie, possibilità di roll-back rapido a versioni precedenti più stabili. È una sfida sia tecnica che organizzativa. In una visione più ampia, il rischio ultimo di delega è la dipendenza: e se un domani i modelli generativi diventassero servizi commerciali chiusi e costosi, o subissero restrizioni? Un’organizzazione che ha disinvestito nelle competenze umane di design si troverebbe ostaggio della tecnologia. A livello individuale, un professionista potrebbe perdere valore sul mercato se la sua creatività è diventata inscindibile dallo strumento AI di turno.

  • Unpredictability e affidabilità: Infine, va citata la sfida dell’imprevedibilità intrinseca dei sistemi AI. Anche con meta-design accurato, un modello generativo complesso può a volte produrre output sorprendenti o errati senza un motivo chiaro. Nell’ambito UX, questo mina l’affidabilità. Un principio base della buona UX è la consistenza – l’utente può prevedere cosa accadrà quando interagisce. Se un chatbot un giorno risponde in un modo e il giorno dopo (a parità di input) in modo sostanzialmente diverso, la fiducia cala. L’affidabilità dovrà essere una metrica di progetto per i sistemi AI: implica addestramento continuo, controllo delle versioni del modello (versioni nuove potrebbero migliorare alcune cose ma peggiorarne altre), e comunicazione trasparente agli utenti su eventuali incertezze. Ad esempio, sistemi come i co-pilot di coding mostrano percentuali di confidenza o offrono più opzioni se non sono certi. Analogamente, un generatore di design potrebbe indicare con una sorta di highlight gli elementi su cui “non è sicuro” lasciando al designer la decisione finale, come suggerito da linee guida emergenti sul calibrated uncertainty. Gestire l’imprevedibilità significa anche evitare di mettere l’AI in condizioni per cui non è stata addestrata (boundary conditions). Un motto che circola tra gli esperti di AI usability è: “il modo più veloce per fare impazzire un utente è una IA troppo sicura di sé ma sbagliata”. Perciò progettare l’esperienza implica frenare l’AI dall’andare oltre i propri limiti e fornire sempre un “freno di emergenza” all’utente.

In sintesi, il post-prompt design presenta sfide sostanziali. La buona notizia è che sono in corso numerosi studi e iniziative per affrontarle: dalla creazione di linee guida specifiche per prompt engineering responsabile, alla ricerca HCI su come mantenere alto l’engagement cognitivo degli utenti in presenza di automazione avanzata, fino a framework normativi (si pensi all’AI Act europeo) che prevedono requisiti di trasparenza per sistemi AI interattivi. I designer dovranno evolvere in “sistemi sentinel”, cioè guardiani attenti che sfruttano l’AI ma ne sorvegliano continuamente l’operato, pronti a intervenire quando occorre.

Verso una Visione Sistemica e Culturale del Design nell’Era dell’AI

Per navigare con successo l’era del post-prompt design, occorre abbracciare una visione olistica. Il design non può più essere pensato come disciplina isolata di creazione di interfacce, ma come parte di un ecosistema socio-tecnico più ampio. In pratica, questo significa integrare considerazioni di etica, psicologia, economia e politica sin dalle fasi iniziali di progetto. Ad esempio, progettare un assistente AI in ambito sanitario richiede il coinvolgimento di medici, pazienti, esperti di privacy e regolatori, oltre ai designer, per assicurarsi che l’esperienza generata dall’AI sia etica, comprensibile e accettabile. La progettazione partecipativa acquista un nuovo significato: non solo coinvolgere utenti nel design, ma coinvolgere l’AI stessa come attore del processo. In futuro potremmo avere AI “meta-designer” che aiutano a valutare milioni di varianti di design in base a criteri di inclusività o sostenibilità, fungendo da consulenti artificiali nelle decisioni.

Culturalmente, dovremo definire nuovi principî deontologici per il design. Così come esistono giuramenti o codici etici in medicina e ingegneria, anche i designer di sistemi AI dovranno aderire a principi condivisi: ad esempio, impegnarsi a evitare dark pattern conversazionali (cioè manipolazioni subdole nelle risposte AI), garantire che l’umano mantenga sempre l’ultima parola, tutelare la dignità e l’autonomia cognitiva dell’utente. Il concetto di Human-Centered AI (HCAI), promosso da studiosi come Ben Shneiderman, offre un framework: bilanciare l’efficienza dell’automazione con la preservazione del controllo umano e della comprensione. In un approccio HCAI, il design di un sistema AI non è riuscito se l’utente ottiene il risultato giusto ma non sa spiegarsi il perché; è riuscito solo se l’utente sente il sistema come partner affidabile, ne comprende a grandi linee il funzionamento e può correggerlo o fermarlo in caso di necessità.

Un altro aspetto sistemico è la sostenibilità. Generare all’infinito varianti con l’AI ha anche un costo computazionale ed energetico. I designer futuri dovranno considerare l’impronta ecologica delle loro scelte: ad esempio, preferire modelli meno energivori quando possibile, o limitare la complessità generativa ai casi che veramente ne hanno bisogno. Anche questa è cultura progettuale nell’era AI: progettare con consapevolezza delle risorse limitate (tempo dell’utente, attenzione, energia, dati personali).

Dal punto di vista formativo e di ricerca, università e centri d’innovazione iniziano a rispondere a queste sfide con nuovi programmi e studi. Stanford, ad esempio, ha lanciato corsi su UI/UX Design for AI Products che coprono tanto aspetti di comportamento umano quanto strategie di design etico e linee guida HCAI. Il MIT Media Lab sta esplorando incroci tra machine learning e design di interfacce tangibili per rendere l’AI più “visibile” e controllabile. Harvard sta studiando come l’uso diffuso dell’AI impatti creatività e motivazione sul lavoro, mentre Oxford con l’Institute for Ethics in AI mette filosofi a dialogo con designer per ripensare concetti come autonomia e responsabilità nell’era dell’AI. Questa interdisciplinarità sarà fondamentale: le soluzioni ai problemi posti dal post-prompt design non verranno solo da tecnici, ma da un confronto continuo con discipline umanistiche e sociali.

In conclusione, la direzione verso cui ci muoviamo è quella di un design sistemico-culturale. Il successo non si misurerà più (soltanto) in termini di metriche di conversione o estetica acclamata, ma nella capacità dei sistemi che progettiamo di migliorare davvero la vita rispettando autonomia, intelligenza e valori umani. L’era post-interfaccia non significa che il design diventa superfluo – al contrario, significa che il design è ovunque, diffuso in ogni interstizio delle nostre interazioni quotidiane con tecnologie pervasive. Ci vuole più design che mai, ma di natura diversa: invisibile, semantico, adattivo, etico. I designer dovranno farsi un po’ filosofi, psicologi, guardiani – oltre che creatori. È una sfida emozionante: come dice un recente articolo, siamo chiamati a sviluppare una “cultura dello sviluppo centrata sul significato” dove “il significato stesso merita un progetto”. E in fondo, progettare significati e contesti è ciò che il design, nella sua essenza più alta, ha sempre fatto.

Conclusioni e Takeaway

  • Dal pixel al concetto: Il baricentro del design si sta spostando dal disegno di interfacce statiche alla progettazione di dialoghi, intenti e sistemi adattivi. La competenza chiave diventa saper tradurre obiettivi umani in prompt e contesti che l’AI possa capire e su cui possa agire efficacemente.

  • Conversazione e UX collaborativa: L’interazione utente-AI assume la forma di una conversazione cooperativa. I designer devono progettare assistenti che sappiano chiedere chiarimenti, adattarsi al livello dell’utente e condividere il controllo del flussoresearchgate.net. Ciò richiede di unire ai tradizionali principi di usabilità nuove linee guida derivate dalla linguistica e dalla psicologia cognitiva per creare esperienze dialogiche fluide.

  • Semantica e meta-design al centro: Progettare significa sempre più progettare il processo generativo. L’enfasi sulla semantica implica strutturare i prompt come mappe di significato (scenario, vincoli, stile, esempi). Al contempo, il designer opera a un meta-livello definendo linee guida, librerie e vincoli (design system, policy etiche) che fungono da coordinate entro cui l’AI genera output coerenti.

  • Nuovi ruoli e competenze: Emergono figure ibride come il prompt engineer o AI design curator, segno che servono skill sia umanistiche (scrittura, storytelling, senso critico) sia tecniche (comprensione dei modelli AI, data analytics). Il team di prodotto si allarga includendo esperti di AI ethics, data scientist e psicologi per affrontare la natura interdisciplinare dei sistemi AI (fondamentalmente socio-tecnici).

  • Opportunità di innovazione UX: L’AI consente di esplorare più soluzioni in meno tempo (rapid prototyping generativo) e di personalizzare l’esperienza come mai prima. Interfacce adattive alle intenzioni e ai profili utente possono ridurre drasticamente la complessità percepita di software e servizi. Se ben guidata, l’AI può migliorare accessibilità, creando interazioni su misura per bisogni speciali (es. descrizioni automatiche per non vedenti, semplificazione del linguaggio per utenti con bassa alfabetizzazione, ecc.).

  • Rischi da governare: Il post-prompt design comporta rischi reali: overreliance e pigrizia mentale da parte di utenti e designer, bias incorporati nei modelli che portano a discriminazioni sottili, perdita di controllo e trasparenza, esperienza d’uso incoerente per via dell’imprevedibilità AI. Affrontare questi rischi richiede approcci “by design” (es. incorporare spiegabilità, richiedere conferme all’utente per azioni critiche, mantenere l’uomo nell’anello decisionale per compiti ad alto rischio).

  • Visione etica e umanistica: Il design nell’era AI deve essere guidato da principi etici e da una visione umanistica. Ciò significa enfatizzare l’empowerment dell’utente (la tecnologia dovrebbe aumentare le capacità umane, non sostituirle), garantire equità e inclusività (progettare per diversi livelli di abilità e contesti culturali), e abbracciare la responsabilità sociale (ad esempio, assicurarsi che l’automazione non isoli o alieni le persone). Come sostiene Floridi, stiamo ridefinendo l’infosfera: i designer diventano in parte policy-maker di questo nuovo spazio, con la responsabilità di orientarne la direzione in accordo con valori condivisi.

In definitiva, il “post-prompt design” non è la fine del design, ma una sua evoluzione. Mentre le interfacce fisiche sfumano, il design dei significati e delle esperienze diventa sovrano. Chi progetta in questo nuovo paradigma dovrà essere simultaneamente visionario e guardiano: sfruttare con entusiasmo le nuove possibilità creative offerte dall’AI, mantenendo però uno sguardo critico e morale sull’impatto delle proprie scelte. Il terreno è nuovo e in rapido mutamento, ma il principio guida rimane quello che è sempre stato il faro del buon design: mettere l’essere umano al centro, ora e nell’era di ogni interfaccia scomparsa.

Risorse Consigliate (Centri di Ricerca e Studi Internazionali)

  • Stanford University – HAI (Human-Centered AI) e rapporti sui Foundation Model: Stanford è all’avanguardia nello studio dei modelli fondamentali e del loro impatto socio-tecnico. Si veda ad esempio il report “On the Opportunities and Risks of Foundation Models” (Centro CRFM, 2021) che discute come i foundation model possano trasformare le interfacce utente e sviluppare interazioni più dinamiche adattando l’AI ai bisogni e valori degli utenti. Da Stanford provengono anche linee guida sull’interaction design con AI (es. articolo “From Prompt Engineering to Collaborating: A Human-Centered Approach to AI Interfaces”, Interactions, 2024).

  • MIT – MIT Media Lab e MIT CSAIL: Il MIT integra design e AI in vari progetti. Il Media Lab esplora approcci innovativi per rendere l’AI più utilizzabile e integrata (es. ricerche del gruppo Fluid Interfaces). MIT CSAIL offre corsi su HCI per UX design che coprono le ultime tendenze dell’AI applicata al design. Inoltre, l’MIT Professional Education ha lanciato programmi come “Designing and Building AI Products and Services” per formare professionisti alla creazione di prodotti AI centrati sull’utente. Per insight sul futuro del design computazionale, il MIT Design Lab e pubblicazioni come MIT Technology Review offrono spunti sulle best practice e le sfide emergenti.

  • Harvard University – Berkman Klein Center & Harvard Business Review: Harvard contribuisce al dibattito soprattutto sugli impatti organizzativi e cognitivi dell’AI. Il Berkman Klein Center studia le implicazioni etiche e normative dell’AI (incluse le questioni di fairness nel design di algoritmi). Harvard Business Review ha pubblicato articoli accessibili su come l’AI sta cambiando il lavoro creativo e di design (ad es. “How Generative AI Is Changing Creative Work”, 2023). Inoltre, ricercatori di Harvard hanno indagato la correlazione tra uso di AI e pensiero critico, evidenziando la necessità di approcci educativi per mantenere elevate le capacità umane nell’era dell’automazione.

  • Oxford University – Institute for Ethics in AI e ricercatori come Luciano Floridi: L’Università di Oxford, con il suo prestigioso istituto per l’etica dell’AI, fornisce una prospettiva filosofica sulle sfide qui discusse. L’Institute for Ethics in AI organizza colloqui (es. “Two Mistakes in AI Design?”) e ricerche su come incorporare principi etici nel design di sistemi AI. Luciano Floridi (filosofo originario proprio dell’Italia, già direttore di ricerca a Oxford) ha scritto estensivamente sulla “quarta rivoluzione” dell’infosfera e su come la tecnologia stia ri-ontologizzando la nostra realtà. Le sue opere offrono un quadro teorico per comprendere l’impatto culturale e ontologico dell’AI – lettura preziosa per designer che vogliano riflettere sul quadro d’insieme.

  • Community e Altre Risorse: Oltre alle università, centri come MIT e Stanford, esistono comunità e organizzazioni utili. La ACM SIGCHI (associazione internazionale per l’HCI) pubblica regolarmente ricerche su AI e UX (si veda ad es. gli atti di CHI 2023-2024, workshop su prompt engineering responsabile). Il Partnership on AI è un consorzio industria-accademia che rilascia linee guida etiche per l’AI. La Nielsen Norman Group (NN/g) ha iniziato a pubblicare articoli e framework pratici, ad esempio il modello “CARE” per la scrittura di prompt efficaci e responsabili. Infine, numerosi white paper di aziende leader (Google, Microsoft, OpenAI) offrono insight: ad esempio Google ha il documento “People + AI Guidebook” con consigli per progettare con l’AI, e Microsoft ha pubblicato 18 linee guida per l’interazione umana con l’AI (Chi 2019). Combinare prospettive accademiche con tali risorse pratiche aiuterà i designer ad avere sia la visione che l’operatività necessarie per eccellere nel post-prompt design.

L’arte di smontare i rituali e costruire cultura, oltre i modelli agili.

Ieri mattina, durante una colazione con l’amministratore delegato di una delle principali istituzioni medicali in Italia, siamo finiti a parlare di organizzazione, modelli operativi e trasformazione. A un certo punto, ha tirato fuori un report sull’Agile che gli era stato condiviso da un consulente.

Ma oggi ha ancora senso parlare di Scrum ed Agile oggi, ed in che modo?” mi ha chiesto.

Una domanda legittima. In fondo, anche io negli anni ho insegnato, implementato e osservato da vicino modelli agili in aziende di ogni dimensione e settore. Ma sempre con un principio chiaro: non esiste un modello unico che funzioni ovunque. L’agilità non si ottiene copiando un framework, ma comprendendo i principi e adattandoli al proprio contesto organizzativo, culturale e operativo.

E proprio negli ultimi anni sono emersi, con una certa costanza, segnali di disillusione verso Scrum e i ruoli ad esso associati. Pur rimanendo il framework Agile più diffuso (usato da circa il 63% dei team secondo il State of Agile Report 2024), la soddisfazione delle organizzazioni nei confronti di Agile/Scrum è in calo. Un sondaggio ha rilevato che la percentuale di aziende “molto o abbastanza soddisfatte” delle pratiche Agile è crollata dal 71% nel 2022 al 59% nel 2023.

Questa diminuzione indica che molte imprese adottano Scrum ma faticano a vederne i benefici attesi. Di conseguenza, si moltiplicano le discussioni sul “declino di Agile” e su cosa fare “dopo Scrum”.

Parallelamente, i ruoli tipici di Scrum (come Scrum Master e Agile Coach) sono messi in discussione. Nel 2023 molte big tech hanno ridotto o eliminato questi ruoli, inizialmente per motivi di taglio costi ma anche per dubbi sul loro valore aggiunto. Nei primi sei mesi del 2023 oltre 120.000 tech workers sono stati licenziati e «indovinate quali ruoli sono stati i più colpiti? Esatto: Scrum Master e Agile Coach». Numerose aziende hanno deciso di fare a meno di figure dedicate al processo, segno di un ripensamento profondo: stanno valutando se questi ruoli apportino davvero valore. Questo fenomeno è stato definito provocatoriamente “The Great Scrum Master Exodus”.

Un altro dato emblematico è l’adozione forzata di Scrum fuori dal suo contesto ideale. Spesso Scrum ha preso piede soprattutto in imprese tradizionali o consulenziali, mentre è “curiosamente assente nella maggior parte delle Big Tech”. Per esempio, Skype nei primi anni 2010 adottò Scrum su vasta scala formando tutti i team su sprint e cerimonie. Eppure, in quegli stessi anni un concorrente come WhatsApp non seguì alcun framework come Scrum – anzi, gli ingegneri evitarono deliberatamente qualsiasi processo pesante – e ciò non impedì a WhatsApp di innovare più velocemente, superando Skype nel mercato della messaggistica.

Emblematico anche il caso del team Skype for Web: partito seguendo pedissequamente Scrum (sprint di 2 settimane, Scrum Master a rotazione, daily stand-up, review, retro, ecc.), il team si accorse presto che i numerosi rituali di Scrum rallentavano il rilascio continuo. La soluzione fu abbandonare Scrum del tutto: niente più sprints fissi né cerimonie superflue, ma concentrazione solo su ciò che fare adesso e dopo. Come nota un membro del team: “Scrum intralciava la possibilità di fare deploy giornalieri… abbiamo smesso di occuparci degli sprint e delle ritualità di Scrum”, mantenendo solo ciò che serviva al flusso di lavoro. Nel giro di poco, quel team continuava a fare Agile delivery ma “ciò che restava non assomigliava più a Scrum”.

Scrum non è più visto come panacea universale.

Molte organizzazioni riferiscono di aver raggiunto un plateau nell’efficacia di Scrum, e iniziano a guardare oltre: alcuni adottano approcci ibridi o “fai-da-te” (il 22% delle grandi aziende dichiara di non seguire alcun framework agile prescritto a livello enterprise), mentre le aziende tecnologiche leader non hanno mai realmente sposato Scrum sin dall’inizio.

Questo ci porta ai nuovi modelli emergenti nelle Big Tech.

Modelli flessibili basati su autonomia

Le aziende tecnologiche di primo piano (Google, Meta/Facebook, Apple, Amazon, Netflix, Microsoft, Spotify, Basecamp, ecc.) hanno seguito percorsi Agile propri, spesso nati organicamente dalla loro cultura, anziché adottare Scrum “by the book”. In queste realtà generalmente non esiste uno standard unico imposto a tutti i team: ogni team può scegliere il metodo di lavoro che preferisce, con forte enfasi su autonomia, risultati da raggiungere e adattamento costante.

Netflix. “People over Process”: cultura prima delle regole

Netflix è noto per la sua cultura aziendale di Freedom & Responsibility, in cui si assume personale eccellente e lo si mette in condizione di operare quasi senza vincoli burocratici. L’idea è creare una cultura così forte che il processo formale diventi quasi superfluo. Uno dei valori dichiarati di Netflix è proprio “Le persone prima del processo”. Nel famoso Netflix Culture Deck, l’azienda afferma: «Si ottengono risultati migliori quando i dipendenti hanno le informazioni e la libertà per prendere decisioni autonomamente». Tradotto in pratica, Netflix evita il più possibile regole fisse e processi formalizzati: esistono solo quelle strettamente necessarie per compliance e sicurezza, e comunque “ci impegniamo a mantenere le regole al minimo… evitando il classico crescendo di burocrazia che soffoca la creatività man mano che l’azienda cresce”.

Nei team di Netflix si riscontra un’altissima autonomia operativa. Non c’è un framework di project management standard adottato in tutta l’azienda. Alcune squadre utilizzano board in stile Kanban, altre seguono cicli di sviluppo brevi simili a mini-sprint, ma in generale si pratica il continuous delivery e si privilegia il rapido rilascio di valore continuo. Netflix ha introdotto il concetto di “full-cycle developers”, sviluppatori responsabili end-to-end: chi scrive il codice lo deploya, monitora in produzione e reagisce ai problemi, senza passaggi di consegne formali. Questo elimina la necessità di cerimonie elaborate o di ruoli come release manager: il feedback loop dal codice all’impatto sul cliente è breve e gestito dallo stesso team, favorendo un miglioramento rapido del prodotto. Se qualcosa va storto, il team Netflix non convoca un lungo post-mortem burocratico per aggiungere nuovi controlli; semplicemente risolve il problema e condivide le lezioni apprese in modo informale. La cultura del blameless post-mortem (analisi degli errori senza colpevolizzare), comune anche in Google, fa sì che si impari dagli insuccessi senza introdurre barriere organizzative che potrebbero frenare l’innovazione.

In poche parole, Netflix ha successo essendo “anti-processo”: minimizza regole e procedure e punta tutto su persone di talento estremamente allineate sugli obiettivi. Un’azienda tradizionale, senza la talent density e la cultura di Netflix, rischierebbe il caos con così poca struttura; ma da Netflix questo approccio funziona proprio grazie alla qualità delle persone e alla chiarezza della vision. Come afferma la loro filosofia interna, ridurre al minimo regole e processi dando libertà alle persone è una ricetta di gran lunga superiore per il successo di lungo termine. Per Netflix, metodologie Agile formalizzate sarebbero troppo prescrittive: imporre dall’esterno regole e ruoli (es. un Scrum Master che fa rispettare il processo) in un contesto che “gira a cultura” sarebbe visto come un ostacolo inutile. Invece di Scrum Master, ogni team si auto-organizza nel modo che ritiene più efficace per produrre risultati, incarnando lo spirito Agile senza bisogno del framework Scrum in sé.

Google. Obiettivi (OKR) e innovazione bottom-up, niente “Agile by the book”

Anche Google non ha mai adottato Scrum in modo diffuso a livello aziendale. Cresciuta rapidamente nei 2000, non si vedevano molte Scrum board nei corridoi di Googleplex. Il successo di Google si fonda più che altro su solide fondamenta ingegneristiche (assunzione di programmatori eccellenti, rigorose code review, test approfonditi) e su una cultura che favorisce innovazione continua. In pratica, Google ha abbracciato l’agilità come aggettivo, non come metodologia formale: i team adottano i principi di iterazione rapida e feedback senza però seguire un singolo framework prescritto.

Uno degli strumenti centrali in Google è l’OKR (Objectives and Key Results). Fin dai primi anni, Google ha usato gli OKR per fissare obiettivi trimestrali chiari per i team, dando focus e allineamento senza dettare il processo con cui raggiungerli. Questo outcome-driven planning permette ai team di sapere cosa deve essere ottenuto (Key Results misurabili) lasciando libertà su come arrivarci. Nella quotidianità, lo sviluppo prodotto in Google si potrebbe descrivere come un mix di decisioni guidate dai dati, sperimentazione rapida e miglioramento iterativo continuo, più che l’applicazione di un rigido schema Scrum.

Un blog ufficiale di Google Cloud riassume così l’approccio di Google: “dare priorità ai bisogni degli utenti, decisioni basate sui dati, iterazione rapida e sviluppo collaborativo” per costruire prodotti. Questi principi incentivano innovazione, velocità di sviluppo e crescita, notate, senza menzionare Scrum o gergo Agile: contano gli outcome (capacità di iterare, collaborare, fare in fretta) non l’adesione ortodossa a un processo. La cultura di Google incoraggia le idee bottom-up: molti nuovi prodotti nascono come esperimenti o side project di ingegneri (Gmail e AdSense nacquero così). Si parla di una “cultura di autonomia bottom-up e innovazione, dove le nuove idee provengono da chi è più vicino ai problemi”. In Google ogni team ha significativa libertà su come lavorare, purché consegni risultati. Alcuni team hanno effettivamente usato board Scrum o Kanban, altri hanno operato in modo più informale; non c’è mai stato un decreto dall’alto tipo “Dovete fare Agile alla lettera”.

Ciò che Google ha investito fortemente è negli strumenti interni che abilitano lo sviluppo rapido in stile Agile. Ad esempio, Google tiene praticamente tutto il suo codice in un unico repository monolitico accessibile a tutti gli sviluppatori, con build automatiche e tool di test/integrazione continua all’avanguardia, ecc. Questo ambiente tecnico integrato (costruito in-house) consente iterazioni velocissime e collaborazione senza barriere, di nuovo, risultati simili a quelli promessi da Agile, ma ottenuti tramite infrastruttura e cultura, non imponendo Scrum Master o sprint planning centralizzati.

Google incarna i valori Agile (orientamento al cliente, iterazione veloce, autonomia dei team) “come cultura aziendale, non come metodologia”. L’agilità è nel DNA organizzativo (OKR, 20% time per progetti innovativi, strumenti condivisi, ecc.), non in un framework specifico uguale per tutti.

Spotify. Il “modello Spotify”: autonomia delle squadre e rete di allineamento

Un caso spesso citato di approccio alternativo è Spotify. Nei primi anni 2010 gli ingegneri Spotify condivisero col mondo il loro modo di organizzare i team, che divenne celebre come Spotify Engineering Culture (video e whitepaper del 2012). Il modello Spotify non è un framework rigido, ma “un approccio people-driven e autonomo per scalare Agile, che enfatizza l’importanza della cultura e delle reti informali”. L’idea chiave di Spotify è bilanciare autonomia e allineamento: “focalizzarsi su come strutturare l’organizzazione per abilitare agilità” invece di prescrivere pratiche specifiche. A differenza di metodologie di scaling formali (tipo SAFe, LeSS) dove sono definiti cerimoniali precisi, il modello Spotify punta sulla struttura organizzativa e sulla cultura per ottenere agilità su larga scala.

In Spotify, i team (Squads) sono piccoli e cross-funzionali (6-12 persone) con una missione chiara ciascuno, simili a scrum team ma completamente autonomi. Una caratteristica fondamentale è che ogni Squad sceglie quale metodologia agile adottare: alcuni usano Scrum, altri Kanban, altri un mix (“Scrumban”), a seconda di cosa meglio si adatta al loro contesto. Non c’è dunque un processo imposto dall’alto uguale per tutti i team, il che riflette un alto grado di fiducia nell’autonomia di ciascuna squadra. Per evitare però che l’autonomia degeneri in direzioni contrastanti, Spotify ha introdotto meccanismi di allineamento orizzontale: le Tribes, insiemi di squadre affini (tipicamente 40-150 persone) che condividono obiettivi più grandi e coordinano gli sforzi su un’area di prodotto, e le Chapters e Guilds, comunità trasversali rispettivamente per competenza specialistica e per interesse, che diffondono conoscenza e pratiche comuni tra squadre diverse. Queste strutture “a matrice” assicurano che, pur lavorando con metodi diversi, i team rimangano allineati alla strategia complessiva e condividano la cultura aziendale.

Il risultato è un’organizzazione che privilegia le persone e le interazioni (coerentemente col manifesto Agile) anziché aderire a un singolo processo. Spotify ha dimostrato che è possibile far crescere l’azienda senza introdurre gerarchie di comando pesanti o un unico processo burocratico, ma mantenendo i valori di agilità attraverso cultura di fiducia, responsabilità diffusa e comunicazione aperta. Non a caso, il Spotify model ha influenzato molte aziende che cercavano un’alternativa ai framework tradizionali, enfatizzando autonomia dei team e rete di allineamento al posto di ruoli rigidi e procedure uniformi.

Basecamp. “Shape Up”: niente Scrum, cicli lunghi e responsabilità al team

Un altro esempio illuminante viene da Basecamp (ex 37signals), azienda nota per il suo approccio radicale al product development. I fondatori Jason Fried e David Heinemeier Hansson hanno spesso criticato le metodologie agili tradizionali e forgiato un loro metodo chiamato Shape Up. Nel libro online “Shape Up: Stop Running in Circles and Ship Work that Matters”, Jason Fried mette in chiaro già nella prefazione la loro filosofia: “Noi non facciamo waterfall né agile né scrum. Non riempiamo i muri di Post-it. Non facciamo daily stand-up, design sprint, development sprint, né nulla che abbia a che fare con metafore di gente esausta alla fine. Niente backlog, niente Kanban, niente misurazione della velocity, nulla di tutto ciò.”. Invece, Basecamp “ha sviluppato un approccio interamente diverso” nel corso di 15 anni, in autonomia, attraverso tentativi ed errori continui. Shape Up prevede cicli di sviluppo lunghi 6 settimane (in contrasto ai classici sprint di 1-2 settimane di Scrum) durante i quali un piccolo team lavora focalizzato su un problema/progetto senza interruzioni né “riedizioni” di planning ogni pochi giorni. Non ci sono backlog interminabili: le iniziative vengono shaped (definite a grandi linee con soluzioni possibili) prima di impegnare un team sul ciclo, e se qualcosa non viene assegnato in un ciclo, torna nel limbo delle idee non pianificate. Non esistono Scrum Master: la responsabilità di consegnare è condivisa dal team stesso, che gode di un ampio spazio di autonomia su come portare a termine il lavoro entro le 6 settimane.

L’assenza di rituali formali da un lato chiede molta disciplina al team (che deve auto-organizzarsi e auto-correggersi), ma dall’altro elimina l’overhead amministrativo e lascia più tempo per il lavoro sostanziale. Basecamp ritiene che molte pratiche agili convenzionali siano in realtà controproducenti: ad esempio, fare stand-up meeting quotidiani o stimare ogni singola user story può portare a un falso senso di controllo e a micro-gestione, mentre il loro metodo punta a “dare alle persone tempo e contesto per fare davvero il lavoro, con la fiducia che consegneranno qualcosa di valido alla fine del ciclo”. Shape Up enfatizza la fiducia nei designer e sviluppatori nel prendere decisioni implementative, limitando la pianificazione dettagliata iniziale solo all’essenziale (evitando di “spaccare il capello” in anticipo, no backlog grooming) e accettando che il scope sia variabile pur di rispettare la deadline fissa di 6 settimane. Questo approccio, pubblicato da Basecamp nel 2019, è divenuto una fonte d’ispirazione per quelle aziende che vogliono uscire dalle meeting-heavy routines di Scrum e provare qualcosa di diverso, più batch-oriented e creativo.

Niente Project Manager, team auto-organizzati

Un tratto comune nelle grandi aziende e nei casi sopra è l’assenza di figure di coordinamento tradizionali a livello di team. Nelle organizzazioni classiche, ad esempio, ogni team progettuale potrebbe avere un Project Manager o un Product Owner dedicato che sovrintende i piani e le attività. In molte Big Tech, invece, tali ruoli non esistono o hanno un peso molto minore: “Una differenza notevole tra Big Tech e gli altri è il ruolo dei Product Manager, e la mancanza di Project Manager o Product Owner dedicati ai team. Il Product Manager in aziende come Facebook, Google ecc. definisce la strategia e il perché (cioè decide “che gioco giochiamo e come intendiamo vincerlo”), collabora con design, data science e business per creare la roadmap e le priorità, ma non micro-gestisce l’esecuzione quotidiana. La gestione del progetto in sé è affidata al team tecnico: tipicamente è il Tech Lead o l’Engineering Manager a facilitare l’organizzazione del lavoro, oppure gli stessi ingegneri si alternano nel ruolo di project lead su specifiche iniziative. Questo snellisce i processi e rafforza le relazioni dirette: quando non c’è un project manager esterno, gli engineering lead tendono a introdurre solo il minimo di processo necessario, perché è nel loro interesse rimanere agili. E quando devono collaborare con altri team (anch’essi senza PM tradizionali), sono incentivati a costruire relazioni dirette con i rispettivi lead tecnici, velocizzando comunicazione e decisioni inter-team.

Solo per progetti molto grandi o trasversali si trovano figure dedicate come i Technical Program Manager (TPM), che coordinano iniziative multi-team o di reparto. Ma si tratta di poche persone rispetto alla forza lavoro ingegneristica, ad esempio Uber aveva circa 1 TPM ogni 50 sviluppatori. Nella quotidianità del singolo team, quindi, non c’è un project manager a dettare metodologia: ogni team adotta l’approccio di project management che preferisce (come accennato prima, alcuni in stile Kanban, altri con cicli brevi tipo Scrum, altri con roadmap a medio termine tipo RFC, etc.). Questa libertà è possibile perché a monte l’azienda ha creato un ambiente di fiducia e competenza diffusa: “Big Tech può permettersi di assumere persone estremamente competenti e autonome, che hanno bisogno di meno struttura per produrre risultati di alta qualità. L’autonomia non è vista con timore, bensì come la leva per ottenere il massimo da team eccellenti: squadre di 5-15 persone con mission chiara, skill complementari e piena autonomia di esecuzione sono il blocco fondamentale di queste aziende.

Va sottolineato come questo modello richieda un certo contesto organizzativo: non è che in assenza di Scrum regni l’anarchia. Al contrario, le Big Tech investono molto in infrastrutture e piattaforme interne per facilitare il lavoro autonomo dei team (tool di sviluppo, integrazione continua, sistemi di monitoring e alerting self-service, ecc.). Inoltre, c’è trasparenza totale su obiettivi aziendali e metriche: impiegati di ogni livello hanno accesso ai dati di business in tempo reale, possono farsi dashboard da soli e capire l’impatto del loro lavoro. La comunicazione è diretta: gli ingegneri sono incoraggiati a parlare con altre funzioni di business e non restare isolati nel proprio silos tecnico. Si evita la triangolazione gerarchica delle informazioni (dove ogni comunicazione deve passare per vari manager) a favore di contatti diretti ingegnere-ingegnere e team-team, che accelerano le decisioni. Tutto ciò crea un ecosistema in cui l’auto-organizzazione funziona davvero: i team hanno contesto, strumenti e mandate chiare, quindi possono muoversi rapidamente senza bisogno di un layer di coordinamento esterno che “traduce” obiettivi o monitora ogni passo.

In questo scenario, figure come lo Scrum Master diventano ridondanti, spesso il ruolo equivalente è svolto dal Tech Lead o da un membro del team a rotazione, come responsabile di progetto pro-tempore, ma senza l’enfasi cerimoniale e senza separare la gestione dal lavoro tecnico. Ad esempio, in alcuni team di Microsoft/Skype il ruolo di Scrum Master veniva fatto ruotare tra gli sviluppatori stessi. In Spotify, ogni Squad ha un Agile Coach disponibile come facilitatore se il team lo desidera, ma non è un “master” che impone rituali, è più un mentor/servant leader sul miglioramento continuo. E molte aziende (Netflix, Amazon, ecc.) non hanno affatto ruoli assimilabili a Scrum Master a livello di team, ritenendo che un buon engineering manager possa già supportare il team su processi, oppure che il team debba auto-disciplinarsi sulle pratiche agili.

Del resto “Perché mai dovrei avere uno Scrum Master a far rispettare un processo quando posso fidarmi di ogni team di auto-organizzarsi nel modo che offre i risultati migliori?”.

Cultura dell’autonomia e focus sugli outcome

Emerge sempre di più una narrativa comune: le aziende più avanzate stanno spostando l’enfasi dagli strumenti e rituali ai principi e ai risultati. In particolare, quattro elementi chiave caratterizzano questa evoluzione dell’Agile nelle big tech: cultura, autonomia, responsabilizzazione sui risultati (outcome), e allineamento leggero ma costante:

  • “Individuals and Interactions over Processes and Tools”, sul serio stavolta: le azinede prendono alla lettera il primo valore del Manifesto Agile. Invece di focalizzarsi sul controllare un progetto tramite Scrum/Kanban, si focalizzano sul mettere le persone giuste al tavolo e dare loro fiducia. Un articolo di ThoughtWorks riassume: “Essere agili non significa tenere un progetto sotto controllo attraverso Scrum/Kanban; significa assumere le persone giuste e permettere loro di scoprire naturalmente la configurazione ottimale per consegnare con successo. In pratica, l’agilità è vista più come un tratto culturale che come l’adesione a uno schema prestabilito. Questo comporta grandi investimenti su selezione e formazione del talento, sulla crescita della leadership diffusa, e sulla creazione di un ambiente sicuro in cui i team possano provare e adattare il modo di lavorare. Nota: la cultura aziendale diventa il principale fattore abilitante. “L’Agile vero” è quello che scompare in quanto norma, perché entra nel tessuto del lavoro quotidiano.

  • Empowerment dei team e responsabilità distribuita: un mantra ricorrente è autonomous teams. Come ho già scritto, “team empowered e autonomi sono i mattoni fondamentali di tutte queste aziende… il loro principale fattore differenziante”. Ciò significa dare ai team un obiettivo chiaro e poi lasciare che decidano come raggiungerlo, fornendo supporto ma evitando micro-management. Quando i team sono davvero autonomi, succede qualcosa di notevole: col tempo tendono a semplificare i processi da sé. Gergely Orosz racconta che “nel tempo, i team che hanno l’autonomia di cambiare il proprio modo di lavorare finiscono per eliminare le regole pesanti di Scrum di cui non hanno bisogno e sviluppare uno stile personalizzato. In altre parole, se un’azienda si fida dei team e dà loro margine di manovra, questi spesso prenderanno l’iniziativa di migliorare il processo continuamente (kaizen), riducendo burocrazia e sprechi meglio di quanto potrebbe fare un framework imposto dall’alto. L’empowerment implica anche accettare qualche rischio in più (ad es. team diversi usano pratiche diverse) ma viene ripagato da maggiore motivazione, i membri sentono il progetto come “nostro”, e maggiore velocità di decisione ed esecuzione.

  • Dall’output alla misurazione dell’outcome: forse il cambiamento più significativo nel nuovo Agile è il passaggio da una mentalità di output (attività completate, ore lavorate, story point bruciati) a una mentalità di outcome (risultati di business ottenuti, impatto sugli utenti, valore generato). Molti esperti hanno evidenziato che tante implementazioni Agile falliscono perché rimangono intrappolate nel misurare il lavoro invece che il valore. Nelle adozioni Scrum superficiali si rischia di “mettere attenzione nel completare task a scapito di creare valore”, con sintomi come backlog vissuti come liste di compiti, metriche di efficienza tipo velocity elevate a obiettivo di per sé, e scarso collegamento col cliente finale. Le aziende pioniere stanno invertendo questa tendenza: definiscono chiaramente gli obiettivi di outcome e giudicano i team sul valore prodotto, non sulla mera quantità di output. Ad esempio, nel report State of Agile 2024 solo il 29% dei team dichiara di essere valutato sul valore consegnato, mentre ben il 36% è ancora valutato principalmente sulla velocity (cioè quantità di lavoro svolto per sprint). Tuttavia, si osserva una graduale correzione di rotta: “Un numero crescente di organizzazioni sta collegando gli OKR alle epiche di sviluppo (+5% rispetto all’anno precedente)”, integrando quindi gli Objective & Key Results nel modo di pianificare e misurare il lavoro agile. Questa integrazione consente di tradurre gli obiettivi strategici aziendali in risultati misurabili fino al livello di feature/progetto, dando ai team una linea di vista chiara su come il loro lavoro impatta gli indicatori chiave.

  • Allineamento leggero, trasparenza e feedback continuo: abbandonare i controlli centralizzati non vuol dire navigare al buio. Le aziende agili evolute implementano meccanismi di allineamento orizzontale e verticali molto efficaci. Alcuni esempi: trasparenza radicale delle informazioni (come detto, tutti possono vedere dati di performance, roadmap, avanzamenti degli altri team); community interne (guild, chapter, meet-up interni dove le best practice si diffondono spontaneamente anziché via processi imposti); e feedback loop frequenti con gli stakeholder e gli utenti. Quest’ultimo punto è cruciale: il vero Agile punta a incorporare il feedback degli utenti il prima e il più spesso possibile. In assenza di rituali formali, le Big Tech creano comunque spazi di confronto: ad esempio rilasciano funzionalità progressivamente (canary release, A/B test, beta program) e raccolgono dati e reazioni degli utenti reali in tempo quasi reale, aggiustando il tiro. Internamente, organizzano demo day, hackathon, o semplicemente usano strumenti di comunicazione aziendale dove ogni team condivide ciò su cui sta lavorando, ottenendo commenti dal management o da altri colleghi in modo asincrono. Inoltre, la trasparenza verso i team sui risultati di business (es. “come sta andando il prodotto, cosa dicono i clienti, etc.”) crea motivazione e allinea naturalmente le priorità senza dover tenere meeting strategici continui. In sintesi, queste imprese coltivano una cultura in cui l’apprendimento e l’adattamento costante guidano il processo, al posto di piani fissi a lungo termine.

Un vantaggio non indifferente di questo approccio culturale è che l’agilità diventa antifragile: mentre un framework rigido può funzionare bene in un contesto e fallire se cambiano le condizioni, una cultura agile sa adattarsi alle novità. Ad esempio, durante la pandemia molte aziende hanno faticato a mantenere i rituali Scrum in remote working, mentre aziende con cultura agile forte (es. GitHub, Netflix) hanno reagito meglio, avendo già pratiche di comunicazione distribuita e team abituati a gestirsi in autonomia.

Intelligenza artificiale e Product Operating Model

Il passaggio da framework a cultura non avviene in un vuoto tecnologico. Oggi, uno dei principali catalizzatori di questo cambiamento è rappresentato dall’Intelligenza Artificiale. Non tanto perché sostituisca processi umani, quanto perché trasforma profondamente ciò che è possibile, ciò che è misurabile e ciò che è anticipabile.

In molte aziende, le cerimonie Agile sono state mantenute solo per sopperire a inefficienze informative o decisionali. Ma quando i team hanno accesso a insight in tempo reale, assistenti AI che sintetizzano dati, scrivono ticket, generano analisi e supportano la prioritizzazione, molti dei passaggi di coordinamento rituale perdono la loro funzione. L’AI sta quindi accelerando l’abbandono delle forme e spingendo verso una nuova sostanza: una organizzazione che apprende, anticipa e agisce per impatto.

Questo shift è sempre più associato alla nascita dei cosiddetti Product Operating Model (POM): modelli operativi che mettono il prodotto e il valore che genera al centro dell’organizzazione, superando le divisioni tra funzione, processo e struttura. A differenza dell’Agile “a silos”, dove ogni team lavora secondo un proprio metodo ma con metriche scollegate, il Product Operating Model cerca di orchestrare il lavoro su base pervasiva, con team multidisciplinari, allineamento continuo sugli outcome, feedback loop potenziati dall’AI e una forte cultura del prodotto.

In questo modello:

  • AI supporta il decision-making distribuito, fornendo insight predittivi, analisi comportamentali, cluster dinamici di utenti e validazione in real time delle feature.

  • Il design organizzativo è adattivo, orientato non solo a consegnare, ma a sperimentare e apprendere velocemente.

  • I team agiscono come unità semi-autonome collegate da scopi condivisi e metriche impattanti, spesso espresse in termini di outcome e misurate grazie all’infrastruttura dati e AI.

In pratica, il Product Operating Model non è un framework, ma una visione operativa che integra tecnologia, cultura e autonomia in modo coerente e fluido. Non sostituisce Agile: lo evolve, lo distribuisce e lo rende “invisibile” nei comportamenti quotidiani.

L’AI non “uccide Agile”. Ma uccide il bisogno di mantenerne le apparenze, restituendo centralità a ciò che davvero conta: persone competenti, contesto chiaro, metriche visibili e capacità di adattarsi velocemente.

Come evolvere verso questi modelli

Come possono le aziende più tradizionali o quelle che oggi sono bloccate in un Agile di facciata trarre spunto dai modelli delle Big Tech? Ecco alcuni spunti pratici e operativi emersi dalle ricerche e case study:

  • Rimettere i principi al centro: prima di qualsiasi cambio di framework, è utile rileggere i principi Agile e chiedersi sinceramente se si stanno onorando. Individui e interazioni sopra processi e strumenti,  stiamo dando fiducia e voce ai team? Prodotto funzionante sopra documentazione esaustiva, stiamo consegnando valore tangibile frequentemente? Collaborazione col cliente sopra negoziazione contrattuale, stiamo coinvolgendo gli utenti/stakeholder continuo? Rispondere al cambiamento sopra seguire un piano , stiamo adattando piani e priorità in base ai feedback reali? Identificare dove l’organizzazione è caduta in una trappola da cargo cult (seguire Scrum meccanicamente perdendo di vista il perché) è il primo passo. Ad esempio, se ci si accorge che si fanno stand-up meeting quotidiani ma le informazioni cruciali non circolano comunque, forse bisogna agire sulla cultura della trasparenza anziché aggiungere un altro meeting.

  • Coltivare l’autonomia gradualmente: per un’azienda abituata a modelli top-down, passare bruscamente all’auto-organizzazione totale può essere pericoloso. Si può procedere per gradi: empowerment controllato. Ad esempio, iniziative pilota creare uno/due team multifunzionali dedicati a un progetto innovativo, ai quali si concede esplicitamente di non seguire il processo standard ma di sperimentare un proprio modo di lavorare. Questi “team faro” devono però avere anche il giusto supporto: leader pronti a rimuovere impedimenti, accesso diretto ai decision-maker aziendali e magari un coach esperto che li aiuti nelle retrospettive. L’idea è mostrare che risultati producono in un contesto di maggiore autonomia. Se il trial ha successo (es. tempo di delivery dimezzato, miglior qualità, team più motivato), diventa un caso interno per convincere altri ad adottare pratiche simili.

  • Allentare le pastoie del processo, ma mantenere guardrail chiari: le Big Tech insegnano che liberare i team non significa lasciarli allo sbaraglio. Significa piuttosto spostare i controlli ex-ante in controlli ex-post: invece di prescrivere ogni passo (input), si definiscono chiaramente obiettivi e limiti, e si verifica frequentemente il risultato (output/outcome). Ad esempio, un’azienda potrebbe decidere di abbandonare il rigido ciclo di sprint Scrum per alcuni team, lasciando che pianifichino in modo più fluido; tuttavia potrebbe fissare un guardrail tipo: “rilasciate qualcosa di testabile agli utenti almeno una volta al mese”, oppure “nessun progetto deve durare più di 3 mesi senza essere rivalutato”. Così si incoraggia l’agilità ma si evita il rischio di progetti che si trascinano indefinitamente. Un case study citato da McKinsey racconta proprio questo: un’azienda di prodotto consumer aveva suddiviso un grande progetto in tanti team specializzati, ma con forte controllo centrale, risultato, tutto fermo. La svolta è arrivata quando hanno spostato ogni decisione (anche di budget e architettura) nei team agili, fornendo solo una chiara visione dei risultati clienti attesi e alcune regole di base (es. rilasciare demo funzionanti a intervalli regolari). In pochi mesi, quei team empowered hanno lanciato uno dei migliori prodotti dell’azienda, in tempi record e con personale motivatissimo, proprio grazie a quella libertà entro confini chiari. La lezione: date ai team un obiettivo sfidante, contesto sul perché è importante, e poi fidatevi (con meccanismi di check-in sul cosa si sta ottenendo, non sul come preciso).

  • Riformare i criteri di successo e le metriche di performance: se continuate a valutare project manager e team solo sul rispetto di tempi/costi e sul numero di funzionalità consegnate, state incentivando la vecchia mentalità output-driven. Occorre inserire metriche di outcome nei dashboard di progetto e nelle valutazioni. Ad esempio: customer satisfaction, tasso di adozione di una nuova feature, riduzione di churn, incremento di vendite, o anche metriche interne tipo tempo medio di risoluzione ticket, frequenza di deploy, ecc., a seconda della natura del team. Un’idea è utilizzare OKR formalmente: far sì che ogni team abbia 1-3 Objectives trimestrali con relativi Key Results misurabili, e valutare i progressi su quelli nelle review di fine periodo. Questo allena tutti a pensare in termini di risultati di business. Anche a livello individuale, potrebbe voler dire premiare un developer non solo perché ha chiuso 30 task, ma perché il modulo su cui ha lavorato ha retto a X utenti in più senza problemi o ha ricevuto feedback entusiasti. Spostare l’attenzione sulle metriche di impatto frena anche quella che McKinsey chiama “fissazione sulla piena occupazione”: in molte aziende tradizionali vige l’idea che un team che non è occupato al 100% su tasks assegnati stia “sprecando tempo”. Ma tenere tutti sempre occupati non è il fine! È preferibile avere momenti di analisi, esperimenti, brainstorming (quindi persone non impegnate su task pre-definiti al 100%) se questo porta a soluzioni più efficaci per il cliente. Come dice un esperto: “focalizzarsi sul tenere tutti occupati rimuove l’opportunità di collaborare per deliverare grandi risultati per il cliente”. Quindi i manager devono abituarsi a chiedere “che valore avete creato?” invece di “quanto siete occupati?”. Un’azione concreta potrebbe essere inserire nei report settimanali non solo i task completati ma anche un breve paragrafo su cosa hanno comportato (ad es. “abbiamo rilasciato la funzione X e 200 utenti l’hanno già utilizzata nelle prime 24h”). Questo sposta pian piano la conversazione.

  • Re-immaginare il ruolo del management e dei coach: in un modello agile evoluto, il middle management tradizionale (Project Manager, etc.) può sentirsi disorientato. Gartner prevede che entro il 2026 “due terzi dei ruoli e delle competenze dei Project Manager saranno ridisegnati” per adattarsi al nuovo contesto operativo. Ciò significa che queste persone vanno aiutate a trasformarsi da controllori di Gantt a abilitatori di successo del team. Un ex-PM può diventare un Agile Coach interno focalizzato su rimuovere impedimenti, facilitare collaborazione tra team e assicurare che il cliente sia integrato nel processo. Oppure, molti PM stanno evolvendo in Product Manager (orientati alla strategia e al value delivery più che all’amministrazione del progetto). Le aziende dovrebbero investire in training mirato: ad esempio, formare gli ex Scrum Master/PM sui temi di Lean Product Management, Design Thinking, analisi di business, in modo che possano contribuire definendo meglio il perché e il cosa deve essere fatto (outcome), lasciando al team il come. In parallelo, gli Engineering Manager dovrebbero essere formati per assumere alcuni compiti di facilitazione che magari prima erano del PM: come condurre retrospettive efficaci, come leggere i segnali di burnout nel team, come bilanciare l’urgenza di delivery con la necessità di rifattorizzare codice, ecc. In sostanza, si passa da manager di processo a leader servizievoli. Anche la carriera di Agile Coach in sé va reinterpretata: non più garanti di cerimonie Scrum, ma agenti del cambiamento culturale. Questo può voler dire che un Agile Coach lavora più sul livello sistema (aiuta i dirigenti a capire dove la burocrazia sta frenando i team, influenza HR per modificare sistemi di incentivazione, etc.) invece che occuparsi di cronometrare daily stand-up. Infine, un approccio pratico è adottare la filosofia del “teacher/coach/mentor” per i manager di progetto di vecchio stampo: Gartner suggerisce che i PM evoluti dovranno giocare principalmente tre ruoli:

    • Teacher (educare team inesperti nell’agilità)

    • Coach (allineare stakeholders e guidare l’organizzazione del lavoro agile)

    • Leader di innovazione a seconda della maturità dell’organizzazione. Analizzare il proprio PMO (Project Management Office) e identificare chi può ricoprire questi ruoli è un buon esercizio per anticipare il futuro.

  • Snellire gli strumenti e digitalizzare la collaborazione: molte aziende agili mature hanno costruito tool interni altamente integrati (issue tracker, wiki, sistemi CI/CD, ecc.) per supportare il lavoro dei team. Un’azienda più piccola o tradizionale può prendere ispirazione adottando strumenti moderni più leggeri o customizzando quelli esistenti per rimuovere complessità inutile. Ad esempio, diverse società lamentano che JIRA (pur usatissimo, ~62% delle aziende lo impiega come principale tool Agile) sia diventato sinonimo di overhead burocratico: troppi ticket, troppi campi, workflow rigidi. Un miglioramento può essere semplificare i workflow JIRA (ridurre stati e transizioni all’essenziale) o sperimentare alternative per certi team (es. usare una Kanban board più semplice come Trello, o addirittura soluzioni lightweight come fogli condivisi) per vedere se la velocità e la soddisfazione aumentano. L’importante è capire che lo strumento deve adattarsi al team, non viceversa. Scrum e JIRA tendono ad andare a braccetto, perché JIRA è ottimo per il tracking gerarchico e la reportistica per il management. Ma se l’obiettivo diventa la trasparenza reale e non il controllo, allora spesso bastano dashboard condivisi degli OKR e delle metriche di prodotto per allineare tutti, invece di infiniti ticket.

  • Digital first: adottare strumenti che favoriscano la collaborazione asincrona (specie con lo smart working) è cruciale, es. documenti condivisi per specifiche al posto di meeting, canali chat dedicati cliente-team, registrazione delle demo e condivisione interna per feedback offline, ecc. Le grandi aziende adottano da anni Slack/Teams con bot automatici che postano aggiornamenti (build riuscite, metriche di ieri, nuovi errori in prod…), creando “ambient awareness” senza dover interrogare un project manager. Anche senza l’infrastruttura di Google, si può replicare questo mindset utilizzando API e integrazioni tra tool esistenti.

  • Imparare dai dati e dagli esperimenti: non ultimo un consiglio chiave, trattare l’adozione di nuovi modelli come un esperimento Agile esso stesso.

    1. Misurate l’impatto delle modifiche organizzative. Ad esempio, se rimuovete la figura dello Scrum Master su alcuni team, osservate per 2-3 mesi metriche come: velocità di delivery, qualità del prodotto (bug in produzione), soddisfazione del team (survey interni), soddisfazione dei clienti. Se migliorano o restano uguali, potete considerare di estendere il modello; se peggiorano, analizzate il retro, forse il team aveva ancora bisogno di quel supporto e va reintrodotto in altra forma. Applicate l’idea di retrospective non solo ai progetti, ma anche al processo di trasformazione organizzativa: ad intervalli regolari, il gruppo dirigente (magari col supporto di coach esterni) dovrebbe rivedere cosa sta funzionando e cosa no nella nuova struttura e pivotare di conseguenza.

    2. Non abbiate paura di modificare radicalmente aspetti del processo se non servono. Come disse un coach: “Il nostro obiettivo come agile coach dovrebbe essere renderci superflui, quando una squadra si auto-gestisce e consegna valore senza il bisogno di coach, allora abbiamo avuto successo.” In quest’ottica, anche Scrum non deve essere visto come sacro: se serve come trampolino di lancio, bene, ma poi bisogna saperlo lasciare andare. In molti contesti (soprattutto aziende più piccole o settori non tech) Scrum all’inizio può essere utile per portare disciplina e cadenza dove c’era caos totale. Ma una volta che il team entra in performing, dovrebbe avere la libertà di evolvere il processo. Jeff Bezos di Amazon ha una famosa metafora: “Le aziende devono essere ferme nei principi, ma flessibili nei dettagli”. Applicato all’Agile: teniamo fermi i principi (customer focus, collaborazione, adattabilità) ma siate flessibili su pratiche e ruoli.

L’evoluzione dell’Agile nelle imprese più innovative suggerisce che il futuro non appartiene a un nuovo framework specifico, ma a un nuovo mindset. Un mindset in cui contano la cultura e gli outcome, dove i team sono piccoli centri autonomi di creatività allineati da una vision comune, e dove la metodologia è una conseguenza naturale di questi fattori più che un preludio.

Scrum non scomparirà dall’oggi al domani rimane uno strumento valido in molti contesti (specialmente dove c’è bisogno di introdurre un minimo di ordine e educare l’organizzazione al lavoro iterativo). Ma la sua centralità è destinata a ridursi mano a mano che le aziende maturano verso forme di agile più organiche. Come notato, “scelto il giusto talento e data la giusta autonomia, un team finirà per sviluppare un proprio sistema agile su misura”.

Il compito di chi vuole indirizzare i nuovi progetti e le nuove aziende è quindi creare l’ambiente adatto (cultura aperta, obiettivi chiari, feedback costante, strumenti adeguati) e poi mettersi al servizio dei team. In questo modo, le aziende potranno evolvere dai rituali alla sostanza, ispirandosi ai modelli vincenti delle Big Tech ma trovando la propria strada unica per essere agili, con la “a” minuscola, come attitudine quotidiana, e non solo fare “Agile” come etichetta.

Tutti a caccia di CAIO (Chief AI Officer). Ma nessuno che pensa a Sempronio

L’intelligenza artificiale è l’attore principale della scena che stiamo vivendo, ormai in tutte le riunioni, richieste e riflessioni. Ed è un tema talmente caldo che, come succede sempre, ne è nata una nuova stella ai piani alti delle aziende: il Chief AI Officer (CAIO).

La “febbre” dell’AI è tale che quasi la metà (48%) delle aziende FTSE 100 ha già nominato un CAIO o una figura equivalente, e oltre il 40% di questi incarichi è stato creato solo dall’inizio del 2024. Questo trend riflette l’importanza strategica crescente attribuita all’AI.

Tutti pensano a CAIO: c’è grande enfasi su strumenti, modelli e piattaforme da implementare, nella speranza che l’AI porti innovazione e vantaggio competitivo. Ma dietro l’entusiasmo tecnologico, come dico da po’, c’è una domanda cruciale che non tutti si stanno ponendo: ci stiamo preparando adeguatamente sul lato organizzativo, culturale e umano? In altre parole, mentre nelle aziende tutti corrono a pensare a “Caio”, forse dovremmo iniziare a mettere la testa su “Sempronio” un nome di fantasia per indicare ciò che spesso manca all’appello: l’attenzione al fattore umano nel successo dell’AI.

Già, perché l’AI non si limita a hardware e algoritmi; trasforma il lavoro delle persone, i processi decisionali e la cultura aziendale. Ed è proprio su questo che si gioca la vera partita dell’innovazione e dell’adozione, in modo corretto.

Il paradosso: enfasi sulla tecnologia, ma la cultura resta indietro

C’è un paradosso evidente nell’adozione dell’AI oggi. Da un lato, le aziende investono in tecnologie all’avanguardia e creano ruoli dedicati come il CAIO, spesso affidati a esperti con un solido background tecnico (il 67% dei Chief AI Officer proviene da data science, ingegneria o IT). Dall’altro lato, molti progetti di AI stentano a produrre risultati concreti o falliscono del tutto, nonostante le risorse impiegate. Anzi, alcune ricerche stimano che oltre l’80% dei progetti di AI non riesca a raggiungere gli obiettivi prefissati.

Perché succede? Spesso perché ci si concentra più sulla tecnologia in sé che sui problemi reali da risolvere e sulle persone coinvolte. In pratica, molte organizzazioni finiscono col costruire “cattedrali” tecnologiche che però non risolvono alcun problema concreto, per citare le parole di un esperto del settore. Succede quando si adotta l’AI per moda o pressione competitiva, senza una chiara focalizzazione sugli obiettivi di business e senza considerare l’impatto sui collaboratori. Il risultato? Iniziative sperimentali che rimangono al palo, diffidenza interna e valore aggiunto vicino allo zero.

La verità è che il principale ostacolo non è (solo) tecnico, ma culturale. Molte imprese scoprono che implementare l’AI richiede un cambiamento profondo nel modo di lavorare e pensare. Ad esempio, esperienza personale vissuta, nelle aziende italiane una delle sfide maggiori è proprio la resistenza culturale e organizzativa: l’AI è spesso percepita come una minaccia per l’occupazione o come una complessità non necessaria, generando sfiducia e approcci conservativi. In queste condizioni l’innovazione viene rallentata, mentre l’adozione efficace dell’AI richiede un cambiamento culturale profondo, che parta dalla leadership e coinvolga tutti i livelli aziendali.

Un’altra dimensione del paradosso è la differenza di velocità: la tecnologia evolve a ritmo esponenziale, mentre le persone e la cultura aziendale cambiano a ritmo molto più lento. Questo crea un “gap” pericoloso. Come ha osservato Javier Zamora dell’IESE Business School, l’unico modo per colmare questo divario è che il top management dia priorità strategica all’adozione dell’AI, investendo risorse e promuovendo attivamente una cultura aperta al cambiamento.

In teoria, lo stesso CAIO dovrebbe essere il regista di questa trasformazione culturale: il suo ruolo ideale infatti “non è solo guidare l’adozione dell’AI, ma orchestrare il cambiamento culturale necessario perché la tecnologia sia integrata nell’organizzazione”. Nella pratica però, ciò avviene di rado se l’attenzione dell’azienda resta puntata unicamente su algoritmi e dashboard invece che su persone, processi e mindset, ma soprattutto su professionisti con un background estremamente (solo) tecnico.

Ma dopo tutto come hanno sintetizzato diversi studi “il percorso verso maggiore efficienza ed efficacia grazie all’AI non è tecnico, bensì umano”. Servono competenze di change management, adozione culturale diffusa e formazione, ambiti che non sono tradizionalmente il forte di data scientist e ingegneri. Ecco il cuore del paradosso: stiamo investendo tantissimo in CAIO e tecnologia, ma troppo poco in quel lavoro paziente di evoluzione culturale e organizzativa senza cui l’AI rimane un corpo estraneo.

Ma chi è “Sempronio”?

A questo punto entra in scena “Sempronio”. Nell’antico detto italiano “Tizio, Caio e Sempronio” i nomi valgono per chiunque; qui li usiamo per rappresentare due approcci. Se CAIO (Caio) incarna l’approccio focalizzato sulla componente tecnologica dell’AI,  strategie algoritmiche, modelli da implementare, infrastrutture IT – Sempronio rappresenta invece tutto ciò che riguarda le persone, la cultura e i processi nell’era dell’intelligenza artificiale.

Immaginiamo Sempronio come la funzione o l’insieme di competenze dedicato a far sì che l’AI attecchisca davvero nel tessuto aziendale. Non è necessariamente una singola persona o un nuovo titolo formale (anche se qualcuno ironicamente potrebbe proporre un “Chief Adoption Officer” o un “Chief Change Officer” per l’AI). Più che un ruolo unico, Sempronio è un approccio integrato: è chi cura il cambiamento culturale, la formazione continua, la definizione di governance etica e la gestione quotidiana del cambiamento organizzativo legato all’AI.

Possiamo dire che Sempronio è, metaforicamente, il “partner” invisibile del CAIO. Mentre il CAIO spinge l’AI dall’alto, Sempronio crea le condizioni perché l’AI venga accolta positivamente dal basso. Sempronio parla con i team, rassicura chi teme di essere sostituito dalle macchine, spiega ai non-tecnici cosa può (e non può) fare l’AI, e li coinvolge nella co-creazione di soluzioni. Sempronio aggiorna le politiche interne per incorporare l’AI in modo responsabile, assicurandosi che vengano rispettati valori ed etica aziendale. Sempronio, in sostanza, mette le persone al centro dell’innovazione tecnologica.

Oggi, tutti guardano a CAIO, perché è naturale focalizzarsi sulla novità tangibile (la tecnologia, l’esperto che la guida). Ma la vera differenza la farà Sempronio, ovvero la capacità dell’organizzazione di adattarsi e imparare. Sempronio è quel collega (o quell’insieme di colleghi e leader) che si premura di fare domande come: “I nostri dipendenti sono pronti per questa innovazione? Come possiamo aiutarli a esserlo? Abbiamo cambiato i nostri processi, le metriche, la mentalità per sfruttare davvero l’AI?” Senza qualcuno che si ponga queste domande, senza un Sempronio, il rischio è di inseguire l’AI come fine a se stessa, implementando soluzioni che sulla carta sono potenti, ma che nessuno utilizza appieno o di cui non ci si fida.

Sempronio incarna la consapevolezza che l’AI nelle aziende è prima di tutto una trasformazione umana. È un richiamo a non lasciare indietro le persone mentre la tecnologia avanza. E ora vediamo più concretamente cosa significa attivare questo “spirito di Sempronio” nelle nostre organizzazioni.

Cosa serve alle aziende (oltre al CAIO)

Come possono le aziende passare dalla semplice implementazione di tecnologie AI a una vera integrazione dell’AI nel modo in cui lavorano e creano valore? Di seguito i “pilastri” del lavoro di Sempronio per abilitare un’adozione efficace e sostenibile dell’intelligenza artificiale.

  1. Visione chiara e sponsorship dall’alto: ogni trasformazione riuscita parte da una leadership convinta e coinvolta. Il top management deve includere l’AI nella strategia aziendale e comunicarne l’importanza a tutta l’organizzazione. Senza una sponsorizzazione attiva da parte del management, le iniziative AI faticano a decollare. Inoltre, i vertici devono prepararsi a un percorso non banale: come detto, la cultura non cambia alla stessa velocità della tecnologia, quindi servono pazienza e investimenti costanti. La direzione deve creare un senso di urgenza positivo attorno all’AI (non paura), definendo obiettivi concreti e condivisi che l’AI aiuterà a raggiungere (es. migliorare l’esperienza cliente, rendere i processi interni più efficienti, ecc.), anziché puntare sull’AI come moda del momento. In poche parole, serve una visione in cui l’AI sia un mezzo per un fine chiaro, e questa visione va raccontata e incarnata dal management giorno per giorno.
  2. Cambiamento culturale e mindset aperto: adottare l’AI richiede nuove abitudini di lavoro e mentalità. Non basta installare un software di machine learning se poi le persone non si fidano dei suoi output o continuano a prendere decisioni come prima. È dunque fondamentale coltivare una cultura aziendale “AI-ready”, in cui l’innovazione venga accolta con curiosità anziché timore. Come ho detto in diversi articoli, molte iniziative falliscono perché “si perde di vista l’obiettivo utente e di business”, costruendo soluzioni spettacolari ma inutili. Per evitarlo, bisogna partire dal problema da risolvere, non dalla tecnologia: chiedersi quale risultato concreto vogliamo ottenere e solo poi come l’AI possa contribuire. Questa è una vera svolta di mindset. Inoltre, i leader devono incoraggiare un ambiente di sperimentazione e apprendimento continuo. Creare spazi in cui fare prove, anche sbagliare, e imparare insieme è cruciale per assimilare l’AI. Servono quindi iniziative per diffondere curiosità e sicurezza psicologica: ad esempio, promuovere domande aperte (“Come potremmo usare l’AI per…?”) e dare il buon esempio nel mettersi in gioco con le nuove tecnologie. Le aziende AI-ready sono quelle dove c’è apertura mentale a tutti i livelli e dove l’AI non è vista come una minaccia, ma come un’opportunità da esplorare collettivamente. In poche parole occorre riallineare la cultura: dall’avversione al rischio tipica di contesti tradizionali, verso un atteggiamento di exploration guidata, in cui l’AI è uno strumento per innovare insieme.
  3. Formazione diffusa e sviluppo di competenze: l’AI non potrà mai diventare parte del DNA aziendale se rimane appannaggio di pochi esperti. È vitale investire in upskilling e ** alfabetizzazione ai dati e all’AI (data literacy)** su larga scala. Tutti i livelli organizzativi dovrebbero avere l’opportunità di capire, almeno nelle basi, cosa sia un algoritmo di AI, quali tipi di problemi può risolvere e come collaborare con esso. Questo non significa trasformare ogni dipendente in un data scientist, ma fornire il contesto e la confidenza necessari per interagire con le soluzioni AI senza paura. Ad esempio, formare i manager non tecnici a porre le domande giuste sui progetti AI, o i knowledge worker ad usare strumenti AI (come i sistemi di machine learning o le piattaforme di analytics) nei propri processi quotidiani. Come osserva Zamora, il CAIO dovrebbe farsi promotore di questa democratizzazione, formando i dipendenti e diffondendo la “data literacy” in azienda. Ciò può avvenire tramite workshop, e-learning, progetti pilota in cui i team imparano facendo (test & learn o learning by doing). Un altro aspetto formativo è la condivisione di best practice interne: far raccontare alle persone i successi (e fallimenti) nell’uso dell’AI, per normalizzare l’AI come parte del lavoro. In ogni caso, l’obiettivo è creare una forza lavoro che si senta partecipe della trasformazione AI, competente abbastanza da utilizzarla e da dare feedback. Senza questo sforzo educativo, il rischio è di avere da un lato una ristretta élite tecnica che “fa cose con l’AI”, e dall’altro la maggioranza dei dipendenti che guarda da lontano con scetticismo. La formazione diffusa abbatte questa barriera, creando coinvolgimento e fiducia.
  4. Governance ed etica nell’uso dell’AI: un elemento spesso sottovalutato, ma fondamentale, è la definizione di una solida governance per l’AI. Significa stabilire regole, processi e ruoli chiari per assicurare che l’AI venga utilizzata in modo responsabile, trasparente e allineato ai valori aziendali. Le domande etiche e di compliance abbondano: come evitare che un algoritmo di recruiting sia influenzato da bias discriminatori? Chi è responsabile se un modello AI prende una decisione errata con impatti su clienti o operazioni? Come garantire la privacy dei dati usati per allenare i modelli? Per affrontare questi temi, le imprese devono dotarsi di principi e policy ad hoc – talvolta riuniti in codici etici per l’AI – e meccanismi di controllo. Si parla molto spesso di rischio FATE (Fairness, Accountability, Transparency, Ethics) per l’AI, a indicare le principali sfide da governare. A livello pratico, servirà ad esempio un comitato di governance dell’AI, che coinvolga oltre al CAIO anche figure di compliance, HR, legali ed esperti di processo, per valutare rischi e impatti delle soluzioni AI introdotte. Costruire fiducia è la parola chiave: i dipendenti e gli utenti finali adotteranno l’AI solo se la percepiranno come affidabile e fair. Quindi, trasparenza sugli algoritmi (per quanto possibile), spiegabilità dei risultati, test rigorosi prima del deployment e possibilità di intervento umano in caso di errore sono tutti aspetti da curare. Come indicato in una recente lista di linee guida, le aziende dovrebbero predisporre fin da subito meccanismi per aumentare la comprensione e la fiducia in come l’AI viene testata, validata e introdotta nei flussi di lavoro, oltre a pianificare la scalabilità con un’adeguata infrastruttura e readiness culturale. In pratica: governare l’AI significa sia gestire i rischi (etici, legali, reputazionali), sia preparare il terreno per un’adozione in grande scala, creando standard interni e linee guida che facciano sentire tutti più sicuri nell’utilizzo di queste tecnologie.
  5. Change management e coinvolgimento attivo: ultimo ma non meno importante pilastro è la gestione del cambiamento vero e proprio. L’introduzione dell’AI impatta su processi, ruoli e abitudini quotidiane – è quindi fondamentale accompagnare le persone in questo percorso, comunicando, ascoltando e coinvolgendo. Un errore classico è calare dall’alto nuovi strumenti AI aspettandosi che vengano adottati automaticamente. Al contrario, come avverte Zamora, se i progetti sono percepiti come imposti da un comitato centrale, le resistenze all’adozione aumentano significativamente. Serve dunque un approccio partecipativo: coinvolgere sin dall’inizio i team destinatari delle soluzioni AI nella loro progettazione, raccogliere feedback, individuare insieme i casi d’uso più rilevanti. Le figure di change agent (che possono essere manager illuminati o referenti interni formati allo scopo) dovrebbero fare da ponte tra il team AI e il resto dell’organizzazione, spiegando benefici e affrontando le preoccupazioni. Una comunicazione chiara è essenziale: raccontare perché si adotta una certa AI, quali vantaggi porterà e come cambierà (o non cambierà) il lavoro quotidiano delle persone. Bisogna anche riconoscere e gestire le paure legittime: ad esempio, rassicurare sul fatto che l’AI supporta le decisioni umane senza automatizzare via il giudizio critico, oppure che l’introduzione di automazione libererà tempo per attività a maggior valore aggiunto. Un buon piano di change management include quick win (piccoli successi iniziali da pubblicizzare internamente), formazione sul campo, e magari il coinvolgimento di champion interni (persone rispettate che fanno da ambasciatori positivi dell’AI verso i colleghi). L’obiettivo finale è far sì che l’AI non sia vista come il “progetto dell’IT” o un’imposizione misteriosa, ma come un’evoluzione naturale e condivisa del modo di lavorare. Quando le persone si sentono parte del cambiamento, lo abbracciano con molta più convinzione. Ecco perché il ruolo di Sempronio – cioè di chi orchestra questo processo umano – è cruciale tanto quanto quello di chi installa l’ultima tecnologia.

Una adozione necessaria

Il messaggio è chiaro: l’adozione efficace dell’AI è un gioco a due dimensioni. Da un lato la dimensione tecnica, guidata dal CAIO o figure simili, fondamentale per scegliere le giuste soluzioni AI, implementarle e portarle in produzione. Dall’altro la dimensione umana-organizzativa, incarnata da “Sempronio”, che è altrettanto fondamentale per far fiorire quelle soluzioni nell’ecosistema aziendale.

Oggi molte aziende hanno fretta di mettere in piedi la prima dimensione  “Assumiamo un esperto AI, compriamo questa piattaforma di machine learning, e il futuro è risolto” ma poche dedicano la stessa cura alla seconda. È comprensibile: i risultati di un algoritmo si possono misurare subito, mentre i cambiamenti culturali sono più sfumati e richiedono tempo. Eppure, ignorare Sempronio significa condannare l’iniziativa AI a restare lettera morta. Senza investire in cultura, competenze e change management, l’AI migliore del mondo rimarrà inutilizzata o osteggiata, un potenziale mai realizzato.

La provocazione finale che voglio condividere è questa: nel prossimo meeting strategico, accanto alla domanda “Qual è la nostra strategia AI?” iniziate a chiedervi “Qual è il nostro piano di cambiamento culturale per l’AI?”. Se avete nominato (o state per nominare) un CAIO, pensate a chi o cosa sarà il vostro “Sempronio”. Potrebbe essere una task force interfunzionale, un programma di trasformazione interna, o semplicemente un insieme di leader illuminati che si fanno carico di guidare le persone attraverso il cambiamento. L’etichetta conta poco; ciò che conta è riconoscere esplicitamente questa esigenza.

In un’epoca in cui l’AI promette di ridisegnare interi settori, le aziende di successo non saranno solo quelle con gli algoritmi più avanzati, ma quelle con le persone più preparate e una cultura abbastanza adattiva per sfruttarli al meglio. In altre parole, vincerà chi saprà far collaborare Caio e Sempronio, ossia tecnologia e umanità, in una orchestra ben sincronizzata.

Dalla previsione alla creazione: il vero shift dell’Intelligenza Artificiale è appena iniziato

Per anni abbiamo considerato l’intelligenza artificiale come uno strumento predittivo. Un sistema capace di analizzare grandi moli di dati per dirci cosa sarebbe potuto accadere: dalla domanda di un prodotto all’andamento di un mercato, fino alla prossima mossa di un cliente.

Era l’epoca dell’AI come prediction machine, come l’hanno definita Agrawal, Gans e Goldfarb nel loro libro. Un’epoca in cui il valore si generava ottimizzando: supply chain, previsioni finanziarie, raccomandazioni personalizzate.

Oggi, però, stiamo assistendo a un vero e proprio cambio di paradigma. Un shift profondo, culturale prima ancora che tecnologico: l’AI non si limita più a prevedere, inizia a creare.

L’avvento dei modelli generativi ha trasformato l’AI in un alleato nella progettazione, nella scrittura, nella scoperta scientifica. Algoritmi capaci di produrre contenuti originali, generare codice, disegnare prodotti, ipotizzare molecole. Non è solo efficienza: è creatività aumentata. E chi lavora sull’innovazione non può più ignorarlo.

Il nuovo mindset dell’innovatore

In questa prima newsletter di InsideTheShift, che esce il lunedi alle 9:41, racconto proprio questo cambiamento: il passaggio dall’AI come oracolo statistico a co-creatore artificiale. Una trasformazione che ridefinisce il ruolo di chi guida il cambiamento, obbligando aziende e professionisti a rivedere approcci, processi, ruoli e strumenti.

Non parliamo più solo di usare l’AI per “prevedere meglio”. Parliamo di usarla per “immaginare di più”. Le aziende più lungimiranti stanno già applicando questo approccio: avviano brainstorming con modelli generativi, prototipano idee in tempo reale, validano alternative attraverso simulazioni aumentate.

Dati, segnali e accelerazione

Il cambiamento è documentato e accelerato. L’adozione di strumenti generativi ha raggiunto livelli senza precedenti. ChatGPT ha superato i 100 milioni di utenti mensili in meno di due mesi. Secondo l’AI Index Report di Stanford, nel 2024 il 71% delle aziende ha già integrato l’AI generativa in almeno un’area del proprio business. Gli investimenti privati sono esplosi. I costi si sono abbattuti drasticamente, rendendo queste tecnologie accessibili anche a startup e singoli professionisti.

La domanda non è più se adottare queste tecnologie, ma come integrarle strategicamente, in modo consapevole e sostenibile.

L’AI generativa come leva strategica

In newsletter esploro anche il funzionamento dei modelli generativi, dai Transformer ai modelli di diffusione, e il loro impatto concreto: non solo nella produzione creativa, ma anche nella trasformazione delle organizzazioni. Dall’emergere di nuove figure professionali (AI strategist, prompt engineer, ethics designer) alla necessità di nuove strutture di governance.

È un momento in cui serve visione, ma anche capacità operativa. Ecco perché condivido anche i pattern e strumenti concreti che uso nel mio lavoro quotidiano: dai modelli “human outlining + AI filling” alla simulazione narrativa con agenti AI.

E poi? Verso un futuro co-creato

Il futuro che si sta delineando è quello della co-creazione continua, della strategia aumentata, della personalizzazione radicale. Dove i team creativi collaborano con modelli generativi, e ogni idea nasce da un dialogo ibrido tra mente umana e intelligenza artificiale. Un futuro in cui non si tratta solo di produrre più velocemente, ma di progettare meglio, con più varianti, più intelligenza, più prospettiva.

Con un messaggio chiaro: la vera trasformazione non sta nell’AI in sé, ma in come scegliamo di usarla per creare ciò che davvero ha senso, impatto e valore.


📩 Leggi la newsletter completa (in inglese):
InsideTheShift #1 – The Shift in Focus

📌 In arrivo nel prossimo numero:
“Quando l’AI diventa interfaccia: la nascita delle piattaforme cognitive”

Oltre l’efficienza: l’AI generativa e la trasformazione del lavoro quotidiano

Ogni giorno che passa, vedo l’Intelligenza Artificiale generativa insinuarsi sempre più nelle attività professionali quotidiane. Non si tratta solo di aumentare l’efficienza, ma di ridefinire il modo in cui apprendiamo, progettiamo e prendiamo decisioni. Da imprenditore (e consulente negli ultimi anni su questi temi), ho imparato che l’AI non è una bacchetta magica calata dall’alto: è uno strumento potente da comprendere a fondo e da sfruttare in modo pragmatico.

Che l’adozione dell’AI generativa stia rivoluzionando il lavoro non c’è dubbio, ma dobbiamo sfatare alcuni miti e abbracciare un approccio sperimentale basato sui dati. La collaborazione tra uomo e macchina evolve, ed è importante capire quali impatti trasformativi attendono i modelli di business e le organizzazioni, dalla personalizzazione dei servizi ai nuovi ruoli professionali, fino al modo in cui una organizzazione rivedrà modello completamente i modelli organizzativi e l”integrazione di “competenze specifiche” agentive.

Nuovi modi di imparare, creare e decidere oltre l’efficienza

L’adozione dell’AI generativa sta già andando oltre il semplice risparmio di tempo: sta aprendo nuove modalità di apprendimento, di creatività progettuale e di decision-making informato. Qui di seguito, anche in vista di un workshop che ho settimana prossima, ho buttato giù alcuni esempi quotidiani di come questi strumenti stiano cambiando il nostro modo di lavorare:

  1. Apprendimento e ricerca dinamica: professionisti di ogni settore usano chatbot avanzati come fossero tutor personali o ricercatori instancabili. È possibile approfondire argomenti complessi dialogando con modelli tipo ChatGPT, Perplexity o Claude, che sintetizzano informazioni dal web e dai documenti. Se voglio capire per esempio un caso studio di business o le vicende di un personaggio citato in un talk ispirazionale, posso interrogarne l’AI integrata nella ricerca Internet e ottenere risposte contestuali e approfondite. Questo approccio interattivo all’apprendimento sta sostituendo molte ricerche tradizionali: si pone una domanda, si ottiene una spiegazione, poi si chiedono chiarimenti e dettagli aggiuntivi, in un ciclo rapido di domande-risposte. Immaginiamo un giovane manager che vuole approfondire tecniche di leadership situazionale: con un’AI generativa può esplorare concetti psicologici e consigli pratici in una conversazione, anziché leggere decine di articoli separati. Il sapere diventa più accessibile e personalizzato.

  2. Creatività e progettazione aumentata: designer, architetti, marketer innovativi sfruttano l’AI per generare bozze, schemi e prototipi in pochi istanti. Esistono modelli text-to-image come lo stesso ChatGpt, DALL-E o Midjourney o tanti altri che, fornito un concept, producono visualizzazioni e schizzi utili a ispirare il lavoro creativo. Un designer di prodotto chiede all’AI di immaginare varianti di un concept e ottenere in output immagini o diagrammi da affinare. Allo stesso modo, un team di innovazione può usare l’AI per brainstorming: generare idee di nuovi servizi o campagne marketing a partire da pochi spunti testuali. Questo non significa delegare del tutto la creatività alla macchina, ma ampliare la portata dell’ingegno umano: l’AI fornisce suggerimenti grezzi, l’esperto umano li seleziona e sviluppa quelli vincenti. Si abilitano così processi di progettazione iterativi più rapidi, dove l’umano e l’AI giocano di sponda per arrivare a soluzioni originali.

  3. Comunicazione e linguaggio assistito: nella scrittura professionale l’AI è divenuta, come era ovvio, un’alleata preziosa. Non tanto per scrivere testi interamente al posto nostro (il valore autentico di una voce umana resta fondamentale nel content marketing e nella comunicazione aziendale), bensì come “editor aumentato”. Strumenti come ChatGPT vengono usati per revisionare bozze, ridurre ambiguità e ottimizzare toni e stili. Un imprenditore può ad esempio farsi aiutare dall’AI a controllare se una mail importante risulta chiara e persuasiva, puntuale e priva di bias, chiedendo al modello di evidenziare possibili fraintendimenti o migliorare certe frasi. Allo stesso tempo, le AI generative eccellono nella traduzione contestuale: in azienda ormai si preferisce spesso dare in pasto un paragrafo all’AI chiedendo “come posso esprimere questo concetto in inglese in modo efficace?”, ottenendo traduzioni/adattamenti su misura, spesso migliori dei vecchi traduttori automatici. La capacità di comunicare migliora perché abbiamo un feedback istantaneo e intelligente su tutto ciò che scriviamo, in qualsiasi lingua.

  4. Automazione di task tecnici e ripetitivi: questo è uno dei punti sul tema della produttività che personalmente sto vedendo come enorme beneficio. L’AI generativa sta alleggerendo il carico di lavoro su molti compiti ripetibili o tecnici, permettendo di concentrarsi su attività più strategiche. Un esempio lampante è il coding assistito: sviluppatori software usano strumenti come GitHub Copilot o ChatGPT per generare porzioni di codice, debuggare errori o configurare ambienti, riducendo il tempo speso in ricerche su StackOverflow (non a caso il traffico su forum tradizionali sta calando, segno che molti preferiscono chiedere direttamente all’AI). Questo non elimina la figura del programmatore, ma la potenzia: problemi ostici – ad esempio risolvere un conflitto di dipendenze in un progetto – possono essere inquadrati dall’AI che propone soluzioni, mentre lo sviluppatore mantiene il controllo verificando e integrando il codice suggerito. Altre forme di automazione quotidiana includono la generazione di report, di gestione di dati attraverso strumenti misti di marketing automation ed ai, o ancora slide (per quanto personalmente sia un esteta delle slide fatte a mano): oggi un chiunque può chiedere a un’AI di riassumere dati di vendita in un briefing o persino di creare la bozza di una presentazione, svolgendo in minuti lavori preparatori che avrebbero richiesto ore. Queste automazioni selettive liberano tempo umano prezioso, trasformando l’approccio al lavoro: meno micro-attività manuali, più supervisione e creatività.

  5. Analisi e decision-making data-driven: altro tema che a mio avviso è anche troppo sottovalutato, con l’AI diventano più accessibili anche analisi complesse su dati e scenari decisionali. Strumenti di generative AI addestrati su dati numerici possono esplorare dataset, trovare trend e presentare risultati in linguaggio naturale. Un analista di mercato può interrogare un modello per confrontare le performance di diverse strategie, oppure un appassionato di finanza personale può farsi riassumere dall’AI i bilanci di un’azienda prima di decidere un investimento, o analizzare la distribuzione di un investimento o la riallocazione. Nel mio caso, ho usato più volte Claude (e altri strumenti) per confrontare benchmark, analizzare prodotti, confrontare titoli, o fare ricerche e confronti su tariffe, usando vari prompt iterativi. Certo, serve occhio critico – l’AI a volte commette imprecisioni – ma usata con attenzione diventa un assistente per prendere decisioni più informate e più rapidamente. Molte aziende stanno iniziando a comprenderne il potenziale impatto: integrazioni di AI nei fogli di calcolo e nei BI tools consentiranno sempre più a manager di porre domande in linguaggio naturale (“Quali prodotti hanno avuto la crescita più alta quest’anno e perché?”) ottenendo insight immediati, senza dover attendere lunghe analisi manuali dei data analyst.

Questi casi d’uso, per quanto semplici, dimostrano che l’AI generativa sta rimodellando le nostre abitudini professionali. Non è solo questione di fare più in fretta ciò che già facevamo: spesso permette di fare cose che prima non erano fattibili, o di approcciare i problemi da angolazioni completamente nuove.

Va anche sottolineato che esiste un intero ecosistema di strumenti a supporto di questi nuovi modi di lavorare. Oggi abbiamo AI specializzate per quasi ogni esigenza: modelli di linguaggio generali come ChatGPT di OpenAI (e le sue alternative come Claude di Anthropic, Gemini di Google, o gli assistenti integrati nei motori di ricerca) dominano nella generazione di testi e conoscenza generale .

Per la creatività visiva ci si rivolge a generatori di immagini come Midjourney, DALL-E, Stable Diffusion, o strumenti come Ideogram specializzati in grafica. Nel campo dello sviluppo software proliferano i copilota di programmazione, addestrati su repository di codice, pronti a suggerire soluzioni in ambienti come Visual Studio Code, Cursor e altri. Non manca l’offerta di soluzioni “on premise” per i più esperti: dalle librerie open-source (basate su modelli open come Llama 2) a piattaforme come Ollama che consentono di eseguire LLM locali con modelli distillati.

Non esiste AI per tutto, ma esistono AI per tutto: ma una cassetta degli attrezzi variegata. Un professionista lungimirante oggi combina strumenti diversi a seconda del caso, invece di cercare la soluzione magica universale. E non solo li combina ma li usa, nel modo e tempo corretto, senza innamoramento, passando allo strumento che successivamente darà la miglior resa. Insomma sperimenta.

Dal mito dell’AI “magica” ad un approccio pragmatico e sperimentale

Nonostante questi progressi tangibili, attorno all’Intelligenza Artificiale aleggia ancora una narrazione “magica” e sensazionalistica. Quante volte post di vario genere hanno titolato in modo strillato su AI quasi onniscienti destinate a rimpiazzare l’uomo in un baleno, oppure su catastrofi imminenti degne di fantascienza? Questo mito dell’AI come entità quasi mistica è alimentato sia da hype mediativo sia da timori irrazionali. Ma in qualità di innovatori e ricercatori attivi dobbiamo andare oltre il mito e guardare le cose come stanno: l’AI non è stregoneria, è tecnologia fallibile ma migliorabile.

Adottare un approccio pragmatico significa sporcarsi le mani con gli strumenti, provarli sul campo, misurarne i risultati. Invece di aspettarci miracoli da un algoritmo sconosciuto, dobbiamo capire come funziona, quali dati richiede, quali sono i suoi punti deboli. Chiunque si sia occupato di innovazione e tecnologia sa che ogni nuova tecnologia attraversa una fase di maturazione: l’AI generativa di oggi è potentissima rispetto a pochi anni fa, ma presenta ancora limitazioni (dall’invenzione di fatti inesatti, al bias se i dati di addestramento sono distorti, fino ai costi computazionali non trascurabili). Senza una comprensione concreta di questi aspetti, rischiamo sia di sovrastimare sia di sottostimare l’AI.

Un esempio pratico? Pensiamo all’analisi dati con l’AI citata prima: per arrivare a un risultato affidabile ho dovuto iterare più volte il prompting, ripulendo anomalie e verificando l’output step by step. Non è stato affatto un processo “premi il bottone e magia fatta”; al contrario, ha richiesto spirito sperimentale, capacità critica e adattamento continuo, quasi fosse un dialogo con un giovane analista da istruire e correggere. Questo rispecchia un principio chiave: la GenAI va guidata dall’intelligenza umana. Chi la dipinge come una black box infallibile commette un errore tanto quanto chi la liquida come gioco inutile.

Fortunatamente, iniziano a diffondersi dati e studi che smontano la narrazione magica per restituirci un quadro più realistico. Anthropic ha analizzato milioni di conversazioni utente per capire in quali ambiti la gente utilizza davvero l’AI. Ne è emerso che l’uso effettivo dell’AI si concentra su compiti molto “terra-terra”, con una forte prevalenza di attività come programmazione e scrittura (insieme quasi la metà degli utilizzi ). Altro che scenari fantascientifici… le persone sfruttano l’AI dove serve concretamente, oggi, nel risolvere problemi quotidiani di lavoro. Inoltre, dallo stesso studio arriva un dato a mio avviso illuminante: nel 57% dei casi l’AI è usata per collaborare a un’attività umana, mentre solo nel 43% è delegata ad automatizzare un compito intero . Questo sfata l’illusione di massa di un’AI che lavora in autonomia totale: nella maggior parte degli scenari reali è un partner, non un sostituto completo.

Alla luce di questi elementi, il messaggio è chiaro: per abbracciare davvero l’AI occorre togliersi gli occhiali dell’illusione e adottare un approccio pratico, data-driven. Significa incoraggiare nelle aziende la sperimentazione controllata:

Piccoli progetti pilota per valutare l’impatto degli strumenti AI in specifiche aree, raccolta di metriche di performance, confronto dei risultati con i metodi tradizionali.

Solo così si costruisce una conoscenza solida su cosa funziona e cosa no. Per fare un parallelo, è come passare dall’alchimia alla chimica: meno incantesimi, più metodo scientifico.

Un imprenditore con background tecnico (e ne so qualcosa) sa bene che il valore di una tecnologia si misura sul campo. Se voglio introdurre un assistente AI nel servizio clienti, non mi fido di slide mirabolanti ma faccio un test su una piccola percentuale di chiamate, osservo come reagiscono i clienti, quantifico i tempi di risoluzione e la soddisfazione. Posso così iterare e migliorare il sistema, magari scoprendo che va bene per rispondere a FAQ semplici ma deve passare la mano a un umano per i casi complessi. Questo è un approccio sperimentale e iterativo, diametralmente opposto all’adozione “magica” dove ci si aspetta che la sola implementazione di un’AI porti risultati miracolosi.

Dobbiamo demistificare l’AI, credo sia fondamentale. Riconoscerne le capacità straordinarie ma anche i limiti attuali, e soprattutto capire che il fattore critico di successo risiede nell’uso che ne facciamo. L’AI non sostituisce la visione strategica, i dati solidi e la competenza umana – li amplifica, se usata con giudizio. Chi adotta questa mentalità pragmatica riuscirà a capitalizzare davvero sull’AI generativa, evitando sia le delusioni da aspettative irrealistiche sia il rischio di rimanere indietro ignorando una rivoluzione in atto.

Lavoro aumentato: collaborazione uomo-AI e competenze ibride

Uno degli aspetti più affascinanti ed intriganti dell’AI generativa e di questo momento storico è come sta ridefinendo il rapporto tra tecnologia e lavoro umano. Non stiamo assistendo a un semplice processo di sostituzione automatica, bensì alla nascita di un modello collaborativo uomo-macchina. Si parla spesso di augmented intelligence: l’intelligenza aumentata dove il risultato finale è dato dalla somma delle capacità umane e artificiali.

Abbiamo già visto che in oltre la metà dei casi d’uso l’AI affianca l’uomo anziché agire in autonomia . Questo si traduce in scenari quotidiani molto concreti. Un copywriter oggi lavora fianco a fianco con l’AI: lascia che il modello generi una prima bozza di testo o qualche idea creativa, poi interviene con il suo tocco umano per aggiustare tono, accuratezza e intuito narrativo. Il risultato finale è spesso migliore (e ottenuto più velocemente) di quello che avrebbe potuto fare l’AI da sola o il copywriter da solo. Allo stesso modo un medico radiologo può utilizzare un algoritmo di visione artificiale per evidenziare possibili anomalie in una lastra: l’AI segnala zone sospette, il medico le passa in rassegna una per una applicando la propria esperienza clinica prima di dare la diagnosi definitiva. Due teste – una silicea e una umana – lavorano meglio di una.

Questa collaborazione aumentata richiede però nuove competenze ibride. In passato, ciascun professionista si specializzava nel proprio dominio (il marketer nelle campagne, l’avvocato nei contratti, l’ingegnere nel progetto, etc.), interagendo con strumenti relativamente statici. Oggi invece diventa cruciale saper dialogare con l’AI, guidarla e controllarne i risultati. È la famosa abilità del prompting: formulare le richieste alla macchina nel modo giusto per ottenere output utili. Ma non solo. Servono capacità di valutazione critica dei risultati generati: il professionista deve saper individuare errori o incongruenze nell’output dell’AI (che spesso si presenta con tono sicuro anche quando sbaglia) e correggerli grazie alla propria expertise. In pratica la competenza tecnica si fonde con quella settoriale: nasce il marketer-prompt engineer, l’analista finanziario che padroneggia i modelli predittivi, l’avvocato che conosce i limiti dell’AI nel processing del linguaggio giuridico e la usa per le prime stesure.

Le competenze ibride stanno diventando così importanti che molte aziende le ricercano attivamente. In fase di assunzione già oggi si valuta non solo l’esperienza tradizionale, ma anche l’“AI aptitude” del candidato, ovvero la sua capacità di lavorare efficacemente con strumenti di intelligenza artificiale. In una ricerca Microsoft/LinkedIn, i manager hanno dichiarato che la padronanza dell’AI potrebbe presto pesare quanto gli anni di esperienza nel curriculum . È un cambiamento notevole nei criteri di selezione: chi ha intuito e familiarità nel farsi aiutare dall’AI parte avvantaggiato, perché potenzialmente più produttivo e adattabile alle nuove sfide.

D’altronde, stiamo vedendo emergere ruoli professionali prima impensabili proprio a cavallo tra competenze umane e AI. Il Prompt Engineer è l’esempio più citato, seppur a mio avviso non sarà una figura professionale ma una skill necessaria per molte professionalità (se non tutte) così come saper elaborare prompt e istruzioni per ottenere il meglio dai modelli generativi, soprattutto in contesti dove serve alta precisione. Ci sono poi il Model Trainer o AI Specialist, che all’interno di un’azienda si occupano di istruire i modelli sui dati proprietari e di definire come integrarli nei processi. Anche ruoli classici si stanno evolvendo: l’analista dati diventa AI data analyst quando lavora in tandem con algoritmi di Machine Learning; il designer UX inizia a considerare non solo l’esperienza utente tradizionale ma anche l’interazione uomo-AI; il responsabile del customer service diventa un orchestratore di team ibridi composti da operatori umani e chatbot AI.

È importante notare che l’automazione non avanza in blocco, ma in modo selettivo. I compiti ripetitivi e standardizzati sono i primi candidati a essere delegati interamente alle macchine (ad esempio la classificazione automatica di email, l’instradamento di chiamate, la verifica iniziale di dati). Altri compiti invece rimarranno saldamente in mano umana, magari supportati dall’AI: sono quelli che richiedono creatività, empatia, pensiero critico e contestualizzazione profonda. Questo equilibrio automazione vs intervento umano va calibrato con attenzione. Le aziende più avanti nel processo di ragionamento su questi temi oggi non cercano di rimpiazzare indiscriminatamente i lavoratori con l’AI, bensì di ridisegnare i flussi di lavoro in modo che ogni attività sia svolta dal “cervello” – biologico o artificiale – più adatto. Ne risulta una sorta di automazione aumentata: la macchina fa il grosso in alcuni step, l’uomo supervisiona e aggiunge valore in altri. Uno studio legale può utilizzare  l’AI per compilare una prima bozza di contratto standard raccogliendo clausole da template esistenti, e un avvocato controllerà ogni riga e adatterà le parti delicate alle specificità del cliente.

Per prepararsi a questo futuro del lavoro aumentato, investire nelle competenze ibride del personale è fondamentale. Formazione continua sull’AI per tutti i livelli (dai neolaureati ai dirigenti) è la parola d’ordine nelle organizzazioni vincenti. Non serve che tutti diventino data scientist, ma ciascuno deve essere messo in grado di capire le potenzialità e i limiti delle AI nel proprio ambito, e di collaborarci proficuamente. Chi lo fa godrà di un aumento di produttività significativo: non a caso, un recente Work Trend Index ha rilevato che ben 75% dei knowledge worker globali già utilizza strumenti di AI nel proprio lavoro , segno che chi ha queste skill non aspetta permessi ma abbraccia subito l’aiuto tecnologico.

Per gli altri c’è il rischio di rimanere tagliati fuori: “l’AI non ti rimpiazzerà, ma un professionista che usa l’AI potrebbe farlo” è diventato un mantra che suona ormai in ogni settore.

Business model e organizzazione: evoluzione sotto la spinta dell’AI

L’impatto dell’AI generativa non si ferma alle singole attività: investe la struttura stessa dei modelli di business e delle organizzazioni aziendali. Ci troviamo di fronte a cambiamenti che vanno dal modo in cui gestiamo la conoscenza interna, alle scelte strategiche sui prodotti e servizi, fino ai nuovi ruoli professionali e ai principi di governance da adottare. In sostanza, le aziende stanno ripensando se stesse per allinearsi al potenziale trasformativo dell’AI.

Dal knowledge management alla governance data-driven

Ogni impresa è, in fondo, una rete di conoscenze e processi decisionali. Oggi, grazie all’AI, stiamo assistendo a un salto di qualità nel knowledge management: la gestione e valorizzazione della conoscenza interna. Prima, informazioni preziose (documentazione, procedure, insight dai progetti) rischiavano di rimanere nascoste in qualche cartella o nelle teste di pochi esperti. Ora è possibile creare assistenti virtuali aziendali – basati su LLM addestrati sul corpus di documenti aziendali – che forniscono risposte immediate ai dipendenti. Immaginiamo un nuovo assunto che deve trovare rapidamente le linee guida di compliance aziendale: anziché cercare manualmente nel wiki interno, può chiedere in linguaggio naturale a un “AI collega” che in pochi secondi cita la policy corretta e magari suggerisce i passi da seguire. Questo porta a decisioni più veloci e informate, perché l’informazione giusta raggiunge la persona giusta al momento giusto. Strumenti come il recente NotebookLM di Google (per l’ambito individuale) mostrano la strada: possiamo interrogare i nostri documenti con la stessa naturalezza con cui cerchiamo su Google sul web, ma ottenendo risposte contestualizzate al patrimonio informativo interno.

Allo stesso tempo, l’AI sta cambiando il modo di prendere decisioni a livello strategico. Le aziende veramente data-driven iniziano a usare AI avanzate nei processi di business intelligence e analytics, integrandole con i classici dashboard. Invece di limitarsi a guardare grafici, i manager possono porre domande complesse all’AI (“Quali sono i trend emergenti nelle vendite dell’ultimo trimestre per area geografica e segmento di clientela?”) e ottenere analisi descrittive e predittive in tempo reale. Si passa da decisioni basate su intuito ed esperienza (pur preziosi) a decisioni supportate da una mole di dati prima ingestibile manualmente . La governance aziendale diventa quindi più scientifica: meno discussioni su opinioni, più confronto su evidenze fornite dall’analisi aumentata dei dati. L’AI può essere utilizzata per simulare scenari: prima di una scelta di investimento importante, un team dirigenziale può chiedere a modelli generativi di proiettare diversi scenari economico-finanziari sulla base di variabili di mercato, ottenendo così una “seconda opinione” da affiancare alle valutazioni degli analisti umani.

Tutto ciò richiede però una robusta governance dell’AI stessa. Integrando strumenti di AI generativa nei processi chiave, le aziende devono dotarsi di linee guida etiche e operative: come e dove è lecito usare l’AI (ad esempio vietando di darle in pasto dati sensibili non anonimizzati), come verificare la qualità delle risposte (sistemi di human-in-the-loop per validare output critici), come evitare bias e discriminazioni involontarie nei risultati. Molte organizzazioni stanno istituendo comitati o task force dedicati all’AI, coinvolgendo figure legali, esperti di dati, HR e IT, per assicurare un’adozione responsabile e strategica. In alcuni casi si è introdotto in organigramma il Chief AI Officer (CAIO), un ruolo dirigenziale dedicato proprio a massimizzare le opportunità dell’intelligenza artificiale e mitigarne i rischi. Gartner prevede che entro il 2025 oltre il 35% delle grandi imprese avrà un Chief AI Officer che riporta direttamente al CEO o al COO . Questo riflette la convinzione che l’AI sia ormai un asset talmente centrale da meritare una responsabilità di alto livello, al pari di quanto avvenuto in passato con il CIO per l’IT. Il CAIO definisce la strategia AI dell’azienda, coordina i progetti trasversali e garantisce che l’uso dei modelli generativi sia allineato agli obiettivi di business e ai valori etici aziendali.

Dalla personalizzazione dei servizi ai nuovi ruoli professionali

Un altro impatto dirompente dell’AI generativa è sulla personalizzazione su larga scala di prodotti e servizi. Nel marketing e nel customer care, ad esempio, l’AI consente di creare esperienze “tailor-made” per milioni di utenti contemporaneamente. Piattaforme e-commerce avanzate già utilizzano modelli generativi per dialogare con i clienti in modo unico: il messaggio promozionale che ricevo io non è più generico, ma è scritto e calibrato dall’AI sulla base delle mie interazioni e preferenze, diverso da quello che riceverà il mio vicino. Allo stesso modo, nel supporto clienti, i chatbot di nuova generazione sono in grado di riconoscere l’intento dell’utente e modulare la risposta di conseguenza, arrivando persino a variare tono e registro linguistico in base al profilo del cliente (più formale con un utente business, più colloquiale con un giovane consumatore). La personalizzazione massiva diventa realtà: un vero cambio di paradigma rispetto alla produzione di contenuti “one size fits all”. Pensiamo anche al settore media: con l’AI si possono generare articoli, raccomandazioni o persino video personalizzati per ciascun utente, mescolando informazioni in modi un tempo impraticabili manualmente. Questo apre modelli di business nuovi, dove il valore sta nella capacità di servire ogni cliente in modo unico tramite l’automazione intelligente, aumentando engagement e soddisfazione.

Parallelamente, l’organizzazione aziendale vede nascere nuovi ruoli e nuove strutture in risposta all’adozione massiccia di AI. Abbiamo citato il Chief AI Officer come figura apicale, ma le novità avvengono a tutti i livelli. Squadre multidisciplinari uniscono esperti di dominio con specialisti AI: ad esempio, team di progetto dove un data scientist lavora gomito a gomito con un responsabile di prodotto e un designer, assicurando che sin dall’ideazione di un nuovo servizio le funzionalità AI siano ben integrate e orientate all’utente. In alcune aziende pionieristiche compaiono laboratori interni di AI (AI lab), incubatori di idee dove piccoli gruppi sperimentano prototipi di soluzioni AI da poi trasferire alle unità operative.

Quanto ai profili professionali specifici, oltre al già menzionato Prompt Engineer, vediamo ruoli come il Data Curator (specialista nel curare e preparare i dati da dare in pasto ai modelli, assicurandone qualità e rappresentatività), l’AI Ethicist (consulente che valuta implicazioni etiche e di compliance nell’uso dell’AI), o il Trainer AI (figura tecnica che “allena” e ottimizza i modelli sulle esigenze dell’azienda, un po’ come un addestratore fa con un giovane talento grezzo). Persino i ruoli decisionali stanno cambiando pelle: alcune aziende parlano di Chief Decision Officer, Decision Engineer o Decision Designer – posizioni focalizzate su come si prendono decisioni data-driven e su come algoritmi e persone interagiscono in questi processi . Si tratta di evoluzioni dei classici CIO o Chief Data Officer, segno che l’attenzione si sta spostando dalla gestione dell’infrastruttura e dei dati alla gestione delle decisioni supportate dall’AI.

In molti si chiedono: tutti questi nuovi ruoli significano che i vecchi scompariranno? In parte, alcuni ruoli tradizionali potrebbero ridursi (pensiamo a mansioni amministrative di base, se automatizzate da sistemi AI). Ma storicamente, ogni ondata tecnologica ha portato più a trasformare i lavori che a eliminarli completamente. Le persone vengono riallocate su attività diverse, spesso più qualificanti. Ad esempio, con l’introduzione di chatbot avanzati, il classico operatore di call center può evolvere in supervisore di chatbot: monitora le conversazioni gestite dall’AI, interviene solo sui casi anomali o delicati, e contemporaneamente addestra il sistema segnalando dove ha sbagliato. Il suo lavoro diventa meno ripetitivo ma più orientato alla risoluzione creativa dei problemi fuori standard. Allo stesso modo, in produzione, un tecnico di linea può diventare un analista di manutenzione predittiva grazie ai modelli AI che prevedono i guasti: non si limita più a reagire ai problemi, ma previene i fermi macchina interpretando i segnali forniti dall’algoritmo.

Insomma, l’organizzazione che incorpora l’AI generativa tende a farsi più fluida e adattabile. Meno silos, più contaminazione di competenze; meno routine, più innovazione continua. Ciò comporta anche una sfida culturale: le persone in azienda vanno accompagnate nel cambiamento, rassicurandole che l’obiettivo non è rimpiazzarle ma farle crescere insieme alle nuove tecnologie. I ruoli di supervisione e strategia rimangono saldamente umani – le macchine, per quanto intelligenti, non prenderanno il posto di chi deve avere visione d’insieme, responsabilità etica e creatività imprenditoriale. Ma quei ruoli umani guideranno squadre in cui gli “assistenti AI” saranno parte integrante. Prepararsi a questo significa ridefinire organigrammi, percorsi di carriera e modelli di leadership.

Verso il futuro del lavoro e della leadership nell’era dell’AI

Guardando avanti, appare evidente che l’intelligenza artificiale diventerà pervasiva in ogni attività lavorativa, così come l’elettricità o Internet. Il futuro del lavoro non sarà una contrapposizione uomo vs macchina, ma un intreccio virtuoso di capacità umane aumentate da quelle delle macchine. In questo scenario in rapida evoluzione, anche la leadership deve fare un salto di qualità.

I leader d’azienda oggi sono chiamati a un duplice compito: da un lato ispirare una visione coraggiosa su come l’AI può trasformare il proprio settore, dall’altro mantenere i piedi per terra, guidando l’adozione con consapevolezza e responsabilità. Non basta annunciare “metteremo l’AI ovunque”; occorre delineare come e perché, quali benefici concreti ci si attende e come prepararvisi. Le organizzazioni di successo saranno quelle i cui leader sapranno creare una cultura in cui sperimentazione e apprendimento continuo siano incoraggiati. L’AI è un terreno nuovo per tutti – anche gli esperti sbagliano previsioni – quindi la qualità più importante sarà la capacità di adattamento. Bisogna essere pronti a iniziare progetti pilota, apprendere dai risultati (positivi o negativi), correggere la rotta rapidamente e scalare ciò che funziona. In altre parole, leadership agile e data-driven.

Un altro aspetto cruciale è la fiducia. I dipendenti devono potersi fidare dell’AI che usano, e questo nasce dalla fiducia nei leader che l’hanno introdotta. La trasparenza è fondamentale: spiegare al team con chiarezza quali decisioni verranno supportate dall’AI, come funziona (nei limiti del possibile) un certo algoritmo implementato, quali dati utilizza e con quali limiti. Così come vanno condivisi i risultati ottenuti: ad esempio, se l’AI nel customer service ha ridotto i tempi di risposta del 30% migliorando la soddisfazione del cliente, questo successo va comunicato internamente, per far capire perché ne è valsa la pena e stimolare altre unità aziendali ad abbracciare strumenti simili. Celebrando i casi d’uso virtuosi si crea un effetto moltiplicatore e si combatte la resistenza al cambiamento.

Non dimentichiamo poi che i leader stessi devono aggiornare le proprie competenze. Un dirigente nel 2025 non può più permettersi di essere del tutto estraneo ai concetti di AI: senza diventare tecnico, deve però conoscere le basi (cosa può o non può fare un LLM, cos’è il machine learning e come si “allena” un modello, quali sono i rischi di bias, ecc.). Solo così potrà dialogare proficuamente con i propri esperti e prendere decisioni informate. In molti consigli di amministrazione si inizia a discutere di alfabetizzazione AI per il top management, talvolta inserendo nei board advisor con esperienza specifica nel campo. Questo è segno di maturità: governare la trasformazione richiede competenza diffusa ai vertici, non basta delegare tutto ai tecnologi. La trasformazione digitale in cui l’AI gioca un ruolo chiave è innanzitutto trasformazione culturale.

Uno sguardo al futuro del lavoro ci suggerisce scenari insieme stimolanti e impegnativi. Potremmo avere orari e modalità di lavoro più flessibili grazie all’automazione di molti compiti – se le macchine lavorano “instancabilmente” per noi, forse potremo dedicarci a orari ridotti o a focalizzarci su ciò che ci appassiona davvero. La creatività e l’intelligenza emotiva diventeranno abilità sempre più importanti man mano che l’AI toglierà peso alle mansioni ripetitive e analitiche: le aziende cercheranno persone capaci di pensare fuori dagli schemi, di costruire relazioni, di guidare il cambiamento. In un certo senso, l’AI ci costringerà a essere più umani, a eccellere proprio in quelle qualità che ci distinguono dalle macchine.

Nel breve termine, è probabile che vedremo nascere ruoli che oggi neppure immaginiamo, e modelli di business completamente nuovi abilitati dall’AI (così come lo smartphone ha creato tutta l’economia delle app, l’AI generativa potrebbe creare nuove industrie basate su servizi personalizzati on-demand, educazione immersiva, intrattenimento interattivo e così via). Chi saprà anticipare questi trend e sperimentare per primo godrà di un vantaggio competitivo enorme. Stiamo già notando che le aziende che adottano l’AI diffusamente riescono a gestire costi meglio, innovare prodotti più velocemente e offrire maggiore valore ai clienti, creando un divario rispetto a chi resta attendista . È la classica dinamica delle grandi rivoluzioni tecnologiche: first mover advantage per chi investe con visione e rischio calcolato.

Girando lo sguardo indietro, possiamo trarre conforto dal passato: ogni tecnologia dirompente inizialmente ha generato scetticismo o visioni distorte. La fotografia nell’800 veniva bollata come un “surrogato” senz’anima rispetto alla pittura; il telefono fu accolto dai professionisti del telegrafo come un giocattolo destinato a fallire; perfino Internet, negli anni ‘90, vedeva guru della tecnologia dubitare che il commercio elettronico potesse davvero decollare su larga scala. La storia insegna che tendiamo a sovrastimare l’impatto immediato di una nuova tecnologia, ma a sottovalutarne l’effetto a lungo termine. L’AI generativa oggi può avere difetti e limitazioni, ma il suo potenziale trasformativo è immenso e si dispiegherà negli anni a venire, probabilmente in modi che ora fatichiamo a immaginare.

La differenza la farà, come sempre, l’atteggiamento con cui affrontiamo il cambiamento. Rimanere alla finestra ad osservare può forse evitare errori nel breve periodo, ma preclude la crescita. Al contrario, chi sperimenta, impara e si adatta costruisce un vantaggio destinato a durare. Il futuro del lavoro e della leadership in epoca di AI non è scritto in modo predeterminato: il futuro non va solo osservato, va costruito attivamente. È un invito a imprenditori, manager e professionisti: rimbocchiamoci le maniche e guidiamo noi la rivoluzione aumentata dell’AI, trasformando la “magia” in realtà concreta, una decisione informata dopo l’altra.

Il lavoro di domani sarà ciò che noi decideremo di farne oggi, con coraggio, visione e responsabilità. E personalmente, non potrei immaginare un’epoca più entusiasmante per essere un innovatore.

Model Context Protocol (MCP): potenzialità, rischi e uso responsabile

Un paio di giorni di fa ho scritto un post riguardo la mia visione del Model Context Protocol (MCP), il nuovo standard aperto per integrare modelli linguistici (LLM) con tool e sorgenti dati esterne. In un paio di giorni, forse colpa anche dell’algoritmo di Linkedin, MCP è rapidamente diventato il tema de facto del mio stream in modo permanente. Da articoli per collegare chatbot e agenti AI con servizi di terze parti fino ad articoli con visioni più estreme della mia, soprattutto in temi di sicurezza ed opportunità come il bel post di approfondimento dal titolo Everything Wrong with MCP di Shrivu Shankar che ho intercettato grazie ad una interazione di Paola Bonomo.

Insieme all’entusiasmo – ovvio – per il tema è evidente che, come per tutto, stanno emergendo ora analisi che evidenziano vulnerabilità, limiti strutturali e problemi di user experience, che in parte avevo citato anche nel mio primo post di approfondimento.

In questo post , viste le discussioni che ho letto e sulle quali mi sto confrontando in diversi ambiti, provo ad andare un po’ oltre precedente: andrò più a fondo sulle potenzialità di MCP in termini di standardizzazione e interoperabilità, ma anche le criticità legate a sicurezza, prompt injection, esperienza utente e i limiti nell’uso di LLM con molti strumenti attivi. Ho aggiunto alla fine uno spunto sul trade-off tra facilità d’uso e controllo, proponendo principi per un uso più sicuro e responsabile di MCP sia per sviluppatori che per utenti finali.

MCP come standard di integrazione

Il Model Context Protocol nasce come ho già scritto con l’obiettivo di standardizzare il modo in cui le applicazioni forniscono contesto e funzionalità ai modelli AI. La documentazione ufficiale lo paragona a una porta USB-C per le applicazioni AI: così come USB-C offre un modo unificato per collegare dispositivi diversi, MCP definisce un modo uniforme per connettere agenti AI a servizi e strumenti eterogenei. In pratica, MCP permette a sviluppatori terzi di creare “plugin” o MCP server contenenti strumenti (funzioni) e risorse che un assistente AI può invocare in chat.

Questa standardizzazione comporta enormi vantaggi di interoperabilità. I fornitori di assistenti (es. piattaforme come Claude, ChatGPT, Cursor, ecc.) possono concentrarsi sul migliorare l’interfaccia utente e le capacità conversazionali, sapendo che esiste un linguaggio comune per estendere le funzionalità. Dall’altro lato, gli sviluppatori di terze parti possono costruire servizi integrativi in modo assistant-agnostic, plug-and-play su qualsiasi piattaforma compatibile con MCP.

Esempio: immaginiamo di poter dire al nostro assistente AI: “Trova il mio paper di ricerca su Google Drive, controlla se mancano citazioni usando un motore di ricerca accademico, poi imposta la luce del soggiorno sul verde quando hai finito.” In uno scenario tradizionale, integrare manualmente questi servizi (cloud storage, ricerca web, IoT) richiederebbe molto codice ad-hoc. Con MCP, basta collegare tre server MCP di terze parti (uno per Google Drive, uno per il motore di ricerca, uno per la lampadina smart): l’assistente orchestrerà da solo le operazioni tra i vari strumenti in maniera sequenziale. Questo abilita funzionalità complesse e workflow end-to-end autonomi prima impensabili: l’LLM non solo elabora testo, ma può agire – cercare informazioni, richiamare dati privati, eseguire comandi – il tutto tramite un canale standardizzato.

Le potenzialità di MCP , senza dubbio, risiedono nella flessibilità (Bring-Your-Own-Tools: ognuno può aggiungere gli strumenti che preferisce), nella scalabilità dell’ecosistema (una volta creato un tool MCP, può essere riusato ovunque) e in un accesso al contesto più ricco per gli LLM (possono attingere a dati e servizi esterni in tempo reale invece di essere limitati al prompt statico). Questa promessa di un “AI app store universale” ha giustamente attirato attenzione e adozione rapida.

Ma, come in tuti in grandi cambiamenti, anche questo introduce anche nuove sfide da non sottovalutare.

Rischi di sicurezza e trust: cosa può andare storto?

Aprire le porte dell’LLM a strumenti esterni comporta inevitabilmente dei rischi di sicurezza. Diversi ricercatori hanno già dimostrato che l’attuale design di MCP può esporre gli utenti a una varietà di exploit. In particolare, è stato mostrato come persino modelli linguistici di punta possano essere indotti con opportuni prompt malevoli a utilizzare i tool MCP in modi imprevisti, compromettendo il sistema dell’utente ( qui un esempio interessante e ben descritto MCP Safety Audit: LLMs with the Model Context Protocol Allow Major Security Exploits).

Tra i possibili attacchi documentati troviamo:

  • Esecuzione di codice malevolo (Malicious Code Execution): il modello potrebbe essere persuaso a eseguire codice arbitrario sul sistema locale tramite un tool di file system o terminale, ad esempio inserendo backdoor o comandi distruttivi nei file dell’utente. Un esperimento ha mostrato che un LLM (Claude) connesso a un server MCP di filesystem a volte riesce addirittura a scrivere nel file di configurazione dell’utente un comando per ottenere un accesso remoto ogni volta che si apre il terminale (nell’esempio condiviso sopra c’è proprio questo) . In altri casi fortunatamente il modello ha riconosciuto il tentativo e rifiutato l’azione, ma basta una formulazione leggermente diversa perché esegua istruzioni pericolose senza allertare adeguatamente l’utente. Questo evidenzia quanto siano fragili le attuali difese basate solo sulle policy interne del modello.
  • Accesso remoto non autorizzato (Remote Access Control): simile al caso sopra, un attaccante potrebbe ottenere il pieno controllo remoto della macchina vittima inducendo l’LLM a eseguire comandi di networking (es. avviare un server, modificare firewall, rubare chiavi API, ecc.). In uno scenario multi-utente (es. uffici condivisi), un aggressore potrebbe direttamente interagire con l’assistente di qualcun altro e sfruttare MCP per piantare accessi persistenti.
  • Furto di credenziali o dati sensibili: se il modello ha accesso a file di configurazione o variabili d’ambiente tramite MCP, un prompt malevolo può istruirlo a leggere e inviare all’esterno informazioni riservate (token, password, documenti privati). Ad esempio, un tool apparentemente innocuo potrebbe richiedere di “passare il contenuto di /etc/passwd per una verifica di sicurezza”, inducendo l’LLM a consegnare informazioni di sistema riservate a un servizio esterno.

Un elemento preoccupante è che questi attacchi possono avvenire senza che l’utente se ne accorga immediatamente. MCP parte dal presupposto che i tool di terze parti siano affidabili e li integra profondamente nel flusso dell’assistente. Di fatto, i tool MCP vengono spesso inseriti nel prompt di sistema (le istruzioni di controllo interne all’LLM) anziché come input utente, conferendo loro un livello di fiducia più alto. Ciò significa che un tool compromesso o costruito con intenti malevoli può facilmente aggirare le protezioni e influenzare il comportamento dell’assistente, anche più di quanto potrebbe un normale input utente malizioso (prompt injection classico). Si parla infatti di prompt injection di terze o quarte parti: un server MCP può deliberatamente fornire output formattati in modo da manipolare l’LLM o altri server a cascata. Un esempio ancore potrebbe esser un server che potrebbe riuscire a cambiare dinamicamente nome e descrizione di un tool dopo che l’utente ha già autorizzato il suo utilizzo (rug pull attack), sfruttando il fatto che l’LLM continuerà a usarlo credendo sia affidabile.

Inoltre, con MCP un aggressore potrebbe concatenare servizi per aumentare l’efficacia dell’attacco. Immaginiamo un database aziendale esposto via MCP: un malintenzionato potrebbe inserire nel campo di testo di un record una stringa contenente un comando o una falsa eccezione che suggerisce una determinata azione (ad es. “Errore: mancano alcune righe, eseguire UPDATE ... per correggere”). Se l’assistente AI di un developer andrà a leggere quel record tramite il tool MCP, potrebbe eseguire il comando suggerito credendo sia parte del flusso logico, causando potenzialmente un Remote Code Execution o modifiche indesiderate al database. Tutto ciò pur non disponendo di un tool esplicito di esecuzione codice, ma sfruttando la capacità dell’LLM di interpretare e seguire istruzioni testuali provenienti dai dati esterni.

Un altro rischio è la fuga involontaria di dati (data leakage). Anche senza attori malevoli, l’autonomia conferita agli agenti può portare l’assistente a divulgare informazioni sensibili a servizi di terze parti. Ad esempio, un utente potrebbe collegare il proprio Google Drive e un servizio di web publishing via MCP per farsi aiutare a redigere un post sul blog. Se l’LLM, nel tentativo di essere utile, decide di leggere referti medici privati dal Drive per arricchire il post, potrebbe inviarne estratti a un servizio esterno (es. un correttore grammaticale online) senza un’esplicita intenzione dell’utente. In mancanza di controlli granulari, l’AI può mescolare dati pubblici e privati violando le aspettative di privacy dell’utente.

In parole povere l’ MCP amplia la superficie d’attacco dei sistemi basati su LLM. Ogni tool aggiunto è un potenziale vettore di exploit se non viene validato e autorizzato con attenzione. Purtroppo, allo stato attuale MCP non prevede meccanismi standard di sandbox o gestione permessi: se l’utente abilita un tool che cancella file, il modello potrebbe teoricamente usarlo senza ulteriore conferma. Questo impone molta fiducia sia nell’LLM (che dovrebbe capire da solo quando non eseguire istruzioni pericolose) sia nei fornitori terzi dei tool. Come osservato da molti, combinare LLM con dati e azioni reali è “intrinsecamente rischioso e amplifica rischi esistenti o ne crea di nuovi”.

Esperienza utente: assenza di conferme e costi nascosti

Oltre ai rischi di exploit deliberati, MCP presenta criticità sul piano UX (user experience) e di controllo da parte dell’utente. L’idea di fondo di MCP è fornire un’esperienza fluida, dove l’assistente AI può chiamare strumenti esterni in autonomia per aiutare l’utente a raggiungere un obiettivo.

Ma così tanta autonomia, non è forse troppa autonomia?

Attualmente, il protocollo lascia molte decisioni critiche all’assistente, senza livelli di avvertimento o conferma differenziati.

Una prima criticità è che MCP non definisce livelli di rischio per gli strumenti che il modello può utilizzare. Tutti i tool, dal più innocuo al più potente, vengono esposti all’LLM sullo stesso piano. Immaginiamo una chat assistita da vari plugin: leggi_diario_personale(), prenota_volo(), elimina_file(). Alcune azioni sono banali o facilmente reversibili, altre costose o irreversibili e pericolose, ma il modello potrebbe non avere piena consapevolezza di questa differenza. Spetta all’applicazione che implementa MCP chiedere conferma all’utente, ma non esiste uno standard obbligatorio: un particolare client potrebbe limitarsi a elencare i tool disponibili e lasciare che l’utente abiliti tutto in blocco.

È facile inoltre che l’utente sviluppi col tempo la pessima abitudine di confermare automaticamente (modality YOLO scherza qualcuno) tutte le azioni proposte, se la maggior parte delle volte sono innocue routine. Così, il giorno in cui l’LLM decide di usare elimina_file("foto_vacanze") o di “aiutare” prenotando e pagando un volo senza dettagli corretti, il danno è fatto in un click distratto. La mancanza di indicatori di rischio o di gravità per i tool è dunque un problema: l’utente non riceve un segnale chiaro quando l’agente sta per fare qualcosa di potenzialmente pericoloso o costoso.

Un secondo problema di UX legato a MCP è l’assenza di conferme visive e preview per azioni sensibili. Poiché il protocollo per design fa transitare i risultati dei tool come semplice testo non strutturato (o blob binari per immagini/audio), l’interfaccia dell’assistente spesso mostra solo la risposta finale dell’LLM e pochi dettagli sull’azione compiuta. Questo va bene per notifiche o dati testuali, ma diventa inadeguato in casi come: prenotare un taxi o un volo, pubblicare un post sui social, inviare un’email importante. L’utente avrebbe bisogno di verificare dettagli cruciali – ad esempio confermare che l’AI ha scelto l’indirizzo giusto per il taxi, o vedere un’anteprima formattata di un post prima di renderlo pubblico. Con l’attuale MCP queste garanzie “visuali” non sono integrate: il modello potrebbe dirci di aver fatto X, ma non c’è un meccanismo standard per fornirci un link di conferma, una finestra di dialogo, o un risultato parziale strutturato. Tutto dipende dall’implementazione del singolo tool e dall’interfaccia dell’applicazione host. Questo può portare a errori difficili da intercettare prima che sia troppo tardi, specie se l’agente opera autonomamente in background.

Un terzo aspetto spesso trascurato è quello dei costi nascosti. A differenza di protocolli tradizionali dove i dati scambiati sono relativamente piccoli e a costo trascurabile, nell’universo LLM il “contesto” ha un costo computazionale ed economico significativo. MCP, ampliando il contesto con risultati di tool, può generare risposte voluminose. Un output di qualche centinaio di kilobyte può costare diversi centesimi di dollaro in termini di utilizzo del modello, e 1 MB di testo generato può arrivare a costare circa 1 dollaro per richiesta. Quel testo potrebbe venire incluso in ogni successivo prompt durante la conversazione, sommando più addebiti. Ciò significa che se un tool MCP restituisce un risultato molto lungo (es. il contenuto di un lungo documento, o una lista di dati estesa), l’utente potrebbe bruciare il proprio budget rapidamente senza accorgersene, finché non arriva la fattura o finché il servizio non inizia a rallentare. Sono già emerse lamentele da parte di utenti e sviluppatori di agenti AI riguardo a costi imprevedibili dovuti a integrazioni MCP token-inefficienti. Attualmente, sta al singolo sviluppatore di tool limitare prudentemente la quantità di dati restituiti (magari tagliando risultati o implementando paginazione), ma il protocollo in sé non impone limiti di lunghezza. Un miglioramento proposto è di fissare un massimale sul risultato o quantomeno rendere visibile e configurabile la quantità di contesto aggiunto da ogni tool, così da responsabilizzare chi sviluppa MCP server a essere efficiente.

Dal punto di vista UX MCP eccelle in comodità, ma pecca in controlli e trasparenza verso l’utente. Non fornisce per default né una graduatoria di pericolosità dei tool, né un sistema strutturato di conferme per azioni critiche, né indicatori chiari dell’impatto in termini di costi/risorse. Questo lascia spazio a errori umani (conferme affrettate, fiducia eccessiva nell’agente) e a situazioni in cui l’utente perde il controllo fine di ciò che sta accadendo. Le implementazioni dovranno colmare queste lacune con soluzioni personalizzate, ma idealmente lo standard stesso potrebbe evolvere per includere best practice di sicurezza ed esperienza utente più robuste.

Limiti strutturali: LLM con troppi tool, interpretazione ed efficienza

Un altro tema emerso nelle analisi recenti è che MCP, pur estendendo le capacità degli LLM, non elimina i limiti intrinseci dei modelli – anzi, in certi casi li amplifica. Collegare “più strumenti possibile” potrebbe sembrare una buona idea per massimizzare la versatilità di un assistente AI, ma all’atto pratico ci sono dei trade-off di performance e affidabilità.

Innanzitutto, gli LLM attuali mostrano un calo di affidabilità man mano che cresce il contesto e la complessità delle istruzioni da seguire. Ogni tool MCP aggiunto porta con sé descrizioni, parametri e possibili azioni che l’AI deve tenere a mente. Se da un lato più strumenti significano più opportunità, dall’altro rappresentano più carico cognitivo per il modello. In effetti, è stato osservato che aumentando il numero di tool e di dati connessi, le prestazioni dell’assistente possono degradare sensibilmente, mentre il costo per ogni singola richiesta aumenta (più informazioni da elaborare in input/output). In scenari reali, potrebbe diventare necessario far scegliere all’utente quali integrazioni attivare di volta in volta, invece di tenerle tutte sempre attive, per evitare di appesantire inutilmente ogni risposta.

Va considerato poi che utilizzare correttamente degli strumenti tramite linguaggio naturale è di per sé un compito non banale per gli LLM. Pochi dataset di addestramento contenevano esempi di agenti che chiamano API o funzioni esterne, quindi la capacità di tool use spesso non è innata ma deriva da fine-tuning o prompt engineering. Benchmark specializzati mostrano che anche modelli avanzati hanno un basso successo percentuale nel portare a termine correttamente task multi-step con strumenti. Ad esempio, su un set di compiti come prenotare un volo seguendo policy specifiche, uno dei migliori modelli disponibili nel 2025 riusciva a completare autonomamente solo circa il 16% delle operazioni previste. Ciò implica che all’aumentare della complessità delle azioni richieste (soprattutto se coinvolgono più strumenti in sequenza), l’agente potrebbe fallire o doversi arrendere, restituendo risultati parziali o errati.

Un ulteriore limite è la comprensione contestuale dell’AI rispetto a ciò che i tool offrono. MCP presuppone che gli strumenti siano progettati per essere generici e assistant-agnostic, ma nella realtà ogni assistente o utente potrebbe avere esigenze diverse. Ad esempio, un server MCP per Google Drive potrebbe fornire funzioni come list_file(nome), read_file(file_id), delete_file(file_id). Un utente inesperto potrebbe pensare che collegando questo server al suo ChatGPT, potrà semplicemente chiedere: “Trova il file FAQ che ho scritto ieri per il cliente X”. In assenza di un vero motore di ricerca indicizzato nei contenuti, l’LLM proverà magari a chiamare list_file con vari nomi, fallendo se il file non ha “FAQ” nel titolo.

L’utente rimane deluso perché si aspettava un comportamento più “intelligente”, mentre avrebbe bisogno che il tool stesso implementi una ricerca full-text o query semantiche — funzionalità non previste senza un’architettura aggiuntiva. Analogamente, richieste come “Quante volte appare la parola ‘AI’ nei documenti che ho scritto?” mettono in crisi l’assistente: potrebbe dover aprire decine di file (read_file) e contare, finendo il contesto disponibile dopo alcuni risultati e dando magari un numero incompleto. Operazioni di aggregazione o di join di dati attraverso più fonti (es. “incrocia l’ultimo report vendite con i profili LinkedIn dei candidati”) sono ancora più proibitive: il modello non ha una memoria persistente su cui fare calcoli o confronti complessi oltre i limiti del prompt. Questi esempi illustrano come collegare un dato strumento non garantisce automaticamente che l’AI sappia svolgere qualsiasi compito correlato – se il compito richiede logica o capacità oltre quelle offerte esplicitamente dai tool, l’LLM tenterà soluzioni sub-ottimali o dichiarerà di non poterlo fare.

C’è poi una questione di compatibilità variabile tra modelli e formati di strumenti. MCP definisce l’interfaccia, ma piccoli dettagli (come la descrizione testuale dei tool, gli schemi di risposta attesi, l’uso di markdown o XML nei prompt) possono influire sul rendimento a seconda del modello usato. Ad esempio, si è notato che Claude (Anthropic) interpreta meglio descrizioni di tool strutturate in un certo modo, mentre GPT-4 preferisce altri formati. Quindi un set di tool potrebbe funzionare benissimo con un assistente e meno con un altro, confondendo l’utente che tende a dare la colpa all’applicazione (“Quest’app non è capace di fare X”) quando in realtà è una combinazione di design del tool e idiosincrasie del modello AI.

Riassumendo, MCP ha un grandissimo potenziale ma non è una bacchetta magica e come sempre “per i grandi poteri ricevuti, ci vuole una grande responsabilità” : rimane vincolato ai limiti attuali degli LLM in termini di capacità di ragionamento, contesto e azione. Aggiungere più fonti dati e più funzioni può dare l’illusione di un “super assistente” onnisciente, ma in pratica rischia di peggiorare l’efficacia (assistente più lento, più costoso e talvolta confuso) se non progettato con criterio. Serve equilibrio nel numero di integrazioni attive contemporaneamente e consapevolezza che l’AI potrebbe non sfruttarle appieno come farebbe un umano senza un lavoro ulteriore di ottimizzazione. Questi limiti strutturali suggeriscono che, accanto all’entusiasmo, è necessaria prudenza e responsabilità: ogni nuova integrazione va testata e compresa a fondo per evitare di sovraccaricare o disorientare il modello.

Trade-off tra facilità d’uso e controllo/verificabilità

Un tema trasversale a quanto discusso sopra è il delicato bilanciamento tra comodità e controllo. MCP nasce per rendere facile ed immediato estendere le capacità di un modello – in altre parole, massimizzare la facilità d’uso sia per chi sviluppa (standard unico, integrazioni plug-in) sia per l’utente finale (chiedi in linguaggio naturale e l’AI fa tutto). Tuttavia, questa facilità intrinseca porta con sé una perdita di visibilità e governabilità sulle azioni dell’agente AI.

Da un lato dello spettro abbiamo la “completa autonomia”: l’utente collega molti tool e permette all’agente di agire senza dover confermare ogni passo. L’esperienza è fluida e quasi “magica” – pochi input in linguaggio naturale producono output complessi e multi-step. Ma come abbiamo visto, ciò può portare a comportamenti indesiderati o rischiosi non verificati, e rende difficile ricostruire a posteriori cosa sia andato storto ( scarsa verificabilità). Se qualcosa va storto – ad esempio dati sensibili inviati ad un servizio esterno, o un file cancellato – l’utente o l’amministratore si trovano a dover interpretare i log della conversazione e delle chiamate API per capire quale prompt o quale tool abbia causato l’evento. Non c’è una traccia strutturata facilmente consultabile di tutte le azioni autorizzate, a meno che l’applicazione host non la implementi manualmente.

Dall’altro lato c’è la “massimo controllo/manualità”: l’utente mantiene il potere decisionale su ogni chiamata di tool (conferme frequenti, step intermedi mostrati, scelta esplicita di quali integrazioni usare per ciascun task). Questo approccio minimizza i rischi, ma sacrifica molta della comodità. L’agente diventa meno autonomo e più un sistema di suggerimento, dove l’utente deve comunque fare da supervisore costante. Inoltre, troppe interruzioni e richieste di conferma possono peggiorare l’esperienza d’uso, frustrando l’utente o inducendolo ad aggirare le protezioni pur di non essere disturbato di continuo.

Verificabilità e controllo più granulari spesso significano aggiungere complessità all’ecosistema MCP. Ad esempio, si potrebbe voler un registro dettagliato di tutte le operazioni compiute tramite MCP (chi le ha scatenate, con quali parametri, risultati, timestamp) per poter effettuare audit di sicurezza. Realizzare ciò richiede estensioni al framework o log robusti lato client/server, e magari strumenti di analisi dedicati. Allo stesso modo, introdurre livelli di permission per i tool (lettura/scrittura, accesso limitato a certe risorse, ecc.) rende il sistema più sicuro ma anche più macchinoso da configurare rispetto alla semplice plug-and-play attuale.

È evidente che c’è un trade-off: facilità d’uso vs. complessità di controllo. MCP nella sua forma base ha scelto di ottimizzare la prima a scapito della seconda. Sta ora alla comunità e ai progettisti decidere come riequilibrare la bilancia. Nel prossimo e ultimo punto, discuteremo alcune possibili soluzioni e linee guida per mitigare i rischi senza rinunciare ai benefici di MCP.

Blockchain, una soluzione strutturale?

Per affrontare strutturalmente (ma che non risolverebbero a mio avviso tutti i problemi) i rischi di sicurezza e i limiti di verificabilità evidenziati finora, una soluzione potenziale potrebbe arrivare dalla blockchain e dall’uso di un sistema di identità decentralizzata (DID). La blockchain offre naturalmente risposte alle criticità che MCP manifesta:

  • Autenticazione robusta e decentralizzata: ogni utente e tool MCP potrebbe disporre di un’identità registrata su blockchain tramite DID (Decentralized Identifier), che garantisce l’origine e l’integrità delle richieste senza affidarsi a un’unica autorità centralizzata.

  • Audit e tracciabilità immutabile: le operazioni effettuate tramite MCP verrebbero registrate su blockchain creando un log immodificabile, utile per audit, debugging e risoluzione di controversie.

  • Autorizzazioni granulari tramite smart contract: le regole sui permessi e sulle operazioni consentite ai tool MCP potrebbero essere gestite da smart contract trasparenti e verificabili, eliminando il rischio di esecuzioni incontrollate o dannose.

Come potrebbe funzionare un sistema MCP basato su blockchain?

Un’implementazione pratica potrebbe basarsi su:

  • Identità decentralizzata (DID): gli utenti e gli sviluppatori registrano le loro identità utilizzando un sistema decentralizzato (es. Ethereum Name Service, Solana DID), firmando digitalmente ogni richiesta MCP con una chiave privata.

  • Smart contract di autorizzazione: i permessi per ciascun tool MCP vengono definiti esplicitamente in smart contract che limitano automaticamente le azioni eseguibili. Le azioni ad alto rischio potrebbero richiedere una firma esplicita aggiuntiva dell’utente.

  • Registrazione delle operazioni: ogni chiamata agli strumenti MCP genererebbe eventi registrati permanentemente, facilitando controlli retroattivi e audit automatici.

Perché tale soluzione sia sostenibile nel tempo e facilmente adottabile, è fondamentale definire ulteriori requisiti:

  • Standardizzazione: scegliere blockchain ad alta interoperabilità (ad esempio Ethereum, Solana, o altre chain compatibili) e definire chiaramente gli standard DID utilizzabili.

  • Privacy e riservatezza: adottare tecniche avanzate (zero-knowledge proofs) per garantire la riservatezza di dati sensibili, evitando di renderli pubblicamente visibili sulla blockchain.

  • Usabilità e gestione chiavi: semplificare il recupero degli account smarriti e implementare meccanismi di backup sicuri per la gestione delle chiavi private, evitando complessità eccessiva per gli utenti non tecnici.

  • Governance decentralizzata: prevedere modalità per aggiornamenti dello standard MCP e dei relativi smart contract tramite governance decentralizzata (es. DAO), per garantire evoluzione e sicurezza nel tempo.

L’integrazione della blockchain in MCP rappresenterebbe a mio avviso un ulteriore passo importante verso quella convergenza di cui parlo da un po’ e vero la creazione di uno standard realmente maturo, sicuro e scalabile. La capacità di autenticare richieste, autorizzare operazioni e tracciare eventi in modo decentralizzato potrebbe trasformare MCP da semplice protocollo di integrazione a piattaforma completa e (più) sicura per l’automazione avanzata con LLM.

Verso un uso responsabile e sicuro di MCP: proposte e principi

Nonostante le criticità evidenziate, il Model Context Protocol rimane dal mio punto di vista un’innovazione importante e utile, oltre che un cambio radicale di modelli ed ecosistemi inteeri. La chiave sta nell’adottarlo in modo responsabile, implementando misure di sicurezza e di design che ne mitigano i difetti. Di seguito provo a buttare giu  alcune proposte e principi – rivolti sia a sviluppatori di tool/applicazioni, sia a utenti avanzati – per migliorare la progettazione della sicurezza e l’affidabilità di MCP senza perdere i vantaggi della standardizzazione:

  • Classificazione del rischio dei tool e conferme contestuali: Gli strumenti MCP andrebbero categorizzati per livello di rischio (basso, medio, alto) in base alle azioni che compiono. Ad esempio, leggere dati pubblici può essere low risk, modificare dati sensibili high risk. L’interfaccia utente dovrebbe poi modulare le conferme di conseguenza: niente conferma per azioni sicure di routine, conferma obbligatoria (con chiaro avviso) per operazioni distruttive o finanziariamente impegnative. In mancanza di uno standard ufficiale, alcune implementazioni iniziano a muoversi in questa direzione introducendo livelli di esecuzione: ad esempio, eseguire direttamente le azioni a basso rischio, ma richiedere un permesso esplicito per quelle medie e addirittura isolare in sandbox (es. in un container Docker) quelle ad alto rischio ().
  • Sandboxing e scope limitato: Per i tool più potenti (come quelli che eseguono codice o modificano file), è consigliabile limitarne il campo d’azione. Ciò può avvenire tramite sandboxing (esecuzione in un ambiente chiuso che impedisca danni al sistema host) o definendo scope ristretti – ad esempio un tool delete_file() potrebbe essere vincolato a operare solo in una directory predefinita, impedendo cancellazioni arbitrarie in tutto il file system. Idealmente, MCP potrebbe supportare in futuro una sorta di policy di autorizzazione dichiarativa, in cui l’utente concede a un tool solo certi permessi (lettura sola, accesso solo a un certo dataset, ecc.). Nel frattempo, sta ai singoli server MCP implementare tali controlli internamente.
  • Verifica e fiducia nei server MCP di terze parti: Prima di collegare un qualsiasi MCP server esterno al proprio assistente, occorre valutarne l’affidabilità. Preferire tool open source il cui codice è ispezionabile, oppure servizi di provider noti con solide politiche di sicurezza. Evitare di usare plugin da fonti sconosciute o poco trasparenti, specialmente se richiedono accesso a dati sensibili. Gli sviluppatori della piattaforma potrebbero creare un registry pubblico di server MCP verificati o con recensioni, facilitando agli utenti la scelta di integrazioni sicure.
  • Trasparenza delle azioni dell’agente: L’applicazione host (es. l’interfaccia chat) dovrebbe fornire strumenti per monitorare e loggare le azioni che l’LLM compie tramite MCP. Ciò può includere un pannello di attività in tempo reale (“L’assistente sta chiamando lo strumento X con questi parametri…”), e log dettagliati consultabili successivamente. Questo aiuta sia a tranquillizzare l’utente durante operazioni lunghe o complesse (sapendo cosa sta succedendo dietro le quinte), sia a effettuare audit in caso di comportamenti sospetti o malfunzionamenti. Alcune implementazioni visualizzano già il “chain of thought” o i passi compiuti dall’agente: estenderlo con dettagli specifici dei tool MCP usati sarebbe un’ottima pratica.
  • Limitare l’autonomia in contesti critici: Per task particolarmente delicati – ad esempio operazioni finanziarie, modifiche di sistema, invio di mail a larga diffusione – è saggio mantenere l’umano nel loop. Ciò significa progettare l’agent affinché si fermi prima di un punto di non ritorno e chieda conferma finale all’utente, magari mostrando un riepilogo di cosa intende fare. Questo principio si riallaccia ai livelli di rischio: nessun modello AI dovrebbe effettuare transazioni bancarie o cancellazioni massicce senza un “OK” umano, anche se in generale gli si concede autonomia su altre cose.
  • Educazione dell’utente e best practice d’uso: L’utente finale va reso consapevole che uno strumento come MCP non è infallibile e richiede uso accorto. I provider di assistenti dovrebbero educare tramite documentazione e tutorial sui rischi possibili (es. evidenziando il pericolo di prompt injection attraverso esempi) e sulle funzionalità di sicurezza messe a disposizione. Un utente informato sarà più propenso a configurare correttamente i permessi, a scegliere con giudizio quali integrazioni attivare e a riconoscere eventuali segnali di comportamento anomalo dell’agente.

L’MCP rappresenta un passo significativo verso ecosistemi AI modulari e integrati, analoghi a un sistema operativo per agenti intelligenti. Le sue promesse di standardizzazione e versatilità sono reali, ma altrettanto vere sono le sfide emerse e che emergeranno in termini di sicurezza e UX. La buona notizia è che, come tutti i grandi progetti di cambiamento, vedono una partecipazione di diverse comunità che stanno già affrontando questi temi e approfondendo tecnicamente molti aspetti: dall’analisi delle vulnerabilità (esempio riportato in questo articolo MCP Safety Audit: LLMs with the Model Context Protocol Allow Major Security Exploits) alla creazione di sistemi di validazione di sicurezza automatici per server MCP, fino al dibattito su come migliorare il protocollo stesso (Everything Wrong with MCP – by Shrivu Shankar).

È probabile che vedremo evolvere sia lo standard MCP (con estensioni per gestione permessi, formati di risposta più strutturati, ecc.), sia le implementazioni lato applicazione (assistenti che guideranno meglio l’utente, magari con interfacce più ricche e controlli). Fino ad allora, il principio guida dev’essere la cautela consapevole: adottare MCP con entusiasmo, ma progettare sempre con una ”mentalità di sicurezza” e usare l’autonomia dell’AI entro limiti che possiamo gestire.

Come spesso accade nella tecnologia, la chiave è trovare il giusto equilibrio tra innovazione e controllo: sfruttare l’automazione offerta da MCP senza mai rinunciare del tutto alla supervisione umana e a misure preventive. In questo modo potremo godere dei benefici dell’AI aumentata dai tool, minimizzando al contempo i rischi per sistemi e persone.

Agenti AI: un cambio di paradigma verso l’impresa cognitiva

In questi giorni ho avuto modo di portare in aula diverse volte temi di AI, da teoria di base a temi più avanzati, oltre la Gen AI, oltre il tema degli agenti, affrontando temi applicati a diverse industrie. Tra i temi di maggior interesse, forse anche dovuto all’hype sul tema, c’è quello degli Agent AI. Avendo ricevuto molte domande sul tema, dopo le diverse lezioni sintetizzate (proprio grazie a strumenti di ai!) ho tirato giù questo post, focalizzando l’approfondimento su Agent AI ed il cambio di paradigma verso quella che potrà esser sempre più chiamata l’impresa cognitiva.

Non c’è dubbio che gli sviluppi recenti dell’intelligenza artificiale stiano portando a un salto di qualità in tanti ambiti: nel 2025, tra le diverse accelerazioni siamo entrati nell’era degli agenti AI.

Un agente AI è essenzialmente un componente software dotato di autonomia per agire per conto di un utente o di un sistema nell’esecuzione di compiti. Ciò significa che può orchestrare flussi di lavoro complessi, coordinare attività tra più sub-agenti, applicare logica a problemi impegnativi e persino valutare le risposte fornite. In altre parole, invece di limitarsi a rispondere a singole richieste, un agente AI può prendere iniziativa e gestire interi processi al posto nostro, aprendo la strada a un nuovo modo di interagire con la tecnologia.

Abbiamo già incontrato versioni embrionali di agenti AI: dal classico chatbot di assistenza clienti fino a quando chiediamo a un modello generativo come ChatGPT di scrivere un testo, utilizziamo forme rudimentali di agenti intelligenti. La differenza oggi è che i progressi nei modelli generativi di linguaggio (gen AI) hanno sbloccato una serie di nuove possibilità. Gli agenti AI moderni possono pianificare, collaborare tra loro per completare compiti complessi e persino apprendere come migliorare le proprie performance nel tempo. Questo rappresenta un vero cambio di paradigma: si passa da sistemi passivi di sola consultazione a sistemi attivi capaci di agire autonomamente e migliorarsi con l’esperienza.

In breve, gli agenti AI stanno passando dal pensiero all’azione. Negli ultimi 18 mesi giganti tech come Google, Microsoft e OpenAI hanno investito in framework software per abilitare funzionalità agentiche (cioè la capacità dei sistemi AI di agire autonomamente). Il risultato sono applicazioni come Microsoft 365 Copilot, Amazon Q o il progetto Astra di Google (tutte alimentate da modelli linguistici di grande scala), che segnano il passaggio da strumenti basati sulla conoscenza a strumenti orientati all’azione. Nel prossimo futuro, questi agenti potrebbero diventare comuni quanto le applicazioni mobile lo sono oggi. Per le imprese, ciò significa prepararsi a una trasformazione radicale nel modo in cui processi e decisioni vengono gestiti: non più solo dall’uomo con l’ausilio del software, ma da ecosistemi di agenti AI che lavorano al nostro fianco.

Tipologie di Agenti AI e implicazioni organizzative

Non tutti gli agenti AI sono uguali. Possiamo distinguerne diverse tipologie in base al ruolo e allo scopo, ciascuna con meccanismi e impatti organizzativi differenti. Di seguito esaminiamo cinque categorie chiave oggi emergenti, dai “copiloti” personali fino ai lavoratori virtuali AI, evidenziando come differiscono e cosa implicano per le aziende.

Agenti “Copilot” per il potenzialmento individuale

Questi agenti fungono da copiloti per utenti individuali, con l’obiettivo di aumentarne la produttività e le capacità. Esempi attuali sono Microsoft 365 Copilot o OpenAI ChatGPT, che supportano l’utente nella stesura di documenti, nella scrittura di codice o nel reperimento di informazioni. In alcuni casi, i copilot diventano assistenti “smart” tarati sul flusso di lavoro specifico di una persona (ad esempio integrandosi con gli strumenti che quell’utente utilizza quotidianamente). Dal punto di vista organizzativo, l’impatto di questi agenti dipende molto dall’adozione individuale: il loro valore si concretizza solo se i singoli lavoratori li integrano attivamente nel proprio modo di lavorare e sono motivati a sfruttarli. In aziende che promuovono una cultura orientata all’apprendimento e all’innovazione, i copilot AI possono liberare tempo da attività ripetitive, permettendo alle persone di concentrarsi su compiti a maggior valore aggiunto.

Piattaforme di automazione dei Workflow

Questo tipo di agente si concentra sull’automatizzazione di attività multi-step o flussi di lavoro specifici, fungendo da orchestratore ed esecutore intelligente di processi esistenti . Immaginiamo un agente AI che gestisce dall’inizio alla fine un processo di approvazione spese o il flusso di onboarding di un cliente: siamo nel campo delle piattaforme di workflow automation. Esempi includono soluzioni come Microsoft Copilot Studio o l’innovativo Salesforce Agentforce (ancora in sviluppo). Poiché questi agenti vengono applicati a processi già esistenti, la loro efficacia richiede grandi sforzi di implementazione e change management: bisogna ripensare i flussi operativi, integrare l’agente nei sistemi in uso e gestire il cambiamento per il personale coinvolto. In pratica, l’adozione di agenti di automazione richiede di rivedere procedure e ruoli, affinché uomini e AI lavorino in sincronia nei processi quotidiani.

Agenti AI verticali per soluzioni di dominio

Si tratta di agenti nativi dell’AI progettati per soluzioni in un dominio o funzione di business specifica. Invece di aggiungere AI a un processo esistente, questi agenti nascono con l’AI al centro della soluzione. Esempi potrebbero essere un sistema AI per il servizio clienti interamente gestito da agenti intelligenti, oppure una pipeline di sviluppo software che utilizza agenti generativi ad ogni fase (dalla raccolta requisiti, al coding, al testing). L’idea è di re-immaginare completamente un particolare dominio con l’AI come architrave, piuttosto che inserire l’AI in ruoli o workflow tradizionali. L’implementazione di agenti verticali comporta spesso un ripensamento profondo del modo in cui quella funzione opera: processi, competenze del personale e metriche di successo possono essere ridefiniti attorno alle capacità dell’agente AI. Organizzativamente, ciò richiede sponsor decisi e una visione chiara di come l’AI possa ridefinire il vantaggio competitivo in quello specifico ambito.

Imprese e operating model “AI-Native”

In questa categoria l’AI non si limita a singoli processi o funzioni, ma viene intrecciata nell’intero modello operativo dell’azienda. Un’impresa AI-native ridisegna da zero interazioni, processi, struttura organizzativa e persino il modello di business con un approccio AI-first. Siamo di fronte a una trasformazione end-to-end: così come anni fa molte aziende tradizionali sono state riconcepite attraverso le lenti del digitale, oggi vediamo organizzazioni ripensarsi interamente attorno all’intelligenza artificiale. I cambiamenti in gioco sono di portata paragonabile a quelli delle prime trasformazioni digitali. In pratica, un’azienda AI-native può avere decine (o migliaia) di agenti AI che operano in vari ruoli – dall’analisi dei dati alle decisioni operative – con gli umani focalizzati su supervisione, eccezioni e aspetti strategici. L’implicazione organizzativa è la più ampia: serve ridisegnare l’organigramma, le competenze chiave e la cultura aziendale per valorizzare appieno la collaborazione uomo-macchina su vasta scala.

“Lavoratori Virtuali” AI

Rappresentano la categoria potenzialmente più dirompente: agenti AI che operano come veri e propri membri di un team o “dipendenti virtuali”. Invece di trasformare l’intera organizzazione in chiave AI, un’azienda può inserire agenti AI nel proprio organico esistente, assegnando loro ruoli specifici accanto ai lavoratori umani. Questi lavoratori virtuali potrebbero, ad esempio, gestire autonomamente un portfolio clienti, condurre analisi finanziarie o eseguire controlli di qualità come farebbe un dipendente – ma con velocità e scalabilità superiori. Il grande vantaggio è che i virtual workers permettono alle aziende di evitare (almeno inizialmente) una trasformazione organizzativa totale, catturando valore rapidamente all’interno del modello corrente. In sostanza, l’agente diventa un nuovo “collega” digitale. Ciò pone sfide interessanti: dall’integrazione di questi agenti nei team esistenti, alla definizione di processi di supervisione, fino alle implicazioni legali e contrattuali di avere entità non umane che producono lavoro. È forse l’ambito dove il confine tra umano e AI in azienda diventa più sottile, ed è per questo un terreno che potrebbe portare i benefici più rapidi ma anche interrogativi etici e gestionali senza precedenti.

Da notare: queste tipologie non si escludono a vicenda. Molte organizzazioni adotteranno un approccio misto – ad esempio, distribuendo copiloti AI personali ai dipendenti, automatizzando al contempo alcuni workflow e sperimentando magari un paio di lavoratori virtuali in aree pilota. L’importante per i leader è comprendere il ventaglio di possibilità a disposizione e pianificare come queste diverse forme di agenti possano coesistere e potenziarsi a vicenda nella propria strategia digitale.

Architettura e funzionamento degli Agenti AI

Come riescono, in concreto, gli agenti AI a svolgere compiti complessi in autonomia? La risposta risiede in architetture software sofisticate, spesso organizzate in sistemi multi-agente dove diversi agenti specializzati collaborano sotto il coordinamento di un agente “manager”. Inoltre, la loro versatilità deriva dalla capacità di utilizzare sia strumenti pensati per esseri umani sia strumenti software via API.

Innanzitutto, un agente AI può utilizzare strumenti progettati per l’uomo, come un browser web, e strumenti pensati per computer, come chiamate API a servizi esterni. Questa duplice abilità – navigare interfacce utente e dialogare con sistemi informatici – dà all’agente enorme flessibilità. In teoria, un agente potrebbe prenotare un volo tramite un normale sito web o interagire con il database aziendale tramite API, il tutto in funzione dell’obiettivo da raggiungere. Ciò gli consente di operare trasversalmente alle architetture IT esistenti, sia all’interno che all’esterno dell’organizzazione, senza richiedere modifiche significative ai sistemi in uso.

In generale, il ciclo di lavoro di un agente AI autonomo segue quattro fasi principali:

  1. Assegnazione del compito: un utente (umano o un sistema superiore) affida all’agente o al sistema di agenti un obiettivo da raggiungere. A questo punto l’agente analizza il compito e pianifica come procedere.
  2. Pianificazione e scomposizione: il sistema di agenti suddivide l’obiettivo in sottocompiti più piccoli. Un agente “manager” assegna questi compiti a sub-agenti specializzati, ognuno dotato di esperienze pregresse o competenze di dominio specifiche rilevanti. I vari sub-agenti lavorano in parallelo, coordinandosi tra loro e utilizzando dati (interni o esterni all’organizzazione) per portare a termine le attività assegnate.
  3. Miglioramento iterativo: durante l’esecuzione, il sistema di agenti può iterare e perfezionare i risultati. Ad esempio, potrebbe richiedere input aggiuntivi all’utente per chiarire dubbi e assicurare la correttezza e rilevanza delle soluzioni che sta elaborando. Una volta generato un output finale, l’agente (o il sistema) può anche chiedere un feedback all’utente, utilizzandolo per apprendere e migliorare nelle future interazioni.
  4. Esecuzione finale: l’agente compie qualsiasi azione necessaria per completare definitivamente il compito, ad esempio inviando una risposta, aggiornando un database, inoltrando un report o eseguendo un comando nel mondo reale. A questo punto il ciclo può considerarsi concluso (a meno che l’utente non fornisca ulteriori richieste o feedback che riattivino il loop).

Questo schema generale viene potenziato da meccanismi di collaborazione tra agenti e controllo della qualità. In un sistema multi-agent ben progettato, possono esistere ruoli specializzati: ad esempio un agente “creativo” genera un piano o una soluzione, e un agente “critico” la rivede chiedendo iterazioni o correzioni, un po’ come farebbe un revisore umano, ottenendo così risultati migliori. All’occorrenza, alcuni agenti possono persino porre domande direttamente ai responsabili umani se necessitano di chiarimenti durante l’esecuzione. Si possono inoltre sviluppare agenti supervisori dedicati a verificare e correggere gli output di altri agenti, ad esempio controllando che non vi siano errori, violazioni etiche o bias indesiderati. Grazie a questi accorgimenti, un insieme di agenti AI può raggiungere standard di qualità e affidabilità elevati, apprendendo dagli errori e migliorando progressivamente le proprie performance.

Un aspetto tecnico cruciale è come gli agenti AI sfruttano i diversi modelli di intelligenza artificiale sottostanti. Spesso si associa il concetto di “agente AI” ai large language model (LLM) tipo GPT-4, ma in realtà un sistema di agenti può integrare molteplici tipi di modelli a seconda del sottocompito. Ad esempio, in un’auto a guida autonoma possiamo avere una serie di agenti: l’agente incaricato di capire dove l’utente vuole andare userà probabilmente un LLM dotato di comprensione del linguaggio naturale, mentre l’agente che deve assicurarsi che sia sicuro svoltare a sinistra utilizzerà un modello specializzato di visione o di pianificazione del movimento, non un LLM. Ciò evidenzia un punto importante: gli agenti AI sono orchestratori intelligenti che sanno scegliere gli strumenti di AI appropriati per ogni problema. I modelli generativi di linguaggio forniscono loro potenti capacità di ragionamento e interazione in linguaggio naturale, ma il vero valore di un agente sta nel come combina queste capacità con altre fonti di intelligenza (regole di business, modelli predittivi specifici, accesso a dati e servizi) per raggiungere l’obiettivo prefissato.

Opportunità per le imprese: efficienza, trasformazione e customer experience

Gli agenti AI aprono opportunità immense per migliorare l’efficienza e ripensare i processi aziendali. McKinsey stima che, nel lungo termine, le applicazioni enterprise dell’AI generativa potrebbero generare fino a 4,4 trilioni di dollari di valore annuo. Tuttavia, questo potenziale si realizzerà solo se le organizzazioni sapranno implementare rapidamente soluzioni di AI che reinventino il modo di lavorare invece di limitarsi ad aggiungere automazione superficiale. In questo contesto, gli agenti AI possono aiutare a estrarre quel valore “più in fretta, meglio e a costi minori” rispetto a tecnologie precedenti. Vediamo alcune aree chiave di impatto positivo.

Efficienza e produttività operativa

In molti settori, gli agenti AI promettono di snellire le operazioni e aumentare la produttività del personale. Ad esempio, l’azienda tecnologica Lenovo ha impiegato agenti AI sia nell’ingegneria del software che nel supporto clienti, registrando già fino al 15% di miglioramento dell’efficienza per gli sviluppatori software, e incrementi a doppia cifra nella produttività nella gestione delle chiamate dei contact center . In generale, dotare i team di agenti (come copiloti o assistenti virtuali) può ridurre i tempi di esecuzione di attività routinarie, diminuire errori manuali e consentire di fare di più con le stesse risorse. Nell’ambito del customer service, ad esempio, l’adozione di agenti AI generativi ha portato organizzazioni ad aumentare del 14% il tasso di risoluzione delle richieste per ora e a ridurre del 9% il tempo medio di gestione delle issue– un boost di efficienza che si traduce in costi operativi più bassi e clienti più soddisfatti. Oltre alle metriche quantitative, c’è un effetto di liberazione: attività di basso valore (come l’estrazione di dati, la stesura di prime bozze, l’inoltro di ticket) possono essere scaricate sugli agenti, lasciando ai team umani più spazio per creatività, problem solving e interazione di qualità con clienti o colleghi.

Trasformazione dei processi e innovazione

Il valore degli agenti AI va oltre l’automazione incrementale delle attività esistenti: essi offrono l’occasione di ripensare da zero i processi. Con agenti capaci di gestire situazioni meno prevedibili e interpretabili solo a posteriori (dove i sistemi basati su regole fallirebbero), si possono automatizzare parti di processo finora considerate troppo complesse per la tecnologia. Inoltre, grazie alle capacità di comprensione del linguaggio naturale, gli agenti permettono di interagire con i sistemi in modo più intuitivo: chiunque in azienda può descrivere in linguaggio comune un workflow desiderato, e l’agente è in grado di tradurlo in azioni automatizzate. Questo abbassa drasticamente la barriera tra l’intenzione di business e l’implementazione tecnica, abilitando una platea più ampia di persone (non solo gli sviluppatori) a progettare soluzioni automatizzate. Le aziende più visionarie stanno già sperimentando processi completamente nuovi abilitati da sistemi di agenti. Si pensi alla gestione dei prestiti in banca: un sistema di agenti specializzati potrebbe prendere in carico l’istruttoria di un mutuo, raccogliendo e analizzando automaticamente tutte le informazioni su richiedente, tipo di prestito e garanzie, svolgendo in pochi minuti un lavoro che normalmente richiede giorni di scambi tra vari uffici. Allo stesso modo, per attività come il refactoring di applicazioni legacy o la conduzione di campagne di marketing online, esistono già prototipi di agenti AI in grado di coprire dall’ideazione all’esecuzione, coinvolgendo all’occorrenza diversi agenti esperti (es.: uno specialista di software legacy, un agente QA per verificare l’output, un agente di digital marketing per i social media, ecc.). Questi esempi illustrano come la trasformazione dei processi può avvenire su scala maggiore: non si tratta solo di fare le stesse cose in modo più efficiente, ma di fare cose nuove o prima impensabili, grazie alla capacità degli agenti di adattarsi in tempo reale a scenari variabili e di coordinarsi fra loro per raggiungere un obiettivo.

Modernizzazione dell’IT e Agile Delivery

Un beneficio collaterale ma fondamentale dell’adozione di agenti AI riguarda la modernizzazione delle infrastrutture IT e delle pratiche di sviluppo software. Per sfruttare appieno questi agenti, le aziende si trovano a dover aggiornare linguaggi e piattaforme: ad esempio, convertire vecchi sistemi in linguaggi più moderni e far evolvere le architetture verso servizi più modulari. Gli agenti AI stessi possono facilitare questo ammodernamento. McKinsey segnala che l’uso di agenti nella modernizzazione IT – ad esempio un agente specializzato nel leggere e documentare codice legacy, affiancato da un altro agente focalizzato sul refactoring sicuro – può rendere questi processi più rapidi, economici e precisi. Inoltre, l’adozione di agenti spinge i team IT verso metodologie più agili e iterative: invece di progetti monolitici pluriennali, diventa più efficace scomporre i problemi in moduli affrontabili da agenti specializzati che lavorano in parallelo e in continua interazione. I leader tecnologici possono orchestrare molteplici agenti specializzati, ognuno con un ruolo distinto, per collaborare su compiti complessi e raffinarsi reciprocamente grazie al feedback umano in tempo reale. Il risultato è un IT più fluido, dove sperimentazione e implementazione vanno di pari passo, sostenute da un “team digitale” instancabile. In sintesi, gli agenti AI non solo portano miglioramenti diretti, ma fungono da catalizzatore per aggiornare strumenti e modalità operative dell’azienda, preparando il terreno a un’innovazione continua.

Esperienza Cliente (Customer Experience)

L’impatto forse più visibile, almeno nel breve termine, è sulla customer experience. Già oggi molte aziende usano chatbot avanzati nei canali di assistenza al cliente, ma con agenti AI di nuova generazione si può andare oltre le semplici FAQ: un agente può gestire end-to-end la richiesta di un cliente, consultando sistemi interni, compilando pratiche, proponendo soluzioni personalizzate in tempo reale. I benefici sono misurabili: come citato, agenti AI nel customer care hanno aumentato la risoluzione dei problemi al primo contatto e ridotto i tempi di attesa. Ma oltre ai numeri c’è un cambio qualitativo: gli agenti AI possono fornire un’assistenza 24/7 altamente personalizzata, adattando il tono e le informazioni in base al profilo del cliente (grazie alla memoria a breve e lungo termine di cui sono dotati). Questo può tradursi in clienti più soddisfatti e fedeli. Inoltre, liberando tempo agli operatori umani, le imprese possono offrire servizi premium con maggiore coinvolgimento umano quando conta davvero: ad esempio, alcune interazioni complesse o di alto valore potrebbero essere passate a consulenti umani, mentre l’agente AI gestisce le interazioni più semplici. In prospettiva, l’integrazione di agenti AI potrebbe aprire nuove opportunità di ricavi: dai consigli proattivi d’acquisto forniti dall’agente (che agisce quasi da venditore personale), a modelli di servizio in cui l’assistenza base è gestita dall’AI e quella “umana” diventa un valore aggiunto su cui costruire offerte esclusive. In breve, nell’era degli agenti AI l’esperienza cliente potrà essere simultaneamente più efficiente e più ricca, combinando l’instancabile precisione della macchina con l’empatia e creatività umana dove necessarie.

Sfide nell’adozione degli Agenti AI

A fronte delle grandi promesse, le organizzazioni devono affrontare anche sfide significative per adottare con successo gli agenti AI. Implementare questi sistemi non è un semplice upgrade tecnologico: implica toccare aspetti di fiducia, gestione del cambiamento, tutela dei dati e persino un’evoluzione dell’architettura IT aziendale di fondo. Esaminiamo questi punti critici.

Costruire fiducia e affidabilità

La fiducia è forse la sfida più immediata. Sia i clienti che i dipendenti devono poter credere nelle risposte e nelle azioni svolte dagli agenti AI. Oggi molti consumatori, perfino i giovani della Gen Z, preferiscono ancora parlare con una persona al telefono per problemi di assistenza, segno che esiste un gap di fiducia verso le soluzioni completamente automatiche. Un errore o una risposta sbagliata da parte di un agente può minare gravemente questa fiducia. Le imprese leader lo hanno capito e stanno introducendo meccanismi di controllo: ad esempio, una banca ha progettato un’architettura in cui ogni risposta generata dall’agente AI viene verificata da un modulo che intercetta errori o “allucinazioni” prima di comunicarla al cliente, riducendo drasticamente le risposte inesatte e aumentando l’affidabilità percepita. Oltre alla verifica tecnica, c’è un tema di approccio etico: come sottolineano gli esperti, le aziende che trarranno più valore dall’AI saranno quelle capaci di creare fiducia presso clienti, dipendenti e stakeholder. Ciò significa agire con trasparenza (ad esempio dichiarando quando si interagisce con un agente AI), avere politiche chiare sull’uso dei dati, e assicurare che le decisioni automatizzate riflettano i valori dell’organizzazione e mettano al centro l’uomo. Solo così le persone si sentiranno sicure di delegare compiti agli agenti. In ultima analisi, la fiducia verso gli agenti AI si costruisce come quella verso un collega: con competenza dimostrata sul campo, coerenza di comportamento e allineamento ai valori condivisi.

Change Management e riorganizzazione del lavoro

Introdurre agenti AI su larga scala non è come installare un nuovo software – è un cambiamento di paradigma operativo. Molte organizzazioni scoprono che per ottenere reali benefici devono ricablare i propri processi e modelli operativi. L’adozione efficace di agenti AI richiede ben più che distribuire uno strumento ai dipendenti: bisogna rivedere flussi di lavoro, ruoli e responsabilità, formare le persone a collaborare con gli agenti e spesso ripensare intere funzioni aziendali. In pratica, è come passare da una squadra in cui ognuno ha il suo compito definito, a una squadra aumentata da giocatori AI dove le regole del gioco sono diverse. Ciò richiede un intenso change management. I leader devono sponsorizzare attivamente la transizione, comunicando la visione e i benefici, e allo stesso tempo ascoltare le preoccupazioni del personale (timori di sostituzione, mancanza di competenze, ecc.). Un aspetto emerso è la necessità di incentivare e formare i lavoratori affinché imparino a utilizzare – e a fidarsi – dei nuovi strumenti. Questo può voler dire rivedere i programmi di training, creare champion interni che facciano da esempio nell’uso degli agenti, e modificare i sistemi di valutazione delle performance per premiare chi adotta soluzioni AI in modo efficace. Inoltre, sul piano organizzativo è opportuno introdurre gradualmente piccoli team interfunzionali che lavorano in maniera iterativa su progetti pilota con agenti AI. Questi team agili possono sperimentare e identificare ostacoli (tecnologici o di processo), fornendo indicazioni preziose prima di una scala più ampia. In sintesi, il cambiamento richiesto è profondo: non si tratta solo di implementare nuovi tool, ma di ridisegnare il lavoro affinché uomini e agenti AI raggiungano insieme il massimo potenziale.

Data Protection e Sicurezza

L’utilizzo massiccio di agenti AI solleva importanti questioni di protezione dei dati e sicurezza informatica. Per svolgere i loro compiti, questi agenti accedono e processano grandi quantità di informazioni, spesso sensibili o proprietarie. I leader aziendali sono giustamente preoccupati di mantenere il controllo e la riservatezza di questi dati. Ogni interazione con un servizio esterno (ad esempio una chiamata API a un modello AI di un provider cloud) potrebbe esporre informazioni delicate se non gestita con attenzione. Diventa quindi cruciale implementare i giusti controlli e governance sin dall’inizio. Questo include misure di sicurezza tradizionali (crittografia, autenticazione forte, monitoraggio degli accessi) ma anche controlli specifici per l’AI: ad esempio filtri che impediscano agli agenti di condividere dati sensibili in prompt inviati a servizi esterni, sandbox in cui testare gli agenti prima di metterli in produzione, e monitoraggio continuo degli output generati per rilevare anomalie. Fortunatamente, stanno emergendo soluzioni sia commerciali sia personalizzate per affrontare queste sfide. Ad esempio, alcune aziende adottano “AI wrapper” – interfacce che permettono ai servizi interni di comunicare con modelli esterni via API senza esporre i dati grezzi, preservando così la privacy. Altre sviluppano piattaforme interne che tracciano ogni decisione presa da un agente, facilitando audit e spiegabilità, indispensabili in settori regolamentati. In definitiva, la fiducia nei dati è alla base di qualunque iniziativa AI: un’azienda deve sentirsi sicura che i suoi agenti lavorino all’interno dei confini di sicurezza stabiliti, senza creare nuovi rischi operativi o reputazionali.

Dall’architettura applicativa a un modello Multi-Agente

L’adozione diffusa di agenti AI probabilmente cambierà in modo sostanziale le architetture IT delle organizzazioni. Si prospetta un passaggio da un modello tradizionale, centrato su applicazioni monolitiche o su servizi separati, a un modello “multi-agente” in cui miriadi di agenti specializzati interagiscono tra loro. McKinsey prevede che le architetture IT evolveranno da uno schema focalizzato sulle applicazioni a uno basato su una moltitudine di agenti collaborativi. In pratica, invece di progettare un software come un insieme di moduli statici con funzioni predefinite, si progetterà un ecosistema dinamico di agenti in grado di comunicare l’uno con l’altro, con gli esseri umani e con programmi esterni, per raggiungere obiettivi comuni. Questo cambio di paradigma pone diverse sfide. Prima di tutto, la gestione: un’azienda potrebbe ritrovarsi a dover orchestrare centinaia (se non migliaia) di agenti che svolgono compiti diversi ma interdipendenti. Serviranno nuovi strumenti di monitoraggio e controllo per assicurare che tutti questi agenti lavorino in armonia, un po’ come un direttore d’orchestra deve assicurare che decine di strumenti suonino sincronizzati. Inoltre, l’integrazione con i sistemi esistenti richiederà soluzioni creative: ad esempio, l’uso dei già citati AI wrapper per far comunicare agenti AI con applicazioni legacy senza doverle riscrivere. Un altro approccio sarà l’adozione di super-platform: applicazioni di nuova generazione (ad esempio CRM o suite di collaboration) che avranno agenti AI integrati nativamente, pronti a dialogare con gli altri sistemi e agenti dell’ecosistema. Infine, la transizione verso architetture multi-agente comporterà anche un ripensamento delle competenze in IT: serviranno ingegneri capaci di “addestrare” e assemblare agenti, figure di AI orchestrator e nuove pratiche DevOps adattate a componenti AI autonomi. Insomma, l’IT aziendale dovrà evolvere sia a livello tecnologico sia a livello organizzativo per supportare questa proliferazione controllata di agenti intelligenti al servizio del business.

Verso la nuova era dell’impresa cognitiva

Siamo soltanto all’inizio di questa evoluzione. Così come la rivoluzione digitale ha trasformato radicalmente le aziende negli ultimi due decenni, la rivoluzione cognitiva alimentata dagli agenti AI ridefinirà le organizzazioni nei prossimi anni. Molto del lavoro pionieristico sui sistemi multi-agente sta uscendo dai laboratori di ricerca per approdare alla scala reale, e imparare lungo il percorso sarà inevitabile: casi d’uso, best practice e modelli di governance sono in piena fase di scoperta sul campo.

Dal punto di vista personale di un imprenditore e consulente tecnologico, ciò che si profila è un cambiamento epocale nell’interazione tra esseri umani e sistemi. Gli agenti AI diventeranno sempre più come colleghi digitali con cui collaborare. Immaginiamo un futuro prossimo in cui ogni professionista avrà a disposizione una sorta di “team virtuale” di agenti: uno che analizza i dati e propone insight, uno che prepara documenti o codice su richiesta, un altro che cura le attività amministrative di routine. L’interfaccia verso i sistemi aziendali sarà sempre più conversazionale e proattiva: invece di cliccare attraverso menu e form, potremo dialogare con un agente che capisce le nostre intenzioni e mobilita altri agenti e servizi per ottenere risultati. Questo porterà a un rapporto uomo-macchina più fluido, in cui l’AI non è più solo uno strumento, ma un partner operativo.

Naturalmente, il ruolo umano rimarrà cruciale. Anzi, in questa nuova era dell’impresa cognitiva, le capacità tipicamente umane – creatività, leadership, giudizio etico, empatia – diventeranno ancora più importanti. Mentre gli agenti AI assorbiranno molte attività esecutive e analitiche, agli esseri umani spetterà il compito di guidare questi agenti, ponendo le domande giuste, definendo gli obiettivi e intervenendo nei casi non standard. Le organizzazioni dovranno evolvere verso modelli in cui uomini e agenti AI lavorano fianco a fianco in simbiosi, ciascuno concentrato su ciò che sa fare meglio.

In conclusione, gli agenti AI rappresentano davvero un cambio di paradigma tecnologico e organizzativo. Le aziende che sapranno abbracciare questa transizione potranno reinventarsi come imprese cognitive, capaci di apprendere e adattarsi continuamente grazie al connubio di intelligenza umana e artificiale. La visione che si delinea è quella di un ambiente di lavoro arricchito, dove ogni idea può essere immediatamente esplorata da squadre di agenti instancabili, dove ogni decisione è supportata da analisi in tempo reale, e dove la tecnologia diventa un attore attivo e collaborativo. Prepararsi a questo futuro significa investire oggi non solo nella tecnologia, ma nelle persone, nella cultura e nei processi che permetteranno a questi agenti di esprimere tutto il loro potenziale. La nuova era dell’impresa cognitiva è all’orizzonte: sta a noi coglierne le opportunità e guidarla con visione strategica e responsabilità.

Dalla gerarchia al dialogo: come gli agenti AI stanno riscrivendo il nostro modo di chiedere

C’è stato un tempo (e forse c’è ancora) in cui il comando “vai a farmi le fotocopie” era il simbolo per eccellenza della gerarchia operativa. Diretto, inequivocabile, senza margini di interpretazione o ambiguità. Più o meno.

Vi starete domandando cosa c’entra questo con l’AI, con il rilascio di Perplexity o del recente Operator di OpenAI, vero? Non ci crederete ma un legame, con l’evoluzione e l’arrivo degli agenti, questo tema è molto attuale.

Pensateci, con un’intelligenza artificiale non funziona più essere autoritari: bisogna essere collaborativi. E forse anche un po’ educati.

Partiamo dal principio.

Dal comando al dialogo: chi educa chi?

La relazione con un agente AI, viste le evoluzioni recenti, le potenzialità e l’efficacia che stanno cominciando ad avere, non è più univoca: è una relazione che diventa dialogica e persino educativa. Il fatto di dover collaborare con un agente AI, e non comandarlo come verrebbe naturale, implica un cambio di prospettiva non da poco. Non possiamo più limitarci ad impartire ordini secchi; dobbiamo chiederci come formulare una richiesta in modo che sia compresa e, soprattutto, eseguita al meglio.

Immaginate la scena:

  • “Vai a farmi le fotocopie.”
  • L’AI risponde: “Quali pagine? A colori o in bianco e nero? E quante copie esattamente?”
  • Tu: “Fai tu.”
  • L’AI: “Fai tu cosa? C’è un errore nella richiesta / prompt.”

Ecco, questa è la nuova realtà: l’AI non si accontenta di eseguire, vuole capire. E noi, da “padroni del comando”, dobbiamo trasformarci in partner comunicativi, in grado di spiegare non solo cosa vogliamo, ma anche perché e come lo vogliamo. E se non iniziamo ad agire così abbiamo due possibili effetti che, in alcuni casi, iniziano già a manifestarsi: il primo è che l’AI, questo strumento magico che sembra possa fare tutto, in effetti non capisce e non fa quello che ci aspettiamo. Il secondo effetto, successivo, è noi non sappiamo chiederle ciò che ci serve e questo ci fa sentire inferiori potenzialmente.

Un nuovo (possibile) galateo

Se gli agenti AI diventano partner dialogici, forse dovremmo iniziare a pensare al nostro tono. Dopotutto, nessuno ama o ha mai amato un capo che urla, da comandi e impone di fare cose senza spiegarsi. E se la tecnologia ci stesse insegnando qualcosa, non in modo diretto, sul valore della gentilezza? Immaginate di dover chiedere all’AI di prenotare un volo:

  • Versione “vai a farmi le fotocopie“: “Prenota il volo per Milano.”
  • Versione dialogica: “Mi aiuti a trovare il miglior volo per Milano? Preferisco partire al mattino e con pochi scali.

Io credo che sia palese che una delle due è efficace, mentre l’altra no. Non solo la seconda versione è più chiara, ma risulta anche più… umana!

È ironico: un agente digitale, apparentemente privo di emozioni, ci costringe a essere più consapevoli del nostro modo di comunicare. Forse, nel tentativo di insegnare all’AI come interagire con noi, stiamo imparando noi stessi a interagire meglio con gli altri?

Dal “cosa” al “perché”

La vera rivoluzione di questo shift non è solo nel come chiediamo, ma nel perché lo chiediamo. Quando diciamo all’AI di fare qualcosa, stiamo implicitamente trasferendo a lei il processo decisionale. Non stiamo solo delegando un compito, ma anche il modo in cui quel compito verrà eseguito. E qui nasce una domanda cruciale: siamo davvero pronti a cedere questo potere?

Prendiamo un esempio semplice: “Organizza la mia giornata.

Se non forniamo contesto, l’AI potrebbe pianificare otto meeting consecutivi senza pause. Ha sbagliato? No, semplicemente ha eseguito un compito interpretandolo sulla base delle informazioni che aveva a disposizione. Non vi sembra un dejavù, no? Se non spieghiamo perché abbiamo bisogno di spazio per pensare o di tempo per un pranzo tranquillo, l’AI non potrà saperlo.

La verità è che chiedere bene richiede una certa dose di autoconsapevolezza. Dobbiamo sapere cosa vogliamo e perché lo vogliamo, altrimenti rischiamo di essere “mal serviti” da un’entità che, paradossalmente, cerca solo di aiutarci.

Chi è il maestro?

E qui arriviamo al punto più ironico (e forse non solo ironico) di tutti: chi sta educando chi? Stiamo insegnando all’AI a comprendere meglio il linguaggio umano? Oppure è l’AI che, indirettamente, ci sta insegnando a essere più chiari, più collaborativi, persino più riflessivi? Forse, l’evoluzione degli agenti AI non riguarda tanto il loro apprendimento, quanto il nostro.

Questi sistemi ci costringono a fermarci, a pensare, a chiarire.

Non possiamo più limitarci a dire “vai a farmi le fotocopie“; dobbiamo chiederci: “Perché servono? Come posso spiegare meglio la mia richiesta?” E in questo processo, potremmo scoprire che la tecnologia non sta solo automatizzando i nostri compiti, ma sta affinando le nostre capacità di comunicazione e comprensione. Una lezione inaspettata da un’entità che non ha né cuore né anima.

Eppure è un insegnamento che ha sicuramente un impatto sul singolo, ma potenzialmente avrà un impatto anche sul modo in cui le aziende si approcceranno a questa ennesima trasformazione: ridefinire lo scopo prima di attivare una azione che non necessariamente sarà utile.

La gentilezza del futuro

Forse, un giorno, guarderemo indietro e penseremo che la rivoluzione dell’AI non è stata tanto nell’efficienza o nell’automazione, su cui tutti, chi più e chi meno stiamo mettendo la testa, ma nel suo impatto sul nostro modo di pensare e interagire. Esattamente come scrivevo anche giorni fa nel post “Comprensione e fiducia: l’evoluzione dell’interazione uomo-macchina” . Gli agenti AI ci stanno spingendo a rivalutare non solo cosa chiediamo, ma come e perché lo facciamo. E chissà, magari la prossima volta che ci verrà da dire “vai a farmi le fotocopie”, ci fermeremo un attimo.

Forse sorrideremo e diremo: “Mi aiuti a organizzare al meglio questo lavoro? Grazie.”

E quel grazie, in fondo, potrebbe essere il vero segno del nostro progresso.

Costruire il futuro con nuove parole, paradigmi e visioni

Quando Jensen Huang, CEO di NVIDIA, all’intervento del CES ha affermato

The IT department of every company is going to be the HR department of AI agents in the future. Today, they manage and maintain a bunch of software from the IT industry. In the future, they will maintain, nurture, onboard, and improve a whole bunch of digital agents and provision them to the companies to use. And so, your IT department is gonna become kind of like AI Agent HR

che in sintesi è “il dipartimento IT diventerà il dipartimento HR per gli agenti AI“, ha colto senza dubbio una trasformazione epocale: la convergenza tra tecnologia e gestione delle risorse, tra IT e HR. È un’affermazione che provoca, fa riflettere e, in parte, semplifica. Forse anche troppo.

Ma dietro questa semplificazione si cela una verità complessa che merita di essere analizzata con attenzione e che mi ha fatto riflettere in questi giorni.

Partiamo da un dettaglio che spesso diamo per scontato. HR sta per Human Resources. E quella “H”, che spesso dimentichiamo, quel riferimento diretto all’umano, è fondamentale. Nella nostra quotidianità professionale tendiamo a usare “HR” come un’etichetta astratta, dimenticandoci che il termine richiama la gestione delle persone, delle loro capacità, emozioni, relazioni e ambizioni. È un acronimo che implica tutto ciò che rende unico e irripetibile l’essere umano.

Quando applichiamo il concetto di HR agli agenti AI, come in questo caso, rischiamo di dimenticare il significato intrinseco di quella letterina. Gli agenti AI non sono umani. Non hanno ambizioni, emozioni o valori. Non cooperano per scelta, non imparano per aspirazione, non falliscono per mancanza di motivazione. Sono strumenti, sofisticati e straordinari, ma sempre strumenti. Strumenti in grado di potenziare le nostre capacità. Paragonarli a risorse umane, per quanto utile come provocazione, rischia di condurci su un terreno scivoloso: quello dell’antropomorfizzazione, della percezione che questi agenti possano sostituire completamente l’umano, anziché affiancarlo.

Dobbiamo rivedere il concetto stesso. Se la “H” di HR non si applica agli agenti AI, cosa rappresenta allora la loro gestione? Sicuramente non possiamo banalizzare la loro gestione ad una semplice gestione di un asset tecnologico, perché a mio avviso non sono solo questo.

Senza dubbio stiamo entrando in un’era in cui le risorse umane e digitali devono essere integrate in un nuovo paradigma, che non vede l’AI come un “collega virtuale”, “uno stagista” o una entità a se stante, ma come un potenziatore delle capacità umane. Un modello in cui il dipartimento IT non diventa semplicemente un “HR per AI”, ma un gestore strategico di una forza lavoro ibrida, in cui umano e artificiale si completano e valorizzano a vicenda.

Eppure, non possiamo ignorare la validità della visione di Huang. Dietro le sue parole c’è una fotografia del futuro. Il dipartimento IT si trasformerà davvero. Oggi gestisce infrastrutture e software; domani dovrà gestire agenti AI con logiche che ricordano quelle applicate alle persone: addestramento, monitoraggio, miglioramento continuo. Il linguaggio con cui descriviamo questa evoluzione deve essere altrettanto trasformativo. Non possiamo limitarci a prendere in prestito termini esistenti per descrivere qualcosa di radicalmente nuovo.

Dopo tutto l’HR ha sempre gestito le “umane risorse” (come direbbe un amico) e l’IT le risorse tecnologiche. Forse nella loro ibridazione, è necessario ripensare non solo alle etichette ma anche alle tipologie di competenze per valutare tutto questo.

Le parole contano, come direbbe qualcuno. Definire il ruolo del dipartimento IT come “HR per l’AI” potrebbe sembrare pratico e immediato, ma rischia di nascondere una verità più complessa. Gli agenti AI non sostituiscono l’umano, né lo imitano. Sono un complemento, un supporto, un’estensione. Serve un linguaggio che enfatizzi l’integrazione, non l’equivalenza. Un linguaggio che riconosca il valore unico dell’umano e, allo stesso tempo, la specificità dell’intelligenza artificiale.

E qui emerge un’opportunità. Huang ha ragione quando ci invita a ripensare i ruoli organizzativi alla luce dell’AI. Ma forse, il vero cambiamento non è solo nell’IT o nella tecnologia. È nella nostra capacità di immaginare nuovi paradigmi, nuovi concetti, nuovi linguaggi.

Cosa dobbiamo continuare a imparare da quell'”H” senza perderla? Che il nostro rapporto con l’AI non deve perdere di vista l’umano. L’AI non ha bisogno di essere “umanizzata” nel vero senso della parola, per essere straordinaria. La sua forza sta proprio nella sua diversità, nella sua capacità di amplificare ciò che noi, come esseri umani, possiamo fare. Ma questa diversità richiede una gestione che tenga conto delle differenze, che riconosca e rispetti i limiti dell’AI e, al contempo, ne valorizzi il potenziale unico.

Cosa invece ci dobbiamo ricordare? Che ogni rivoluzione tecnologica è, prima di tutto, una rivoluzione culturale. Da sempre. Se oggi parliamo di “HR per AI”, forse domani parleremo di “Digital Resources Management” o di un nuovo concetto ancora da inventare. Ma quello che non possiamo permetterci di fare è usare un linguaggio che riduca la complessità o che confonda i confini tra umano e artificiale.

Dobbiamo aspettarci un cambiamento, inevitabile. Un mondo in cui le organizzazioni saranno guidate dalla complementarità tra umano e AI. Dove il dipartimento IT non sarà più solo un gestore di infrastrutture, ma un orchestratore strategico di risorse digitali. E dove quella “H” di HR, che oggi ci invita a riflettere, continuerà a ricordarci ciò che ci rende unici: l’umanità.

Forse non abbiamo ancora le risposte, ma sappiamo che le parole con cui raccontiamo il futuro sono già parte della sua costruzione. E quindi, se possiamo fare meglio – se possiamo trovare un linguaggio che onori questa complessità (enorme) – allora dobbiamo farlo.

Perché il futuro non si costruisce con vecchi paradigmi, ma con nuove visioni.