InsideTheShift #9 – Realtà Sintetica

Tra realtà e simulazione: l’alba della realtà sintetica

Shift in Focus

Viviamo un momento in cui i confini tra reale e artificiale si fanno sfumati. La realtà sintetica, l’insieme di mondi digitali generati dall’AI, ambienti virtuali immersivi e contenuti deepfake iperrealistici è emersa come un nuovo paradigma. Non si tratta più di semplici effetti speciali in un film: oggi chiunque, con pochi strumenti, può creare immagini fotorealistiche di eventi mai accaduti, simulare la voce di un personaggio pubblico o costruire interi ambienti 3D in cui immergersi. Questo shift è tecnologico (abilitato da algoritmi sempre più potenti) ma anche profondamente culturale: ci spinge a rivedere cosa consideriamo “reale” e a confrontarci con esperienze sintetiche così convincenti da suscitare le stesse emozioni del mondo fisico.

In questa introduzione evocativa, immaginiamo per un attimo di scorrere un feed social: una foto mozzafiato di una città futuristica al tramonto – generata da un’AI – appare accanto al video di una celebrità che pronuncia parole che non ha mai detto (un abile deepfake). Poco più sotto, un amico condivide il suo ultimo acquisto fatto provando virtualmente un capo in un metaverso. Nulla di ciò che abbiamo visto è “reale” in senso tradizionale, eppure ha un impatto autentico sulle nostre percezioni e decisioni. Ecco perché la realtà sintetica è un punto di svolta: apre possibilità creative senza precedenti, ma solleva anche interrogativi inediti su fiducia, autenticità e esperienza umana.

Dalle premesse all’oggi: come siamo arrivati qui

Understanding the Shift

La realtà sintetica affonda le sue radici in evoluzioni tecniche e culturali degli ultimi anni. Sul fronte tecnico, abbiamo assistito a progressi impressionanti nell’Intelligenza Artificiale generativa: dal linguaggio (GPT e simili, capaci di scrivere testi realistici) alle immagini (con modelli come DALL·E e Midjourney in grado di creare opere visive da zero), fino ai video generati da AI come quelli prodotti da strumenti tipo Runway, VEO, midjourney e kling. I deepfake, comparsi intorno al 2017, hanno mostrato al mondo quanto fosse ormai possibile manipolare volti e voci nei video con risultati inquietantemente credibili. Parallelamente, i motori grafici 3D e i simulatori (come Unreal Engine o Unity) hanno reso accessibile la creazione di mondi virtuali dettagliati, mentre piattaforme di realtà estesa (XR) come visori VR/AR hanno iniziato a portare questi mondi simulati direttamente nei nostri sensi.

Le premesse culturali non sono meno importanti. La società si è lentamente abituata all’idea di filtrare e modificare il reale: basti pensare ai filtri di Instagram o Snapchat che da anni abbelliscono o trasformano i volti, una forma primitiva di realtà aumentata personale. Il concetto di “avere una vita online” parallela a quella offline ha preparato il terreno: dagli avatar nei videogiochi e nei primi mondi virtuali (Second Life, Minecraft) fino alle odierne sperimentazioni di metaverso, l’idea di interagire in spazi non fisici è entrata nell’immaginario comune. Anche la fiction ha giocato il suo ruolo profetico – film e romanzi da Matrix a Ready Player One – educando le masse a scenari in cui la simulazione può essere indistinguibile dalla realtà.

Tutti questi fattori si sono uniti nel 2022-2023 in una sorta di big bang della realtà sintetica: il grande pubblico ha visto il Papa in giacca di piumino bianca (un’immagine generata da AI diventata virale), ha ascoltato canzoni “cantate” da artisti in realtà imitati dall’AI, ha seguito notizie di video deepfake di leader politici. La percezione del reale ha iniziato a oscillare. Ciò che vediamo o sentiamo può essere autentico oppure no, e spesso è richiesto un occhio allenato (o strumenti specifici) per accorgersene. Questa consapevolezza collettiva segna lo shift: la realtà sintetica non è più solo un esperimento da laboratorio, ma qualcosa che tocca la vita quotidiana e che richiede nuovi riferimenti.

Fondamenti della realtà sintetica: tecnologie e concetti chiave

The Core
Che cosa intendiamo esattamente per realtà sintetica? Si tratta di un ecosistema di tecnologie e approcci che consentono di creare “gemelli” digitali del mondo e di generare contenuti ed esperienze simulate, spesso indistinguibili da quelle reali. Alla base vi sono alcuni concetti chiave:

  • Digital twin (gemello digitale) – È una replica virtuale di un’entità fisica, aggiornata in tempo reale attraverso dati e sensori. Nato in ambito industriale, il concetto di digital twin oggi si applica a tutto: dalle copie digitali di macchinari e città (usate per simulare scenari e ottimizzare processi) fino ai digital twin di esseri umani (per esempio avatar animati con dati biometrici). Questa tecnica permette di testare e prevedere eventi nel simulato prima di attuare cambiamenti nel reale.
  • Synthetic media – Rientrano qui tutti i contenuti prodotti o alterati dall’AI: testi, immagini, audio, video generati artificialmente. È synthetic media un articolo scritto da ChatGPT, un volto inesistente creato da StyleGAN, la voce clone di una celebrità usata in uno spot, o un video deepfake che altera il parlato di qualcuno. Questi media sintetici, grazie ai progressi delle reti neurali (come i modelli diffusivi e i GAN), hanno raggiunto un livello qualitativo tale da “riflettere” il mondo fisico in modo convincente. Non a caso Accenture ha definito questa tendenza The Unreal, sottolineando come aziende e consumatori ormai debbano spostare l’attenzione dalla distinzione vero/falso all’autenticità e trasparenza d’uso dei contenuti generati.
  • Ambienti XR generativi – XR (Extended Reality) è il termine ombrello per realtà virtuale, aumentata e mista. La novità oggi è l’integrazione dell’AI generativa in questi ambienti. Significa che mondi virtuali e oggetti 3D possono essere creati al volo dall’intelligenza artificiale. Immaginiamo di descrivere a un sistema VR una scena (“una spiaggia tropicale al tramonto con musica soffusa”) e vedere il mondo virtuale plasmarsi di conseguenza, in tempo reale. Questo apre la porta a esperienze immersive personalizzate: training simulativi che si adattano al volo alle esigenze dell’utente, giochi che generano livelli infiniti, spazi virtuali sociali creati in base ai partecipanti. Un esempio concreto sono i progetti di generative NPC (personaggi non giocanti con intelligenza generativa): invece di reagire con frasi programmate, gli avatar in un mondo virtuale possono conversare creativamente con l’utente, dando la sensazione di interagire con entità “vive” nel simulato.

Quali sono le applicazioni già in atto di questi elementi della realtà sintetica? Numerose e in rapida espansione:

  • Business e industria: aziende all’avanguardia utilizzano gemelli digitali per ottimizzare prodotti e impianti. Ad esempio, case automobilistiche e aerospaziali testano prototipi in simulazioni virtuali prima di produrli fisicamente, riducendo costi e tempi. In ambito retail, si sperimentano showroom virtuali dove il cliente può provare mobili o vestiti in un gemello digitale della propria casa o del proprio corpo. Inoltre, i dati sintetici generati da AI vengono impiegati per addestrare algoritmi evitando problemi di privacy o colmando lacune nei dati reali: Gartner prevede che entro il 2030 la maggior parte dei dati usati per addestrare l’AI potrebbe essere sintetica.
  • Formazione e training: la realtà simulata sta rivoluzionando come apprendiamo competenze. In medicina, già si addestrano chirurghi in sale operatorie virtuali; piloti e astronauti fanno training in ambienti simulati da decenni, ma ora con l’AI questi scenari diventano più realistici e adattivi. Un formatore può generare su misura una situazione di emergenza per addestrare uno staff (es. l’evacuazione in caso d’incendio in un edificio virtuale) e ripeterla infinite volte variando i parametri. Anche nel business si diffonde l’idea di “prove generali” in VR: dal simulare conversazioni difficili per il team HR, fino a corsi di public speaking in cui ci si allena davanti a un pubblico virtuale generato dall’AI, capace magari di reagire con espressioni e rumore di fondo verosimili.
  • Comunicazione e media: stiamo entrando nell’era dei volti e voci sintetici. Alcune aziende offrono già servizi di AI avatar per presentare notiziari o video aziendali in più lingue: un singolo presentatore virtuale (ad esempio creato con piattaforme come Synthesia) può parlare fluentemente italiano, inglese, cinese con lo stesso volto e timbro, grazie al voice cloning e al lip-sync automatico. Marchi e influencer utilizzano virtual influencer – figure di personaggi inesistenti ma dall’aspetto ultrarealistico – per campagne pubblicitarie e contenuti social, con un controllo totale sull’immagine e il messaggio (Lil Miquela, Shudu e altri casi hanno fatto scuola). Nei call center iniziano ad apparire agenti virtuali con voce ed espressioni empatiche, che simulano un operatore umano per mettere a proprio agio il cliente. La comunicazione immersiva passa anche per eventi in spazi virtuali: fiere, concerti e meeting nel metaverso dove magari ci si presenta con il proprio avatar ideale. Tutto ciò modifica profondamente il panorama mediatico e dell’intrattenimento, fondendo ruoli prima distinti di creatore e fruitore: lo spettatore può diventare parte attiva di un mondo narrativo sintetico, il cliente co-creare l’esperienza di marca insieme all’AI.
  • Creatività e produzione culturale: artisti, designer e creativi sono tra i primi ad abbracciare la realtà sintetica come nuova tavolozza. Si creano film interamente con scenari e personaggi generati dall’intelligenza artificiale, videogiochi con trame che nascono dall’interazione con l’utente, opere d’arte dove l’autore umano e algoritmo firmano insieme la produzione. La musica sintetica consente di emulare voci di cantanti famosi (non senza polemiche sul copyright) o di comporre brani in stili diversi premendo un pulsante. Nelle arti visive, l’AI permette di ricreare stili di pittori del passato o inventarne di nuovi fondendo generi. Questa democratizzazione degli strumenti creativi sta portando a un’esplosione di contenuti “sintetici”: da un lato una quantità enorme di media generati (con pro e contro per chi vi si deve orientare), dall’altro una qualità sorprendente che sfida il primato della creatività umana, sollevando dibattiti sul ruolo dell’artista nell’era dell’AI.

La realtà sintetica poggia su fondamenta tecnologiche solide e variegate (dall’AI alla grafica 3D) e sta trovando applicazione in ogni settore, ridisegnando pratiche e modelli di business. Ma se questi sono i mattoni tecnici, quali sono le implicazioni più ampie una volta che costruiamo con essi ambienti in cui vivere e interagire? È ciò che esploriamo nella prossima sezione.

Vivere nel virtuale: impatti culturali, psicologici ed epistemologici

The Broader Shift
L’avvento di ambienti sintetici e simulati solleva questioni che vanno oltre la tecnologia, toccando il modo in cui pensiamo, ci relazioniamo e conosciamo il mondo.

Percezione e verità: Come cambia la nostra idea di verità quando vedere non significa più credere? I deepfake e i media generati stanno erodendo la fiducia nei tradizionali segni di autenticità. Un video o una foto, un tempo prove quasi incontestabili, oggi possono essere artefatti digitali perfetti. Questo porta al paradosso evidenziato da analisti: il rischio non è solo che la gente creda alle cose false, ma anche che non creda più alle cose vere. In un mondo di deepfake, potremmo respingere fatti scomodi bollandoli come falsi, oppure cadere in un nichilismo informativo in cui “tutto è manipolabile”. La conoscenza stessa diventa labile, perché il nostro criterio di realtà vacilla. Il risultato può essere una società disorientata, frammentata in bolle di percezione personale (ognuno con i propri simulacri preferiti). Alcuni studiosi (Ignas Kalpokas) parlano di personalizzazione della realtà: i media sintetici consentono a ognuno di vivere in una sorta di bolla informativa estetica su misura, con il rischio di frammentare la società in universi paralleli.

Identità e psicologia: Se possiamo assumere qualsiasi aspetto e voce, creare avatar di noi stessi idealizzati, o persino multiple identità virtuali, cosa significa essere “noi”? La realtà sintetica permette forme di espressione identitaria fluide: online possiamo scegliere di apparire come un animale antropomorfo in VR, o come una versione perfezionata di noi stessi grazie a filtri e avatar. Questo da un lato libera creatività e consente di esplorare ruoli (pensiamo alla possibilità per chi ha disabilità o insicurezze di “rinascere” in forma diversa nel virtuale), ma dall’altro può creare dissonanza e disagio. Alcune ricerche sul comportamento in VR (effetto Proteus) indicano che le persone tendono a interiorizzare caratteristiche del proprio avatar – ad esempio, indossare un avatar alto e attraente può temporaneamente rendere più sicuri di sé, mentre uno dall’aspetto infantile può incoraggiare comportamenti più ingenui. La linea tra autenticità personale e costruzione virtuale diventa sottile: c’è chi passa talmente tanto tempo nei panni del proprio avatar da sentirlo più vero della propria identità fisica. A livello psicologico, inoltre, la dipendenza da esperienze sintetiche gratificanti (il classico esempio: un mondo virtuale utopico in cui rifugiarsi rispetto a una realtà deludente) potrebbe portare a forme di escapismo intensificate. Se oggi parliamo di addiction ai videogame, domani potremmo confrontarci con persone che preferiscono la compagnia degli amici virtuali generati (o di partner virtuali, come le AI companion tipo Replika) alle relazioni reali, perché programmati per essere emotivamente rassicuranti.

Culturalmente, stiamo già vedendo una normalizzazione del falso: figure come i virtual influencer hanno milioni di follower che sospendono volontariamente l’incredulità, interagendo con un’entità che sanno non essere umana, ma che comunque li coinvolge emotivamente. Questo può indicare una maggiore apertura mentale verso nuove forme di esistenza digitale, ma rischia anche di banalizzare la distinzione realtà/finzione. Pensiamo anche alla creatività: una canzone cantata da un’AI con la voce di Elvis Presley – è plagio, tributo, nuova opera? I riferimenti etici ed estetici tradizionali vacillano. Alcuni filosofi come Jean Baudrillard anticiparono concetti simili decenni fa: nella sua teoria della simulazione, Baudrillard sosteneva che la società contemporanea sostituisce la realtà e il significato con segni e simboli, una sorta di iperrealtà in cui i simulacri non nascondono la verità, ma la sostituiscono. In altre parole, potremmo arrivare a vivere esperienze dove il fatto che siano artificiali non conta più, perché sono vere per chi le vive soggettivamente.

Epistemologia e educazione alla verosimiglianza: Come formare le nuove generazioni a distinguere il vero dal sintetico, o quantomeno a navigare consapevolmente un mondo pieno di illusioni perfette? Si parla di introdurre l’alfabetizzazione ai media sintetici nei programmi scolastici, così come un tempo si insegnava a riconoscere una fonte affidabile o a smascherare una bufala sul web. Ora bisogna imparare a scovare tracce di AI in un’immagine (artefatti sui dettagli, incoerenze nelle mani o nel testo scritto), a utilizzare strumenti di verifica come i detector per testi generati o le analisi forensi per video. Serve però anche un approccio più profondo: educare a un sano scetticismo, a mettere in discussione quello che i sensi percepiscono in digitale, a chiedersi “chi ha creato questo contenuto e perché?”. Organizzazioni internazionali e aziende stanno iniziando campagne di sensibilizzazione su questi temi. Ad esempio, il MIT Media Lab ha condotto progetti come Detect Fakes per studiare come migliorare la capacità del pubblico di riconoscere i deepfake e promuovere una maggiore consapevolezza. Allo stesso tempo, si sviluppano soluzioni tecniche per aiutare: watermark invisibili, certificati digitali di autenticità, normative che obblighino a etichettare i contenuti sintetici. Ma la prima linea di difesa resta la preparazione mentale dell’utente.

Infine, vanno considerate le implicazioni sociali e politiche: in uno scenario in cui è facile fabbricare “prove” video o audio, come garantire la tenuta del dibattito democratico e della giustizia? Già oggi tribunali e testate giornalistiche devono iniziare a verificare con cura l’autenticità di registrazioni digitali prima di considerarle affidabili. Nel 2024, il World Economic Forum ha incluso disinformazione e deepfake tra i principali rischi globali a breve termine. Vivere in ambienti sintetici significa anche porre nuove basi di fiducia collettiva: forse si dovrà fare affidamento su autorità di certificazione che attestino che un certo video è reale, o paradossalmente tornare a dare peso alla testimonianza diretta umana (riportando importanza a ciò che è live e non mediatizzato). Ci troviamo quindi in una fase di transizione culturale ed epistemologica: stiamo imparando a convivere con l’idea che la realtà non è più un monolite, ma un mosaico di esperienze autentiche e artificiali intrecciate.

Oltre l’orizzonte: governance, etica e scenari futuri

What’s Next – Verso mondi persistenti e verità aumentate
Siamo solo agli inizi della realtà sintetica, e molte direzioni si profilano all’orizzonte, ognuna con opportunità entusiasmanti e rischi da governare. Un primo ambito cruciale è la governance dei contenuti sintetici. Per mitigare abusi e effetti negativi, si stanno studiando soluzioni tecnologiche come i watermark digitali: un caso recente è SynthID di Google DeepMind, un sistema che inserisce filigrane invisibili dentro le immagini generate da AI per poterle identificare in seguito. L’idea è che in futuro ogni contenuto artificiale di rilievo abbia una sorta di “firma” che ne dichiara l’origine sintetica, magari leggibile da piattaforme e software di verifica. Parallelamente, si parla di blockchain e registri distribuiti per tracciare la provenienza dei media: ad esempio, registrare l’hash di un video al momento della creazione autentica, così che ogni copia manipolata venga poi riconosciuta confrontandola con l’originale registrato su blockchain. Iniziative come la Content Authenticity Initiative (CAI) e lo standard C2PA (una coalizione che include Adobe, Microsoft, BBC e altri) vanno in questa direzione, proponendo formati di file che portano incorporata la “storia” delle modifiche e certificati crittografici su chi ha fatto cosa. Nel frattempo, i legislatori iniziano a muoversi: la UE con l’AI Act ha previsto obblighi di segnalazione per deepfake non satirici, e negli USA la FTC (Federal Trade Commission) sta valutando norme per vietare deepfake usati in frodi e impersonation, soprattutto in vista di proteggere i processi elettorali. La Cina già dal 2022 richiede per legge che i contenuti sintetici siano etichettati come tali. Insomma, la regolamentazione cercherà di mettere paletti senza frenare l’innovazione, un equilibrio delicato: imporre trasparenza e responsabilità (ad esempio sanzioni severe per chi usa deepfake per diffamare o truffare), senza criminalizzare usi legittimi e creativi della realtà sintetica.

C’è poi un fronte etico ampio legato alle identità AI e avatar sintetici. Come gestire il diritto di immagine nel mondo dei deepfake? Già oggi esistono avatar digitali di persone reali (attori “resuscitati” in spot pubblicitari, come l’ologramma di Audrey Hepburn in una recente pubblicità, o la voce clonata di chef famosi in nuovi programmi TV). Serve il consenso esplicito e magari linee guida su cosa si può fare con l’identità altrui. Alcuni propongono di riconoscere una forma di diritto alla personalità digitale: ognuno dovrebbe poter controllare l’uso del proprio volto/voce in ambito sintetico, e magari esistono business emergenti che tutelano i VIP creando i loro legittimi avatar per evitare abusi di terzi. Un altro dilemma è: se interagiamo sempre più con agenti virtuali realistici (che sembrano avere emozioni, volti, voci), dobbiamo definire uno statuto etico per queste interazioni? Ad esempio, utilizzare e maltrattare un assistente virtuale con fattezze umane potrebbe avere implicazioni psicologiche (disumanizzazione), e c’è chi ipotizza di dover dare diritti minimi agli agenti AI avanzati, o almeno regole sul loro aspetto (per esempio, non farli sembrare identici a persone reali senza disclosure).

Guardando più lontano nel futuro, possiamo immaginare mondi virtuali persistenti interamente generati dall’AI. Oggi un ambiente come Minecraft è in gran parte plasmato dai giocatori; domani potremmo avere un mondo tipo metaverso 2.0 dove l’AI funge da “dungeon master” onnipresente: crea territori, sfide, narrazioni infinite e personaggi che vivono di vita propria 24/7, anche quando nessun umano è loggato. Saranno vere e proprie realtà alternative co-abitate da umani e agenti AI. Un recente esperimento di ricerca di Stanford ha mostrato come 25 agenti AI in un quartiere simulato potessero comportarsi in modo credibile, svolgendo routine quotidiane e interagendo tra loro in modo emergente, al punto che un osservatore umano vi scorgeva dinamiche “sociali” analoghe a quelle reali. Immaginiamo di ampliare questo concetto: intere città virtuali con migliaia di abitanti AI sempre attivi, che portano avanti economia, politica, cultura nel loro mondo simulato. Gli umani potrebbero entrare e uscire da questi mondi come visitatori o residenti temporanei, trovando un ambiente coerente e vivo anche in assenza di altri umani. Le implicazioni qui sono fantascientifiche ma degne di riflessione: queste realtà simulate potrebbero diventare per alcuni più appaganti della realtà fisica, generando addirittura spostamenti esistenziali (c’è chi ipotizza futuri in cui passiamo la maggior parte del tempo collegati a esperienze sensoriali generate, un po’ come immaginava il filosofo Nozick con la sua “experience machine”).

Uno scenario estremo che spesso si cita è la possibilità di simulare completamente la realtà al punto che l’illusione sia totale – la cosiddetta iper-realtà credibile. Se combinassimo progressi in grafica, AI, interfacce neurali (brain-computer interface) e fisica simulata, potremmo arrivare a Matrix non per intrappolare l’umanità, ma come prodotto di intrattenimento o di sperimentazione: mondi in cui tutti i sensi sono stimolati perfettamente, e dove è impossibile distinguere il vero dal virtuale senza un controllo esterno. Alcuni futuristi discutono persino la simulazione della coscienza: creare NPC talmente avanzati da essere quasi indistinguibili da menti umane, aprendo questioni sullo status di queste intelligenze simulate. Anche senza spingerci così oltre, nei prossimi 5-10 anni sarà cruciale affrontare i rischi più terreni: disinformazione e propaganda sintetica, frodi identitarie (truffatori che chiamano al telefono imitando la voce di un familiare – è già successo – per estorcere denaro), erosione della privacy (se posso creare una tua copia digitale, posso farti dire/fare qualsiasi cosa, con impatti sulla tua reputazione). Allo stesso tempo, non vanno dimenticate le opportunità: la realtà sintetica potrebbe democratizzare l’accesso a esperienze incredibili (viaggiare virtualmente in epoche storiche ricostruite, avere un tutor AI personalizzato sempre disponibile che simula un insegnante ideale, ecc.), e addirittura aiutare l’umanità a risolvere problemi complessi simulandone gli effetti in mondi virtuali (ad esempio, testare politiche contro il cambiamento climatico in Earth simulators avanzati prima di applicarle davvero).

In questo futuro prossimo la sfida sarà massimizzare i benefici minimizzando i danni. Ci aspettano probabilmente certificazioni di autenticità ovunque (ogni notizia o contenuto con un “bollino” di veridicità verificabile), nuove professioni come gli ispettori di realtà (esperti incaricati di scovare manipolazioni sintetiche per aziende e governi), codici etici per l’uso di avatar e gemelli digitali (magari un galateo del metaverso). E ci sarà bisogno di una grande collaborazione multidisciplinare: tecnologi, legislatori, psicologi, filosofi dovranno lavorare insieme per stabilire dove tracciare i confini – ad esempio: quando un mondo virtuale persistentemente generato dovrà essere considerato alla stregua di una entità giuridica? Come proteggere i minori in una realtà dove anche il bullo a scuola potrebbe essere un agente AI generato per testare la loro resilienza? Le domande aperte sono tante.

Quello che è certo è che la realtà sintetica non farà marcia indietro. Troppo forte la spinta innovativa e l’interesse economico e sociale a suo favore. La chiave sarà dirigere lo sviluppo: costruire un ecosistema di fiducia (trust) attorno a queste tecnologie, imponendo ad esempio trasparenza by design (ogni contenuto sintetico porti con sé informazioni sulla sua origine), e investendo in alfabetizzazione digitale di massa per creare utenti consapevoli e non vittime passive. Se ben guidata, la realtà sintetica potrà diventare un amplificatore dell’esperienza umana, e non un suo detrattore: pensiamo alla possibilità di preservare lingue e culture creando musei virtuali viventi, o di migliorare l’empatia mettendosi nei panni altrui attraverso simulazioni immersive (ci sono esperimenti di VR che fanno percepire le difficoltà motorie di chi è in sedia a rotelle, aumentando la sensibilità dei partecipanti). Il futuro vedrà realtà fisica e sintetica coesistere e intrecciarsi; spetta a noi definire le regole della loro convivenza.

📌 Takeaways – Punti chiave strategici

  • Dal reale al sintetico: la linea di demarcazione tra realtà fisica e contenuti generati artificialmente si assottiglia. Mondi virtuali, media AI e gemelli digitali stanno affiancando (e in certi casi sostituendo) l’esperienza diretta del reale. Le aziende e le persone devono riconoscere che il sintetico diventerà parte integrante della nostra quotidianità, dalla formazione all’intrattenimento.
  • Opportunità infinite, nuove economie: la realtà sintetica apre spazi di innovazione straordinari. Si profilano economie totalmente nuove – dal mercato degli avatar e delle identità digitali, ai servizi di simulazione on-demand – e modelli di business che sfruttano gemelli digitali per ottimizzare costi e performance. Saper cogliere queste opportunità darà un vantaggio competitivo, ma richiede anche vision e sperimentazione continua.
  • Sfida dell’autenticità: in un mondo di contenuti generati, la fiducia diventa moneta preziosa. Marchi e istituzioni dovranno impegnarsi per garantire trasparenza su cosa è reale e cosa è sintetico, adottando sistemi di autenticazione e comunicando in modo etico. Allo stesso tempo, gli utenti vorranno esperienze sempre più immersive ma anche sicure: chi saprà offrire sintetico di qualità certificata guadagnerà credibilità.
  • Centralità dell’etica e della governance: la gestione responsabile della realtà sintetica sarà fondamentale. Questo include sviluppare policy interne (es. linee guida sull’uso di volti AI negli spot, o sul rispetto della privacy nelle simulazioni), investire in sistemi di watermarking e tracciabilità dei contenuti, supportare normative intelligenti. Le organizzazioni leader saranno quelle che contribuiranno a definire gli standard de facto di settore, bilanciando innovazione e protezione dei diritti.
  • Skill e cultura nuovi: l’adozione diffusa di ambienti simulati richiede competenze inedite. Dall’AI prompt design (saper istruire i sistemi generativi) all’interpretazione forense digitale (saper riconoscere media manipolati), fino alla capacità di progettare esperienze phygital (fisico+digitale) coerenti. Le aziende dovranno formare orchestratori della realtà sintetica e aggiornare la cultura organizzativa per collaborare efficacemente con agenti virtuali e mondi simulati.
  • Verso una simbiosi uomo-AI: in prospettiva, la realtà sintetica non è un separato dal reale, ma un continuum. Le vite fisiche saranno aumentate da strati digitali (AR) e da esperienze parallele. Chi riuscirà a orchestrare questa simbiosi – utilizzando il meglio dell’AI per potenziare creatività, conoscenza e interazioni, senza perdere di vista i valori umani – guiderà lo shift successivo.

📚 Recommended Resources – Fonti e approfondimenti internazionali

  • MIT Sloan – “Deepfakes, explained” (2020): Un’analisi chiara su cosa sono i deepfake, come vengono creati e quali rischi pongono per individui e aziende, con esempi reali e strategie iniziali di difesa.
  • Stanford HAI – Preparing for the Age of Deepfakes and Disinformation (Policy Brief, 2020): Documento strategico a cura di Dan Boneh et al. che esamina l’impatto dei deepfake sul panorama mediatico e politico, delineando raccomandazioni per policymakers su norme, regolamentazione e sviluppo di una resilienza sociale.
  • Ignas Kalpokas (SN Social Sciences, 2021) – Problematising reality: the promises and perils of synthetic media: Paper accademico che esplora deepfake, virtual influencer e realtà estesa, discutendo come la percezione della realtà diventi instabile e personalizzata nell’era dei media sintetici. Offre un inquadramento teorico (mediatisation theory) sugli effetti socioculturali di queste tecnologie.
  • Accenture Technology Vision 2022 – The Unreal: Making Synthetic, Authentic: Rapporto sulle tendenze tech che introduce il concetto di “unreal world”. Spiega come dati e contenuti generati dall’AI stiano convincendo come il mondo fisico e perché autenticità e trasparenza diventino imperativi per le imprese. Contiene statistiche sulle opinioni dei dirigenti riguardo all’uso di strumenti per autenticare i dati.
  • Google DeepMind – Identifying AI-generated images with SynthID (2023): Blog post tecnico che presenta SynthID, il sistema di watermarking invisibile per immagini AI. Descrive il funzionamento, gli obiettivi (impedire disinformazione, sostenere la fiducia online) e la visione di estendere questo approccio anche a audio e video.
  • Brookings – Artificial intelligence, deepfakes, and the uncertain future of truth (John Villasenor, 2019): Un commentary pionieristico che discute come i deepfake possono confondere la distinzione tra vero e falso. Illustra sia i pericoli (dall’uso malevolo in politica e pornografia non consensuale) sia le possibili risposte: tecnologia di rilevamento, interventi legali e maggiore consapevolezza pubblica.
  • World Economic Forum – In a world of deepfakes, we must build a case for trustworthy synthetic content (Beena Ammanath, 2024): Articolo che bilancia rischi e benefici dei contenuti sintetici. Sottolinea come, collaborando (aziende tech, governi, società civile), sia possibile costruire fiducia attorno all’AI generativa, identificando usi positivi (es. traduzione linguistica creativa) e promuovendo guardrail etici e normativi per minimizzare gli abusi.

The Shift Continues

Il viaggio nella realtà sintetica è appena iniziato. Ogni nuovo modello generativo, ogni ambiente virtuale costruito, ogni deepfake smascherato contribuisce a definire il perimetro di questa nuova frontiera tra il reale e l’immaginato. In questo futuro imminente, non parleremo più di digitale contrapposto a reale: saranno intrecciati in un’unica esperienza ibrida, dove il valore umano – creatività, giudizio etico, empatia – rimarrà la bussola per navigare mondi plasmati dall’AI.

Chi oggi sperimenta e impara a creare con questi strumenti, domani sarà in grado di guidare l’innovazione verso esiti positivi. Chi saprà bilanciare l’efficienza delle soluzioni sintetiche con l’autenticità e la responsabilità, costruirà esperienze e servizi capaci di ispirare fiducia e stupore insieme. La realtà sintetica non deve spaventarci, ma spronarci: è un’occasione per ripensare come raccontiamo storie, come apprendiamo, come collaboriamo – in uno spazio dove i limiti fisici cadono e resta solo la nostra immaginazione (amplificata dalle macchine).

Lo shift continua. Stare Inside the Shift significa abbracciare questo cambiamento da protagonisti consapevoli: coglierne le opportunità creative, anticiparne le sfide etiche, e plasmare una sintesi virtuosa tra umano e artificiale. In ultima istanza, la realtà sintetica sarà ciò che noi decideremo di farne – uno specchio del nostro ingegno e dei nostri valori. Guardiamoci dentro, dunque, e costruiamo una realtà (anche sintetica) a misura delle nostre migliori aspirazioni.

Lo shift continua.

Learning by Building with AI: come la prototipazione veloce sta riscrivendo l’innovazione

In un’epoca di trasformazione accelerata, l’avvento dell’AI generativa rappresenta un cambiamento dirompente – quasi uno shock organizzativo – che impone alle aziende di apprendere più velocemente che mai. Invece di pianificare a lungo termine nell’incertezza, le organizzazioni stanno adottando un approccio learning-by-doing potenziato dall’AI: imparare costruendo prototipi e soluzioni reali con l’AI, in tempo reale. Questo cambio di focus nasce dalla necessità di adattarsi a contesti ad alta incertezza e rapidità di cambiamento. Basti pensare che strumenti come ChatGPT hanno raggiunto oltre 1 milione di utenti in cinque giorni dal lancio, segnale di un’adozione senza precedenti. Parallelamente, l’adozione aziendale dell’AI sta crescendo in modo esplosivo: nel 2024 il 78% delle organizzazioni dichiarava di usare l’AI, rispetto al 55% dell’anno precedente. Di fronte a questa accelerazione, le imprese all’avanguardia stanno passando dal semplice “studiare l’AI” al “costruire con l’AI” – sperimentando sul campo per capire rapidamente come creare valore. Il focus di questa sesta edizione di InsideTheShift è dunque su “Learning by Building with AI”: come apprendere facendo leva sull’AI generativa, trasformando l’incertezza in opportunità di innovazione concreta.

Understanding the Shift: capire l’incertezza

Perché “imparare facendo” con l’AI è diventato il mantra dell’innovazione odierna? In contesti turbolenti, nessuno possiede tutte le risposte su come usare al meglio l’AI generativa – nemmeno i CEO. Un recente sondaggio BCG ha rivelato che il 52% dei CEO ammette di non comprendere appieno l’AI generativa e addirittura ne scoraggia l’uso interno, temendo rischi e incognite. Eppure, questa incertezza generalizzata è esattamente il motivo per cui è fondamentale sperimentare: nessuno oggi “capisce pienamente” l’AI generativa, perciò attendere passivamente chiarimenti è un errore. La pattern di successo emersa è piuttosto quella di coltivare una cultura di sperimentazione consapevole e di “apprendimento attivo sul campo”. Le organizzazioni che osano fare testando l’AI nel proprio contesto sviluppano conoscenze pratiche e vantaggi competitivi, mentre chi rimane in attesa rischia di subire il peggio di entrambi i mondi: non comprenderanno l’AI riusciranno a tenere il passo dei concorrenti proattivi.

Inoltre, molte aziende scoprono che i propri dipendenti sono pronti e motivati a sperimentare con l’AI. In un sondaggio su 500 leader IT, solo il 2% vedeva l’AI come una minaccia per la propria carriera, mentre il 61% crede che l’AI migliorerà il proprio lavoro o creerà nuove opportunità. Piuttosto che resistere al cambiamento, i talenti in azienda sono “ready, willing and able” di abbracciare l’AI e trovare modi ingegnosi per fare meglio il proprio lavoro. Questa predisposizione positiva riduce l’attrito e favorisce un mindset di apprendimento continuo.

Non è la prima volta che viviamo una trasformazione così rapida: l’adozione massiccia dello smartphone fu un precedente “shock” tecnologico – ricordiamo che persino leader visionari inizialmente sottovalutarono l’iPhone. La lezione appresa è che chi sottostima un cambiamento di paradigma poi se ne pente. Oggi, con l’AI generativa, “nessuno fra qualche anno rimpiangerà di averla presa troppo sul serio o di essersi mosso troppo velocemente”. Al contrario, le aziende lungimiranti riconoscono che per capire davvero come l’AI può creare valore, bisogna sporcarsi le mani: provare casi d’uso reali, iterare rapidamente e imparare dagli errori. In sintesi, comprendere questo shift significa accettare che sperimentazione e apprendimento pratico non sono attività parallele al lavoro – sono il lavoro stesso in epoca di AI.

The Core: un nuovo motore per l’innovazione

Al cuore di “learning by building with AI” c’è una metodologia pragmatica: sperimentazione rapida, prototipazione veloce, validazione continua. In pratica, le aziende pioniere adottano cicli brevi di sviluppo in cui l’AI generativa è integrata come strumento creativo e acceleratore. I passaggi fondamentali di questo approccio comprendono:

  • Rapid Prototyping con AI: sfruttare modelli generativi (come LLM tipo GPT-4, generatori di immagini o di codice) per sviluppare proof-of-concept in tempi lampo. Funzionalità che prima richiedevano mesi di sviluppo possono oggi essere costruite in giorni o ore semplicemente scrivendo i giusti prompt. Come osserva Andrew Ng, grazie all’AI “capacità che prima richiedevano mesi possono a volte essere prototipate in giorni o ore”. Ciò consente ai team di materializzare un’idea quasi immediatamente e metterla alla prova sul campo. Un esempio pratico: startup tech riferiscono di riuscire a generare MVP (Minimum Viable Product) basati su AI in un weekend, laddove uno sviluppo tradizionale avrebbe impiegato settimane – cambiando radicalmente le regole del gioco per il time-to-market.
  • Validazione ed Iterazione Continua: una volta creato un prototipo con l’ausilio dell’AI, si passa subito a testarlo e raccogliere feedback rapidi (dai colleghi, da un piccolo gruppo di utenti, o tramite simulazioni interne). L’adozione del classico ciclo build–measure–learn del Lean Startup viene così compressa e accelerata dall’AI: se costruire un prototipo richiede solo pochi giorni, anche il ciclo di feedback deve contrarsi di conseguenza. Le organizzazioni di successo implementano mini-esperimenti continui, pronti a cambiare rotta (“pivot”) sulla base di ciò che funziona o meno. Importante è anche definire metriche chiare per valutare rapidamente ogni esperimento (es. % di miglioramento in un processo, gradimento utenti, riduzione tempi). Questa iterazione costante crea un flusso di apprendimento pratico: ogni prototipo insegnia qualcosa, anche quando fallisce.
  • Scale-up responsabile: mano a mano che un’idea è validata in piccolo, l’approccio learning-by-doing prevede di scalarla gradualmente, integrando l’AI nei processi reali. In questa fase entrano in gioco “guardrail” (corridoi di sicurezza) per un’adozione sicura: linee guida etiche, governance e monitoraggio dei risultati. Molte imprese creano team dedicati o champion interni per guidare questi progetti AI in fase pilota e garantirne l’allineamento strategico. Ad esempio, si nominano esperti per “sorvegliare, fare coaching e arbitrare” l’uso dell’AI nei team, bilanciando libertà di innovazione con controllo dei rischi. L’approccio “learn by building” non è anarchia creativa, ma sperimentazione strutturata: piccoli progetti, obiettivi chiari, monitoraggio costante e condivisione delle lezioni apprese in tutta l’organizzazione.

Questo nucleo metodologico si applica trasversalmente: dai team di sviluppo prodotto, ai reparti marketing che testano campagne generate dall’AI, fino alle risorse umane che prototipano chatbot interni per il training. La parola d’ordine è “fare per imparare”, il che richiede strumenti e un ambiente adeguato. Tool e tecniche abilitanti includono: piattaforme di prototipazione veloce (anche no-code/low-code con AI integrata), API cloud AI pronte all’uso, servizi come GitHub Copilot per accelerare la programmazione, e tecniche di prompt engineering per ottenere dall’AI output utili nei primi tentativi. Alcune organizzazioni allestiscono veri sandbox o AI Lab interni, dove i team possono sperimentare liberamente con modelli generativi su dati aziendali, senza impattare i sistemi di produzione. Il core di learning-by-building è dunque un mix di mindset (sperimentiamo!), metodo (cicli rapidi, MVP, feedback loop) e tecnologia (gli strumenti AI che rendono tutto più veloce).

Un esempio emblematico di questo approccio in azione: CVS Health, colosso USA della sanità, ha lanciato un hackathon aziendale di 6 settimane per esplorare l’AI generativa. In poco più di un mese, 21 team interfunzionali hanno prodotto 36 idee, sviluppato 18 prototipi e infine selezionato 6 soluzioni pilota pronte per l’implementazione. Il tutto, affrontando sfide reali: ad esempio, uno dei prototipi vincenti è stato un chatbot AI per i clienti, destinato a ridurre drasticamente il volume di chiamate ai call center. La chiave del successo? Un processo ben orchestrato: primo, partecipazione diffusa (hanno coinvolto dipendenti da 21 reparti diversi); secondo, prototipazione lampo (idee raccolte su una piattaforma condivisa e trasformate in demo funzionanti in pochi giorni); terzo, allineamento strategico (i criteri di valutazione premiavano le idee in linea con le priorità di business di CVS). Iniziative come questa dimostrano che un’innovazione strutturata e inclusiva può trasformare tecnologie emergenti in soluzioni scalabili rapidamente. In sostanza, CVS non ha semplicemente studiato le potenzialità dell’AI su carta: ha imparato facendola, costruendo prototipi concreti e traendo in poche settimane intuizioni che avrebbero richiesto mesi con approcci tradizionali.

The Broader Shift: come ripensare le aziende nell’era degli shock

L’adozione trasversale dell’approccio learning-by-building con l’AI porta benefici che vanno oltre i singoli progetti, innescando un cambiamento più ampio in azienda. In primis, i risultati tangibili di queste sperimentazioni alimentano un circolo virtuoso strategico: riduzione drastica del time-to-market, maggiore agilità e una cultura aziendale improntata all’apprendimento continuo. Ad esempio, ripensando i propri processi di marketing con l’ausilio massiccio di agenti AI, Accenture è riuscita a ridurre i compiti manuali del ~30% e accelerare la velocità di go-to-market dal 25% fino al 55%. Questi numeri indicano un vantaggio competitivo notevole: prodotti e campagne lanciati in metà tempo rispetto al passato significano soddisfare i bisogni dei clienti prima dei concorrenti. Inoltre, i dipendenti liberati da attività ripetitive possono concentrarsi su compiti strategici e creativi a valore aggiunto. Infatti, gli studi confermano che l’AI generativa, se ben usata, aumenta la produttività e può aiutare a colmare gap di competenze nel workforce invece di ampliarle. In altre parole, la sperimentazione con l’AI non solo velocizza i processi, ma fa crescere le persone: ogni progetto è un’occasione per sviluppare nuove skill digitali e per diffondere una mentalità più aperta al cambiamento.

Un altro beneficio strategico è l’adattabilità organizzativa. Un’azienda che pratica il learning-by-doing allenato dall’AI diventa più reattiva agli shock esterni. Si consideri l’esempio di un grande gruppo manifatturiero che, di fronte a improvvisi cambi di mercato, attiva in poche settimane decine di micro-progetti con AI per esplorare soluzioni (dall’ottimizzazione della supply chain con modelli predittivi, a nuovi servizi digitali per i clienti). Alcune organizzazioni hanno persino istituito nuove figure per orchestrare questo fermento: una manager intervistata riporta di aver creato il ruolo di “Head of Generative AI” il cui compito è “dare un senso e coordinare le centinaia di esperimenti che abbiamo in corso ogni giorno”. Ciò illustra come le imprese leader stiano passando da progetti AI isolati a un portfolio continuo di esperimenti, governati però con metodo. Dal punto di vista organizzativo, ciò implica rompere sili e favorire la contaminazione di competenze: sviluppatori, data scientist, esperti di business e persino figure non tech collaborano fianco a fianco in team agili focalizzati su prototipi AI. Questa collaborazione cross-funzionale – spesso emersa nei contesti di hackathon interni – alimenta un trasferimento di conoscenze rapido e crea coesione attorno all’innovazione.

Naturalmente, abbracciare questa filosofia richiede un’evoluzione della leadership e del mindset aziendale. I leader devono incoraggiare l’apprendimento attivo e accettare un certo grado di rischio calcolato. Serve leadership “visionaria” ma concreta, capace di ispirare sperimentazione ma anche di fornire i giusti strumenti e supporti. Ad esempio, le aziende più mature in questo percorso investono in programmi di upskilling massicci: Accenture, per dire, ha lanciato un programma di training generativo per migliaia di dipendenti, e nel suo reparto Marketing ha affiancato ad ogni “AI agent” un people lead umano incaricato di “addestrare” l’agente e trasferire feedback bidirezionale. Questo approccio riflette una cultura di sperimentazione continua, dove umani e AI imparano insieme in un rapporto di partnership e fiducia reciproca.

Cambiano anche i modelli di apprendimento organizzativo: dal tradizionale training top-down si passa a un apprendimento on-the-job distribuito. I dipendenti diventano studenti e insegnanti allo stesso tempo – imparano dall’AI ma anche insegnano all’AI (ad esempio tramite il feedback iterativo ai sistemi generativi). Le organizzazioni all’avanguardia valorizzano e premiano questo comportamento. Alcune hanno introdotto sistemi di incentivazione che riconoscono chi sperimenta nuove soluzioni AI o condivide le lezioni apprese con il resto dell’azienda.

In sintesi, il broader shift consiste nel vedere l’AI generativa non come un semplice strumento tecnico, ma come un catalizzatore per ridisegnare il modo in cui l’azienda apprende e innova. Si tratta di “ri-cablare” processi e workflow perché l’AI possa esprimerne tutto il potenziale. Questo può voler dire riorganizzare interi flussi di lavoro attorno a nuove capacità (McKinsey rileva che già il 21% delle aziende che usano l’AI ha fondamentalmente ridisegnato almeno alcuni processi grazie all’AI). In definitiva, il cambiamento più ampio portato dal learning-by-building with AI è una azienda più veloce, adattabile e ‘apprendente’: veloce nel portare innovazioni sul mercato, adattabile ai cambiamenti di contesto, e sempre in modalità di apprendimento e miglioramento continui.

What’s Next: imparare e scalare il business

Cosa ci riserva il futuro prossimo se percorriamo la strada del learning by building con l’AI? Possiamo aspettarci un’ulteriore pervasività dell’AI generativa in ogni aspetto del business e del lavoro quotidiano. Molto presto, ogni nuovo dipendente arriverà in azienda con strumenti come ChatGPT sul proprio telefono e li considererà parte naturale della cassetta degli attrezzi. Analogamente, i clienti diventeranno sempre più abituati ad interagire con assistenti AI nelle app, nei siti e nei servizi di supporto di qualsiasi azienda. Questo significa che le imprese dovranno continuare a imparare e costruire insieme all’AI per stare al passo con aspettative in rapida evoluzione. Chi oggi sperimenta con l’AI per migliorare prodotti e processi, domani dovrà integrarla stabilmente su scala più ampia. Ciò richiederà di passare dalla fase pionieristica (molti esperimenti localizzati) a una fase di implementazione sistematica: le metodologie e buone pratiche apprese nei pilot andranno incorporate nei processi standard, e le infrastrutture aziendali (IT, governance, data management) dovranno adeguarsi per supportare un uso massiccio dell’AI.

All’orizzonte vi sono anche nuove frontiere dell’AI stessa che spingeranno ulteriormente il paradigma del learning-by-doing. Ad esempio, si parla di “agentic AI” – sistemi AI più autonomi che possono compiere serie di azioni complesse. Quando queste tecnologie matureranno, le organizzazioni dovranno nuovamente sporcarsi le mani per capire come sfruttarle responsabilmente: immaginare casi d’uso, testare prototipi di AI agent che coadiuvano (o automatizzano) interi flussi di lavoro, e definire nuovi ruoli umani per supervisionarli. Il learn by building rimarrà l’approccio vincente anche di fronte a queste novità: nessun manuale preconfezionato spiegherà come impiegare un agent AI nella vostra supply chain o nel vostro team creativo – lo scoprirete solo provandoci direttamente, in piccolo, e crescendo da lì.

È lecito aspettarsi anche un’evoluzione nelle strutture organizzative. Mentre oggi molte aziende operano con Centers of Excellence centralizzati per l’AI, in futuro l’AI diventerà più democratica e diffusa. Potremmo vedere la nascita di “AI fluency” come skill fondamentale per ogni dipendente, analogamente a come l’uso del PC è diventato ubiquo. Programmi di formazione interna sul prompting e sull’uso efficace degli strumenti AI diventeranno parte integrante dello sviluppo professionale. Accenture, ad esempio, ha lanciato un programma chiamato LearnVantage per diffondere competenze di AI generativa in tutta la sua forza lavoro, segno che grandi imprese stanno investendo nell’alfabetizzazione AI di massa. Questa democratizzazione permetterà di ampliare ancora di più la pratica del learning-by-doing: ogni team potrà fare piccoli esperimenti con l’AI nel proprio ambito, senza dover aspettare indicazioni dall’alto, creando un tessuto di innovazione distribuita.

Sul fronte dei modelli di leadership, assisteremo probabilmente all’emergere di leader più tech-savvy e orientati alla sperimentazione. Harvard Business Review avverte che molti leader attuali non sono preparati a sfruttare appieno il potenziale dell’AI generativa e devono sviluppare competenze tecniche e nuove mentalità. I leader di domani dovranno essere facilitatori dell’apprendimento organizzativo: capaci di costruire visioni chiare sull’AI ma anche di incoraggiare l’azione decentralizzata, tollerare gli errori come parte del processo di innovazione e assicurare al contempo che sperimentazione e governance vadano a braccetto.

Infine, what’s next include sicuramente il tema della scalabilità sostenibile ed etica. Mano a mano che il numero di prototipi e progetti AI cresce, le aziende dovranno dotarsi di solide pratiche per scalare ciò che funziona in modo responsabile. Questo significa integrare considerazioni di AI responsabile fin dalla fase di sperimentazione: valutare i rischi (bias, privacy, sicurezza) di ogni nuovo caso d’uso AI e coinvolgere funzioni come compliance e IT security nel processo di innovazione. Fortunatamente, vediamo segnali positivi: sempre più organizzazioni stanno mitigando attivamente rischi legati all’AI come inaccuratezza, violazioni IP e cybersecurity. La sfida sarà continuare su questa strada, così che il “fare presto” non comprometta il “fare bene”.

In conclusione, il prossimo capitolo di learning by building with AI vedrà aziende ancora più immerse nell’AI, che imparano non solo a correre con l’AI, ma anche a governarla con saggezza mentre corrono. Chi saprà combinare velocità e responsabilità plasmerà i nuovi standard dell’innovazione. Per tutti gli altri, il rischio è di farsi trovare in ritardo in un mondo che non aspetta: come ammonisce Stanford HAI, l’AI non è confinata a un settore, sta trasformando ogni industria, e il suo impatto continuerà a crescere. What’s next è quindi un invito all’azione: continuare ad imparare costruendo, oggi più che mai.

Takeaways

  • Sperimentare per Sopravvivere: Nell’era dell’AI generativa, la sperimentazione pratica è diventata una necessità strategica. Attendere di “capire tutto” prima di agire è un lusso che le aziende non possono permettersi – l’unica via per comprendere davvero l’AI è provarla nei propri processi. Le organizzazioni stanno scoprendo che l’apprendimento avviene facendo, e chi inibisce l’uso dell’AI per paura dell’ignoto rischia di restare indietro rispetto ai concorrenti più audaci.
  • Cultura del Learning-by-Doing: Le imprese di successo coltivano una cultura in cui si impara attivamente costruendo cose nuove con l’AI. Ciò implica incoraggiare l’esperimento continuo, accettare piccoli fallimenti come lezioni e diffondere competenze AI tra tutti i livelli. Un ambiente del genere stimola i talenti – già ben disposti verso l’AI – a proporre idee e soluzioni innovative (il 61% dei lavoratori tech vede l’AI come un potenziamento del proprio ruolo). Una cultura di sperimentazione continua garantisce anche che il feedback tra umani e AI sia costante e bidirezionale, migliorando entrambi.
  • Prototipi Veloci, Benefici Tangibili: Adottare tecniche come rapid prototyping, hackathon interni e sviluppi Agile accelerati dall’AI porta risultati concreti in tempi brevissimi. Ad esempio, CVS Health ha ottenuto 6 prototipi pronti al pilot in 6 settimane grazie a un hackathon su AI generativa. Questa velocità di iterazione riduce drasticamente il time-to-market: realtà come Accenture testimoniano incrementi di velocità dal 25% fino oltre il 50% in alcune attività grazie all’integrazione dell’AI nei flussi di lavoro. L’effetto cumulativo è un’innovazione più rapida e una capacità di risposta agile alle esigenze del mercato.
  • Adattabilità e Vantaggio Competitivo: Il learning-by-building con l’AI rafforza la resilienza e l’adattabilità organizzativa. Le aziende che sperimentano a ampio raggio possono riconfigurare processi e offerte in risposta ai cambiamenti con rapidità, mitigando l’impatto degli shock esterni. L’adozione dell’AI si sta estendendo a tutte le funzioni aziendali (oltre il 70% delle imprese la usa regolarmente almeno in un’area) e sta iniziando a tradursi in benefici misurabili: aumenti di ricavi e riduzioni di costi sono già osservati in diversi reparti grazie all’AI. Anche se a livello di intera azienda l’impatto sul bottom-line è ancora agli inizi, le organizzazioni più grandi stanno predisponendo le pratiche e strutture per scalare queste sperimentazioni (roadmap dedicate, KPI chiari, team di trasformazione), costruendo un vantaggio competitivo sostenibile.
  • Leadership e Governance Evolutiva: Infine, il learning-by-doing amplificato dall’AI richiede leadership evolutive e un nuovo approccio alla governance. I leader devono fungere da facilitatori – fornendo visione e guida etica, ma anche lasciando autonomia ai team per iterare rapidamente. Strutture come center of excellence per l’AI e figure come gli AI product owner o gli AI ethicist diventano cruciali per diffondere best practice e gestire i rischi. La governance dell’AI non è più solo controllo, ma diventa un processo di “policing, coaching and refereeing” interno, per assicurare che ogni esperimento sia sia audace che responsabile. Le organizzazioni che bilanciano libertà di innovare con solide linee guida vedono crescere fiducia e adozione: i dipendenti usano l’AI con consapevolezza e i clienti accolgono positivamente i nuovi servizi basati sull’AI quando c’è trasparenza e affidabilità.

Recommended Resources

  • McKinsey – The State of AI 2024: Un rapporto globale con dati su adozione e impatto dell’AI. Evidenzia l’accelerazione dell’uso dell’AI generativa (71% delle aziende la usa in almeno una funzione) e l’importanza di ridisegnare processi e formazione per catturare valore. Utile per capire trend e best practice di scala.
  • MIT Sloan Management Review – “Want More Clarity on Generative AI? Experiment Widely” (2023): Articolo di Lynda Gratton che paragona l’avvento dell’AI generativa a uno “scenario COVID” per il mondo del lavoro. Sottolinea come l’ambiguità iniziale vada affrontata con esperimenti diffusi, citando organizzazioni con centinaia di esperimenti AI in parallelo e indicando che il processo è “ricco di ambiguità, esperimenti e cambi di idea”, ovvero un vero processo di apprendimento. Offre insight sul change management e il coinvolgimento dei leader.
  • CIO.com – “Generative AI: now is the time to learn by doing” (Bryan Kirschner, 2023): Un punto di vista che incoraggia i CIO e i dirigenti IT a adottare subito l’AI con una mentalità di apprendimento pratico. Contiene dati interessanti (ad es. la maggioranza dei professionisti IT si sente già in grado di costruire applicazioni AI) e mette in guardia dai rischi di restare fermi. Enfatizza la necessità di una cultura sperimentale consapevole e di non aspettare una comprensione teorica perfetta che non arriverà mai.
  • Case Study – Scaling Generative AI in Healthcare with Hackathons (CVS Health, 2023): Descrizione dettagliata dell’hackathon GenAI organizzato da CVS Health. Mostra come un’azienda tradizionale possa attivare 21 team cross-funzionali e generare decine di idee e prototipi in poche settimane. Il case study evidenzia elementi di successo trasferibili: inclusione di tutta l’organizzazione, domanda sfidante focalizzata, piattaforma per raccogliere idee, criteri di valutazione chiari e percorso verso il pilot. È un modello replicabile per chi vuole organizzare iniziative simili.
  • Accenture – Making Reinvention Real with Gen AI (2023): Report (case study Accenture Marketing + Communications) che racconta come Accenture ha reinventato la propria funzione marketing integrando 14 AI agent nel team. Notevole la parte su cultura e competenze: spiega come hanno formato 954 marketer a collaborare con gli agenti AI e istituito un meccanismo di feedback continuo uomo-macchina. Risultati concreti: +25% valore di brand, –30% attività manuali, velocità di esecuzione aumentata fino al 50%. Una lettura ispirazionale su come orchestrare cambiamento di mindset, skill e processi attorno all’AI.

(Ulteriori risorse consigliate includono l’AI Index 2025 di Stanford HAI per dati aggiornati su investimenti e adozione dell’AI, e articoli HBR come “How the Next Generation of Managers Is Using GenAI” per capire le sfide di leadership nella gestione dell’AI.)

Toolbox

Per implementare efficacemente Learning by Building with AI, le organizzazioni possono fare affidamento su una varietà di strumenti e metodi pratici:

  • Strumenti di AI Generativa: Utilizzare modelli di linguaggio (LLM) come OpenAI GPT-4 o Claude come “co-piloti” per brainstorming, stesura di documenti e persino generazione di codice. Per la creazione rapida di interfacce o prototipi software, strumenti come GitHub Copilot integrati negli IDE aiutano gli sviluppatori a scrivere codice più velocemente sfruttando l’AI. Sul versante creativo, generatori di immagini (es. DALL-E, Midjourney) o di video possono produrre in pochi minuti asset visivi per testare concept di design o campagne di marketing. Secondo un’indagine, oltre il 60% delle aziende già usa l’AI generativa per creare testi, un terzo genera immagini e almeno un quarto produce codice con questi strumenti, segno che tali tool sono ormai parte integrante del toolkit di prototipazione.
  • Piattaforme di Prototipazione e No-Code: Piattaforme di sviluppo rapido come Bubble, Adalo o soluzioni enterprise come Power Platform di Microsoft con integrazione di AI (AI Builder) permettono a team non tecnici di costruire applicazioni semplici potenziate da servizi AI (es. modelli pre-addestrati per visione o linguaggio). Questo democratizza la fase di build, consentendo a innovatori di business di creare MVP AI-driven senza dover scrivere codice complesso. Ad esempio, grazie a tool del genere un team HR può prototipare un chatbot HR addestrato su policy aziendali in pochi giorni, da testare internamente per automatizzare FAQ dei dipendenti. Queste piattaforme spesso includono connettori API per integrare facilmente servizi come OpenAI, Google Cloud AI o altri, amplificando le capacità dei prototipi.
  • Framework e Metodi Agile con AI: Integrare l’AI nei framework di innovazione esistenti. Ad esempio, utilizzare Design Thinking arricchito con AI: nella fase di ideazione, generare molteplici soluzioni con strumenti generativi; nella fase prototipazione, usare AI per creare rapidamente mockup o simulazioni da sottoporre agli utenti. Oppure applicare la metodologia Lean Startup in chiave AI, come suggerito da esperti: sfruttare l’AI per comprimere la fase “Build” (prototipo pronto in giorni), e adottare tattiche di rapid user feedback (anche informale) per velocizzare la fase “Measure”. Questo consente iterazioni molto più rapide del normale. Inoltre, pratiche Agile come sprint brevi possono includere nel definition of done delle user story la sperimentazione con un modello AI e la valutazione del risultato rispetto ai criteri attesi. Team di sviluppo stanno anche introducendo il ruolo di AI Prompt Engineer all’interno degli sprint, ossia uno specialista che durante lo sviluppo ottimizza le richieste ai modelli AI per ottenere le funzionalità desiderate.
  • Infrastruttura e Sandboxing Sicuro: Allestire ambienti di sandbox dove i team possano giocare con dati aziendali e modelli AI senza rischi per i sistemi core. Strumenti containerizzati o ambienti cloud isolati (ad es. istanze Jupyter/Colab aziendali con accesso a modelli) permettono ai data scientist di provare algoritmi e ai developer di integrare API AI in modo controllato. Contestualmente, dotarsi di un framework di governance – linee guida su cosa è consentito (es. usare dati non sensibili nei test), come validare gli output AI e come documentare ogni esperimento. Soluzioni di ML Operations (MLOps) come MLflow o Kubeflow possono aiutare a tenere traccia degli esperimenti AI, versionare i modelli e promuovere facilmente un prototipo efficace dallo stadio di test a un pilot in produzione. In pratica, l’azienda costruisce una “fabbrica di sperimentazione” dove è facile avviare nuovi progetti AI e altrettanto facile spegnerli o scalarli, il tutto con la dovuta supervisione.
  • Community di Pratica & Knowledge Sharing: Un toolbox non è fatto solo di tecnologia, ma anche di persone e conoscenza. Creare comunità interne (es. un canale dedicato all’AI generativa su Slack/Teams, incontri mensili di un AI Guild) dove i pionieri condividono le loro esperienze, trucchi e fallimenti, è fondamentale. Questo trasforma ogni progetto individuale in apprendimento collettivo. Molte aziende di successo hanno lanciato programmi di ambasciatori AI o hub di risorse (wiki interne con linee guida su prompt efficaci, repository di codice riutilizzabile, ecc.). Ad esempio, Medium riporta il consiglio di adottare la metafora dell’“AI come intern entusiasta”: trattare l’AI come fareste con un neoassunto proattivo ma inesperto – dandogli compiti, verificando il lavoro e fornendo feedback. Diffondere questo genere di mental model tramite workshop pratici aiuta i dipendenti a interagire con l’AI in modo costruttivo e senza timori reverenziali, massimizzando l’apprendimento.

In sintesi, la toolbox per il learning-by-building comprende sia tecnologie abilitanti (modelli, piattaforme rapide, infrastrutture sicure) sia processi agili e comunità di apprendimento. Dotarsi di questi strumenti consente all’azienda di passare dall’idea all’azione con l’AI in modo veloce, sicuro e ripetibile, creando le condizioni ottimali per un miglioramento continuo.

Shift Continues

La trasformazione verso una cultura di apprendimento continuo attraverso il fare, potenziata dall’AI, è appena iniziata – e non mostra segni di rallentamento. Ogni nuovo progetto pilota, ogni prototipo costruito e ogni lezione appresa alimentano il prossimo ciclo di innovazione, in un percorso iterativo in cui l’azienda diventa ogni giorno più intelligente e adattiva. Come abbiamo visto, imprese di ogni settore stanno scoprendo che il segreto per prosperare in tempi di incertezza non è chiudersi in analisi teoriche o attendismi prudenti, ma abbracciare l’incertezza sperimentando.

Questo shift richiede coraggio organizzativo: significa fidarsi delle proprie persone – dare loro spazio per provare idee nuove con l’AI – e al tempo stesso costruire i giusti guardrail per non uscire di strada. Significa anche rivedere vecchi paradigmi: dai modelli di business (che possono evolvere man mano che l’AI apre possibilità prima impensabili) ai modelli di apprendimento (dal training formale a quello sul campo), fino ai modelli di leadership. Non tutti i tentativi daranno frutti immediati, ma un’organizzazione che impara velocemente dai propri esperimenti diventa antifragile, capace di trarre vantaggio anche dagli errori. In fondo, ogni prototipo non riuscito ci dice qualcosa su cosa evitare o migliorare al giro successivo.

Guardando avanti, possiamo aspettarci che questo movimento continui a evolvere e ampliarsi: più aziende adotteranno pratiche di learning by building, più casi d’uso innovativi emergeranno (oggi ancora inimmaginabili), e più la comunità di pratiche intorno all’AI crescerà, generando conoscenze condivise. È un po’ come una grande palestra collettiva: ogni azienda che sperimenta contribuisce a far progredire lo state of the art dell’AI applicata, i cui benefici ricadono poi sull’ecosistema economico più ampio.

Nel frattempo, le organizzazioni dovranno continuare a bilanciare velocità e saggezza, innovazione e responsabilità. Come sottolinea Stanford HAI, siamo in un momento in cui l’ottimismo globale sull’AI è in crescita nonostante le sfide: c’è una finestra di opportunità per guidare questa trasformazione in modo positivo, umano-centrico e sostenibile. Chi saprà imparare facendo con l’AI, mantenendo i valori e lo scopo al centro, non solo accelererà la propria crescita ma contribuirà a plasmare un futuro in cui tecnologia e creatività umana si potenziano a vicenda.

Il viaggio di InsideTheShift ci insegna proprio questo: il shift è un processo continuo, una serie di passi in avanti guidati dalla curiosità e dal miglioramento costante. L’edizione #6 ha esplorato come learning by building with AI stia ridefinendo le regole del gioco. Ma il cambiamento non si ferma qui. The shift continues – e spetta a noi essere protagonisti attivi, builders instancabili, di questa nuova era di innovazione. Con ogni progetto che costruiamo e da cui impariamo, acceleriamo il passo verso il futuro. E il futuro, grazie a questa attitudine, lo costruiamo – e impariamo – un prototipo alla volta.

Dal Prompt Chaining al Tree of Thoughts

Qualche giorno fa ho scritto un approfondimento, partendo dal post di Nicola, sul tema del Prompt Chaining. Il post ha riscosso un discreto interesse come approccio e ha generato diverse discussioni su approcci e vantaggi. Tra queste interazioni ci sono stati due commenti in cui è emerso l’interesse per diversi approcci al prompting e ai diversi contesti in cui c’è bisogno di uno o altro approccio.

Il Prompt Engineering, tema interessante ma eccessivamente abusato in termini di narrativa, non è altro che “l’arte” di formulare richieste efficaci ai modelli di intelligenza artificiale (AI) al fine di ottenere risultati utili e pertinenti. Negli ultimi tempi sono emersi diversi approcci avanzati per guidare i modelli linguistici generativi (Large Language Models, LLM) in modo più strategico, ottimizzato e finalizzato ad uno scopo preciso.

Uno di questi è il Prompt Chaining, di cui ho parlato nel mio articolo , in cui l’output di ciascun prompt diventa l’input del successivo. Questo consente di scomporre compiti complessi in passi più piccoli e gestibili, migliorando efficacia e accuratezza delle risposte del modello. Come scrivevo, il prompt chaining “non è solo una tecnica per istruire meglio l’AI, ma può diventare una vera e propria architettura cognitiva”, un modo per strutturare il pensiero delle macchine in modo simile al nostro. In altri termini, si passa da un’interazione estemporanea a una strategia conversazionale articolata in più fasi.

Il prompt chaining è parte di una più ampia famiglia di tecniche di prompt engineering sviluppate per migliorare il dialogo con i modelli AI. In questo approfondimento ho dato maggiore dettaglio alle principali tecniche – dal zero-shot e few-shot prompting, al chain-of-thought e al framework ReAct, fino a metodologie differenti come il self-consistency, Tree of Thoughts e RAG (Retrieval-Augmented Generation).

Per ognuna troverete i principi di funzionamento, i contesti di applicazione più efficaci, i vantaggi e i limiti, includendo esempi o scenari d’uso pratici quando utili. L’obiettivo è fornire una panoramica tecnica ma accessibile a un pubblico eterogeneo di utilizzatori dell’AI (su diversi tool), condividendo spunti applicativi e indicando come queste tecniche possano contribuire a un’adozione più consapevole e proficua dell’intelligenza artificiale nelle organizzazioni.

Prompt Chaining (Catena di Prompt)

Cos’è e principi di base: Il Prompt Chaining consiste nel concatenare più prompt in sequenza, in modo che ogni fase guidi la successiva. Invece di porre al modello una singola richiesta molto complessa, si suddivide il compito in sotto-obiettivi: il modello produce un risultato parziale che viene poi utilizzato in un prompt successivo, e così via. Questa tecnica si basa sul principio della decomposizione del problema: affrontare un “elefante” un pezzo alla volta (parafrasando il detto, “tagliare l’elefante a pezzi e ragionare per passi”). Ad esempio, anziché chiedere direttamente “Scrivi un rapporto completo sull’andamento del mercato AI nel 2025”, si può procedere per passi: prima chiedere una scaletta dei punti chiave, poi far approfondire ogni punto, infine richiedere una sintesi finale. Ogni prompt nella catena si concentra su un sotto-compito specifico mantenendo il contesto generale, e guida il modello passo dopo passo. In questo modo l’AI “pianifica” internamente la soluzione, similmente a un flusso di lavoro umano strutturato.

Contesti di utilizzo efficaci: il prompt chaining è efficace quando il compito richiesto al modello è complesso, lungo o richiede diverse fasi logiche. Nella progettazione di contenuti articolati (es. corsi, documentazione, white paper), questa tecnica permette di mantenere coerenza e approfondimento senza sovraccaricare il modello con un’unica richiesta monolitica. In ambito educativo o formativo, ad esempio, si può usare un approccio “a catena” per sviluppare un corso: prima generare un elenco di moduli, poi i dettagli di ciascun modulo, poi esercizi per ogni modulo, ecc. Anche per analisi strategiche o problem solving multi-step, il chaining consente all’AI di seguire un ragionamento articolato invece di tentare di dedurre tutto in un solo passaggio. Questa metodologia trova applicazione ogniqualvolta si desideri avere maggiore controllo sul processo con cui l’AI arriva a una risposta, suddividendolo in tappe verificabili.

Vantaggi: scomponendo il problema, il prompt chaining riduce l’ambiguità e distribuisce lo sforzo cognitivo del modello su più interazioni. Ne derivano output più accurati e coerenti, poiché il modello può concentrarsi su un obiettivo specifico ad ogni passo. L’approccio iterativo consente di mantenere il contesto lungo tutta la conversazione e di raffinare progressivamente la risposta. Inoltre, ogni fase intermedia offre all’utente umano l’opportunità di correggere la rotta o aggiungere istruzioni, portando a un maggiore controllo sul risultato finale. Un ulteriore beneficio è legato all’ottimizzazione delle risorse: invece di generare un lungo testo potenzialmente ridondante o fuori fuoco, l’AI produce contenuti modulari più gestibili, ottimizzando l’uso della finestra di contesto (token) e riducendo il rischio di output incoerenti dovuti a contesti troppo lunghi.

Limiti: Il prompt chaining richiede una certa pianificazione e abilità nel disegnare la sequenza di prompt. È un processo più laborioso e dispendioso in termini di tempo e di chiamate al modello rispetto a un singolo prompt: ogni passo aggiuntivo comporta un’interazione separata (con relativo costo, se si utilizza un API a pagamento, e latenza). Inoltre, l’utente deve assicurarsi che il contesto venga passato correttamente da un prompt all’altro (ad esempio riassumendo brevemente le informazioni rilevanti nel prompt successivo, se la memoria del modello è limitata). Un rischio è l’errore propagato: se un passaggio intermedio genera un’informazione errata o fuorviante, questa potrebbe propagarsi nelle fasi successive. Mitigare questo rischio richiede intervento umano (controllo degli output intermedi) o strategie per ripristinare il corretto contesto in corsa. Infine, come tutte le tecniche iterative, il chaining può portare a output eccessivamente prolissi se ogni passo non è ben focalizzato, è importante definire chiaramente gli obiettivi di ciascun sottoprompt.

Esempio pratico: Un esempio semplice di prompt chaining è la generazione di un articolo complesso. Invece di chiedere direttamente all’AI l’intero articolo, si può procedere così:

  1. Prompt 1: “Elenca i principali trend del mercato AI nel 2025 di cui parlare in un articolo.”Output: lista di trend (es. adozione di LLM nelle imprese, regolamentazione AI, nuovi modelli open-source, ecc.).

  2. Prompt 2: “Per ciascun trend identificato, forniscimi un breve paragrafo di spiegazione.”Output: paragrafi esplicativi per ogni punto della lista.

  3. Prompt 3: “Scrivi un’introduzione generale all’articolo che presenti l’argomento e i trend che saranno discussi.”Output: introduzione coesa menzionando i trend.

  4. Prompt 4: “Unisci il tutto in un articolo completo, assicurandoti che i paragrafi seguano l’ordine dei trend presentati e aggiungi una conclusione.”Output: articolo finale strutturato e approfondito.

Ad ogni step, l’utente può controllare e affinare i risultati (ad esempio, aggiungendo un trend dimenticato, o correggendo un paragrafo poco chiaro) prima di passare allo step successivo. Questo processo in catena assicura che il risultato finale sia più organico e accurato rispetto a una singola generazione “one-shot”.

Zero-Shot Prompting

Cos’è e principi di base: Lo Zero-Shot Prompting si riferisce alla capacità di un modello di linguaggio di eseguire un compito senza che gli siano forniti esempi espliciti nella richiesta. In pratica, al modello viene data solo un’istruzione o domanda, confidando nelle conoscenze generali apprese durante l’addestramento per produrre la risposta corretta. Si parla di “zero-shot” (zero esempi) perché il prompt non include alcuna dimostrazione o caso specifico. Ad esempio, se vogliamo che il modello traduca una frase, in zero-shot è sufficiente scrivere: “Traduci in inglese: Oggi piove a dirotto.” senza fornire esempi di traduzione. Il modello tenterà comunque di eseguire il compito basandosi sulle sue conoscenze pregresse della lingua. Questo approccio sfrutta la generalizzazione del modello: i grandi modelli hanno visto talmente tanti dati durante l’addestramento che spesso possono dedurre come svolgere un compito nuovo solo dalla descrizione testuale del compito stesso.

Contesti di utilizzo efficaci: Il zero-shot è la modalità più immediata di interazione e risulta efficace quando:

  • Il compito è semplice o comune, ad esempio traduzione, risposta a domande di cultura generale, riassunto di un testo breve, classificazione di sentiment di una frase, ecc., per cui il modello possiede già esperienza implicita. Ad esempio, un LLM può classificare il sentimento di “Questo film è uno spreco di tempo” come negativo anche senza esempi, perché ha appreso dal corpus cosa significa esprimere un giudizio negativo.

  • Si dispone di poco contesto o dati da fornire al modello. In scenari in cui l’utente non ha esempi concreti da inserire, sfruttare la conoscenza intrinseca del modello è l’unica opzione.

  • Rapidità e versatilità sono prioritarie: il zero-shot permette di ottenere una risposta immediata senza preparare prompt complessi, ed è adatto in applicazioni in tempo reale o prototipazione veloce. Ad esempio, per avere una risposta rapida a “Chi era il presidente degli USA nel 1990?” un prompt zero-shot diretto può bastare.

Vantaggi: I punti di forza del zero-shot prompting includono la semplicità e l’efficienza. Non è necessario preparare esempi o dati di riferimento, il che fa risparmiare tempo e risorse, rendendo questo approccio subito applicabile in molti contesti. Inoltre, mostra la versatilità del modello: con un’unica configurazione di addestramento, l’LLM può affrontare un’ampia gamma di compiti senza ulteriori interventi. In ambito operativo ciò significa poter rispondere a richieste diverse (dalla scrittura creativa al coding) semplicemente cambiando l’istruzione, senza dover riprogrammarlo. Un altro vantaggio è che si evita di biasare il modello con esempi potenzialmente fuorvianti: talvolta fornire esempi può indurre il modello a riprodurli pedissequamente; in zero-shot il modello genera ex novo basandosi solo sull’obiettivo descritto.

Limiti: Lo zero-shot spesso soffre di minore accuratezza o specificità rispetto ad approcci con esempi. La mancanza di esempi di riferimento può portare il modello a interpretare la richiesta in modo diverso da quanto l’utente intendeva, soprattutto se il prompt non è perfettamente chiaro. C’è una forte dipendenza dalla formulazione del prompt: una leggera ambiguità può condurre l’AI fuori strada, non avendo esempi cui ancorarsi. Inoltre, in compiti più complessi o di nicchia, il modello potrebbe fornire risposte superficiali o sbagliate, poiché senza esempi non ha indicazioni su come strutturare la soluzione. In sintesi, la qualità dell’output è variabile: alcuni LLM molto avanzati (es. GPT-4) riescono sorprendentemente a fare ragionamenti zero-shot, ma modelli meno sofisticati potrebbero fallire senza qualche guida aggiuntiva.

Esempio pratico: Un utilizzo tipico del zero-shot è porre domande dirette al modello. Ad esempio: “Spiega la differenza tra energia rinnovabile ed energia non rinnovabile.”  Senza fornire esempi, il modello dovrà attingere alla sua conoscenza generale per articolare una spiegazione. Se il modello ha una buona base, risponderà elencando cosa sono le energie rinnovabili (solare, eolica, ecc.) e non rinnovabili (combustibili fossili, nucleare tradizionale), evidenziando vantaggi e svantaggi, tutto basandosi sulla singola istruzione ricevuta. Se la domanda fosse più vaga (“Parlami dell’energia.”), il rischio zero-shot è di ottenere una risposta generica o non centrata sull’aspetto desiderato. Per questo, anche in zero-shot, spesso si cerca di rendere il prompt chiaro e specifico, ad esempio aggiungendo “in modo conciso e focalizzato sugli aspetti ambientali”. In assenza di esempi, ogni parola nel prompt conta per orientare la risposta.

Few-Shot Prompting

Cos’è e principi di base: Il Few-Shot Prompting è una tecnica in cui al modello vengono forniti uno o più esempi della richiesta all’interno del prompt, per guidarlo verso la risposta desiderata. In pratica, il prompt include sia l’istruzione sia alcune coppie di input-output di esempio (tipicamente 1 a 5 esempi, da cui “few”). Ad esempio, per insegnare al modello a rispondere con un certo stile, potremmo fornire due Q&A di esempio e poi porre una nuova domanda simile. Questo approccio sfrutta la capacità del modello di apprendimento contestuale: grazie agli esempi, l’LLM può dedurre il pattern di soluzione voluto e replicarlo per l’input nuovo. Il modello, in sostanza, viene “calibrato” sul momento tramite i prompt di esempio, senza necessitare di un addestramento esterno aggiuntivo.

Contesti di utilizzo efficaci: Il few-shot è indicato quando:

  • Il compito è specifico o poco comune e vogliamo mostrare al modello esattamente il formato o il ragionamento atteso. Ad esempio, per far generare titoli creativi in rima per articoli, potremmo dare 2–3 esempi di titoli in rima.

  • Si dispone di esempi rappresentativi della richiesta. In scenari aziendali, spesso si hanno storici o set di dati di riferimento (es. FAQ con domande e risposte). Includendone alcune nel prompt, il modello comprenderà meglio come deve rispondere in quello stile o dominio.

  • Precisione e coerenza sono critiche. Il few-shot può drasticamente migliorare la pertinenza delle risposte rispetto al zero-shot. In applicazioni come customer support automatizzato, fornire esempi di domande dei clienti e risposte appropriate può far sì che il modello risponda in modo più accurato ai nuovi quesiti dei clienti (es. mostrando il tono e il livello di dettaglio giusto).

Vantaggi: Aggiungendo pochi esempi nel prompt, il modello si adatta rapidamente al contesto specifico, producendo risposte più accurate e contestuali. Si ottiene spesso una maggiore precisione perché il modello replica la logica o lo stile mostrato negli esempi. Il few-shot permette anche una certa flessibilità: con un piccolo insieme di dati di esempio, si “sposta” l’LLM su un dominio o task desiderato senza bisogno di costosi re-training o fine-tuning esterni. È come fornire un mini-brief al modello: in base a pochi casi, capisce meglio cosa fare. Inoltre, gli esempi aiutano a ridurre ambiguità ed errori: se la domanda da risolvere può essere interpretata in modi diversi, mostrare un esempio toglie dubbi su quale interpretazione sia corretta (il modello tenderà a imitare la soluzione data nell’esempio).

Limiti: Il principale costo del few-shot è la necessità di curare esempi di qualità. Preparare gli esempi pertinenti richiede tempo e competenza sul problema. Inoltre, inserire esempi nel prompt consuma spazio nella finestra di contesto del modello, limitando la lunghezza della richiesta o della risposta possibile (soprattutto con modelli con contesto ridotto). C’è poi la questione della varietà: se gli esempi forniti non coprono sufficientemente i diversi casi, il modello potrebbe generalizzare male. In alcuni casi può addirittura overfittare sugli esempi: ad esempio, se diamo 3 esempi tutti con la stessa risposta, il modello potrebbe rispondere sempre quella (anche quando non dovrebbe). È dunque cruciale che gli esempi siano rappresentativi e diversificati. Un altro limite è che il modello potrebbe copiare parti dell’esempio nella risposta (soprattutto se l’input nuovo assomiglia molto a un esempio): questo può introdurre errori se l’output dell’esempio non si applica esattamente al nuovo caso. In sintesi, il few-shot bilancia un miglioramento di performance con un aumento di complessità nella progettazione del prompt.

Esempio pratico: Poniamo di voler usare l’AI per classificare recensioni di prodotti come positive o negative. In zero-shot potremmo dire: “Etichetta la seguente recensione come positiva o negativa: ‘Il prodotto funziona malissimo, sono molto deluso’.” Il modello potrebbe capire, ma con few-shot faremo meglio. Costruiamo il prompt con esempi:

  1. Prompt: Recensione: “Questo gadget è fantastico! Ha superato le mie aspettative.” Sentiment: Positivo. Recensione: “Purtroppo il dispositivo si è rotto dopo un giorno. Che spreco di soldi.” Sentiment: Negativo. Ora etichetta la seguente recensione “Il prodotto funziona malissimo, sono molto deluso.”

Fornendo questi esempi, l’AI apprende dal contesto come svolgere il compito: vede il formato Recensione -> Sentiment e i criteri (nel primo caso entusiasmo = Positivo, nel secondo caso problema grave = Negativo). Di conseguenza risponderà molto probabilmente “Negativo” per la recensione data, con maggiore affidabilità rispetto a zero-shot. Questo paradigma few-shot simula in miniatura quello che sarebbe un addestramento supervisionato, ma avviene interamente nel prompt.

Chain-of-Thought (CoT) Prompting

Cos’è e principi di base: Il Chain-of-Thought (CoT) prompting è una tecnica avanzata in cui si induce il modello a svolgere un ragionamento passo-passo esplicito per arrivare alla soluzione. Invece di limitarsi a fornire direttamente la risposta finale, al modello viene richiesto (in modo implicito o esplicito) di “pensare a voce alta”, elencando la sequenza logica di deduzioni o calcoli che conducono alla risposta. In pratica, il prompt incoraggia il modello a suddividere il problema complesso in passaggi intermedi risolvibili individualmente. Ciò può avvenire tramite istruzioni come “mostra il ragionamento” o con esempi di soluzione in cui viene illustrato il processo (“Prima fai questo calcolo, poi quest’altro, infine…”). L’idea alla base è che i LLM, se guidati a articolare un chain of thought, possano raggiungere una comprensione più profonda del problema e quindi risposte più corrette, simili a come un umano risolverebbe mostrando i calcoli su carta.

Contesti di utilizzo efficaci: Il CoT è particolarmente potente in compiti che richiedono logica, calcoli o multi-step reasoning:

  • Problemi matematici o aritmetici a più operazioni: ad esempio, risolvere problemi di testo (“se Maria ha 5 mele e ne compra altre 3, quante mele ha?”) chiedendo al modello di procedere per passaggi (conta mele iniziali, aggiungi nuove mele, ecc.).

  • Puzzle o problemi di logica (indovinelli, sillogismi, deduzioni): far esplicitare al modello le informazioni date e i passi per arrivare alla conclusione aiuta ad evitare salti logici errati.

  • Domande di common sense o implicazioni: es. “Un pallone bucato può rimbalzare?” – inducendo il ragionamento (“Un pallone bucato perde aria, senza aria non può rimbalzare, quindi no”) si aumenta la probabilità di correttezza su questioni non banali.

  • Pianificazione e scenari complessi: ad esempio chiedere al modello di elaborare una strategia marketing strutturata: col CoT si può ottenere che elenchi prima analisi, poi obiettivi, poi tattiche in ordine logico. In generale, il chain-of-thought è ideale in qualunque contesto dove una soluzione deve emergere da più step concatenati, permettendo al modello di “concentrarsi” su un passo alla volta.

Vantaggi: Far esprimere al modello una catena di pensieri porta diversi benefici. Innanzitutto migliora la coerenza logica dell’output: le risposte risultano più strutturate e fondate, soprattutto su problemi complessi che altrimenti il modello potrebbe affrontare in modo superficiale. Il CoT aiuta il modello a comprendere meglio la natura del problema, perché nel generare il ragionamento intermedio esso stesso “riscopre” i sotto-obiettivi necessari. Ciò conduce in genere ad una maggiore accuratezza finale. Un altro vantaggio cruciale è la trasparenza: vedere il ragionamento passo-passo fornisce agli utenti umani insight sul perché il modello arriva a una certa risposta, rendendo più facile individuare eventuali errori o passi poco convincenti. Questo aumenta la fiducia e consente di intervenire, se necessario, su uno specifico passo (ad esempio correggendo un calcolo intermedio sbagliato). Inoltre, la tecnica CoT ha dimostrato di estendere le capacità dei modelli sui task di ragionamento: ricerche hanno mostrato che LLM di media dimensione, se istruiti a fare chain-of-thought, possono risolvere problemi che altrimenti sbaglierebbero, raggiungendo performance paragonabili a modelli più grandi non-CoT.

Limiti: L’uso di chain-of-thought richiede solitamente prompt più complessi e aumenta la lunghezza delle risposte, quindi può rallentare il tempo di risposta e consumare più token. C’è un overhead computazionale nel generare tutti i passi intermedi. Inoltre, la formulazione del prompt CoT deve essere accurata: non tutti i modelli seguono l’istruzione di fare ragionamenti espliciti di default. Spesso si utilizzano frasi trigger (ad es. “Reason step by step:”) o esempi formattati in modo da indurre il comportamento. Se il prompt è mal concepito, l’LLM potrebbe elencare passi poco utili o addirittura allucinare ragionamenti sbagliati. Un altro aspetto è che CoT, pur migliorando la logicità, non garantisce infallibilità: il modello potrebbe comunque compiere errori in uno step, e questi errori comprometteranno la risposta finale (garbage in, garbage out). In alcuni casi, soprattutto con modelli più piccoli, abbiamo visto ragionamenti fittizi , il modello produce un chain-of-thought che sembra coerente ma porta comunque a una risposta errata. Infine, non tutti i problemi richiedono CoT: per domande semplici, forzare un ragionamento dettagliato può essere inefficiente. Bisogna dunque decidere caso per caso se vale la pena attivare questa modalità.

Esempio pratico: Consideriamo un problema matematico a parole: “In una fattoria ci sono 3 galline e 2 mucche. Quante zampe ci sono in totale?”. Un approccio chain-of-thought potrebbe essere innescato da un prompt come: “Rispondi passo-passo: prima calcola le zampe delle galline, poi delle mucche, e somma.”. Il modello allora potrebbe produrre:

  • “Ogni gallina ha 2 zampe. Ce ne sono 3, quindi 3×2 = 6 zampe di gallina. Ogni mucca ha 4 zampe. Ce ne sono 2, quindi 2×4 = 8 zampe di mucca. In totale le zampe sono 6 + 8 = 14.”Risposta: 14.

Qui vediamo il chain-of-thought esplicito. Senza questa guida, il modello potrebbe semplicemente dare una risposta (si spera 14), ma non mostrando il calcolo sarebbe difficile capire se l’ha ottenuta per via corretta o per fortuna. Con CoT, anche se il numero finale fosse sbagliato, l’utente può vedere dove il ragionamento ha fallito (ad esempio, se avesse calcolato male 3×2). Nell’uso pratico, CoT è risultato determinante per migliorare task di matematica, logica e persino comprensione di testi complessi, al punto che è diventata una delle tecniche standard per sfruttare al meglio i LLM in scenari di reasoning avanzato.

ReAct (Reasoning + Acting)

Cos’è e principi di base: ReAct è un paradigma che unisce il ragionamento (Reasoning) tipico del chain-of-thought con la capacità di agire (Acting) nell’ambiente esterno. Proposto da Yao. nel 2022, il framework ReAct prevede che il modello generi sia tracce di ragionamento verbale sia azioni specifiche per il task in modo intercalato. In pratica, durante l’elaborazione, l’LLM alterna pensieri e azioni: i pensieri sono passi di ragionamento interni, le azioni sono operazioni compiute all’esterno, come effettuare una ricerca, interrogare una base di conoscenza, eseguire un calcolo o chiamare un’API. Questa interazione avviene ciclicamente: il modello pensa -> compie un’azione -> ottiene un’osservazione dall’ambiente -> continua a pensare in base a quella nuova informazione, e così via. L’idea chiave è che combinando ragionamento e azione, l’AI possa iterare verso la soluzione integrando conoscenze esterne e aggiornando il proprio piano man mano.

Contesti di utilizzo efficaci: ReAct si rivela potente in scenari in cui il modello da solo non ha tutte le informazioni o capacità per completare il compito e deve interagire con strumenti o dati esterni. Ad esempio:

  • Question answering su conoscenze aggiornate: se chiediamo “Chi è l’attuale CEO di <una certa azienda>?”, un LLM addestrato su dati vecchi potrebbe non sapere la risposta. Un agente ReAct potrebbe eseguire un’azione di ricerca sul web, leggere la pagina trovata (osservazione), poi rispondere in base alle info aggiornate.

  • Risoluzione di problemi che richiedono calcoli o simulazioni: es. chiedere “Qual è la radice quadrata di 1048576?” – invece di far affidamento sulle sue capacità matematiche (che possono essere limitate o soggette a errori), il modello ReAct potrebbe invocare una calcolatrice esterna come azione, ottenere il risultato e poi comunicarlo.

  • Interazione con ambienti o database: in un contesto di assistente personale, l’AI potrebbe dover controllare il calendario, inviare email, o eseguire azioni nel mondo reale. ReAct fornisce un quadro per farlo: il modello decide un’azione (ad es. “Apri calendario”), l’ambiente restituisce l’esito (“Calendario aperto, prossimi eventi…”), il modello ragiona e decide la prossima mossa.

  • Task di decision-making complessi: ad esempio nella risoluzione di un mistero o di un gioco di avventura testuale, l’agente ReAct può pianificare (ragionamento) e testare mosse (azione) esplorando attivamente il problema.

Vantaggi: Il principale vantaggio di ReAct è che supera i limiti di conoscenza chiusa del modello, permettendo accesso a informazioni aggiornate o specifiche durante la generazione. Questo riduce drasticamente il fenomeno delle allucinazioni: se il modello può verificare fatti tramite azioni (es. cercare su Wikipedia), è meno incline a inventare risposte. ReAct inoltre migliora l’accuratezza fattuale e l’affidabilità delle risposte, come dimostrato da esperimenti che hanno visto l’agente ReAct superare approcci puramente basati su ragionamento o su azione isolate. Un altro benefit è la trasparenza e controllabilità: poiché il modello elenca i suoi pensieri e azioni, un osservatore umano può seguire passo passo il processo e intervenire se necessario (ad esempio, interrompere l’esecuzione di un’azione non voluta). In ambito applicativo, ReAct apre la strada a LLM “agenti” in grado di compiere operazioni utili: molti sistemi pratici (come i plugin di ChatGPT, o framework tipo LangChain) adottano proprio questo paradigma per far sì che l’AI consulti documenti, esegua codice o chiami servizi in base alla richiesta dell’utente. In sintesi, ReAct aumenta la capacità di problem solving del modello combinando il meglio di due mondi: il ragionamento interno e l’interazione con l’esterno.

Limiti: Implementare ReAct è complesso. Richiede definire una sorta di protocollo che il modello segua nei prompt, ad esempio una sintassi per distinguere Thought (pensiero) e Action e Observation (risultato dell’azione). Non tutti i modelli seguono facilmente questo schema – in genere si usano LLM molto obbedienti e capienti, e prompt di contesto con esempi di formato ReAct. C’è poi il tema della sicurezza: dare a un modello la possibilità di agire (eseguire codice, cercare online) comporta rischi; bisogna porre limiti sulle azioni possibili onde evitare comportamenti indesiderati. Un altro limite è la dipendenza dalla qualità degli strumenti esterni: se il sistema di ricerca fornisce risultati sbagliati o se un’API chiamata fallisce, l’agente potrebbe andare in stallo o prendere decisioni errate. Inoltre, orchestrare ragionamenti e azioni iterativamente può essere costoso in termini computazionali – ogni ciclo ragionamento/azione equivale a più chiamate modello + costi delle operazioni esterne. Vi è anche una maggiore possibilità di bug logici: l’agente potrebbe entrare in loop (continuare a cercare senza mai rispondere) o tentare azioni non supportate se il prompt non lo vincola bene. Infine, leggere e interpretare le osservazioni (ad esempio il contenuto di una pagina web) è vincolato alla finestra di contesto: bisogna spesso riassumere o filtrare i dati esterni prima di reinserirli nel prompt successivo.

Esempio pratico: Un caso concreto di ReAct è un assistente QA con accesso al web. Supponiamo l’utente chieda: “Quanti astronauti sono attualmente sulla Stazione Spaziale Internazionale?”. Un semplice LLM addestrato fino al 2021 non ha questa informazione aggiornata. Un agente ReAct potrebbe operare così:

  • Thought: “La domanda richiede un dato aggiornato. Devo cercarlo online.”

  • Action: Search("numero astronauti attualmente ISS")

  • Observation: (il sistema di ricerca restituisce un risultato: una pagina Wikipedia o news con l’informazione).

  • Thought: “Ho trovato un risultato che sembra pertinente, ora lo leggo.”

  • Action: Open(URL_pagina)

  • Observation: (testo della pagina: “… attualmente sulla ISS ci sono 7 astronauti …”).

  • Thought: “Ora ho l’informazione, posso formulare la risposta.”

  • Final Answer: “Al momento attuale, ci sono 7 astronauti a bordo della ISS.”

Durante questo processo, l’AI ha ragionato sui passi necessari e utilizzato strumenti (search e open web) per colmare le sue lacune di conoscenza. Tutto ciò avviene in pochi secondi e l’utente finale vede solo la risposta corretta con eventualmente la fonte. Questo esempio illustra come ReAct renda l’AI proattiva e affidabile per domande altrimenti fuori portata per un modello statico.

Nota: poichè mi è stato chiesto in aula, anche se il processo sembra simile al comportamento di ChatGPT 4o , parliamo di cose diverse:

  • ReAct = paradigma di prompting (schema per orchestrare ragionamenti + azioni).
  • ChatGPT-4o = modello multimodale, che può integrare o ispirarsi a logiche ReAct ma non è basato su di esso.

Self-Consistency

Cos’è e principi di base: La Self-Consistency è una tecnica avanzata che mira a migliorare la correttezza delle risposte del modello attraverso un approccio di aggregazione statistica dei ragionamenti. Proposta da Wang (2022), nasce come metodo per sostituire il tradizionale greedy decoding usato nel chain-of-thought con qualcosa di più robusto. In pratica, invece di generare una singola catena di ragionamento (che potrebbe essere fallace), si fa in modo che il modello ne generi molteplici varianti indipendenti, quindi si osservano le diverse risposte finali e si sceglie quella più comune – presumendo che sia la più correttapromptingguide.ailearnprompting.org. È un po’ come porre la stessa domanda a tanti “cloni” del modello e poi fare una votazione di maggioranza sulle risposte. L’idea è che il modello, seguendo vie diverse di pensiero grazie alla casualità nel processo di generazione, potrebbe arrivare a risposte differenti; tuttavia, se c’è una risposta oggettivamente corretta, è probabile che molte di quelle catene di pensiero convergano su di essa, rendendola la risposta più frequente.

Contesti di utilizzo efficaci: La self-consistency si applica in particolare a compiti con una sola risposta corretta ben definita, dove piccoli errori nel ragionamento possono portare a risposte sbagliate. Ad esempio:

  • Problemi di matematica e aritmetica: un LLM anche con chain-of-thought può occasionalmente errare un calcolo. Facendogli risolvere lo stesso problema più volte (con variazioni stocastiche nel generare i passaggi), possiamo mitigare l’errore scegliendo il risultato più frequente, che statisticamente sarà quello giusto nella maggioranza dei casi.

  • Logica e common sense: domande vero/falso, causali o di completamento logico dove il modello potrebbe indecidersi. Esempio: “Se ieri era lunedì, che giorno sarà domani?”. Alcune catene di ragionamento difettose potrebbero dare risposte errate, ma la maggior parte convergerà su mercoledì. La self-consistency prende quel consenso.

  • QA a risposta chiusa: domande di conoscenza generale con risposta univoca. Se il modello è incerto può produrre risposte diverse (soprattutto con temperature più alte), ma con self-consistency possiamo filtrare il rumore.

  • Situazioni in cui si valuta la affidabilità: la tecnica permette di assegnare una sorta di “confidence” alla risposta scelta (data appunto dalla percentuale di catene di pensiero che l’hanno prodotta). Questo può essere utile per sapere quando il modello è incerto (es. se c’è spaccatura tra due risposte, forse serve intervento umano).

Vantaggi: La self-consistency ha mostrato un netto aumento delle prestazioni del chain-of-thought su molti task di ragionamento complesso. Aggregando i risultati di molteplici chain, si elimina l’influenza di ragionamenti outlier o casuali: l’effetto è simile a quello di una committee di esperti che discutono, dove l’errore di uno può essere compensato dal corretto ragionamento di altri. In pratica, si riduce la varianza delle risposte del modello, ottenendo output più stabili e corretti. Sulle domande aritmetiche e di logica, questo metodo ha portato a risolvere correttamente problemi che un singolo CoT spesso sbagliava. Un altro beneficio è che non richiede modifiche all’addestramento del modello: è una tecnica di decoding, quindi applicabile in post-processing a qualunque LLM. Inoltre, fornisce una misura di sicurezza: se tutte le 10 catene di ragionamento danno risposte diverse, chiaramente il modello non è affidabile su quella query – informazione utile per decidere di non fidarsi o di riformulare la domanda.

Limiti: La self-consistency aumenta il costo computazionale in modo lineare con il numero di ragionamenti generati: se facciamo 10 “shot” di ragionamento per ogni domanda, stiamo usando 10 volte il modello. Questo la rende onerosa in situazioni di produzione a larga scala, salvo ottimizzazioni. Inoltre, scegliere la risposta più frequente funziona bene quando effettivamente c’è una risposta dominante corretta; ma se la domanda è ambigua o aperta, il concetto di risposta “consistente” perde significato. Ad esempio, su una domanda aperta (es. “Qual è un buon titolo per un romanzo di fantascienza?”), le risposte potranno essere tutte diverse e non ce n’è una “migliore” oggettivamente – in questi casi la self-consistency non si applica (o potrebbe addirittura essere controproducente scegliendo una risposta generica). Va notato poi che la qualità delle catene di pensiero iniziali è fondamentale: se il modello ha forti bias o lacune e tende a sbagliare sistematicamente un certo tipo di problema, generare più ragionamenti non aiuterà (tutti convergeranno sulla risposta sbagliata!). Quindi la self-consistency aiuta soprattutto quando il modello ha competenza sufficiente ma può incorrere in errori casuali. Infine, tecnicamente serve poter campionare diverse risposte: ciò implica impostare una temperatura di generazione > 0 e magari usare nucleus sampling per ottenere sufficiente diversità nelle chain – parametri che vanno tarati con cura per bilanciare diversità e qualità.

Esempio pratico: Immaginiamo di sottoporre al modello un piccolo indovinello matematico: “Quando avevo 8 anni, mio fratello ne aveva la metà. Ora che ho 14 anni, quanti anni ha mio fratello?”. Molti LLM tendono a rispondere frettolosamente “7” (sbagliato) se non ragionano bene. Con self-consistency, faremmo generare al modello magari 5 diverse spiegazioni/soluzioni. Esempio di possibili catene:

  1. “Fratello aveva 4 quando io 8. La differenza età è 4. Ora ho 14, fratello 10.” → Risposta: 10.

  2. “Differenza di 4 anni. A 14 anni, fratello 14-4=10.” → Risposta: 10.

  3. “Io 8, lui 4. Gap 4. Io 14, lui 14-4=10.” → Risposta: 10.

  4. “Se fratello metà di 8, aveva 4. Ora 14 e fratello 4+ (14-8)=10.” → Risposta: 10.

  5. “Fratello età attuale? Forse 7.” → Risposta: 7.

Notiamo che 4 catene su 5 danno risposta 10, una dà 7. Facendo majority voting, la risposta consistente è 10 (che è quella corretta). In questo modo abbiamo evitato l’errore della catena #5. In effetti, studi hanno osservato che la majority vote di più catene aumenta notevolmente l’accuratezza in problemi aritmetici e di logica rispetto a singola risposta CoT. Naturalmente, è importante che ogni catena sia indipendente: tipicamente si ottiene ciò ripetendo la query con un diverso seed stocastico o fondendo la richiesta in prompt diversi (variazioni nell’esposizione del problema per stimolare percorsi differenti). La self-consistency incarna un principio semplice: più voci possono essere meglio di una, quando si tratta di affidarsi a un AI per ragionare.

Tree of Thoughts (ToT)

Cos’è e principi di base: Il Tree-of-Thoughts (ToT) è un framework di prompting che generalizza l’idea del chain-of-thought espandendola in forma di albero decisionale. Invece di sviluppare un singolo percorso lineare di ragionamento, il modello esplora più possibili ramificazioni di pensiero da uno stesso stato, un po’ come valutare diverse strade per risolvere un problema. Questo simula strategie cognitive umane in cui, di fronte a un problema complesso, consideriamo varie ipotesi o sottosoluzioni parallele prima di impegnarci in una. Nel prompting ToT, ad ogni step il modello può generare diversi “pensieri” alternativi (nodi figli), costruendo così un albero di stati. Si definiscono criteri per valutare i pensieri (ad esempio tramite una funzione di valutazione o chiedendo al modello di dare un punteggio a ciascuno) e una politica per esplorare l’albero (in profondità, in ampiezza, con tagli potati dei rami meno promettenti). Questo approccio incorpora anche meccanismi come il lookahead (guardare avanti alcuni passi per stimare dove porta un certo ramo) e la già citata self-consistency per valutare l’affidabilità di un ramo tramite generazioni multiple. In breve, ToT è ispirato alle tecniche di ricerca AI classiche (come gli algoritmi di tree search) applicate all’ambito generativo: il prompt engineering diventa orchestrazione di un search tree di pensieri.

Contesti di utilizzo efficaci: Il Tree-of-Thoughts è indicato per problemi di deliberate problem solving, ovvero situazioni in cui:

  • Il percorso verso la soluzione non è unico o scontato e potrebbe richiedere di provare varie strade. Ad esempio, puzzle complessi, labirinti logici, giochi tipo scacchi o enigmi di pianificazione.

  • È possibile valutare parzialmente una soluzione prima di completarla. Ad esempio, nella scrittura creativa ramificata: generare diversi possibili proseguimenti di una storia e poi scegliere quello più interessante per continuare la narrazione.

  • Decision making con branching: scenari in cui ad ogni decisione ne conseguono altre (tipo choose your own adventure). Un sistema ToT può esplorare diverse sequenze di decisioni e identificare l’outcome ottimale secondo un certo criterio.

  • Problemi che beneficiano di tentativi ed errori: in un chain-of-thought lineare, un errore incorrerebbe e bloccherebbe il risultato; in ToT, se un ramo fallisce, se ne possono percorrere altri. Ad esempio, risolvere un rompicapo dove bisogna combinare mosse diverse: l’AI può provare un certo ordine di mosse (ramo A) e se porta a un vicolo cieco, tornare indietro e provare un ordine diverso (ramo B).

Vantaggi: Il ToT aumenta notevolmente la capacità esplorativa del modello. Invece di vincolarsi a un singolo ragionamento che potrebbe essere subottimale, l’AI può considerare molteplici alternative, aumentando la probabilità di trovare una soluzione corretta o creativa. Questo porta ad una maggiore efficacia nei compiti di problem solving generali. Inoltre, consente di implementare comportamenti di backtracking: se un certo filone di pensiero non funziona, l’agente può tornare a un nodo precedente e percorrere un altro ramo, un po’ come farebbe un programmatore nel debug di un algoritmo o una persona nel risolvere un puzzle. Il risultato finale è che il modello con ToT può risolvere problemi che richiedono tentativi multipli, laddove un CoT lineare fallirebbe se il primo tentativo è errato. Un altro beneficio è la possibilità di inserire heuristiche di valutazione: ad esempio, per ogni stato intermedio si può far valutare al modello quanto è vicino alla soluzione o se le condizioni necessarie sono ancora soddisfatte. Queste euristiche guidano la ricerca nell’albero in modo più intelligente, concentrando gli sforzi sui rami promettenti. In letteratura si è visto che ToT può combinare con successo ragionamento e ricerca strutturata, portando l’AI più vicina a un processo deliberativo umano nel risolvere problemi complessi. La possibilità di lookahead e di rivedere decisioni rende le soluzioni più ottimizzate e ponderate.

Limiti: Il rovescio della medaglia è la complessità computazionale: un’esplorazione combinatoriale di pensieri cresce esponenzialmente se non limitata. Bisogna definire attentamente il branching factor (quanti pensieri alternativi generare per step) e la depth massima dell’albero, altrimenti si rischia un’esplosione di possibilità ingestibili. Anche con euristiche, il costo può essere molto elevato per problemi appena un po’ più grandi. Un altro limite è che orchestrare un ToT richiede un controllo fine che oggi non è nativamente supportato dai modelli: tipicamente si devono scrivere script esterni che interfacciano col modello generando e valutando i nodi. Questo è più complesso di un semplice prompt singolo o di un chain-of-thought lineare. Inoltre, la qualità dipende fortemente da come viene progettata la funzione di valutazione dei rami: se la valutazione è sbagliata, il modello potrebbe scartare il ramo giusto e seguire quelli sbagliati (analogia: local minima in una ricerca). Dal punto di vista dell’usabilità, ToT rende il comportamento dell’AI meno prevedibile in termini di tempo di risposta (potrebbe finire molto presto se trova subito un ottimo ramo, oppure esplorare a lungo se indecisa). Infine, per alcuni task creativi troppo aperti, la struttura ad albero può essere eccessiva: conviene in problemi con un obiettivo chiaro da raggiungere, meno in quelli dove non c’è un “goal” definito. In sintesi, il ToT è molto potente ma va applicato con criterio a problemi che ne giustificano la complessità e laddove altre tecniche più semplici (CoT, self-consistency) non bastano.

Esempio pratico: Un esempio intuitivo può essere un gioco di labirinto testuale: il modello deve trovare l’uscita descrivendo passo a passo il percorso. Con un chain-of-thought tradizionale, l’AI potrebbe fare un tentativo lineare e se sbaglia strada arrivare a un vicolo cieco senza sapere come “tornare indietro”. Con Tree-of-Thoughts, invece, l’approccio sarebbe:

  • Stato iniziale: stanza di partenza.

  • Pensieri possibili: “vai a sinistra”, “vai a destra”, “vai avanti”.

    • Se “vai a sinistra” porta a un vicolo cieco (dopo qualche passo di esplorazione), quel ramo viene chiuso.

    • Si torna al nodo iniziale e si prova “vai a destra”.

  • Si esplorano così diversi percorsi come rami. Magari “vai a destra” -> “poi avanti” -> “poi sinistra” porta all’uscita. Il sistema lo individua come ramo di successo.

Durante la ricerca, il modello può avere una euristica: ad esempio, ogni volta che descrive la posizione attuale, può valutare se sembra più vicina all’uscita (magari l’uscita è descritta come “luce visibile” e solo in alcuni rami appare questo dettaglio). Usando questa valutazione, l’algoritmo può potare i rami che sembrano allontanarsi dall’uscita e approfondire quelli promettenti. In ambito accademico, Yao et al. (2023) hanno dimostrato che Tree-of-Thoughts può risolvere puzzle e problemi di pianificazione che i normali LLM faticano a completare, evidenziando come questa tecnica renda l’AI più vicina a un problema solver generale deliberativo. Anche se attualmente è una frontiera sperimentale, illustra il potenziale delle future interfacce di prompt engineering: non solo chat o singole richieste, ma vere e proprie esplorazioni guidate delle capacità del modello.

Retrieval-Augmented Generation (RAG)

Cos’è e principi di base: La Retrieval-Augmented Generation (RAG) è una tecnica che combina i modelli generativi con sistemi di recupero di informazioni esterne per migliorare accuratezza e attualità delle risposte. In un flusso RAG tipico, alla domanda dell’utente l’AI effettua prima una ricerca in una base di conoscenza (database, documenti, web, ecc.) per recuperare i contenuti più pertinenti, e poi genera la risposta condizionata su quei contenuti. In altre parole, il modello non si affida solo alla conoscenza immagazzinata nei propri parametri, ma la integra con informazioni fresche o specifiche prelevate al momento. Questa tecnica può essere vista come un “open book approach” in cui il modello ha un libro aperto (la knowledge base) da cui può consultare i fatti prima di rispondere, invece di rispondere “a memoria”. RAG non è un singolo algoritmo ma un’architettura: tipicamente coinvolge un componente di retriever (spesso un motore di ricerca semantica o un indice vettoriale) e un componente di reader/generator (l’LLM) che utilizza i risultati della ricerca per formulare l’output.

Contesti di utilizzo efficaci: RAG è indicato praticamente ogni volta che:

  • Si richiedono informazioni fattuali aggiornate o di dominio specifico che il modello potrebbe non conoscere di suo. Ad esempio domande su eventi accaduti dopo la data di addestramento del modello (es: “Chi ha vinto l’Oscar come miglior film nel 2024?”), o domande molto specialistiche (es: “Qual è la formula chimica del tal farmaco presente nel database X?”).

  • Document QA: l’utente vuole interrogare una collezione di documenti (manuali, contratti, articoli scientifici). Un sistema RAG può cercare nei documenti rilevanti e poi rispondere citando le parti trovate.

  • Chatbot aziendali su conoscenza interna: per costruire un assistente che risponde su policy aziendali, schede prodotto, dati interni, è impensabile addestrare ex-novo un modello su quei dati (troppo costoso e rischioso). RAG consente di mantenere un corpus di documenti aziendali e far sì che l’AI li consulti al volo per rispondere ai dipendenti o clienti con riferimenti precisi.

  • Assistenza decisionale: in cui vogliamo che l’AI fornisca non solo un’opinione, ma anche le fonti. Esempio: “Mi consigli un investimento azionario?” – un assistente RAG potrebbe recuperare gli ultimi dati di mercato e notizie sulle aziende prima di elaborare una risposta, così da essere fondato su evidenze.

Vantaggi: Il RAG migliora significativamente l’accuratezza e l’affidabilità delle risposte, perché le ancora su fonti reali. Questo riduce le allucinazioni: invece di inventare, il modello può dire cose come “Secondo <documento X> …” riportando contenuti veritieri. Un grande vantaggio è la capacità di aggiornamento: la knowledge base può essere costantemente aggiornata (pensiamo alle notizie del giorno, o ai dati di vendita settimanali) senza dover ri-addestrare il modello AI. Ciò risolve uno dei limiti principali degli LLM statici, ossia la loro conoscenza ferma alla data di training. Inoltre, RAG consente trasparenza e verificabilità: spesso i sistemi RAG forniscono le fonti a corredo della risposta (ad esempio citazioni o link ai documenti da cui hanno tratto l’informazione). Questo è fondamentale per la fiducia: l’utente può controllare e confermare se la risposta è supportata da fonti autorevoli. Dal punto di vista pratico, RAG è efficiente: evita di dover ingurgitare nel prompt una mole enorme di contesto (si recupera solo ciò che serve) e scala meglio, perché si può aumentare il knowledge store senza appesantire il modello stesso. Infine, RAG diminuisce il bisogno di training continuo dell’LLM su nuovi dati: l’azienda può mantenere un repository delle informazioni e l’LLM rimane generale, interrogando quel repository. Ciò comporta benefici economici (meno fine-tuning) e anche di sicurezza: i dati sensibili rimangono nel database e non necessariamente dentro i pesi del modello, riducendo il rischio che l’AI li “trapeli” in output inappropriati.

Limiti: Un sistema RAG è più complesso di un modello standalone: bisogna avere un buon modulo di retrieval. Se la ricerca fallisce (ad esempio non trova i documenti giusti o recupera testi irrilevanti), la generazione sarà scadente. Quindi, la qualità delle risposte dipende fortemente dalla qualità dei dati e dell’indicizzazione. Inoltre, l’LLM deve essere capace di integrare bene le informazioni recuperate: c’è il rischio che ignori le fonti (specialmente se non opportunamente istruito) e dia comunque una risposta di fantasia, oppure che le usi male (ad esempio citando un fatto fuori contesto). Bisogna quindi affinare i prompt in modo che il modello “legga e utilizzi” effettivamente i documenti forniti. Un’altra sfida è gestire informazioni contraddittorie: se il retriever pesca documenti discordanti, il modello potrebbe confondersi o dover decidere quale è corretto – cosa non banale. Sul piano computazionale, c’è un overhead dovuto al retrieval (che può implicare ricerca full-text o vettoriale su larga scala) e alla necessità di inserire i testi trovati nel prompt di generazione (consumando token). Per knowledge base piccole è trascurabile, ma su scala web o di grandi dataset ciò richiede infrastrutture robuste (motori di ricerca interni, embedding semantici, ecc.). Dal punto di vista dell’utente, RAG introduce una dipendenza: serve mantenere aggiornata e di qualità la base di conoscenza, il che comporta un lavoro continuo (ad esempio upload di nuovi documenti, pulizia di quelli obsoleti). In sintesi, RAG sposta parte del problema dall’AI ai dati: “garbage in, garbage out” rimane vero – se i documenti sono sbagliati o mancanti, l’AI non potrà fare miracoli.

Esempio pratico: Un esempio comune è l’integrazione di GPT con Wikipedia. Immaginiamo una domanda: “Qual è la capitale più popolosa del mondo e qual è la sua popolazione?”. Un LLM standard potrebbe sapere che è Tokyo (metropoli) o Beijing a seconda di come interpreta, ma potrebbe confondersi o non avere dati precisi di popolazione. Un sistema RAG farebbe:

  1. Query di ricerca: estrarre le keyword “capitale più popolosa mondo popolazione” e cercare in Wikipedia (o in un indice apposito).

  2. Documenti recuperati: ad esempio la pagina “Tokyo” o una classifica di città per popolazione.

  3. Prompt generativo: fornire all’LLM un contesto tipo: “Usa le seguenti informazioni per rispondere: [estratto della pagina Tokyo con dati popolazione] [estratto pagina sulle megalopoli] Domanda: Qual è la capitale…?”.

  4. Risposta generata: “La capitale più popolosa del mondo è Tokyo, con una popolazione di circa 37 milioni di abitanti nella sua area metropolitana.” (L’AI include magari la citazione della fonte se configurato per farlo).

Notiamo che la risposta è ora grounded: l’AI non ha inventato il dato, l’ha preso dalla fonte. Ciò è verificabile e, salvo errore nella base, corretto. In questo caso RAG ha permesso al modello di superare un limite (i dati demografici esatti) recuperando l’informazione aggiornata. Sistemi come Bing Chat, il motore di ricerca di Bing con GPT-4, funzionano essenzialmente in questo modo: eseguono ricerche sul web e poi generano risposte combinando i risultati, citando le fonti. Anche in ambito enterprise, soluzioni di cognitive search e assistenti su documenti aziendali adottano RAG per garantire che l’AI dica cose supportate dai documenti forniti. In definitiva, RAG rappresenta un approccio pragmatico per unire la capacità generativa dei LLM con la precisione dei sistemi di ricerca, ottenendo il meglio da entrambi.

Ci sono prompt per tutto, ma non un prompt per tutti.

Le tecniche di prompt engineering, dal prompt chaining alle varianti zero-shot e few-shot, fino ai metodi di ragionamento avanzati come chain-of-thought, ReAct, self-consistency, tree-of-thoughts e all’integrazione con fonti esterne via RAG, mostrano che oggi abbiamo a disposizioen una sorta di cassetta degli attrezzi per ottenere il massimo dai modelli di intelligenza artificiale.

Ciascuna tecnica ha i propri punti di forza e i propri ambiti d’elezione, ma tutte condividono un principio fondamentale: guidare e strutturare l’interazione con l’AI in modo da allineare l’output agli obiettivi dell’utente. In un certo senso, il prompt engineering ci insegna che porre le giuste domande (e farlo nel modo giusto) è tanto importante quanto la potenza del modello stesso.

Dal punto di vista strategico, il ruolo del prompt engineering appare sempre più centrale per un’adozione consapevole dell’AI.

Senza tecniche adeguate, un modello generativo rischia di essere percepito come una “scatola magica” dalle risposte imprevedibili, il che ne limita la fiducia e l’utilità. Al contrario, approcci come il prompt chaining trasformano l’AI in un collaboratore logico, che segue processi trasparenti e verificabili, sui quali possiamo intervenire in itinere. Questo approccio aumenta la fiducia degli utenti e amplifica il valore dell’AI nell’operatività quotidiana, perché si passa da output grezzi a risultati più affidabili e raffinati.

In sostanza, il prompt engineering unisce il meglio del pensiero umano (analitico, strutturato, consapevole degli obiettivi) con la velocità e versatilità di calcolo dell’IA, offrendo il meglio di entrambi i mondi.

Per capitalizzare queste opportunità, diventa importante sviluppare nuove skill conversazionali e progettuali:

  • Conversazionali perché interagire con un’AI è un po’ come dialogare in un linguaggio speciale: saper formulare richieste precise, dare il giusto contesto, suddividere i problemi e persino “pensare” in termini utili per la macchina sono abilità da coltivare.
  • Progettuali perché occorre saper progettare i prompt e i flussi di prompt come si progettano soluzioni software: con logica, modularità, e attenzione all’utente finale. Figure professionali come il Prompt Engineer stanno emergendo proprio per colmare questo spazio, combinando competenze di linguistica, programmazione e design delle informazioni. Ma al di là dei ruoli dedicati (e considerato che non credo alle etichette) è auspicabile che un po’ tutti, dai manager ai creativi, sviluppino almeno in parte queste competenze.

L’adozione consapevole dell’AI significa infatti comprendere quando e come coinvolgere l’intelligenza artificiale nei processi decisionali e creativi, conoscendone i limiti (bias, allucinazioni, esigenze di contesto) e le potenzialità (velocità, capacità di sintesi, generazione di alternative). Il prompt engineering funge da interfaccia critica in questo rapporto uomo-macchina: è lo strumento che ci permette di tradurre gli obiettivi strategici in istruzioni operative per l’AI, e di incanalare l’output dell’AI in risultati di valore. Man mano che i modelli diverranno più potenti e diffusi, il prompt engineering evolverà di pari passo, potenzialmente automatizzando alcune parti (ad es. con sistemi che suggeriscono come formulare i prompt) ma richiedendo comunque una supervisione e una creatività umana nel definire problemi e interpretarne le soluzioni.

Investire del proprio tempo in sperimentazione di prompt e analisi, vuol dire investire in alfabetizzazione AI: imparare a “parlare” con le macchine intelligenti in modo efficace. Così come l’avvento dei computer ha reso importante saper programmare o utilizzare certi software, l’era dell’AI generativa renderà fondamentale saper orchestrare conversazioni e flussi con i modelli. Le aziende che svilupperanno per tempo queste capacità potranno sfruttare l’AI in modo più affidabile e innovativo, mentre gli individui che le coltiveranno diventeranno preziosi facilitatori tra tecnologia e business.

Guidare l’AI con consapevolezza e metodo è la chiave per integrarla come alleato nei nostri processi – un alleato veloce, instancabile e creativo, ma che necessita della giusta guida umana per dare il meglio di sé. In questo equilibrio di ruoli risiede il futuro di una collaborazione uomo-AI realmente efficace e fidata.

Prompt-Chaining: tagliare (il prompt) l’elefante a pezzi e ragionare per passi

Negli ultimi mesi ho seguito e condiviso con attenzione il lavoro di  Nicola Mattina, che attraverso l’implementazione del progetto #Serena (di cui vi parlerò ancora), sta esplorando in modo sperimentale continuo l’interazione uomo-macchina: il prompt chaining.

I suoi post, in particolare uno degli ultimi che riporto qui, mi hanno spinto a riflettere sul fatto che il prompt chaining non è solo una tecnica per “istruire meglio” l’AI, ma può diventare una vera e propria architettura cognitiva. Un modo per strutturare il pensiero delle (e con le) macchine, in modo simile a come strutturiamo il nostro.

Da questo spunto nascono le seguenti righe che condivido qui sotto, ad integrazione del lavoro di Nicola, ossia una breve riflessione sulle potenzialità del prompt chaining, in particolare nella progettazione di contenuti educativi, ma con uno sguardo più ampio su cosa può rappresentare per chi, come molti di noi, lavora con strumenti generativi in contesti strategici o formativi.

Prima di tutto cos’è il Prompt Chaining

In parole semplici, prompt chaining significa collegare insieme più prompt in sequenza, facendo sì che l’output di un prompt diventi l’input del successivo . Invece di chiedere a un modello linguistico di svolgere un compito complesso tutto in una volta, lo si scompone in passi più piccoli e gestibili, rendendo più efficiente l’elaborazione, l’accuratezza ed il consumo sottostante che viene impiegato per elaborare la richiesta.

Per capirci, come succederebbe nella relazione umana, invece di dire ad un copywriter “Scrivimi l’articolo sull’AI” creando la condizione per cui l’interlocutore deve decidere a cosa dare priorità, su quali argomenti soffermarsi e ottimizzare il tempo a disposizione, si chiede qualcosa di più specifico, più nel dettaglio, progressivamente sempre più in profondità, raffinando il concetto.

Ogni prompt nella catena dei prompt si concentra su un sotto-compito specifico, mantenendo il contesto e guidando il modello passo dopo passo . Questo processo iterativo permette all’AI di affrontare compiti complessi in modo più efficace, migliorando accuratezza e coerenza delle risposte .

“Eh, ma Chat è stupido…”

Quando mi sento dire “Eh ma Chat è stupido, mi risponde con testi banali“, spesso rispondo che è normale perchè cosicome esistono principi di LIFO, FIFO e via dicendo, nell’ai più che mai esiste anche il MIMO ossia Merd-In Merd-Out (o come direbbero i fighi Shit-in Shit Out).

Se chiediamo all’AI di scrivere un intero report in un solo prompt, otterremo con molta probabilità un risultato superficiale, disorganizzato o incoerente. Perché? Perché il modello deve fare tutto in una volta sola: strutturare, scrivere, sintetizzare, scegliere priorità, tono e contenuti, senza una guida chiara. È come chiedere a qualcuno di cucinare una cena gourmet mentre corre una maratona. Serve ordine, energia e tempo – ma se tutto viene concentrato in un colpo solo, il risultato ne risente.

Con il prompt chaining, invece, possiamo scomporre il compito in step successivi. Prima chiediamo un elenco dei punti chiave, poi sviluppiamo ciascun punto in un paragrafo, infine rivediamo e affiniamo il testo. Ogni fase prepara la successiva, mantenendo un filo logico chiaro. Questo approccio non solo aiuta l’IA a produrre contenuti migliori, ma ottimizza anche il modo in cui consuma le sue risorse.

Ogni interazione con un modello AI, infatti, utilizza dei token: piccole unità che rappresentano parole, punteggiatura e spazi. Ogni prompt e ogni risposta consumano token, e ogni modello ha un limite massimo oltre il quale inizia a “dimenticare” o a perdere contesto: è la cosiddetta finestra di contesto. Se proviamo a incastrare troppa roba in un solo prompt, superiamo questo limite e il modello rischia di produrre un risultato povero o scollegato.

Qui si nota una differenza concreta tra chi usa la versione Free di ChatGPT (basata su GPT-3.5, con un limite di circa 4.000 token, cioè poche pagine di testo complessivo) e chi ha attivato la versione Plus, che usa GPT-4-turbo, in grado di gestire fino a 128.000 token – l’equivalente di un libro intero. Con GPT-4, quindi, possiamo costruire catene di prompt molto più lunghe, mantenendo la coerenza del discorso e una memoria estesa.

È come viaggiare con un’auto che ha un serbatoio piccolo (GPT-3.5) o con una che può contenere molta più benzina (GPT-4): entrambe ti portano a destinazione, ma nel primo caso dovrai fermarti spesso e ridurre il carico, nel secondo puoi affrontare tragitti più lunghi, con meno compromessi e migliori prestazioni.

Oltre l’ingegneria dei prompt

Il prompt chaining non è solo un modo “furbo” di scrivere prompt, ma si avvicina a una forma di architettura cognitiva. In pratica stiamo progettando la struttura del ragionamento dell’IA. Come un architetto progetta l’organizzazione di un edificio, chi utilizza il prompt chaining progetta come l’IA suddivide e affronta un problema. Ricorda il modo in cui noi umani affrontiamo compiti complessi: li dividiamo in step, li risolviamo uno per uno, e infine uniamo tutto. Allo stesso modo, il chaining fa sì che il modello di AI “pensi ad alta voce” attraverso passaggi intermedi, mimando un processo cognitivo umano .

Non a caso, ricercatori e sviluppatori vedono queste catene di prompt come elementi di agenti AI più evoluti. In diversi studi e articoli si nota che aggiungere flussi di controllo interni come il prompt chaining ai modelli linguistici porta a una nuova generazione di “agenti” IA, capaci di ragionare e interagire in modo più strutturato . In altre parole, concatenare prompt è un modo per orchestrare la cognizione dell’AI: stiamo dando al modello un percorso da seguire, un po’ come una scaletta mentale. Questo approccio apre le porte a sistemi AI più affidabili e “pensanti”, anziché limitarsi a mere scatole nere che sputano fuori una risposta senza farci capire il come e il perché.

Scomporre i problemi per soluzioni migliori

“Perché spezzettare un compito aiuta l’AI a produrre risultati migliori?” mi chiedono spesso in aula. I motivi sono intuitivi. Innanzitutto, ogni parte del problema riceve attenzione dedicata: affrontando un passo alla volta, il modello può dedicare più risorse cognitive a ciascun aspetto, senza essere sopraffatto dalla complessità generale . Questo porta a risposte più complete e approfondite su ogni sotto-tema, migliorandone la qualità complessiva .

In secondo luogo, il prompt chaining aumenta la coerenza e il mantenimento del contesto: ogni prompt successivo eredita le informazioni dai precedenti, evitando che l’AI “dimentichi” dettagli importanti lungo il percorso . Questo è cruciale, ad esempio, quando si crea una narrazione o un progetto articolato, perché garantisce che tutte le parti “parlino la stessa lingua” e si integrino bene.

Un altro vantaggio è la maggiore trasparenza del ragionamento. Richiedendo all’AI di mostrare passo dopo passo il processo (ad esempio elencando ragionamenti o calcoli intermedi), diventa più facile per noi umani seguire il filo logico e capire come si è arrivati a una certa conclusione. Questa tracciabilità (tema che affronterò in modo dedicato in un altro post) non solo aumenta la fiducia nell’output — possiamo vedere perché l’AI suggerisce X invece di Y — ma ci consente anche di individuare eventuali errori logici in itinere.

Infatti, suddividendo il problema, possiamo correggere il tiro a metà strada se notiamo che l’AI sta deviando: il chaining facilita l’isolamento di quale passo ha generato un errore, semplificando interventi e debug. È lo stesso principio su cui si basano i nuovi modelli di AI avanzati, come GPT-4 o Claude Opus, che stanno iniziando a integrare forme esplicite di reasoning interno, strutturato in catene di pensiero (chain-of-thought reasoning), per spiegare le decisioni che prendono. Il prompt chaining è oggi uno strumento manuale per ottenere ciò che i modelli di domani inizieranno a fare da soli: pensare per passaggi visibili e controllabili (e quindi revisionabili).

Infine, questo approccio metodologico aiuta a mitigare i limiti pratici dei modelli. I modelli linguistici hanno una finestra di contesto limitata (una quantità massima di testo che possono gestire alla volta); fornire tutte le istruzioni in un unico prompt lungo può essere inefficace o impossibile. Con una catena di prompt, in sinstesi, si alimenta gradualmente l’informazione restando nei limiti, senza perdere il contesto e allo stesso tempo, si riduce il rischio di allucinazioni fuori tema, mantenendo il modello concentrato su un sub-compito alla volta e reintegrando il contesto ad ogni passo.

Praticamente in questo modo abbiamo una AI sempre “sul pezzo” e le facciamo evitare divagazioni fantasiose.

Progettare un corso con l’AI passo dopo passo

Per rendere concreto tutto questo, immaginiamo di utilizzare il prompt chaining per un compito manageriale comune: progettare un corso di formazione o creare contenuti didattici strutturati.

Invece di chiedere subito all’AI “Scrivi il programma dettagliato di un corso su X”, potremmo procedere per fasi:

  1. Definire l’obiettivo e il pubblico: In un primo prompt, chiediamo al modello di delineare gli obiettivi formativi del corso X e di identificare il pubblico target (es. principianti, livello avanzato, ecc.). Questo stabilisce il contesto e la direzione generale.

  2. Creare un elenco di moduli/lezioni: Con gli obiettivi chiari, un secondo prompt potrebbe chiedere una struttura a moduli o lezioni chiave del corso. L’AI proporrà, ad esempio, 5-10 moduli tematici in sequenza logica.

  3. Dettagliare i contenuti di ciascun modulo: Per ogni modulo individuato, possiamo generare a catena un ulteriore prompt che ne chiede i dettagli: concetti da coprire, esempi pratici, esercitazioni o casi di studio da includere.

  4. Sviluppare materiali o approfondimenti: Una volta approvata la struttura, ulteriori prompt possono concentrarsi sulla creazione di contenuti specifici – ad esempio, “Genera una dispensa introduttiva per il Modulo 1” o “Suggerisci 3 domande quiz per verificare l’apprendimento nel Modulo 2”. Così, gradualmente, si popola l’intero corso.

  5. Revisione e rifinitura: Infine, si può usare un prompt conclusivo per fare un check generale, ad esempio “Rivedi il syllabus completo del corso e verifica che il linguaggio sia adatto a [pubblico target] e coerente in tutti i moduli”. Oppure chiedere un riepilogo executive da presentare al team.

Ad ogni passo, l’output dell’AI alimenta il passo successivo. Il risultato finale è molto più ricco e strutturato di quello ottenibile con un singolo prompt generico. Chi ha sperimentato questo approccio nota che “pensare in catene, anziché tentare il colpo grosso con un solo prompt di quelli da fanta-guru-brillante, ha segnato un punto di svolta e ha raggiunto un goal in modo più preciso” . In altre parole, il prompt chaining aiuta l’AI a seguire un filo logico simile a come lo seguirebbe un istruttore umano, con il vantaggio di poter generare rapidamente contenuti per ogni punto del programma.

Questo approccio non è utile solo per corsi ovviamete: qualunque progetto che richieda output complessi e ben organizzati (dai piani strategici, alla stesura di rapporti articolati, fino alla ricerca di mercato) può trarre beneficio da una suddivisione in prompt sequenziali. Il bello è che il controllo rimane all’utente umano: possiamo intervenire tra uno step e l’altro, aggiustare il tiro o inserire input aggiuntivi, guidando l’IA come faremmo con un collaboratore umano.

Ma non è lo stesso che chiedere “approfondisci”?

Una domanda legittima è: “Ma non è la stessa cosa di quando scrivo un prompt generico e poi chiedo all’AI di approfondire o usare Deep Research”. La risposta è no, non è la stessa cosa — né per approccio, né per controllo, né per qualità del ragionamento.

Quando chiediamo a un’AI “approfondisci questo punto” o “fammi un elenco di motivi”, stiamo delegando completamente al modello la scelta di cosa approfondire, in che ordine e con quale criterio. L’AI fa del suo meglio in base al contesto ricevuto, ma decide lei come interpretare la richiesta e cosa restituire. È un approccio reattivo, utile ma passivo.

Nel prompt chaining, invece, è l’utente a guidare attivamente e intenzionalmente il processo: decide in anticipo i passi, li struttura in modo progressivo e ne controlla coerenza e profondità. Ogni sotto-domanda è pensata come parte di un flusso, e l’output di ciascun passaggio è validato prima di passare al successivo. In altre parole, il chaining costruisce un ragionamento architettato, mentre l’approccio a “prompt singolo + follow-up” si limita a inseguire l’output, senza reale regia.

Questo è il punto di contatto e insieme di differenziazione rispetto ai nuovi modelli con reasoning interno automatizzato, che iniziano a generare da soli le domande intermedie, gli step di verifica o gli scratchpad (una specie di taccuino mentale in cui “annotano” i passaggi logici). In quel caso l’AI sta simulando un flusso cognitivo autonomo, ma resta comunque opaco all’utente se non viene esplicitato. Il prompt chaining, invece, porta alla luce il processo, lo rende trasparente, ispezionabile e — cosa non da poco — intervenibile.

Chiedere “approfondisci” è come affidare un tema all’AI e sperare che interpreti bene la traccia. Il prompt chaining è come costruire insieme all’AI una scaletta, definire ogni paragrafo e correggere lungo il percorso. È la differenza tra reattività e progettualità.

Strumenti e casi emergenti

Il concetto di prompt chaining si è diffuso così rapidamente che sono nati strumenti e framework dedicati. La libreria open-source LangChain ne è un esempio e permette agli sviluppatori di creare facilmente pipeline di prompt collegate, integrando anche memoria esterna e chiamate a strumenti, per costruire agenti AI sofisticati. Esistono anche altre piattaforme più user friendly come Voiceflow e altre soluzioni no-code che offrono interfacce visuali per orchestrare conversazioni multi-turno e flussi di prompt, così che anche chi non programma possa progettare l’interazione step-by-step.

All’inizio del boom di ChatGPT, alcuni esperimenti come AutoGPT hanno mostrato il potenziale di un’AI che autonomamente insegue un obiettivo tramite una sequenza di azioni e sottocompiti. In pratica AutoGPT crea i propri prompt in catena per raggiungere un fine assegnato, simulando un agente quasi “autonomo”. Questi esempi, seppur embrionali, dimostrano la potenza dell’idea: spezzando i problemi e pianificando i passi, l’AI può affrontare anche compiti molto articolati. Non sorprende che aziende come OpenAI, Microsoft e altri stiano investendo in queste direzioni, integrando meccanismi di chaining e ragionamento nei loro sistemi .

Stiamo assistendo ai primi passi di una nuova orchestrazione cognitiva, dove l’intelligenza artificiale non è più vincolata a rispondere istantaneamente a un singolo prompt, ma può elaborare un piano d’azione interno prima di fornire la soluzione. Questo è un cambio di prospettiva entusiasmante, perché avvicina l’operato dell’AI a un processo decisionale più umano e strategico.

Perché oggi tutti dovrebbero interessarsene?

Da un punto di vista manageriale e business, il prompt chaining offre risultati più affidabili e raffinati dalle AI, il che può tradursi in decisioni migliori e contenuti di qualità superiore. Ad esempio, nei team di L&D (Learning & Development) o di content marketing, utilizzare l’AI in modalità “a catena” permette di sviluppare corsi, tutorial, documentazione o white paper in maniera organizzata e coerente, riducendo il lavoro di editing successivo. Si passa da un’AI percepita come scatola magica imprevedibile a un’AI vista come collaboratore logico: un assistente che segue un processo, su cui possiamo intervenire in itinere. Ciò aumenta la fiducia nell’utilizzo e ne amplifica il valore nell’operatività quotidiana.

La trasparenza fornita dai passi intermedi è preziosa per la governance dell’AI in azienda: poter spiegare come una macchina ha elaborato un output (grazie ai ragionamenti esposti nella chain) può essere fondamentale per conformità, auditing o semplicemente per convincere gli stakeholder dell’affidabilità di una soluzione AI. In ambito educativo o formativo, come già notato, l’approccio step-by-step “alla insegnante” migliora l’attenzione ai dettagli e l’efficacia pedagogica . Insomma, il prompt chaining unisce il pensiero analitico umano con la velocità di calcolo dell’IA, offrendo il meglio di entrambi i mondi.

Verso un futuro di AI più “umana”

Il prompt chaining rappresenta uno step avanti: da semplici richieste isolate a una collaborazione più strutturata uomo-macchina. Questa metodologia deve farci notare che l’AI può (e deve) essere guidata a pensare per passi, e che spesso la chiave per risultati straordinari sta nel porre le giuste domande nell’ordine giusto. È un campo in rapido sviluppo, con implicazioni che vanno oltre la tecnologia e toccano l’organizzazione del lavoro e la progettazione di conoscenza.

Oltre l’efficienza: l’AI generativa e la trasformazione del lavoro quotidiano

Ogni giorno che passa, vedo l’Intelligenza Artificiale generativa insinuarsi sempre più nelle attività professionali quotidiane. Non si tratta solo di aumentare l’efficienza, ma di ridefinire il modo in cui apprendiamo, progettiamo e prendiamo decisioni. Da imprenditore (e consulente negli ultimi anni su questi temi), ho imparato che l’AI non è una bacchetta magica calata dall’alto: è uno strumento potente da comprendere a fondo e da sfruttare in modo pragmatico.

Che l’adozione dell’AI generativa stia rivoluzionando il lavoro non c’è dubbio, ma dobbiamo sfatare alcuni miti e abbracciare un approccio sperimentale basato sui dati. La collaborazione tra uomo e macchina evolve, ed è importante capire quali impatti trasformativi attendono i modelli di business e le organizzazioni, dalla personalizzazione dei servizi ai nuovi ruoli professionali, fino al modo in cui una organizzazione rivedrà modello completamente i modelli organizzativi e l”integrazione di “competenze specifiche” agentive.

Nuovi modi di imparare, creare e decidere oltre l’efficienza

L’adozione dell’AI generativa sta già andando oltre il semplice risparmio di tempo: sta aprendo nuove modalità di apprendimento, di creatività progettuale e di decision-making informato. Qui di seguito, anche in vista di un workshop che ho settimana prossima, ho buttato giù alcuni esempi quotidiani di come questi strumenti stiano cambiando il nostro modo di lavorare:

  1. Apprendimento e ricerca dinamica: professionisti di ogni settore usano chatbot avanzati come fossero tutor personali o ricercatori instancabili. È possibile approfondire argomenti complessi dialogando con modelli tipo ChatGPT, Perplexity o Claude, che sintetizzano informazioni dal web e dai documenti. Se voglio capire per esempio un caso studio di business o le vicende di un personaggio citato in un talk ispirazionale, posso interrogarne l’AI integrata nella ricerca Internet e ottenere risposte contestuali e approfondite. Questo approccio interattivo all’apprendimento sta sostituendo molte ricerche tradizionali: si pone una domanda, si ottiene una spiegazione, poi si chiedono chiarimenti e dettagli aggiuntivi, in un ciclo rapido di domande-risposte. Immaginiamo un giovane manager che vuole approfondire tecniche di leadership situazionale: con un’AI generativa può esplorare concetti psicologici e consigli pratici in una conversazione, anziché leggere decine di articoli separati. Il sapere diventa più accessibile e personalizzato.

  2. Creatività e progettazione aumentata: designer, architetti, marketer innovativi sfruttano l’AI per generare bozze, schemi e prototipi in pochi istanti. Esistono modelli text-to-image come lo stesso ChatGpt, DALL-E o Midjourney o tanti altri che, fornito un concept, producono visualizzazioni e schizzi utili a ispirare il lavoro creativo. Un designer di prodotto chiede all’AI di immaginare varianti di un concept e ottenere in output immagini o diagrammi da affinare. Allo stesso modo, un team di innovazione può usare l’AI per brainstorming: generare idee di nuovi servizi o campagne marketing a partire da pochi spunti testuali. Questo non significa delegare del tutto la creatività alla macchina, ma ampliare la portata dell’ingegno umano: l’AI fornisce suggerimenti grezzi, l’esperto umano li seleziona e sviluppa quelli vincenti. Si abilitano così processi di progettazione iterativi più rapidi, dove l’umano e l’AI giocano di sponda per arrivare a soluzioni originali.

  3. Comunicazione e linguaggio assistito: nella scrittura professionale l’AI è divenuta, come era ovvio, un’alleata preziosa. Non tanto per scrivere testi interamente al posto nostro (il valore autentico di una voce umana resta fondamentale nel content marketing e nella comunicazione aziendale), bensì come “editor aumentato”. Strumenti come ChatGPT vengono usati per revisionare bozze, ridurre ambiguità e ottimizzare toni e stili. Un imprenditore può ad esempio farsi aiutare dall’AI a controllare se una mail importante risulta chiara e persuasiva, puntuale e priva di bias, chiedendo al modello di evidenziare possibili fraintendimenti o migliorare certe frasi. Allo stesso tempo, le AI generative eccellono nella traduzione contestuale: in azienda ormai si preferisce spesso dare in pasto un paragrafo all’AI chiedendo “come posso esprimere questo concetto in inglese in modo efficace?”, ottenendo traduzioni/adattamenti su misura, spesso migliori dei vecchi traduttori automatici. La capacità di comunicare migliora perché abbiamo un feedback istantaneo e intelligente su tutto ciò che scriviamo, in qualsiasi lingua.

  4. Automazione di task tecnici e ripetitivi: questo è uno dei punti sul tema della produttività che personalmente sto vedendo come enorme beneficio. L’AI generativa sta alleggerendo il carico di lavoro su molti compiti ripetibili o tecnici, permettendo di concentrarsi su attività più strategiche. Un esempio lampante è il coding assistito: sviluppatori software usano strumenti come GitHub Copilot o ChatGPT per generare porzioni di codice, debuggare errori o configurare ambienti, riducendo il tempo speso in ricerche su StackOverflow (non a caso il traffico su forum tradizionali sta calando, segno che molti preferiscono chiedere direttamente all’AI). Questo non elimina la figura del programmatore, ma la potenzia: problemi ostici – ad esempio risolvere un conflitto di dipendenze in un progetto – possono essere inquadrati dall’AI che propone soluzioni, mentre lo sviluppatore mantiene il controllo verificando e integrando il codice suggerito. Altre forme di automazione quotidiana includono la generazione di report, di gestione di dati attraverso strumenti misti di marketing automation ed ai, o ancora slide (per quanto personalmente sia un esteta delle slide fatte a mano): oggi un chiunque può chiedere a un’AI di riassumere dati di vendita in un briefing o persino di creare la bozza di una presentazione, svolgendo in minuti lavori preparatori che avrebbero richiesto ore. Queste automazioni selettive liberano tempo umano prezioso, trasformando l’approccio al lavoro: meno micro-attività manuali, più supervisione e creatività.

  5. Analisi e decision-making data-driven: altro tema che a mio avviso è anche troppo sottovalutato, con l’AI diventano più accessibili anche analisi complesse su dati e scenari decisionali. Strumenti di generative AI addestrati su dati numerici possono esplorare dataset, trovare trend e presentare risultati in linguaggio naturale. Un analista di mercato può interrogare un modello per confrontare le performance di diverse strategie, oppure un appassionato di finanza personale può farsi riassumere dall’AI i bilanci di un’azienda prima di decidere un investimento, o analizzare la distribuzione di un investimento o la riallocazione. Nel mio caso, ho usato più volte Claude (e altri strumenti) per confrontare benchmark, analizzare prodotti, confrontare titoli, o fare ricerche e confronti su tariffe, usando vari prompt iterativi. Certo, serve occhio critico – l’AI a volte commette imprecisioni – ma usata con attenzione diventa un assistente per prendere decisioni più informate e più rapidamente. Molte aziende stanno iniziando a comprenderne il potenziale impatto: integrazioni di AI nei fogli di calcolo e nei BI tools consentiranno sempre più a manager di porre domande in linguaggio naturale (“Quali prodotti hanno avuto la crescita più alta quest’anno e perché?”) ottenendo insight immediati, senza dover attendere lunghe analisi manuali dei data analyst.

Questi casi d’uso, per quanto semplici, dimostrano che l’AI generativa sta rimodellando le nostre abitudini professionali. Non è solo questione di fare più in fretta ciò che già facevamo: spesso permette di fare cose che prima non erano fattibili, o di approcciare i problemi da angolazioni completamente nuove.

Va anche sottolineato che esiste un intero ecosistema di strumenti a supporto di questi nuovi modi di lavorare. Oggi abbiamo AI specializzate per quasi ogni esigenza: modelli di linguaggio generali come ChatGPT di OpenAI (e le sue alternative come Claude di Anthropic, Gemini di Google, o gli assistenti integrati nei motori di ricerca) dominano nella generazione di testi e conoscenza generale .

Per la creatività visiva ci si rivolge a generatori di immagini come Midjourney, DALL-E, Stable Diffusion, o strumenti come Ideogram specializzati in grafica. Nel campo dello sviluppo software proliferano i copilota di programmazione, addestrati su repository di codice, pronti a suggerire soluzioni in ambienti come Visual Studio Code, Cursor e altri. Non manca l’offerta di soluzioni “on premise” per i più esperti: dalle librerie open-source (basate su modelli open come Llama 2) a piattaforme come Ollama che consentono di eseguire LLM locali con modelli distillati.

Non esiste AI per tutto, ma esistono AI per tutto: ma una cassetta degli attrezzi variegata. Un professionista lungimirante oggi combina strumenti diversi a seconda del caso, invece di cercare la soluzione magica universale. E non solo li combina ma li usa, nel modo e tempo corretto, senza innamoramento, passando allo strumento che successivamente darà la miglior resa. Insomma sperimenta.

Dal mito dell’AI “magica” ad un approccio pragmatico e sperimentale

Nonostante questi progressi tangibili, attorno all’Intelligenza Artificiale aleggia ancora una narrazione “magica” e sensazionalistica. Quante volte post di vario genere hanno titolato in modo strillato su AI quasi onniscienti destinate a rimpiazzare l’uomo in un baleno, oppure su catastrofi imminenti degne di fantascienza? Questo mito dell’AI come entità quasi mistica è alimentato sia da hype mediativo sia da timori irrazionali. Ma in qualità di innovatori e ricercatori attivi dobbiamo andare oltre il mito e guardare le cose come stanno: l’AI non è stregoneria, è tecnologia fallibile ma migliorabile.

Adottare un approccio pragmatico significa sporcarsi le mani con gli strumenti, provarli sul campo, misurarne i risultati. Invece di aspettarci miracoli da un algoritmo sconosciuto, dobbiamo capire come funziona, quali dati richiede, quali sono i suoi punti deboli. Chiunque si sia occupato di innovazione e tecnologia sa che ogni nuova tecnologia attraversa una fase di maturazione: l’AI generativa di oggi è potentissima rispetto a pochi anni fa, ma presenta ancora limitazioni (dall’invenzione di fatti inesatti, al bias se i dati di addestramento sono distorti, fino ai costi computazionali non trascurabili). Senza una comprensione concreta di questi aspetti, rischiamo sia di sovrastimare sia di sottostimare l’AI.

Un esempio pratico? Pensiamo all’analisi dati con l’AI citata prima: per arrivare a un risultato affidabile ho dovuto iterare più volte il prompting, ripulendo anomalie e verificando l’output step by step. Non è stato affatto un processo “premi il bottone e magia fatta”; al contrario, ha richiesto spirito sperimentale, capacità critica e adattamento continuo, quasi fosse un dialogo con un giovane analista da istruire e correggere. Questo rispecchia un principio chiave: la GenAI va guidata dall’intelligenza umana. Chi la dipinge come una black box infallibile commette un errore tanto quanto chi la liquida come gioco inutile.

Fortunatamente, iniziano a diffondersi dati e studi che smontano la narrazione magica per restituirci un quadro più realistico. Anthropic ha analizzato milioni di conversazioni utente per capire in quali ambiti la gente utilizza davvero l’AI. Ne è emerso che l’uso effettivo dell’AI si concentra su compiti molto “terra-terra”, con una forte prevalenza di attività come programmazione e scrittura (insieme quasi la metà degli utilizzi ). Altro che scenari fantascientifici… le persone sfruttano l’AI dove serve concretamente, oggi, nel risolvere problemi quotidiani di lavoro. Inoltre, dallo stesso studio arriva un dato a mio avviso illuminante: nel 57% dei casi l’AI è usata per collaborare a un’attività umana, mentre solo nel 43% è delegata ad automatizzare un compito intero . Questo sfata l’illusione di massa di un’AI che lavora in autonomia totale: nella maggior parte degli scenari reali è un partner, non un sostituto completo.

Alla luce di questi elementi, il messaggio è chiaro: per abbracciare davvero l’AI occorre togliersi gli occhiali dell’illusione e adottare un approccio pratico, data-driven. Significa incoraggiare nelle aziende la sperimentazione controllata:

Piccoli progetti pilota per valutare l’impatto degli strumenti AI in specifiche aree, raccolta di metriche di performance, confronto dei risultati con i metodi tradizionali.

Solo così si costruisce una conoscenza solida su cosa funziona e cosa no. Per fare un parallelo, è come passare dall’alchimia alla chimica: meno incantesimi, più metodo scientifico.

Un imprenditore con background tecnico (e ne so qualcosa) sa bene che il valore di una tecnologia si misura sul campo. Se voglio introdurre un assistente AI nel servizio clienti, non mi fido di slide mirabolanti ma faccio un test su una piccola percentuale di chiamate, osservo come reagiscono i clienti, quantifico i tempi di risoluzione e la soddisfazione. Posso così iterare e migliorare il sistema, magari scoprendo che va bene per rispondere a FAQ semplici ma deve passare la mano a un umano per i casi complessi. Questo è un approccio sperimentale e iterativo, diametralmente opposto all’adozione “magica” dove ci si aspetta che la sola implementazione di un’AI porti risultati miracolosi.

Dobbiamo demistificare l’AI, credo sia fondamentale. Riconoscerne le capacità straordinarie ma anche i limiti attuali, e soprattutto capire che il fattore critico di successo risiede nell’uso che ne facciamo. L’AI non sostituisce la visione strategica, i dati solidi e la competenza umana – li amplifica, se usata con giudizio. Chi adotta questa mentalità pragmatica riuscirà a capitalizzare davvero sull’AI generativa, evitando sia le delusioni da aspettative irrealistiche sia il rischio di rimanere indietro ignorando una rivoluzione in atto.

Lavoro aumentato: collaborazione uomo-AI e competenze ibride

Uno degli aspetti più affascinanti ed intriganti dell’AI generativa e di questo momento storico è come sta ridefinendo il rapporto tra tecnologia e lavoro umano. Non stiamo assistendo a un semplice processo di sostituzione automatica, bensì alla nascita di un modello collaborativo uomo-macchina. Si parla spesso di augmented intelligence: l’intelligenza aumentata dove il risultato finale è dato dalla somma delle capacità umane e artificiali.

Abbiamo già visto che in oltre la metà dei casi d’uso l’AI affianca l’uomo anziché agire in autonomia . Questo si traduce in scenari quotidiani molto concreti. Un copywriter oggi lavora fianco a fianco con l’AI: lascia che il modello generi una prima bozza di testo o qualche idea creativa, poi interviene con il suo tocco umano per aggiustare tono, accuratezza e intuito narrativo. Il risultato finale è spesso migliore (e ottenuto più velocemente) di quello che avrebbe potuto fare l’AI da sola o il copywriter da solo. Allo stesso modo un medico radiologo può utilizzare un algoritmo di visione artificiale per evidenziare possibili anomalie in una lastra: l’AI segnala zone sospette, il medico le passa in rassegna una per una applicando la propria esperienza clinica prima di dare la diagnosi definitiva. Due teste – una silicea e una umana – lavorano meglio di una.

Questa collaborazione aumentata richiede però nuove competenze ibride. In passato, ciascun professionista si specializzava nel proprio dominio (il marketer nelle campagne, l’avvocato nei contratti, l’ingegnere nel progetto, etc.), interagendo con strumenti relativamente statici. Oggi invece diventa cruciale saper dialogare con l’AI, guidarla e controllarne i risultati. È la famosa abilità del prompting: formulare le richieste alla macchina nel modo giusto per ottenere output utili. Ma non solo. Servono capacità di valutazione critica dei risultati generati: il professionista deve saper individuare errori o incongruenze nell’output dell’AI (che spesso si presenta con tono sicuro anche quando sbaglia) e correggerli grazie alla propria expertise. In pratica la competenza tecnica si fonde con quella settoriale: nasce il marketer-prompt engineer, l’analista finanziario che padroneggia i modelli predittivi, l’avvocato che conosce i limiti dell’AI nel processing del linguaggio giuridico e la usa per le prime stesure.

Le competenze ibride stanno diventando così importanti che molte aziende le ricercano attivamente. In fase di assunzione già oggi si valuta non solo l’esperienza tradizionale, ma anche l’“AI aptitude” del candidato, ovvero la sua capacità di lavorare efficacemente con strumenti di intelligenza artificiale. In una ricerca Microsoft/LinkedIn, i manager hanno dichiarato che la padronanza dell’AI potrebbe presto pesare quanto gli anni di esperienza nel curriculum . È un cambiamento notevole nei criteri di selezione: chi ha intuito e familiarità nel farsi aiutare dall’AI parte avvantaggiato, perché potenzialmente più produttivo e adattabile alle nuove sfide.

D’altronde, stiamo vedendo emergere ruoli professionali prima impensabili proprio a cavallo tra competenze umane e AI. Il Prompt Engineer è l’esempio più citato, seppur a mio avviso non sarà una figura professionale ma una skill necessaria per molte professionalità (se non tutte) così come saper elaborare prompt e istruzioni per ottenere il meglio dai modelli generativi, soprattutto in contesti dove serve alta precisione. Ci sono poi il Model Trainer o AI Specialist, che all’interno di un’azienda si occupano di istruire i modelli sui dati proprietari e di definire come integrarli nei processi. Anche ruoli classici si stanno evolvendo: l’analista dati diventa AI data analyst quando lavora in tandem con algoritmi di Machine Learning; il designer UX inizia a considerare non solo l’esperienza utente tradizionale ma anche l’interazione uomo-AI; il responsabile del customer service diventa un orchestratore di team ibridi composti da operatori umani e chatbot AI.

È importante notare che l’automazione non avanza in blocco, ma in modo selettivo. I compiti ripetitivi e standardizzati sono i primi candidati a essere delegati interamente alle macchine (ad esempio la classificazione automatica di email, l’instradamento di chiamate, la verifica iniziale di dati). Altri compiti invece rimarranno saldamente in mano umana, magari supportati dall’AI: sono quelli che richiedono creatività, empatia, pensiero critico e contestualizzazione profonda. Questo equilibrio automazione vs intervento umano va calibrato con attenzione. Le aziende più avanti nel processo di ragionamento su questi temi oggi non cercano di rimpiazzare indiscriminatamente i lavoratori con l’AI, bensì di ridisegnare i flussi di lavoro in modo che ogni attività sia svolta dal “cervello” – biologico o artificiale – più adatto. Ne risulta una sorta di automazione aumentata: la macchina fa il grosso in alcuni step, l’uomo supervisiona e aggiunge valore in altri. Uno studio legale può utilizzare  l’AI per compilare una prima bozza di contratto standard raccogliendo clausole da template esistenti, e un avvocato controllerà ogni riga e adatterà le parti delicate alle specificità del cliente.

Per prepararsi a questo futuro del lavoro aumentato, investire nelle competenze ibride del personale è fondamentale. Formazione continua sull’AI per tutti i livelli (dai neolaureati ai dirigenti) è la parola d’ordine nelle organizzazioni vincenti. Non serve che tutti diventino data scientist, ma ciascuno deve essere messo in grado di capire le potenzialità e i limiti delle AI nel proprio ambito, e di collaborarci proficuamente. Chi lo fa godrà di un aumento di produttività significativo: non a caso, un recente Work Trend Index ha rilevato che ben 75% dei knowledge worker globali già utilizza strumenti di AI nel proprio lavoro , segno che chi ha queste skill non aspetta permessi ma abbraccia subito l’aiuto tecnologico.

Per gli altri c’è il rischio di rimanere tagliati fuori: “l’AI non ti rimpiazzerà, ma un professionista che usa l’AI potrebbe farlo” è diventato un mantra che suona ormai in ogni settore.

Business model e organizzazione: evoluzione sotto la spinta dell’AI

L’impatto dell’AI generativa non si ferma alle singole attività: investe la struttura stessa dei modelli di business e delle organizzazioni aziendali. Ci troviamo di fronte a cambiamenti che vanno dal modo in cui gestiamo la conoscenza interna, alle scelte strategiche sui prodotti e servizi, fino ai nuovi ruoli professionali e ai principi di governance da adottare. In sostanza, le aziende stanno ripensando se stesse per allinearsi al potenziale trasformativo dell’AI.

Dal knowledge management alla governance data-driven

Ogni impresa è, in fondo, una rete di conoscenze e processi decisionali. Oggi, grazie all’AI, stiamo assistendo a un salto di qualità nel knowledge management: la gestione e valorizzazione della conoscenza interna. Prima, informazioni preziose (documentazione, procedure, insight dai progetti) rischiavano di rimanere nascoste in qualche cartella o nelle teste di pochi esperti. Ora è possibile creare assistenti virtuali aziendali – basati su LLM addestrati sul corpus di documenti aziendali – che forniscono risposte immediate ai dipendenti. Immaginiamo un nuovo assunto che deve trovare rapidamente le linee guida di compliance aziendale: anziché cercare manualmente nel wiki interno, può chiedere in linguaggio naturale a un “AI collega” che in pochi secondi cita la policy corretta e magari suggerisce i passi da seguire. Questo porta a decisioni più veloci e informate, perché l’informazione giusta raggiunge la persona giusta al momento giusto. Strumenti come il recente NotebookLM di Google (per l’ambito individuale) mostrano la strada: possiamo interrogare i nostri documenti con la stessa naturalezza con cui cerchiamo su Google sul web, ma ottenendo risposte contestualizzate al patrimonio informativo interno.

Allo stesso tempo, l’AI sta cambiando il modo di prendere decisioni a livello strategico. Le aziende veramente data-driven iniziano a usare AI avanzate nei processi di business intelligence e analytics, integrandole con i classici dashboard. Invece di limitarsi a guardare grafici, i manager possono porre domande complesse all’AI (“Quali sono i trend emergenti nelle vendite dell’ultimo trimestre per area geografica e segmento di clientela?”) e ottenere analisi descrittive e predittive in tempo reale. Si passa da decisioni basate su intuito ed esperienza (pur preziosi) a decisioni supportate da una mole di dati prima ingestibile manualmente . La governance aziendale diventa quindi più scientifica: meno discussioni su opinioni, più confronto su evidenze fornite dall’analisi aumentata dei dati. L’AI può essere utilizzata per simulare scenari: prima di una scelta di investimento importante, un team dirigenziale può chiedere a modelli generativi di proiettare diversi scenari economico-finanziari sulla base di variabili di mercato, ottenendo così una “seconda opinione” da affiancare alle valutazioni degli analisti umani.

Tutto ciò richiede però una robusta governance dell’AI stessa. Integrando strumenti di AI generativa nei processi chiave, le aziende devono dotarsi di linee guida etiche e operative: come e dove è lecito usare l’AI (ad esempio vietando di darle in pasto dati sensibili non anonimizzati), come verificare la qualità delle risposte (sistemi di human-in-the-loop per validare output critici), come evitare bias e discriminazioni involontarie nei risultati. Molte organizzazioni stanno istituendo comitati o task force dedicati all’AI, coinvolgendo figure legali, esperti di dati, HR e IT, per assicurare un’adozione responsabile e strategica. In alcuni casi si è introdotto in organigramma il Chief AI Officer (CAIO), un ruolo dirigenziale dedicato proprio a massimizzare le opportunità dell’intelligenza artificiale e mitigarne i rischi. Gartner prevede che entro il 2025 oltre il 35% delle grandi imprese avrà un Chief AI Officer che riporta direttamente al CEO o al COO . Questo riflette la convinzione che l’AI sia ormai un asset talmente centrale da meritare una responsabilità di alto livello, al pari di quanto avvenuto in passato con il CIO per l’IT. Il CAIO definisce la strategia AI dell’azienda, coordina i progetti trasversali e garantisce che l’uso dei modelli generativi sia allineato agli obiettivi di business e ai valori etici aziendali.

Dalla personalizzazione dei servizi ai nuovi ruoli professionali

Un altro impatto dirompente dell’AI generativa è sulla personalizzazione su larga scala di prodotti e servizi. Nel marketing e nel customer care, ad esempio, l’AI consente di creare esperienze “tailor-made” per milioni di utenti contemporaneamente. Piattaforme e-commerce avanzate già utilizzano modelli generativi per dialogare con i clienti in modo unico: il messaggio promozionale che ricevo io non è più generico, ma è scritto e calibrato dall’AI sulla base delle mie interazioni e preferenze, diverso da quello che riceverà il mio vicino. Allo stesso modo, nel supporto clienti, i chatbot di nuova generazione sono in grado di riconoscere l’intento dell’utente e modulare la risposta di conseguenza, arrivando persino a variare tono e registro linguistico in base al profilo del cliente (più formale con un utente business, più colloquiale con un giovane consumatore). La personalizzazione massiva diventa realtà: un vero cambio di paradigma rispetto alla produzione di contenuti “one size fits all”. Pensiamo anche al settore media: con l’AI si possono generare articoli, raccomandazioni o persino video personalizzati per ciascun utente, mescolando informazioni in modi un tempo impraticabili manualmente. Questo apre modelli di business nuovi, dove il valore sta nella capacità di servire ogni cliente in modo unico tramite l’automazione intelligente, aumentando engagement e soddisfazione.

Parallelamente, l’organizzazione aziendale vede nascere nuovi ruoli e nuove strutture in risposta all’adozione massiccia di AI. Abbiamo citato il Chief AI Officer come figura apicale, ma le novità avvengono a tutti i livelli. Squadre multidisciplinari uniscono esperti di dominio con specialisti AI: ad esempio, team di progetto dove un data scientist lavora gomito a gomito con un responsabile di prodotto e un designer, assicurando che sin dall’ideazione di un nuovo servizio le funzionalità AI siano ben integrate e orientate all’utente. In alcune aziende pionieristiche compaiono laboratori interni di AI (AI lab), incubatori di idee dove piccoli gruppi sperimentano prototipi di soluzioni AI da poi trasferire alle unità operative.

Quanto ai profili professionali specifici, oltre al già menzionato Prompt Engineer, vediamo ruoli come il Data Curator (specialista nel curare e preparare i dati da dare in pasto ai modelli, assicurandone qualità e rappresentatività), l’AI Ethicist (consulente che valuta implicazioni etiche e di compliance nell’uso dell’AI), o il Trainer AI (figura tecnica che “allena” e ottimizza i modelli sulle esigenze dell’azienda, un po’ come un addestratore fa con un giovane talento grezzo). Persino i ruoli decisionali stanno cambiando pelle: alcune aziende parlano di Chief Decision Officer, Decision Engineer o Decision Designer – posizioni focalizzate su come si prendono decisioni data-driven e su come algoritmi e persone interagiscono in questi processi . Si tratta di evoluzioni dei classici CIO o Chief Data Officer, segno che l’attenzione si sta spostando dalla gestione dell’infrastruttura e dei dati alla gestione delle decisioni supportate dall’AI.

In molti si chiedono: tutti questi nuovi ruoli significano che i vecchi scompariranno? In parte, alcuni ruoli tradizionali potrebbero ridursi (pensiamo a mansioni amministrative di base, se automatizzate da sistemi AI). Ma storicamente, ogni ondata tecnologica ha portato più a trasformare i lavori che a eliminarli completamente. Le persone vengono riallocate su attività diverse, spesso più qualificanti. Ad esempio, con l’introduzione di chatbot avanzati, il classico operatore di call center può evolvere in supervisore di chatbot: monitora le conversazioni gestite dall’AI, interviene solo sui casi anomali o delicati, e contemporaneamente addestra il sistema segnalando dove ha sbagliato. Il suo lavoro diventa meno ripetitivo ma più orientato alla risoluzione creativa dei problemi fuori standard. Allo stesso modo, in produzione, un tecnico di linea può diventare un analista di manutenzione predittiva grazie ai modelli AI che prevedono i guasti: non si limita più a reagire ai problemi, ma previene i fermi macchina interpretando i segnali forniti dall’algoritmo.

Insomma, l’organizzazione che incorpora l’AI generativa tende a farsi più fluida e adattabile. Meno silos, più contaminazione di competenze; meno routine, più innovazione continua. Ciò comporta anche una sfida culturale: le persone in azienda vanno accompagnate nel cambiamento, rassicurandole che l’obiettivo non è rimpiazzarle ma farle crescere insieme alle nuove tecnologie. I ruoli di supervisione e strategia rimangono saldamente umani – le macchine, per quanto intelligenti, non prenderanno il posto di chi deve avere visione d’insieme, responsabilità etica e creatività imprenditoriale. Ma quei ruoli umani guideranno squadre in cui gli “assistenti AI” saranno parte integrante. Prepararsi a questo significa ridefinire organigrammi, percorsi di carriera e modelli di leadership.

Verso il futuro del lavoro e della leadership nell’era dell’AI

Guardando avanti, appare evidente che l’intelligenza artificiale diventerà pervasiva in ogni attività lavorativa, così come l’elettricità o Internet. Il futuro del lavoro non sarà una contrapposizione uomo vs macchina, ma un intreccio virtuoso di capacità umane aumentate da quelle delle macchine. In questo scenario in rapida evoluzione, anche la leadership deve fare un salto di qualità.

I leader d’azienda oggi sono chiamati a un duplice compito: da un lato ispirare una visione coraggiosa su come l’AI può trasformare il proprio settore, dall’altro mantenere i piedi per terra, guidando l’adozione con consapevolezza e responsabilità. Non basta annunciare “metteremo l’AI ovunque”; occorre delineare come e perché, quali benefici concreti ci si attende e come prepararvisi. Le organizzazioni di successo saranno quelle i cui leader sapranno creare una cultura in cui sperimentazione e apprendimento continuo siano incoraggiati. L’AI è un terreno nuovo per tutti – anche gli esperti sbagliano previsioni – quindi la qualità più importante sarà la capacità di adattamento. Bisogna essere pronti a iniziare progetti pilota, apprendere dai risultati (positivi o negativi), correggere la rotta rapidamente e scalare ciò che funziona. In altre parole, leadership agile e data-driven.

Un altro aspetto cruciale è la fiducia. I dipendenti devono potersi fidare dell’AI che usano, e questo nasce dalla fiducia nei leader che l’hanno introdotta. La trasparenza è fondamentale: spiegare al team con chiarezza quali decisioni verranno supportate dall’AI, come funziona (nei limiti del possibile) un certo algoritmo implementato, quali dati utilizza e con quali limiti. Così come vanno condivisi i risultati ottenuti: ad esempio, se l’AI nel customer service ha ridotto i tempi di risposta del 30% migliorando la soddisfazione del cliente, questo successo va comunicato internamente, per far capire perché ne è valsa la pena e stimolare altre unità aziendali ad abbracciare strumenti simili. Celebrando i casi d’uso virtuosi si crea un effetto moltiplicatore e si combatte la resistenza al cambiamento.

Non dimentichiamo poi che i leader stessi devono aggiornare le proprie competenze. Un dirigente nel 2025 non può più permettersi di essere del tutto estraneo ai concetti di AI: senza diventare tecnico, deve però conoscere le basi (cosa può o non può fare un LLM, cos’è il machine learning e come si “allena” un modello, quali sono i rischi di bias, ecc.). Solo così potrà dialogare proficuamente con i propri esperti e prendere decisioni informate. In molti consigli di amministrazione si inizia a discutere di alfabetizzazione AI per il top management, talvolta inserendo nei board advisor con esperienza specifica nel campo. Questo è segno di maturità: governare la trasformazione richiede competenza diffusa ai vertici, non basta delegare tutto ai tecnologi. La trasformazione digitale in cui l’AI gioca un ruolo chiave è innanzitutto trasformazione culturale.

Uno sguardo al futuro del lavoro ci suggerisce scenari insieme stimolanti e impegnativi. Potremmo avere orari e modalità di lavoro più flessibili grazie all’automazione di molti compiti – se le macchine lavorano “instancabilmente” per noi, forse potremo dedicarci a orari ridotti o a focalizzarci su ciò che ci appassiona davvero. La creatività e l’intelligenza emotiva diventeranno abilità sempre più importanti man mano che l’AI toglierà peso alle mansioni ripetitive e analitiche: le aziende cercheranno persone capaci di pensare fuori dagli schemi, di costruire relazioni, di guidare il cambiamento. In un certo senso, l’AI ci costringerà a essere più umani, a eccellere proprio in quelle qualità che ci distinguono dalle macchine.

Nel breve termine, è probabile che vedremo nascere ruoli che oggi neppure immaginiamo, e modelli di business completamente nuovi abilitati dall’AI (così come lo smartphone ha creato tutta l’economia delle app, l’AI generativa potrebbe creare nuove industrie basate su servizi personalizzati on-demand, educazione immersiva, intrattenimento interattivo e così via). Chi saprà anticipare questi trend e sperimentare per primo godrà di un vantaggio competitivo enorme. Stiamo già notando che le aziende che adottano l’AI diffusamente riescono a gestire costi meglio, innovare prodotti più velocemente e offrire maggiore valore ai clienti, creando un divario rispetto a chi resta attendista . È la classica dinamica delle grandi rivoluzioni tecnologiche: first mover advantage per chi investe con visione e rischio calcolato.

Girando lo sguardo indietro, possiamo trarre conforto dal passato: ogni tecnologia dirompente inizialmente ha generato scetticismo o visioni distorte. La fotografia nell’800 veniva bollata come un “surrogato” senz’anima rispetto alla pittura; il telefono fu accolto dai professionisti del telegrafo come un giocattolo destinato a fallire; perfino Internet, negli anni ‘90, vedeva guru della tecnologia dubitare che il commercio elettronico potesse davvero decollare su larga scala. La storia insegna che tendiamo a sovrastimare l’impatto immediato di una nuova tecnologia, ma a sottovalutarne l’effetto a lungo termine. L’AI generativa oggi può avere difetti e limitazioni, ma il suo potenziale trasformativo è immenso e si dispiegherà negli anni a venire, probabilmente in modi che ora fatichiamo a immaginare.

La differenza la farà, come sempre, l’atteggiamento con cui affrontiamo il cambiamento. Rimanere alla finestra ad osservare può forse evitare errori nel breve periodo, ma preclude la crescita. Al contrario, chi sperimenta, impara e si adatta costruisce un vantaggio destinato a durare. Il futuro del lavoro e della leadership in epoca di AI non è scritto in modo predeterminato: il futuro non va solo osservato, va costruito attivamente. È un invito a imprenditori, manager e professionisti: rimbocchiamoci le maniche e guidiamo noi la rivoluzione aumentata dell’AI, trasformando la “magia” in realtà concreta, una decisione informata dopo l’altra.

Il lavoro di domani sarà ciò che noi decideremo di farne oggi, con coraggio, visione e responsabilità. E personalmente, non potrei immaginare un’epoca più entusiasmante per essere un innovatore.

Stingray: l’innovazione con l’Intelligenza Artificiale

Il modello “Stingray” del Board of Innovation è un nuovo framework per l’innovazione e il design che sfrutta l’intelligenza artificiale generativa (GenAI). Questo modello è stato creato in risposta all’emergere esplosivo dell’AI generativa, che ha portato a un progresso innovativo esponenziale.

Il Board of Innovation ritiene che il tradizionale modello “Double Diamond“, utilizzato per la risoluzione di problemi complessi e il design, stia diventando obsoleto a causa dell’evoluzione delle tecnologie e delle nuove metodologie di lavoro. Il modello Stingray mira a migliorare l’efficienza dei team di innovazione e ad aumentare la fiducia negli investimenti fornendo soluzioni pratiche e validate

Il modello Stingray è stato presentato in un webinar intitolato “Death of the Double Diamond and the new AI-powered Stingray model“, dove è stato spiegato come l’AI stia cambiando il modello Double Diamond in un modello Stingray, che consente di progredire ulteriormente nel percorso di validazione dei concetti in meno tempo. Il modello ha un impatto significativo sui processi di innovazione e design front-end, consentendo di ideare e validare concetti tenendo conto della fattibilità, sostenibilità e vitalità fin dall’inizio del processo.

Cos’è Stingray 

Il modello Stingray, sviluppato dalla Board of Innovation, rappresenta un nuovo approccio nell’ambito dell’innovazione, in risposta alle limitazioni del tradizionale modello Double Diamond. Stingray nasce dalla necessità di integrare l’intelligenza artificiale (IA) nei processi di design e innovazione, per affrontare problemi complessi e accelerare la generazione di idee.

A differenza del Double Diamond, che si concentra su fasi distinte di scoperta e definizione seguite da sviluppo e consegna, Stingray è strutturato in tre fasi principali: “Train”, “Develop” e “Iterate”. Questo modello mira a superare i pregiudizi umani e ad accelerare la validazione delle idee, enfatizzando la sperimentazione e l’utilizzo dell’IA come strumento centrale nel processo creativo.

Il modello Double Diamond: Pro e Contro

Il modello Double Diamond, per quasi due decenni, è stato un pilastro nei progetti di design e innovazione, offrendo un approccio strutturato basato sulla divergenza e convergenza per identificare problemi e soluzioni.

La sua forza risiede nella semplicità e nella struttura, che hanno guidato migliaia di individui e team globalmente, orientando investimenti miliardari. Tuttavia, l’emergere dell’innovazione guidata dall’intelligenza artificiale sta mettendo in discussione la sua rilevanza. Nato in un’epoca in cui i progetti erano limitati dalla quantità di Post-It su un muro e dalla capacità di elaborazione del cervello umano, il Double Diamond si appoggiava a strumenti come PowerPoint, Excel e Photoshop, lontani dalle potenzialità dell’odierna data science e GenAI.

In questo contesto, esperti come Koen Burghouts di PepsiCo riconoscono il possibile declino del modello. Se da un lato il Double Diamond ha avuto un impatto significativo nella strutturazione del pensiero innovativo, dall’altro lato, in un ambiente dominato dall’innovazione AI-driven, rischia di diventare obsoleto, non tenendo il passo con il ritmo esponenziale del progresso e le nuove esigenze di elaborazione e analisi dei dati.

3 Ragioni per cui il Double Diamond viene ritenuto “vecchio”

  1. Il problem solving complesso non è più solo una questione di pensiero umano. La gestione dell’interazione tra pensiero umano e intelligenza artificiale è cruciale. Invece di valutare per settimane poche soluzioni superficiali, ora possiamo considerarne dozzine immediatamente, prioritarizzandole rapidamente e approfondendo le più promettenti.
  2. Utilizzando il Double Diamond, i team possono impiegare settimane o mesi in ricerche di empatia, ottenendo soluzioni che soddisfano i bisogni dei clienti ma che spesso non sono finanziariamente sostenibili o tecnologicamente fattibili. Grazie a strumenti come la GenAI, possiamo sintetizzare rapidamente i bisogni dei consumatori, individuando concetti che siano non solo desiderabili, ma anche fattibili e sostenibili.
  3. I team spesso devono filtrare tante informazioni che possono cadere vittime dei propri pregiudizi. Si concentrano su utenti mainstream a discapito di quelli meno rappresentati a causa della complessità di considerare le esigenze di tutti. Tuttavia, i modelli di linguaggio come ChatGPT, pur avendo i loro bias, sono più facilmente ‘riaddestrabili’ rispetto agli esseri umani. Questo offre la possibilità di superare i pregiudizi umani e fornire soluzioni veramente inclusive per un ampio spettro della società.

Approccio e Modalità del Modello Stingray

Il modello Stingray si distingue per il suo approccio innovativo nell’utilizzo dell’intelligenza artificiale per guidare il processo di design e innovazione.

La prima fase, “Train”, si concentra sull’addestramento dell’IA utilizzando dati e informazioni pertinenti, stabilendo così le fondamenta per le fasi successive. In “Develop”, le idee vengono sviluppate e raffinate con l’assistenza dell’IA, che fornisce insights e analisi avanzate. Infine, “Iterate” enfatizza l’importanza di testare e rivedere continuamente i progetti, utilizzando l’IA per ottimizzare e perfezionare ulteriormente le soluzioni. Questo ciclo iterativo di sviluppo e raffinamento mira a un’innovazione più rapida ed efficace, superando i limiti del modello Double Diamond che tende a essere più lineare e sequenziale.

Le Tre Fasi del Modello Stingray

Il modello Stingray, emergente nel panorama dell’innovazione e del design, si articola in tre fasi distinte: “Train”, “Develop” e “Iterate”. Ogni fase gioca un ruolo cruciale nel trasformare le idee innovative in soluzioni concrete, sfruttando il potenziale dell’intelligenza artificiale (IA). Ecco una panoramica dettagliata di ciascuna fase.

Fase 1: Train – Definizione degli Obiettivi e Raccolta Informazioni In questa fase iniziale, i team definiscono gli obiettivi del progetto e raccolgono le informazioni rilevanti per identificare le soluzioni. Queste possono includere dati proprietari sull’azienda, come le capacità produttive o informazioni pubbliche su tendenze di mercato e concorrenza. Una volta raccolti questi dati, vengono utilizzati per generare ipotesi prioritarie su problemi e tipologie di soluzioni, fornendo una guida iniziale per il proseguimento del progetto. Questa fase, che può durare da ore a giorni, non solo stabilisce un punto di partenza solido, ma consente anche iterazioni rapide e continue nel ridefinire gli obiettivi del progetto.

Fase 2: Develop – Esplorazione Esponenziale di Problemi e Soluzioni Nella fase “Develop”, il modello permette di generare un ampio spettro di ipotesi e soluzioni mirate, superando i limiti del pensare prima ai problemi e poi alle soluzioni. Questa fase può essere guidata interamente dall’IA o integrare workshop umani. L’output è un insieme categorizzato di soluzioni, che possono includere descrizioni iniziali di prodotti o servizi, con visualizzazioni o prototipi, e ipotesi iniziali sulla fattibilità e capacità di soddisfare i criteri di successo del progetto. Il punto chiave è l’utilizzo dell’IA non solo per ideare, ma anche per identificare cluster di soluzioni promettenti e gestibili.

Fase 3: Iterate – Validazione Iterativa delle Soluzioni Pratiche Con un ampio set di potenziali soluzioni, i team iniziano un processo iterativo di sperimentazione per restringere, de-rischio e focalizzarsi su un insieme più limitato di soluzioni. Queste saranno validate per desiderabilità, fattibilità, sostenibilità e viabilità. La produttività fornita dall’IA permette di esplorare tipi di iterazioni desiderate ma spesso limitate da budget o tempo nei metodi tradizionali. Le squadre possono impiegare metodi di design thinking e innovazione tradizionali, ma anche nuovi metodi come test sintetici, utilizzando IA per predire comportamenti dei consumatori o condurre interviste autonome con chatbot IA.

Il modello Stingray rappresenta quindi una rivoluzione nel mondo dell’innovazione, integrando l’IA per ottimizzare ogni fase del processo creativo, dalla definizione del problema allo sviluppo e alla validazione delle soluzioni.

Visione e Prospettiva del Modello Stingray

Il valore della proposizione del modello Stingray è esattamente nell’intersezione tra l’intelligenza artificiale e il design thinking. Mentre il modello Stingray sfrutta l’IA per anticipare e risolvere problemi complessi, è fondamentale il contributo del design thinking per definire obiettivi e ambiti di applicazione dell’IA.

Questa integrazione tra umano e macchina è il fulcro dell’innovazione futura. A mio avviso il potenziale di Stingray è nell’effetto catalizzatore del “pensare in modo più esteso e creativo”, abilitando un futuro dove i metodi di design sono arricchiti e potenziati dall’IA.

Confronto con Altri Framework

Il modello Stingray, confrontato con altri framework di innovazione, si distingue per l’integrazione dell’IA nel processo creativo. A differenza di metodi come il Lean Startup, incentrato sulla costruzione-misurazione-apprendimento, o l’Agile, che enfatizza iterazioni rapide, Stingray unisce queste dinamiche con l’analisi avanzata dell’IA.

Questo approccio offre una visione più ampia e dati-driven per il processo decisionale, ma potrebbe richiedere risorse e competenze tecniche maggiori.

Opportunità e Potenziale di Implementazione del Modello Stingray

Il modello Stingray apre nuove possibilità per l’integrazione dell’IA nel processo di innovazione. La sua capacità di accelerare la validazione delle idee e di esplorare soluzioni creative oltre i confini del pensiero umano tradizionale offre un potenziale significativo per le aziende che cercano di innovare rapidamente. La sua enfasi sulla iterazione e sul miglioramento continuo delle soluzioni, guidata dai dati, permette un adattamento agile alle mutevoli esigenze di mercato.

Le imprese possono sfruttare Stingray per sviluppare prodotti e servizi più in linea con le aspettative dei consumatori, anticipando le tendenze e rimanendo competitivi. Questa implementazione dell’IA nel design rappresenta una frontiera promettente nell’evoluzione dei processi di innovazione.

Impatto Etico e Sociale dell’IA

L’uso dell’IA nel modello Stingray solleva questioni etiche e sociali importanti. La gestione dei bias nell’IA è cruciale per garantire che i prodotti e i servizi siano equi e non discriminanti. Inoltre, la dipendenza dall’IA nel design potrebbe influenzare il mercato del lavoro, con potenziali ripercussioni sulle competenze richieste e sulla natura del lavoro creativo.

Tendenze Future

Il futuro del modello Stingray potrebbe vedere un’ulteriore integrazione di tecnologie emergenti, come l’apprendimento profondo e l’elaborazione del linguaggio naturale, per generare insights ancora più profondi e automatizzati. Questo potrebbe portare a un’innovazione ancora più rapida e personalizzata, ma anche ad una maggiore necessità di supervisione umana per garantire risultati pertinenti e responsabili.

Un punto di vista aggiuntivo (non richiesto)

Sebbene il modello Stingray offra un approccio sicuramente nuovo, va tenuto presente che come tutti i modelli basati su AI porta con se anche alcune sfide. La sua efficacia dipende fortemente dalla qualità dei dati utilizzati per l’addestramento dell’IA, e potrebbe non essere adatto a tutte le tipologie di progetti, specialmente quelli che richiedono un’intensa comprensione umana o un approccio artistico. La dipendenza dall’IA potrebbe anche limitare l’innovazione a ciò che è “prevedibile” dai dati, potenzialmente soffocando la creatività.

Per questo, come consiglio da sempre nel processo di adozione di qualsiasi (nuovo) modello, è necessario sempre valutare cosa prendere o meno, senza un approccio “talebano” e religioso: sono dell’idea che sono i modelli che vanno adattati all’azienda e non l’azienda che si adatta ad un modello, snaturando se stessa.

AI Generativa e le opportunità per le aziende

L’intelligenza artificiale (AI) sta vivendo una trasformazione radicale. Si è evoluta da un insieme di algoritmi isolati ad una forza potente e integrata, pronta a rivoluzionare il modo in cui le aziende operano. Questa evoluzione, guidata in particolare dall’ascesa dell’AI generativa, sta offrendo ai singoli, ma soprattutto alle aziende opportunità senza precedenti, ma presenta anche nuove sfide che richiedono attenzione e corretta interpretazione, oltre che azione (tempestiva, aggiungerei).

L’AI generativa sta aprendo la strada a una nuova ondata di innovazioni di modelli e processi, ampliando le possibilità di applicazione dell’AI in una serie di settori, dalla farmaceutica alla banca, dal retail allo sport. Modelli come GPT-4, Bard, sono capaci di generare contenuti unici e di alta qualità, che possono essere utilizzati in una serie di contesti aziendali, dal marketing allo sviluppo del prodotto, passando dal legal al finance. .

Malgrado le tante potenzialità e opportunità, l’avvento dell’AI generativa non è privo comunque di sfide e punti di critici da attenzionare. La sua velocità di sviluppo, il rischio di bias nascosti nei dati di addestramento e la necessità di nuove infrastrutture tecnologiche e competenze specializzate sono tutti fattori che le aziende devono necessariamente considerare nel loro viaggio verso l’adozione in generale di nuove tecnologie, ma anche e soprattutto nei confronti dell’AI generativa.

L’AI generativa offre senza dubbio alle aziende l’opportunità di rivedere e reinventare molti dei loro processi operativi ed impattare sui modelli di business, permettendo una maggiore automazione, efficienza e personalizzazione, e di conseguenza ottimizzazione di costi e potenzialità maggiori sui ricavi.

Riguardo ai nuovi modelli di business, come l’uso di AI per generare contenuti unici o per offrire servizi personalizzati su larga scala però c’è un punto che deve esser necessariamente considerato ossia rischi e sfide derivanti da un normativo in continua evoluzione, con nuove leggi e regolamentazioni che potrebbero influenzare l’uso dell’AI, e di conseguenza diritti di ownership sull’asset creato, tipologia di utilizzo e applicazione.

I CEO oggi di aziende che vogliono accelerare e non perdere quote di mercato, hanno un ruolo fondamentale nel guidare l’adozione dell’AI in primis, e anche dell’AI generativa nelle loro aziende. L’attenzione e le azioni che la direzione dell’azienda dovrà affrontare non dovranno esser solo orientate alle opportunità e le sfide presentate dall’A in termini infrastrutturali e tecnologici, ma anche (e soprattutto) di metodo, al fine di guidare i team attraverso il cambiamento organizzativo necessario,  per sfruttare al meglio questa nuova potenzialità.

Una della prime azioni che l’organizzazione dovrebbe affrontare è la creazione di un gruppo cross-funzionale di leader dell’azienda a cui affidare lo studio, l’identificazione e le priorità dei casi d’uso di maggior valore, al fine di garantire un’implementazione sicura e coordinata dell’AI nel contesto aziendale. Questo può anche includere la promozione di una cultura di apprendimento continuo e la sperimentazione (che troppo spesso le aziende tralasciano pensando sia una attività individuale e spontanea) in cui i dipendenti sono incoraggiati ad innovare i processi, le competenze, le metodologie e i prodotti che incorporano efficacemente questi strumenti.

Un altro aspetto cruciale è la creazione di un “faro”, ossia un progetto o un caso d’uso pilota che possa servire da esempio concreto, e che possa dimostrare il reale potenziale dell’AI generativa e l’impatto che questa adozione avrebbe su più larga scala, oltre ad aiutare a creare entusiasmo, sostegno e consenso all’interno dell’organizzazione.

Le aziende dovranno essere molto attente a bilanciare la creazione di valore con la corretta gestione del rischio. Se da una parte l’AI generativa può offrire enormi vantaggi, presenta nuovi rischi, come dicevo, come la possibilità di perpetuare i bias nascosti nei dati di addestramento o di “allucinare” informazioni non esistenti. Sarà necessario definire e stabilire principi e linee guida etiche per l’uso dell’AI, modelli di controllo e sviluppare una comprensione approfondita dei rischi presentati da ogni caso d’uso potenziale.

Costruire e mantenere un insieme equilibrato di alleanze esterne oltre che sviluppare le competenze interne può inoltre aiutare, in questo processo di adozione, le aziende ad accelerare l’implementazione dell’AI generativa. A vantaggio di un approccio ad ecosistema si permetterà di abilitare l’esperienza e le competenze di altri senza dover costruire tutte le applicazioni o i modelli di base da soli, creando un processo di maggiore facilità di aggiornamento progressivo e l’adozione delle più recenti tecnologia.

La fase di boost tecnologico e l’evoluzione dell’AI generativa che stiamo vivendo rappresenta una promessa enorme per le aziende, ed una offerta senza precedenti di nuove opportunità per l’innovazione, l’efficienza e la personalizzazione. Ma per realizzare questo potenziale, le aziende devono essere pronte a affrontare le sfide associate a questa nuova tecnologia, compreso il bisogno di nuove competenze, infrastrutture e approcci alla gestione del rischio, e di conseguenza investimenti. Con la giusta guida e strategia, tuttavia, le aziende potranno sfruttare questo potenziale per guidare la trasformazione e creare un vantaggio competitivo duraturo.

Generative AI & Roblox: tutti possono esser creators

Roblox, la piattaforma di gioco online con 58,8 milioni di utenti giornalieri, dopo l’annuncio dei dati del periodo, ora ha annunciato che utilizzerà l’AI generativa nella sua piattaforma.

L’obiettivo è quello di rivoluzionare la creazione dei contenuti sulla propria piattaforma grazie all’uso dell’Intelligenza Artificiale generativa. I creators di Roblox potranno utilizzare questi strumenti per rendere la creazione di contenuti più facile e veloce, nonché per integrare la creazione di 3D con la scrittura di codice.

L’obiettivo finale è quello di rendere ogni utente un creators, consentendo anche ai principianti di avere un punto di partenza valido e poter sviluppare la propria creatività senza limiti.

La piattaforma sta affrontando delle sfide tecniche uniche per generare contenuti interattivi in modo automatico e allo stesso tempo mantenere la sicurezza del servizio e dell’esperienza degli utenti ad alto livello viste le numerose critiche ricevute nell’ultimo anno.

Che l’AI potesse esser un acceleratore per il mondo del gaming lo avevo scritto in alcuni post.

Qui il comunicato ufficiale di Roblox https://blog.roblox.com/2023/02/generative-ai-roblox-vision-future-creation/

Gaming e la rivoluzione della Intelligenza Artificiale Generativa

Qualche giorno fa ho fatto un colloquio ad un game designer e la chiacchierata piacevole è andata avanti poi per circa un’oretta, su diversi temi, anche fuori dal perimetro del colloquio, entrando nella sfera di passioni e ragionamenti di mercato, nonché potenzialità dell’AI generativa nel mondo del gaming. La prima cosa che più mi è rimasta in mente di lui è la sua eccitazione e meraviglia legata alla potenzialità dell’AI, ma non tanto in generale, quanto rispetto alla sua competenza e alle potenzialità applicate al suo lavoro: non paura appunto, ma opportunità. Non timore di imparare, ma voglia di governare.

In sintesi i ragionamenti fatti si basavano su 4 punti:

  • Questo potere creativo è ora disponibile per chiunque possa imparare alcuni semplici strumenti.
  • Questi strumenti possono creare un numero infinito di variazioni in modo altamente iterativo.
  • Una volta addestrato, il processo è in tempo reale – i risultati sono disponibili quasi istantaneamente.
  • Non esiste una tecnologia così rivoluzionaria per i giochi dal 3D in tempo reale.

Allora, dove sta andando questa tecnologia? E come trasformerà il gioco? Innanzitutto, però, esaminiamo cos’è l’IA generativa?

Per capire a cosa siamo di fronte e come AI generativa può cambiare intere industrie e competenze, provo a fare un ragionamento sul mondo del gaming e come questo può beneficiarne (cosa che sta già facendo) prima di molte altre industrie.

Che cos’è l’AI generativa

L’AI generativa è una categoria del machine learning. L’intelligenza è in grado di creare contenuti originali in risposta ai suggerimenti dell’utente. Attualmente è particolarmente in voga la generazione di testo (ChatGPG) e di immagini (Stablediffusion, MidJourney, Dall-E). Seppur il T2I (Text to Image) ed il T2T (Text to Text) siano tra i più maturi in questo momento, è in corso un lavoro di sperimentazione praticamente in ogni dominio creativo, dall’animazione agli effetti sonori, alla musica, persino alla creazione di personaggi e avatar virtuali con personalità arricchite ed in grado di conversare. Tra le classificazioni che stanno emergendo tra i diversi sistemi AI generativi, ci sono:

  • Text to Image (T2I)
  • Text to Video (T2V)
  • Text to Audio (T2A)
  • Text to Text (T2T)
  • Text to Motion (T2M)
  • Image to Text (I2T)
  • Audio to Text (A2T)
  • Audio to Audio (A2A)
  • Brain to Text (B2T)
  • Text to Code (T2C)
  • Text to 3D (T23D)
  • Text to NFT (T2N)
  • …. Text-to-Everything!

L’intelligenza artificiale non è una novità, soprattutto oggi, e soprattutto nel mondo del gaming, ovviamente. Se tornassimo indietro nel tempo anche i primi giochi, come il Pong di Atari, avevano avversari controllati dal computer per sfidare il giocatore. Questi “nemici” virtuali, tuttavia, non erano animati da AI come la conosciamo oggi, ma erano semplicemente procedure scritte, a stati finiti in molti casi, realizzate dagli sviluppatori del gioco, che simulavano un avversario artificialmente intelligente, con comportamenti in linea generale standard ma soprattutto non potevano imparare progressivamente con il passare del tempo e delle partite.

Ciò che è diverso oggi, a distanza di anni, è sicuramente la quantità di potenza di elaborazione e calcolo disponibile, la scalabilità delle architetture e grazie a microprocessori più veloci e al cloud. Con questo “nuovo” potere, oggi è possibile costruire grandi reti neurali in grado di identificare modelli e rappresentazioni in domini altamente complessi.

AI a servizio del mercato, e del gaming

Siamo in un momento in cui di segnali che l’AI sia qui per rimanere e non per esser una tecnologia di passaggio ne abbiamo.

Negli ultimi anni la mole di pubblicazioni e ricerche sul tema dell’AI in generale è aumentata drasticamente e sempre più aziende hanno iniziato ad adottare piattaforme e soluzioni per introdurre processi e modelli basati su intelligenza artificiale all’interno dei propri business. Molte aziende inoltre hanno avviato progetti di R&S . Il risultato è un’esplosione di interesse e innovazione sul tema sicuramente crescente.

Nel mondo dell’intrattenimento, in particolare del gaming (una delle industrie più ampie e sviluppate a livello mondiale), l’interesse per l’AI è sicuramente in forte crescita e le motivazioni sono piuttosto facili da individuare ed evidenti. I giochi sono la forma di intrattenimento più complessa, in termini di numero assoluto di tipi di risorse coinvolte ( 2D art, 3D art, effetti sonori, musica, dialoghi, coding ecc. ). I giochi sono anche i più interattivi, con una forte enfasi sulle esperienze in tempo reale. Questa complessità progettuale legata ad una necessità di costante sviluppo ed evoluzione, crea una forte barriera all’ingresso per i nuovi produttori di giochi per via un costo elevato di produzione che diventa sempre più alto.

Per fare un esempio, il gioco Red Dead Redemption 2 è uno dei giochi più costosi mai prodotti, con un costo stimato di circa 500 milioni di dollari. È facilmente intuibile la motivazione se ci avete giocato: è uno dei mondi virtuali più belli e completamente realizzati, a mio avviso, di qualsiasi gioco sul mercato. Ci sono voluti quasi 8 anni di sviluppo, con oltre 1.000 personaggi attivi nel gioco ( ognuno con la propria personalità, caratterizzazione e doppiatore ), un mondo di quasi 30 miglia quadrate, più di 100 missioni suddivise in 6 capitoli e quasi 60 ore di musica create da oltre 100 musicisti. Giusto per dare una idea.

Ora, per dare l’idea di complessità, pensiamo invece a Microsoft Flight Simulator: più che un gioco una esperienza di volo completa che a confronto con il gioco di cui sopra non ha nulla a che vedere. E non intendo a livello di gioco, ma di dimensione progettuale. Microsoft Flight Simulator consente ai giocatori di volare in tutto il pianeta Terra. In che modo Microsoft può aver creato un gioco così mastodontico? Lasciando che una intelligenza artificiale lo facesse. Microsoft ha infatti collaborato con blackshark.ai, e ha addestrato un’AI a generare un mondo 3D fotorealistico, partendo dalle immagini satellitari 2D.

Ho fatto questo esempio per far dare  che sarebbe stato letteralmente impossibile costruire un gioco di queste dimensioni senza l’ausilio dell’AI, e senza pensare che questo modello di sviluppo non si è fermato alla prima produzione, ma sta continuando a sviluppare e migliorare ambientazioni nel tempo, sempre più dettagliate e sempre diverse.

Se oggi quindi vediamo l’intelligenza artificiale generativa come un gioco passatempo da cui estrapolare sfondi, volti, ambientazioni e immagini per le prossime slide, di fatto ci stiamo limitando a vedere la punta di un iceberg e non quello che sta emergendo veramente: avremo modello AI generativi per ogni risorsa specifica, e nel caso dei giochi, modelli per la produzione di singole parti di gioco, meccaniche e dettagli.

Finora i generatori di immagini 2D come Stable Diffusion o MidJourney hanno catturato la maggior parte dell’attenzione sul tema dell’AI generativa per via della loro natura semplicità e per la qualità delle immagini che possono esser generate. Ma già adesso sono presenti sul mercato modelli di intelligenza artificiale generativa praticamente per tutte le risorse coinvolte nella produzione di un gioco, dai modelli 3D, alle animazioni dei personaggi, ai dialoghi e alla musica.

L’effetto collaterale del valore dei contenuti a mio avviso calerà drasticamente, andando effettivamente a zero in alcuni casi. Ma non deve esser una preoccupazione:

Chris Anderson disse: “ Ogni abbondanza crea una nuova scarsità”.

Leggendo post, articoli e annunci di sviluppatori e società di sviluppo di giochi che stanno sperimentando l’integrazione dell’AI generativa nei loro piani di produzione, il più grande impatto rilevato è senza dubbio la drammatica riduzione di tempo ed i costi di sviluppo, passando da stime di creazione di concept art di una singola immagine da settimane a qualche ora.

Per essere chiari, visto che di questo ne ho letto più volte in questi giorni, gli artisti, i creator ed i copywriter non rischiano di essere sostituiti dall’AI (come ho già detto in un post qualche giorno fa) ma sicuramente dovranno adeguare le loro competenze e non lavorare più da soli: d’ora in avanti la produzione di contenuti potrà esser impostata in termini di direzione creativa iniziale e quindi esser consegnata all’esecuzione tecnica a un’intelligenza artificiale.

Siamo ancora agli inizi di questa rivoluzione e molte pratiche, metodi e approcci dovranno ancora essere perfezionati, ma abbiamo una rivoluzione davanti agli occhi. C’è un’enorme quantità di lavoro da fare quando scopriamo come sfruttare questa nuova tecnologia per i giochi, e saranno generate enormi opportunità per le aziende che si spostano rapidamente in questo nuovo spazio.

Cosa aspettarci dal 2023?

Nel 2022, abbiamo assistito a un’esplosione del text-to-2D, poiché Dall-E, MidJourney e Stable Diffusion come ho detto hanno ottenuto risultati straordinari. Il text-to-3D, l’audio, il video e altro ancora sono stati esplorati dai ricercatori, ma nel 2023 ci si può aspettare di vedere applicazioni pratiche di modelli generativi che permeteranno la creazione di tutti i tipi di nuovi media.

Si prevede che i modelli multimodali, che combinano diverse modalità come la parola, l’audio, l’immagine e il testo, diventeranno sempre più popolari, guadagnando importanza come strumenti per creare un’interazione unica tra diverse modalità di input, permettendo una profonda comprensione ed una evoluzione maggiore nella produzione di contenuti.

Con l’avvento inoltre di queste nuove potenzialità, è probabile che vedremo nascere nuovi modelli di gioco focalizzati e potenziati dall’utilizzo e la  combinazione della potenza dei modelli generativi: avremo giochi in grado di creare esperienze personalizzate, sbloccando la possibilità di giochi in grado di forkare, ed nel quale una singola versione può essere personalizzata in milioni di versioni diverse, con costi di sviluppo bassi e alto valore di replay.

Questo nuovo genere aumenterà l’engagement degli utenti con narrazioni altamente uniche e personalizzate. Gli sviluppatori di giochi potranno esplorare un nuovo paradigma di storytelling e giochi basati su narrazioni ad infinite possibilità di esplorazione e gameplay.

Inoltre, l’IA generativa permetterà agli sviluppatori principianti di giochi di costruire le proprie esperienze giocabili senza alcuna esperienza di codifica. I linguaggi di programmazione basati sull’immagine e gli editori semplici drag-and-drop, il no-code/low-code in generale, permetterà alle persone di creare e condividere rapidamente i loro progetti generativi con pochi clic.

L’Era della Creatività Artificiale

L’intelligenza artificiale sta conquistando il mondo (almeno così sembra dall’hype delle ultime settimane e forse lo stava già iniziando a fare prima di questa wave).

Siamo stati travolti da strumenti di AI generativa come #ChatGPT#Midjourney#stablediffusion#Lensa o #DALL•E, ma questo a mio avviso è solo l’inizio di un processo di adozione molto più ampio e che vedrà nel 2023 nuove progettualità fortemente orientate all’integrazione di sistemi di AI in diversi processi di business.

L’avvento di questi strumenti di AI pone oggi la seguente – frequente – domanda: cosa significa essere un creativo nell’età della creatività artificiale?

La creatività artificiale è un nuovo spazio sottile tra macchina e uomo, tra produttività e creatività, che influenzerà la vita di miliardi di lavoratori nei prossimi anni. Alcuni lavori verranno sostituiti, altri verranno potenziati e molti altri verranno reinventati in modo irriconoscibile.

Più tardi pubblico un approfondimento perché questa chart mi ha stimolato una enorme riflessione (che sto scrivendo). Intanto vi condivido questo landscape interessante.

🔥 C’è di più… molto, molto di più in arrivo!

Se ti interessano questi temi (e vuoi esser aggiornato su prossimi contenuti) ne scrivo qui Fabio Lalli e sul gruppo Telegram #MTVRS qui https://t.me/mtvrs_it