La Mente Adattiva. Pensare insieme alle macchine

Negli ultimi mesi sono usciti due miei lavori molto diversi tra loro, ma entrambi figli dello stesso periodo di immersione: letture, analisi, sperimentazioni, progettualità personali e professionali.

Questo secondo, La mente adattiva – Pensare insieme alle macchine (Egea), nasce invece da una sperimentazione sul campo, fatta in solitaria, con un obiettivo chiaro: potenziare il mio modo di analizzare, discutere e soprattutto mettere in discussione anche me stesso.

Come nasce l’idea

Anni fa ho iniziato a usare le tecniche di Edward de Bono: i Sei Cappelli, il pensiero laterale, il valore del pensiero parallelo. Sono stati strumenti fondamentali, che mi hanno insegnato a guardare le cose da angolazioni differenti.

Ma a un certo punto è diventato evidente che quell’approccio, per quanto brillante, fosse ormai datato rispetto alla complessità e alla velocità del contesto attuale.

E allora sì, l’ho fatto: ho messo in discussione il modello di de Bono. Non per demolirlo, ma per evolverlo con tutto il rispetto che porta chi lo ha usato e apprezzato. Ho provato a guardarlo da un’altra angolazione, a mia volta, e a costruirci sopra.

La tesi centrale

Da questo percorso è nato l’Adaptive Intelligence Thinking System (AITS): un modello che trasforma i cappelli in otto agenti cognitivi. Agenti capaci di pensare insieme in modo strutturato, di mettere in discussione, integrare e potenziare il pensiero.

E da qui nasce proprio il focus sul “pensare insieme alle macchine”.

Non per sostituire l’intelligenza umana, non è questo l’obiettivo, anzi, ma per ampliarla. E nemmeno per semplificare la complessità: l’idea è affrontarla con metodo, con un approccio nuovo.

La struttura del libro

La mente adattiva si articola in un percorso chiaro e progressivo:

  • Introduzione alla complessità contemporanea: perché i vecchi schemi non bastano più.

  • Dal pensiero strutturato alla mente adattiva: evoluzione storica e salto concettuale.

  • Gli otto agenti cognitivi: Analitico, Emotivo-Intuitivo, Critico-Validatore, Ottimizzatore, Creativo-Generativo, Etico-Governance, Predittivo-Strategico, Meta-Orchestratore.

  • Le modalità operative: sequenziale, parallela, emergente, ibrida uomo-AI.

  • Applicazioni pratiche: come usare il modello in azienda, nell’innovazione, nella formazione, nel crisis management.

  • Il Manifesto etico: dieci principi per un’intelligenza aumentata responsabile.

Come usarlo

  • Per il singolo: come manuale per allenare nuove prospettive e migliorare la qualità delle decisioni.

  • Per i team: come strumento pratico per organizzare riunioni più produttive, inclusive e orientate a risultati concreti.

  • Per le organizzazioni: come framework per integrare etica, dati, creatività e AI nei processi decisionali complessi.

  • Per la formazione: come metodo didattico per sviluppare pensiero critico, creativo ed etico nelle nuove generazioni.

Un modello operativo e una proposta culturale

La mente adattiva è al tempo stesso un framework operativo, che sto continuando ad evolvere, e una proposta culturale.

È dedicato a chi guida team, progetti e trasformazioni, a chi insegna e impara, a chi si chiede come continuare a pensare nell’era dell’AI.

Come sta evolvendo

Il libro è solo il punto di partenza. AITS sta già evolvendo in tre direzioni:

  1. Metodologica: checklist, canvas e metriche per applicarlo in contesti diversi.

  2. Organizzativa: linee guida per integrare il Manifesto Etico e pratiche Human-in-the-loop nei processi decisionali.

  3. Tecnologica: il prossimo passo è il rilascio di una piattaforma digitale che implementa concretamente il modello AITS e ne facilita l’adozione. Coming soon.

Perché è importante adesso

  • Perché la quantità di informazioni cresce più velocemente della nostra capacità di gestirle.

  • Perché l’AI è ovunque, ma spesso viene usata senza metodo e senza responsabilità.

  • Perché serve un approccio che unisca efficienza, creatività e valori.

  • Perché il futuro delle organizzazioni dipenderà da chi saprà pensare meglio, più velocemente e con maggiore consapevolezza.

 

La mente adattiva, pensare insieme alle macchine è un invito a rimettere in discussione i nostri modelli di pensiero e a sperimentarne di nuovi. Non un manuale tecnico, ma una bussola per navigare la complessità.

Il futuro del pensiero è collaborativo: umani e macchine che ragionano insieme, in modo etico, intelligente e adattivo.

Potete acquistarlo in ebook su EgeaEditore https://lnkd.in/dCmsvxkD
E anche su Amazon https://amzn.to/3VOHKMq

Attrito Cognitivo: quando l’AI interrompe il flusso

Come i modelli mentali disallineati e i sistemi adattivi generano tensione nell’esperienza utente — e cosa devono fare i designer per trasformare la dissonanza in fiducia.

Immagina di aprire la tua app preferita e scoprire che l’interfaccia si è discretamente riorganizzata durante la notte. I pulsanti sono cambiati di posto; nuove opzioni compaiono in modo proattivo per salutarti ancor prima che tu le richieda. È intelligente — pensato su misura per te, almeno così ritiene l’algoritmo. Eppure ti fermi un istante, un attimo di confusione che interrompe il tuo flusso. Il sistema potrebbe adattarsi in tempo reale, ma la tua mente sta cercando di mettersi al passo più lentamente. Quella dissonanza scomoda tra ciò che ti aspettavi e ciò che hai trovato? Ecco, quello è attrito cognitivo.

Focus

L’attrito cognitivo è la tensione che emerge quando i modelli mentali umani non riescono ad allinearsi con il comportamento di un sistema guidato dall’Intelligenza Artificiale. In termini UX classici, è ciò che accade quando un’interfaccia che dovrebbe risultare intuitiva invece ci sorprende con una deviazione inaspettata. Secondo l’Interaction Design Foundation, l’attrito cognitivo si manifesta ogni volta che un utente si imbatte in un elemento dell’interfaccia apparentemente familiare ma che genera risultati inattesi – un disallineamento tra aspettative e risultati effettivi che spesso sfocia in frustrazione. Nel contesto di sistemi guidati dall’IA, questo disallineamento è amplificato. Tali sistemi imparano ed evolvono così rapidamente da poter superare le nostre assunzioni su come dovrebbero funzionare. Un autore di design descrive questo scarto come “ciò che accade quando il tuo modello mentale e il modello macchina dell’IA non sono sincronizzati”, notando che sta silenziosamente diventando uno dei maggiori punti dolenti nell’esperienza utente odierna.

Attrito cognitivo nei sistemi di IA può assumere molte forme, ma alla base c’è sempre un problema di disallineamento. Gli utenti agiscono in base a ipotesi — relazioni causa-effetto apprese da esperienze passate — mentre i sistemi adattivi ad AI operano su modelli probabilistici e dati in tempo reale. Quando un prodotto o una funzionalità cambia improvvisamente il proprio comportamento in base a un insight appreso dalla macchina, di cui l’utente non è al corrente, la narrativa interna dell’utente si spezza. Perché la mia app musicale ha saltato quella canzone? Perché le luci domotiche sono diventate blu all’improvviso? Questi piccoli momenti di smarrimento sono sintomi di attrito cognitivo: il nostro modello mentale del sistema non corrisponde più a ciò che il sistema fa realmente. Il risultato è una sensazione di instabilità nell’esperienza utente, in cui la fiducia nel prodotto può erodersi ad ogni sorpresa indesiderata.

È importante notare che non tutto l’attrito è negativo. Nel campo dell’UX, vari studi indicano che un po’ di attrito a volte può indurre gli utenti a pensare in modo più deliberato ed evitare azioni sconsiderate. In effetti, attimi di “pausa consapevole” possono arricchire il processo decisionale. Tuttavia, l’attrito cognitivo indotto dall’IA è solitamente non intenzionale: non è il designer che inserisce deliberatamente un ostacolo per incoraggiare la riflessione, ma il sistema che devia dalle aspettative dell’utente a causa della propria logica adattiva. Questo tipo di attrito, se non gestito, mina la fiducia dell’utente. La sfida sta nel distinguere tra l’attrito produttivo (che può migliorare la comprensione) e l’attrito distruttivo (che invece frustra e confonde). Qui ci concentriamo sulla riduzione di quest’ultimo: l’attrito cognitivo indesiderato che emerge dai comportamenti in rapida evoluzione dell’IA.

Implicazioni per il design di sistema

Quando l’attrito cognitivo si insinua, produce un effetto domino sull’esperienza utente, sui modelli di interazione e persino sull’architettura del prodotto. Analizziamo come questo disallineamento tra mente e macchina si traduce in sfide di progettazione concrete:

  • Interfacce imprevedibili: Le interfacce alimentate dall’IA si adattano sempre più al volo. Immagina un UI che modifichi il layout o i contenuti in base al tuo comportamento – ad esempio, un’app per il benessere che riorganizza la sua dashboard quando rileva che sei stressato, oppure un sito di e-commerce che riordina i prodotti in base al tuo ritmo di navigazione. Questa adattività in tempo reale può essere potente, rendendo l’esperienza personalizzata e contestuale. Ma senza un’attenta progettazione, può far sentire gli utenti spaesati. Cambiamenti improvvisi nell’interfaccia violano il principio di coerenza: potresti aprire l’app e trovare i menu spostati o opzioni che compaiono e scompaiono, minando i percorsi di navigazione che avevi appreso. Se l’interfaccia “pensa mentre scorri” e si adatta continuamente, l’utente potrebbe faticare a costruire un modello mentale stabile del prodotto. Implicazione: i designer devono bilanciare adattività e prevedibilità. Un’interfaccia non dovrebbe diventare un bersaglio mobile. Ogni modifica deve comunicare il perché sta avvenendo, oppure essere abbastanza discreta da non interrompere il flusso dell’utente.

  • Previsioni e suggerimenti opachi: I sistemi moderni amano anticipare. Dai film suggeriti da Netflix ai suggerimenti di completamento in una app di scrittura, l’IA predittiva cerca di offrirci ciò di cui pensano avremo bisogno ancor prima che lo chiediamo. Quando funziona, sembra una magia; quando sbaglia, genera un disorientante momento “Per quale motivo pensa che mi piacerebbe questo?”. Questi errori di previsione sono un esempio lampante di attrito cognitivo. L’utente è costretto a mettere in dubbio la logica del sistema, spesso senza avere alcuna spiegazione disponibile. Ad esempio, un servizio di streaming potrebbe raccomandarti un film del tutto lontano dai tuoi gusti, lasciandoti a interrogarti sulle ragioni dell’algoritmo. Nel commercio elettronico o nei feed di notizie, una personalizzazione mal calibrata può restringere o distorcere ciò che l’utente vede, portando a confusione o a una sensazione di perdita di controllo (“Vedo questo contenuto, ma non so se è ciò che ho chiesto io o solo ciò che l’IA ha deciso”). L’implicazione progettuale qui è la necessità di trasparenza e di meccanismi di feedback. Gli utenti gestiscono meglio le previsioni se ricevono qualche indizio sul perché appaiono certi suggerimenti (“Consigliato perché hai guardato X”) e se possono correggerli o affinarli con facilità (“Non sono interessato a questo”). Senza tali accorgimenti, i sistemi predittivi rischiano di sembrare scatole nere che ogni tanto sputano fuori risultati bizzarri, minando pian piano la fiducia degli utenti.

  • Comportamenti agentivi & fiducia dell’utente: La forma più estrema di disallineamento si verifica quando i sistemi di IA intraprendono azioni autonome per conto degli utenti. Si pensi a un’app finanziaria che sposta automaticamente denaro nel salvadanaio in base a una previsione sulle tue abitudini di spesa, o a un client email che pianifica riunioni per te senza una conferma esplicita. Queste funzionalità agentive oltrepassano il confine tra suggerire e agire. Se implementate senza una chiara comprensione o consenso da parte dell’utente, possono innescare un forte attrito cognitivo. Un caso emblematico è stato quello del servizio Digit per il risparmio automatico: gli utenti hanno trovato opachi e imprevedibili i suoi prelievi di denaro, generando confusione e frustrazione. Il problema non era che l’automazione fosse indesiderata in sé – ma che la “logica” con cui avveniva era nascosta e talvolta errata per la situazione specifica di una persona, portando a un crollo della fiducia. Gli utenti percepivano che il servizio agisse in modo imprevedibile, persino irresponsabile, sui propri soldi. Allo stesso modo, gli assistenti AI che eseguono compiti proattivamente possono risultare inquietanti: utili in teoria, ma destabilizzanti se l’utente non è mentalmente preparato al loro intervento. La lezione di design che emerge da questi esempi è chiara: non estromettere mai del tutto l’essere umano dal processo. I sistemi che agiscono al posto degli utenti devono farlo mantenendo gli utenti informati e al comando. In caso contrario, un’IA nata per aiutare finisce per far sentire l’utente esautorato, un modo praticamente garantito per allontanare proprio le persone che il sistema intende servire.

  • Mutamento dei pattern di interazione: Al di là di esempi specifici, l’attrito cognitivo ci obbliga a riesaminare alcuni pattern di UX a cui eravamo affezionati. Per decenni, coerenza e semplicità hanno regnato sovrane; gli utenti imparavano a usare interfacce che restavano in gran parte statiche, a meno di aggiornamenti manuali. Ora le interfacce si trasformano e i comportamenti emergono fluidamente tramite update automatici o modelli di machine learning. I pattern di interazione stanno virando verso paradigmi più conversazionali e adattivi – si pensi ai chatbot capaci di gestire domande aperte o agli assistenti vocali che intervengono con suggerimenti contestuali. Questi nuovi pattern non si sovrappongono in modo pulito ai vecchi modelli mentali. Può capitare che un utente sia nel bel mezzo di una conversazione con un’IA e all’improvviso l’IA cambi tono o argomento perché ha “appreso” qualcosa dal contesto. Se l’utente non si aspetta quell’adattamento, ne risulterà confuso. Le architetture di prodotto si stanno evolvendo per supportare questa adattività (con componenti dedicati al modellamento dell’utente, al rilevamento del contesto, all’apprendimento continuo), ma è necessaria un’evoluzione corrispondente nell’experience design. Ogni salto adattivo che il sistema compie dovrebbe essere accompagnato da un design dell’interazione che accompagni l’utente in quel nuovo comportamento. In altre parole, mano a mano che il sistema impara, anche l’utente dovrebbe imparare – a conoscere il sistema. Questo rappresenta un modo completamente nuovo di concepire la progettazione: insegnare agli utenti la “mente” del prodotto (la sua logica AI) mentre il prodotto apprende la mente degli utenti.

  • Architettura del prodotto & responsabilità: Infine, a livello architetturale, i punti in cui si manifesta attrito cognitivo evidenziano dove un prodotto potrebbe aver bisogno di aggiustamenti strutturali. Funzionalità come la personalizzazione in tempo reale, l’analisi predittiva o gli agenti autonomi non sono mera magia dell’interfaccia: richiedono una solida logica lato backend e gestione dei dati. Quando emergono problemi di disallineamento, spesso indicano la necessità di un miglior modellamento dell’utente (l’IA comprende davvero le preferenze o il contesto dell’utente?), di moduli di spiegazione (il sistema può giustificare il suo comportamento in termini comprensibili all’uomo?) e di meccanismi di sicurezza (cosa succede se l’IA sbaglia?). Un sistema progettato con l’essere umano in mente integrerà modi per verificare il buonsenso delle decisioni dell’AI rispetto alle probabili aspettative dell’utente. Ad esempio, un’app di navigazione che apprende le abitudini di guida di una persona dovrebbe comunque confermare un percorso radicalmente nuovo invece di presumere automaticamente che sia quello giusto, soprattutto se contraddice i tragitti di sempre. Inserire questi controlli ed equilibri nell’architettura è ormai una parte fondamentale della progettazione di prodotto. Non basta che l’IA sia precisa in media; deve saper gestire i casi limite in cui potrebbe avere torto o risultare fonte di confusione. Come evidenziato in un’analisi sui fallimenti del design anticipatorio, quando i sistemi non considerano le differenze individuali e gli scenari anomali, finiscono inevitabilmente per generare frustrazione anziché soddisfazione negli utenti. In sostanza, il design di sistema deve integrare l’empatia: anticipare non solo il percorso ideale in cui l’IA fa tutto giusto, ma anche i momenti in cui sbaglierà, assicurandosi che l’essere umano sia pronto a intervenire o ricevere rassicurazioni.

Suggerimenti tattici

Progettare prodotti con AI che si adattano dinamicamente senza lasciare indietro gli utenti è un’arte delicata. Ecco alcuni principi di design attuabili per ridurre o gestire l’attrito cognitivo nei sistemi di IA:

  • Mappare il modello mentale: Colmare il divario tra logica della macchina e aspettative umane. Prima di introdurre funzionalità adattive, conduci ricerche per comprendere i modelli mentali degli utenti. Progetta i comportamenti dell’IA in modo che si allineino a schemi familiari (ad esempio usando metafore e terminologia che l’utente già conosce) oppure insegna esplicitamente agli utenti il nuovo paradigma. Quanto meno un utente deve re-imparare il funzionamento del tuo sistema, tanto meglio sarà la sua esperienza.

  • Adattamenti trasparenti: Rendi visibile l’invisibile. Quando un’IA adatta contenuti o intraprende un’azione, fornisci all’utente segnali o spiegazioni, anche se minimi. Un semplice messaggio come “Consigliato perché hai apprezzato ___” oppure un’evidenziazione delle modifiche può rassicurare l’utente sul fatto che dietro il comportamento del sistema c’è una logica comprensibile. La trasparenza genera fiducia; l’opacità alimenta i sospetti. Anche se il funzionamento interno è complesso, metti in evidenza qualcosa di comprensibile sul perché l’IA ha fatto ciò che ha fatto.

  • Controllo all’utente e possibilità di override: Mantieni l’uomo al posto di guida. Offri sempre un modo per permettere agli utenti di correggere o scavalcare le decisioni dell’AI. Che si tratti di un pulsante “annulla”, di un’opzione per perfezionare i consigli (“mostrami meno elementi come questo”), o di una richiesta di conferma prima di un’azione autonoma importante, questi controlli restituiscono agency all’utente. Trasformano la frustrazione in feedback: anziché subire passivamente l’attrito, l’utente può dire al sistema “questo non va bene”, e idealmente il sistema potrà imparare da ciò.

  • Coerenza nel contesto: Bilancia personalizzazione e prevedibilità. Cerca di progettare un’esperienza che si adatti in modo coerente. Ad esempio, se la tua interfaccia si riorganizza in base al contesto, fallo all’interno di una struttura riconoscibile (come una dashboard che cambia modalità con chiari indicatori, anziché rimescolare elementi casualmente). Mantieni ancore di navigazione fondamentali, in modo che l’utente abbia sempre un riferimento familiare. Coerenza non significa rigidità; significa che i cambiamenti sono logici, contestuali e non arbitrari.

  • Onboarding graduale per funzionalità AI: Introdurre l’intelligenza a tappe. Quando aggiungi una nuova funzionalità basata sull’AI (per esempio, un assistente intelligente o suggerimenti automatici), implementala con suggerimenti introduttivi o tramite divulgazione progressiva. Lascia che gli utenti aderiscano volontariamente, provino un tutorial o sperimentino la funzione in un ambiente controllato. Un’esposizione graduale consente agli utenti di costruire un modello mentale delle capacità e dei limiti dell’IA. Se il sistema è destinato a evolvere nel tempo (imparando dalle preferenze dell’utente), considera una personalizzazione per fasi: inizia con cambiamenti prudenti e facilmente prevedibili e diventa più “audace” solo quando l’utente si sente a suo agio.

  • Impostazioni di default sicure: Progetta pensando a quando l’IA sbaglia. Dai per scontato che la tua IA ogni tanto commetterà errori o farà scelte bizzarre per una parte degli utenti. Preparati a ciò. Le impostazioni di default dovrebbero tendere verso l’opzione più prevedibile. Per esempio, un filtro email basato sull’IA potrebbe di tanto in tanto classificare male alcuni messaggi; un design a prova di errore prevederebbe di mostrare periodicamente all’utente “Ecco cosa ho filtrato — c’è qualcosa che non va?” I “paracadute” come finestre di conferma per azioni insolite, o modi semplici per recuperare (ad esempio un archivio che conserva temporaneamente ciò che l’IA ha spostato, per una eventuale revisione) possono trasformare potenziali disastri in piccoli inconvenienti.

  • Ciclo di feedback continuo: Impara dall’attrito. Considera i momenti di attrito cognitivo come dati preziosi. Se noti che gli utenti mettono spesso in pausa o abbandonano certe funzionalità guidate dall’AI, raccogli feedback qualitativo: perché quell’esperienza li ha messi a disagio? Usa le analisi per individuare dove gli utenti deviano rispetto al percorso previsto dall’AI. Queste informazioni dovrebbero alimentare direttamente miglioramenti iterativi nel design o aggiustamenti dei modelli di AI. In sostanza, progetta i tuoi sistemi di IA non solo per apprendere dagli utenti, ma anche per apprendere da ciò che confonde gli utenti – e poi adatta di conseguenza per risultare più intuitivo.

Cambio di prospettiva

L’attrito cognitivo non è solo una curiosità UX; è un banco di prova strategico per valutare quanto efficacemente stiamo integrando l’IA nei contesti umani. In un mondo in cui il software è sempre più agente e consapevole del contesto, la vera innovazione non sta solo nel rendere i sistemi più intelligenti, ma nel far sì che armonizzino con le persone che servono. Questo è il più ampio cambiamento di prospettiva in atto: passare dal progettare interfacce statiche al progettare partnership adattive tra esseri umani e macchine. Le organizzazioni che lo capiscono tratteranno l’attrito cognitivo come un’opportunità – un segnale che indica “è qui che dobbiamo riallineare la nostra tecnologia con la psicologia umana”. È un invito a un pensiero interdisciplinare, che riunisca designer, ingegneri, esperti di cognizione ed etica per ripensare radicalmente la user experience alle sue radici.

Sul piano etico e organizzativo, ridurre l’attrito cognitivo significa adottare come principi guida la trasparenza, la responsabilità e un’adattività davvero incentrata sull’utente. Richiede che i team di prodotto si chiedano non solo “Possiamo automatizzare questo processo?”, ma anche “Dovremmo farlo, e come lo capiranno gli utenti quando lo faremo?”. Significa misurare il successo non solo in clic o efficienza, ma anche in termini di fiducia e comfort degli utenti. In fin dei conti, un’IA che impressiona per intelligenza ma che confonde o aliena i suoi utenti sta fallendo proprio in quello che dovrebbe essere l’obiettivo primario del design di prodotto.

In definitiva, affrontare l’attrito cognitivo significa portare rispetto per l’elemento umano in ogni sistema. Ci ricorda che i progressi più rapidi della tecnologia devono essere accompagnati da progressi equivalenti nell’empatia e nel design. Smussando le cuciture cognitive tra l’IA adattiva e la comprensione umana, mettiamo gli utenti in condizione non solo di sopportare i sistemi intelligenti, ma di fidarsi davvero di essi e di farli propri. Quella fiducia è la base per la prossima era di innovazione all’incrocio tra IA e UX. Nell’affrontare il panorama in rapida evoluzione dei prodotti con IA, chi saprà padroneggiare l’arte di allineare il comportamento delle macchine ai modelli mentali umani sarà in testa – trasformando l’attrito in fluidità, e la dissonanza cognitiva in esperienze coerenti e appaganti.

Adaptive Intelligence Thinking System (AITS): un nuovo paradigma per il decision-making nell’era dell’intelligenza ibrida

Viviamo in un momento storico in cui il pensiero umano non può più prescindere dalla collaborazione con l’intelligenza artificiale. Dal lavoro di sperimentazione su diversi progetti e clienti ho dato vita all’Adaptive Intelligence Thinking System (AITS), un modello che rappresenta la naturale evoluzione del celebre metodo dei “Six Thinking Hats” di Edward de Bono, aggiornato e potenziato per affrontare la complessità del mondo contemporaneo.

Come nasce il modello AITS

Il modello AITS nasce dalla mia personale esperienza ultraventennale nel settore digitale e innovativo, dalla pratica continua nel supportare aziende e startup, e dall’osservazione diretta di come i metodi tradizionali, anche i più robusti come quello di de Bono, stiano mostrando limiti di fronte alle sfide del nostro tempo: accelerazione tecnologica, sovraccarico informativo, e decisioni sempre più interconnesse e multidimensionali.

AITS è stato progettato partendo dalla struttura concettuale dei “Six Thinking Hats” e integrandovi il potere dell’intelligenza artificiale per rendere il processo decisionale più adattivo, dinamico e sistemico.

A cosa serve AITS

Il sistema AITS non serve solo a prendere decisioni migliori, ma a sviluppare una cultura del pensiero critico e strategico. È utile in contesti aziendali complessi, nella gestione della trasformazione digitale, nell’innovazione di prodotto, nel crisis management, e in tutti gli ambiti in cui è necessaria una visione sistemica e inclusiva.

Con AITS, organizzazioni e professionisti possono affrontare decisioni strategiche con una modalità più robusta, chiara e inclusiva, ottenendo risultati più efficaci e sostenibili.

Il significato di Adaptive Intelligence Thinking System

  • Adaptive: indica la capacità del sistema di adattarsi dinamicamente al contesto, alle informazioni emergenti e al feedback continuo.
  • Intelligence: rappresenta l’integrazione dell’intelligenza umana con quella artificiale, creando un ecosistema cognitivo ibrido.
  • Thinking System: è un sistema strutturato di pensiero, basato su agenti cognitivi specifici che operano in sinergia, ciascuno con una funzione dedicata.

I pillar del modello AITS

Il modello poggia su tre pilastri fondamentali:

  1. Intelligenza Ibrida: l’interazione tra umani e AI è strutturata in modo che entrambi apportino il massimo valore possibile, combinando intuito e creatività umana con potenza analitica e predittiva della tecnologia.
  2. Adattività dinamica: la struttura di AITS permette la massima flessibilità, adattandosi in tempo reale ai feedback e ai cambiamenti, con modalità operative sequenziali, parallele o emergenti secondo la necessità.
  3. Etica integrata: l’approccio etico non è opzionale, ma strutturale: ogni decisione viene valutata sotto il profilo etico e della responsabilità, evitando rischi reputazionali e morali.

La value proposition di AITS

AITS offre un vantaggio competitivo significativo in un contesto dominato dalla complessità e dalla velocità decisionale:

  • Decisioni più robuste e veloci: grazie all’uso di intelligenza artificiale e al metodo parallelo-distribuito, si ottengono decisioni più rapide e basate su un numero maggiore di dati e scenari possibili.
  • Trasparenza e accountability: ogni fase decisionale è tracciata, auditabile e spiegabile, garantendo trasparenza interna ed esterna.
  • Cultura del pensiero potenziata: il metodo stimola una cultura organizzativa orientata all’apprendimento continuo, all’innovazione e alla responsabilità etica.

Come si usa, i nuovi cappelli e ambiti di applicazione già testati

AITS si utilizza attivando, in modo strutturato e flessibile, i suoi otto agenti cognitivi, che sostituiscono e ampliano i tradizionali cappelli di de Bono: Analitico, Emotivo-Intuitivo, Critico-Validatore, Ottimizzatore, Creativo-Generativo, Etico-Governance, Predittivo-Strategico e Meta-Orchestratore. Ciascun agente può essere umano, artificiale o ibrido, a seconda delle esigenze e del contesto.

Ho già applicato con successo AITS in diversi contesti: dalla pianificazione strategica aziendale alla gestione della trasformazione digitale in grandi organizzazioni, dall’innovazione di prodotto in aziende tech al crisis management in situazioni di emergenza. I risultati ottenuti confermano che l’AITS non è solo teoricamente robusto, ma anche altamente efficace nella pratica reale. Ne sto proseguendo studio e implementazione e nei prossimi giorni ne rilascerò ulteriori contenuti.

A chi serve il modello AITS

AITS è pensato per:

  • Manager e decision-maker: che devono guidare organizzazioni attraverso scenari complessi e dinamici, gestendo innovazione e trasformazioni profonde.
  • Professionisti e consulenti: che operano in settori dove la velocità e la qualità delle decisioni sono cruciali (innovazione, finanza, tech, salute, policy).
  • Formatori ed educatori: per insegnare metodi decisionali avanzati e sviluppare competenze di pensiero critico, etico e strategico nelle nuove generazioni.
  • Startupper e innovatori: per validare idee e strategie di business in modo strutturato, integrando intelligenza artificiale e analisi dei dati fin dall’inizio.

Questo modello rappresenta a mio avviso un nuovo paradigma nel decision-making: non soltanto un’evoluzione di un metodo esistente, ma come nuova modalità di interazione uomo macchina nei processi di bransttorming, creativi e progettuali.

Adaptive Intelligence Thinking System è un metodo originale e innovativo, sviluppato da Fabio Lalli, frutto della mia esperienza e ricerca personale e professionale come evoluzione del modello Six Things Hat di Edward De Bono. Il contenuto e la struttura sono protetti da copyright e proprietà intellettuale.

AI-Enhanced Thinking Hats: un framework evolutivo per l’era degli agenti intelligenti

Quando Edward de Bono introdusse il modello dei “Six Thinking Hats” negli anni ’80, fornì al mondo un modo brillante per organizzare e semplificare il pensiero collettivo. Era una proposta rivoluzionaria per l’epoca: incanalare l’energia mentale in sei direzioni distinte, ciascuna rappresentata da un cappello colorato, per aiutare gruppi e individui a pensare meglio, più chiaramente, più efficacemente. Per anni ne sono stato un gran fautore.

Eppure, adesso, siamo chiamati a fare un passo ulteriore sul modello. Non perché quel modello sia sbagliato, ma perché il mondo è cambiato e sta cambiando, soprattutto in un contesto dove il pensiero è plasmato e si confronta con strumenti di AI.

E sta cambiando in profondità, nei ritmi, nelle interconnessioni, negli strumenti e soprattutto nei problemi che affrontiamo. E con esso, cambia anche il nostro modo di pensare. O, per meglio dire, dovremmo cambiare il nostro modo di pensare per essere all’altezza delle sfide contemporanee.

Le crepe nell’eleganza di un modello iconico

C’è qualcosa di estremamente rassicurante nella struttura dei sei cappelli. Una sequenza, una logica, una disciplina. Ma questa stessa struttura, così chiara e ben definita, rischia di diventare una gabbia quando si prova ad applicarla ai contesti ipercomplessi di oggi. Le emozioni influenzano l’analisi, la creatività nasce nel mezzo di una riflessione critica, e le intuizioni arrivano mentre si valutano i dati. I compartimenti stagni non reggono di fronte alla fluidità del pensiero contemporaneo.

Il modello di de Bono è figlio di un tempo in cui le riunioni erano lineari, le informazioni stabili, le decisioni locali. Ma oggi i dati cambiano in tempo reale, le decisioni hanno impatti globali, i problemi sono sistemici. E tutto questo accade in una danza continua tra esseri umani e macchine intelligenti.

L’integrazione uomo-macchina

La presenza dell’intelligenza artificiale nei processi decisionali non è più un orizzonte teorico. È già qui, operativa, distribuita, silenziosa. Assistenti generativi, analisi predittive, sistemi autonomi: ci aiutano, ci sfidano, ci costringono a rivedere le nostre categorie mentali. Pensare con l’AI non è come pensare da soli. Non è nemmeno come pensare con altre persone. È un nuovo ecosistema cognitivo, che richiede nuove forme, nuovi ruoli, nuove regole.

Un esempio di questa trasformazione è l’esperimento Entourage AI, condotto da Allie K. Miller e Reid Hoffman. Una vera e propria “orchestra di GPT“, dove più intelligenze artificiali collaborano per generare idee, riflessioni, decisioni. Nessun cappello. Nessuna sequenza. Solo sinfonia.

Adaptive Intelligence Thinking System

In questo contesto, e dopo aver visto tempo fa l’esperimento del coordinamento di più AI, e aver testato sul campo metodologie diverse di prompting, brainstorming con AI, ho buttato giù questo concetto dell’AITS – Adaptive Intelligence Thinking System. Non un semplice aggiornamento tecnologico del modello di de Bono, ma una sua evoluzione concettuale. Una riconcettualizzazione radicale di cosa significhi pensare in modo strutturato nell’era dell’AI.

AITS non si limita a “indossare” nuovi cappelli. Introduce un’idea diversa: quella di agenti cognitivi che lavorano insieme. Otto, per la precisione. Alcuni evolvono i cappelli originali di De Bono. Altri li superano, giustamente, incorporando dimensioni nuove, indispensabili oggi: etica, predizione, orchestrazione, creatività potenziata.

Gli otto agenti: dalla linearità alla sinergia cognitiva

  • C’è l’Agente Analitico, che raccoglie e analizza i dati come faceva il Cappello Bianco, ma lo fa con l’aiuto del machine learning, dell’addestramento e dell’utilizzo dei dati e della conoscenza a disposizione del contesto, identificando pattern nascosti e validando l’accuratezza delle fonti.
  • C’è l’Agente Emotivo-Intuitivo, che evolve il tradizionale ruolo di raccogliere emozioni umane. Oggi può già analizzare su larga scala i segnali emotivi presenti nei contenuti digitali, rilevare pattern comportamentali nei team e, in alcuni contesti, integrare segnali biometrici provenienti da dispositivi wearable o analizzare video comportamenti. Sebbene la visione di un quadro emozionale unificato sia ancora in fase evolutiva, questo agente rappresenta un primo passo concreto verso una comprensione più profonda e data-driven dello stato emotivo esterno, del contesto e collettivo. La sua funzione principale, oggi, è quella di amplificare l’intuizione umana con segnali oggettivi, aiutando i decision-maker a cogliere cambiamenti sottili nel clima emotivo di un’organizzazione o di un ecosistema sociale.
  • C’è l’Agente Critico-Validatore, un raffinato simulatore di scenari negativi, che valuta rischi e punti deboli con una logica predittiva e non solo precauzionale.
  • C’è l’Agente Ottimizzatore, che trasforma l’ottimismo del Cappello Giallo in una funzione di calcolo che esplora alternative e trova configurazioni vantaggiose tra vincoli e obiettivi.
  • Ma poi ci sono gli agenti nuovi. Quelli che non potevano esistere senza l’AI.
  • L’Agente Creativo-Generativo, che combina intuizione umana e generazione automatica per esplorare mondi alternativi, concetti inediti, linguaggi nuovi.
  • L’Agente Etico-Governance, che vigila sull’impatto delle decisioni. Non solo legale. Ma sociale, ambientale, culturale. Con la capacità di applicare framework etici e simulare reazioni future.
  • L’Agente Predittivo-Strategico, che guarda avanti, esplora scenari, identifica trend deboli, predispone strategie resilienti.
  • E infine, il vero direttore d’orchestra: l’Agente Meta-Orchestratore. Non è un supervisore, è un sistema di orchestrazione intelligente. Coordina gli altri agenti, riconfigura i processi, apprende, migliora, ottimizza.

Pensare, oggi, richiede flessibilità

Il cuore di AITS non è la sequenza, ma la configurazione dinamica. Il sistema può operare in modalità classica, se serve. Ma può anche attivare agenti in parallelo, cambiare strategia in corsa, lavorare con contributi asincroni tra esseri umani e intelligenze artificiali. È un sistema vivo, adattivo, che apprende dall’esperienza e calibra le sue modalità operative in tempo reale:

  • Sequenziale Classica: mantenendo la compatibilità con il modello tradizionale per situazioni che richiedono un approccio strutturato e lineare.
  • Parallela Distribuita: permettendo a più agenti di operare simultaneamente su aspetti diversi del problema, con sincronizzazione gestita dall’Agente Meta-Orchestratore.
  • Adattiva Emergente: dove la configurazione degli agenti evolve dinamicamente basandosi sui risultati intermedi e sui feedback del sistema.
  • Ibrida Uomo-AI: integrando seamlessly contributi umani e AI, con handoff intelligenti tra modalità cognitive diverse.

Non più solo struttura, ma apprendimento

AITS è pensato per imparare. Gli agenti comunicano tra loro, condividono pattern, aggiustano parametri, chiedono aiuto a supervisori umani quando serve. Ogni processo decisionale diventa occasione di miglioramento del sistema. Ogni risultato è un feedback. Ogni errore, un’opportunità di evoluzione:

  • Feedback Loop Interno: ogni agente monitora la qualità dei propri output e si adatta basandosi sui risultati ottenuti.
  • Cross-Agent Learning: gli agenti condividono insights e pattern identificati, creando un apprendimento collettivo che migliora l’intero sistema.
  • Human-in-the-Loop Validation: punti di controllo umano strategicamente posizionati per validare direzioni critiche e mantenere l’allineamento con obiettivi e valori umani.
  • Continuous Calibration: aggiustamento automatico dei parametri operativi basato su metriche di performance e feedback degli utenti.

Negli ambiti dove sto approfondendo e implementando i primi modelli, questo approccio consente di affrontare decisioni strategiche con una profondità di analisi e una qualità veloce ed efficace. Nell’innovazione prodotto, quello che sto vedendo è che riesce a velocizzare e potenziare ogni fase: dall’ideazione alla validazione.

Non c’è dubbio che approcci di questo tipo, in un loop Human-AI-AI, si possano vedere amplificazioni e potenzialità delle capacità cognitive. Ma non è magia. Richiede infrastrutture, competenze, attenzione e pazienza nella fase di addestramento e implementazioni. E può, inoltre, introdurre rischi: dipendenza dall’AI, bias nei dati, problemi di privacy. Serve consapevolezza, etica, progettualità.

AITS non vuole esseer un altro strumento. È un approccio al modo di pensare. Non sostituisce l’uomo. Lo potenzia, lo accompagna, lo costringe a fare un salto. Dai cappelli ai sistemi. Dalla linearità alla complessità. Dalla razionalità alla sinergia cognitiva. Il concetto di pensare sta cambiando a mio avviso. E forse, la direzione è esattamente quella di  esseri umani e intelligenze artificiali, in un unico ecosistema di intelligenza aumentata.