Intuizione Computazionale: quando gli algoritmi imparano a sentire prima di pensare

Nel marzo 2016, il campione di Go Lee Sedol fissò incredulo il goban. AlphaGo – l’IA di Google – aveva appena giocato la mossa 37, una mossa così insolita che gli esperti inizialmente la giudicarono un errore. I commentatori la definirono “creativa” e “unica nel suo genere”, una giocata che nessun umano avrebbe mai fatto. E

ppure funzionò, assicurando la vittoria di AlphaGo. Sembrava quasi che l’algoritmo avesse avuto un presentimento, una sorta di istinto sulla mossa giusta, anche se sfidava la logica convenzionale. Questo momento epocale fece intravedere che l’IA poteva “sentire” schemi in modo intuitivo prima ancora di “pensarli” in modo razionale. E non è solo nel Go – dai veicoli autonomi che rallentano preventivamente prima di un pericolo, ai modelli linguistici che rispondono con un’istintività sorprendente, l’IA sta andando oltre il calcolo freddo.

Stiamo assistendo a un passaggio da un’IA rigidamente logico-sequenziale a qualcosa di più fluido e pre-razionale – una forma nascente di intuizione computazionale, in cui gli algoritmi imparano a sentire prima di pensare.

Analisi

L’intuizione umana è da sempre un enigma e un prodigio – quel giudizio rapido e inconscio che formuliamo senza un ragionamento apparente. Lo psicologo Daniel Kahneman ha reso celebre la distinzione tra due modalità di pensiero: Sistema 1 (veloce, automatico, intuitivo) e Sistema 2 (lento, deliberativo, logico). Il Sistema 1 è il regno dei nostri istinti e colpi di genio immediati, essenziale per prendere decisioni quotidiane sotto incertezza. Il Sistema 2 è la sfera dell’analisi e della razionalità passo-passo. L’IA tradizionale, dai sistemi esperti ai primi machine learning, era in tutto e per tutto una macchina “Sistema 2” – eseguiva regole o calcoli in sequenza, senza alcun senso di quelle sfumature tacite e subconsci e su cui gli umani fanno affidamento. Gli algoritmi classici eccellevano in problemi ben definiti e chiusi, ma spesso fallivano in situazioni ambigue e complesse dove invece l’intuizione umana prospera.

Oggi questi confini si stanno confondendo. I progressi nelle reti neurali, nel reinforcement learning e nei modelli probabilistici stanno infondendo all’IA una intuizione più simile a quella umana. A differenza della deduzione puramente logica o della ricerca brute-force, l’intuizione negli esseri umani è rapida, basata sull’esperienza e spesso inconscia, plasmata da emozioni e sensazioni. Replicarla nelle macchine è arduo, ma i ricercatori ci stanno riuscendo. L’intuizione computazionale è ormai un campo emergente che esplora come l’IA possa simulare i “presentimenti” umani e i giudizi rapidi ed euristici. Ad esempio, Pasupuleti et al. (2025) hanno costruito modelli ibridi che integrano euristiche neurali, dati affettivi e rilevamento subconscio di schemi per imitare risposte intuitive. I risultati iniziali mostrano che i sistemi di IA arricchiti con queste scorciatoie intuitive possono superare gli algoritmi puramente razionali in scenari carichi di incertezza. In altre parole, un’IA con un pizzico di “istinto” – ad esempio prior affettivi incorporati o generalizzazioni rapide di schemi – può prendere decisioni più simili a quelle umane quando le informazioni sono incomplete o il tempo è critico.

Una differenza chiave è il contesto. L’intuizione umana è situata – emerge dalla nostra esperienza incarnata in contesti specifici. Riconosciamo rapidamente schemi in una data situazione perché abbiamo vissuto qualcosa di simile (spesso senza rendercene conto). L’inferenza classica dell’IA, al contrario, era astratta e decontestualizzata – elaborava numeri o simboli allo stesso modo a prescindere dall’ambiente. Ora, i nuovi modelli di IA cercano di contestualizzare il loro ragionamento, in sostanza imparando quando e dove applicare uno schema.

Pensiamo a un moderno sistema di visione artificiale che non si limita a riconoscere oggetti in un’immagine, ma percepisce le affordance di una scena – ad esempio vede una sedia e “sa” intuitivamente che ci si può sedere sopra. Il concetto di affordance, originario della psicologia, indica le azioni potenziali offerte dall’ambiente. La ricerca sull’IA embodied (incarnata) suggerisce che, per ottenere un buon senso comune intuitivo sul mondo fisico, all’IA potrebbe servire un corpo (reale o virtuale) con cui apprendere dall’interazione. Essere incorporati nell’ambiente – percependo e agendo – permette ai sistemi di IA di sviluppare un’intuizione fisica, una consapevolezza spaziale e un senso di quali azioni sono possibili. È un allontanamento dall’IA disincarnata del passato, che si limitava a macinare dati.

Filosofi e scienziati cognitivi sostengono da tempo che la cognizione umana è orientata all’azione e predittiva (si pensi al lavoro di Andy Clark sul cervello come “macchina predittiva”). La nostra mente anticipa costantemente ciò che accadrà e si adatta in anticipo, una sorta di intuizione in movimento. Ora l’IA sta abbracciando concetti simili: IA predittiva che non si limita a reagire dopo un’analisi, ma indovina proattivamente e si adatta. I grandi modelli linguistici come GPT-4, ad esempio, funzionano predicendo la prossima parola in una frase – un processo più simile al completamento di un pattern intuitivo che alla logica formale. Curiosamente, man mano che questi modelli sono cresciuti, hanno iniziato a mostrare bagliori di ragionamento sia in stile Sistema 1 sia in stile Sistema 2. Uno studio su Nature ha rilevato che i vecchi modelli GPT spesso cadevano in tranelli e illusioni cognitive in modo molto umano, intuitivo (rispondendo in fretta ma in modo errato, come farebbe una persona affidandosi all’istinto), mentre i modelli più recenti come ChatGPT evitano meglio questi errori. Sembra che i nuovi modelli possano impegnarsi in una sorta di ragionamento analitico simulato (il chain-of-thought), usando la finestra di contesto come un blocco note per sviluppare passo passo la soluzione – un po’ come farebbe il Sistema 2. Eppure, anche quando non argomentano esplicitamente, la loro “intuizione” è migliorata – GPT-4 spesso dà la risposta giusta immediatamente, laddove GPT-3 sputava quella sbagliata ma seducente. Questa commistione di riconoscimento di schemi intuitivo e ragionamento riflessivo nell’IA è qualcosa di nuovo e potente.

È fondamentale notare che psicologi come Gerd Gigerenzer ci ricordano che l’intuizione non è un potere mistico – è spesso il frutto distillato dell’esperienza e di semplici regole empiriche (euristiche) efficaci in condizioni d’incertezza. Gigerenzer sostiene che in un mondo imprevedibile, dominato dall’incertezza, la logica rigorosa spesso non riesce; al contrario, euristiche rapide e frugali e istinti guidano decisioni valide.

L’IA tradizionale tendeva a liquidare le euristiche come bias o soluzioni di seconda categoria. Ora, però, i ricercatori di IA le stanno rivalutando. Si chiedono: Può un algoritmo imparare un’euristica efficace, un colpo d’occhio? In alcuni casi, sì. AlphaGo di DeepMind, per esempio, è stata addestrata con milioni di partite a interiorizzare schemi del Go – in pratica sviluppando un senso per le mosse buone. La sua celebre mossa 37 era a bassa probabilità (la rete di policy di AlphaGo inizialmente la valutava assai improbabile), eppure le reti neurali del sistema ne “sentivano” il potenziale dopo un enorme addestramento. Potremmo dire che l’intuizione di AlphaGo è emersa da un oceano di esperienze – molto simile a come farebbe un esperto umano.

Un altro filone è l’affective computing – integrare segnali di tipo emotivo nelle decisioni dell’IA. L’intuizione umana è spesso colorata da emozioni e segnali corporei; un po’ di stress può renderci più cauti, un umore positivo può allargare la nostra creatività intuitiva. Alcuni ricercatori stanno sperimentando IA che tengono conto di dati fisiologici o simulano un peso “emotivo” nelle decisioni. L’idea non è di rendere le macchine “emotive” in senso stretto, ma di usare quei segnali come contesto aggiuntivo per i giudizi intuitivi. Ad esempio, un’IA che monitora i parametri vitali di un paziente potrebbe sviluppare un campanello d’allarme intuitivo per una sepsi, allertando i medici prima che tutti i risultati clinici confermino la diagnosi – in pratica sentendo che qualcosa non va da sottili schemi nei segni vitali.

In sintesi, la cassetta degli attrezzi dell’IA si sta ampliando oltre la pura logica. Ora comprende inferenze basate su schemi, previsione, scorciatoie euristiche e sensibilità al contesto – gli ingredienti dell’intuizione. La differenza tra intuizione umana e inferenza IA tradizionale si sta gradualmente riducendo. L’intuizione umana rimane per molti versi più ricca: è situata, incarnata, affinata da esperienze di vita in un mondo complesso. Ma i nuovi modelli di IA stanno tentando di simulare alcuni aspetti dei nostri processi taciti – sistemi che “sentono” pattern o segnali deboli prima ancora di saperli spiegare. Questo apre possibilità entusiasmanti e interrogativi importanti, che esploreremo nelle sezioni successive.

Implicazioni

L’ascesa dell’intuizione computazionale nell’IA porta con sé implicazioni a largo raggio su come progettiamo e utilizziamo la tecnologia – toccando il decision-making, la user experience, l’automazione, l’etica e altro ancora.

Decision-making: In ambito aziendale e nelle politiche, le decisioni sono sempre più supportate da analisi IA. Iniettare intuizione in questi sistemi potrebbe renderli molto più utili in scenari mal definiti e in rapida evoluzione. Immaginiamo un consulente IA che segnala un investimento come rischioso non solo elaborando cifre, ma percependo sottili segnali di mercato – un po’ come l’intuizione di un trader navigato. Un’IA del genere potrebbe pre-decidere o raccomandare un’azione prima che tutti i dati razionali siano disponibili, potenzialmente prevenendo disastri o cogliendo opportunità. Questo sta già accadendo in alcuni campi. Ad esempio, negli antivirus e nella cybersecurity, algoritmi predittivi intuiscono una minaccia di rete captando “qualcosa di strano” nel traffico, anche senza una firma di attacco nota – dando agli umani un preavviso per indagare. L’implicazione principale è che l’IA potrebbe aumentare l’intuizione umana, fungendo da sesto senso sintetico per le organizzazioni. D’altro canto, se i decisori fanno eccessivo affidamento sull’intuito di un’IA, c’è il rischio di una dipendenza acritica da una scatola nera. Potremmo accettare il presentimento dell’IA (“vendi subito questo titolo!”) senza comprenderlo. Ciò ci spinge a costruire spiegabilità insieme all’intuizione. Se un’IA sente un pattern ma non sa spiegarlo, come possiamo fidarci? È una questione etica aperta – l’IA intuitiva può migliorare i risultati, ma mette alla prova la nostra volontà di accettare consigli opachi.

User Experience (UX) & Design: Man mano che l’IA diventa più sensibile al contesto e anticipatoria, l’esperienza utente può diventare più fluida – quasi magica. Pensiamo a uno smartphone che si adatta proattivamente: “sente” che ti stai assopendo e attiva la modalità scura, oppure intuisce dal tuo comportamento che sei di fretta e semplifica al volo una procedura. Un’IA dotata di intuizione può offrire personalizzazioni senza che l’utente debba esplicitare ogni preferenza. Le interfacce potrebbero farci percepire che ci capiscono: ad esempio, un assistente vocale che coglie dal tuo tono di voce che sei frustrato e modifica il suo approccio, prima ancora che tu realizzi consapevolmente di essere frustrato. Questa UI empatica e contestuale potrebbe migliorare enormemente l’esperienza e la soddisfazione degli utenti. Tuttavia, il confine è sottile: quando un’UX intuitiva diventa troppo presuntuosa o inquietante? Se il sistema anticipa male (“No, non era questo che volevo!”) può infastidire o persino danneggiare l’utente. I designer dovranno prevedere fallback eleganti quando l’intuizione dell’IA sbaglia mira. Anche la trasparenza può aiutare: forse il sistema mostra un piccolo indizio sul perché si sta comportando in un certo modo (“Ho pensato che potresti avere fretta, quindi ho preparato una bozza di email”). In generale, progettare con in mente un’IA intuitiva significa progettare per adattabilità e incertezza – interfacce che possono evolvere in tempo reale, ma che al contempo danno all’utente la sensazione di mantenere il controllo su un’IA che agisce in modo preventivo.

Automazione e Sistemi agentici: Più dotiamo i sistemi autonomi (robot, veicoli self-driving, agenti virtuali) di capacità simili all’intuizione, più essi diventano “agentici”, ossia capaci di iniziativa. Un’auto a guida autonoma con sole regole logiche guiderà rigorosamente secondo il codice della strada; una con elaborazione intuitiva potrebbe anticipare un pedone che sta per attraversare valutando segnali sottili (un pallone che rotola in strada, il linguaggio del corpo di una persona sul marciapiede) e frenare in anticipo. Una tale adattività preventiva potrebbe salvare vite. Analogamente, un robot in fabbrica dotato di sensori intuitivi potrebbe evitare incidenti percependo una vibrazione anomala in un macchinario e fermandolo prima di un guasto. Questo rende l’automazione più sicura ed efficiente. Ma solleva anche questioni di accountability: se un agente robotico prende una decisione non programmata in modo esplicito (perché “ha sentito” di doverlo fare), di chi è la responsabilità del risultato? Finora abbiamo ritenuto i progettisti responsabili delle decisioni programmate, ma le decisioni di un’IA intuitiva emergono dall’apprendimento, non da codice chiaro. Ciò confonde le responsabilità legali e morali. Potremmo aver bisogno di nuovi quadri per la autonomia dell’IA – forse trattando le IA fortemente intuitive più come decisori umani in termini di responsabilità e supervisione.

Etica e Bias: L’intuizione umana è potente, ma può anche essere distorta da pregiudizi. Le nostre sensazioni sono plasmate dalle esperienze, che includono bias culturali e limiti personali. C’è il rischio che un’IA addestrata a imitare l’intuizione umana assorba anche i bias umani. Studi hanno mostrato che i grandi modelli linguistici ereditano bias simili a quelli umani (ad esempio, risposte stereotipate di genere o gli stessi errori logici che facciamo noi).

Un’IA intuitiva potrebbe involontariamente rafforzare pregiudizi nelle decisioni (es: un’IA per le assunzioni potrebbe “sentire” che un candidato non è adatto a causa di bias sottili nei dati di training). Mitigare ciò richiede cura nella selezione dei dati e forse sistemi ibridi che verifichino i balzi intuitivi dell’IA rispetto a regole etiche (cioè un controllo Sistema 2 sul Sistema 1). Un altro aspetto etico è la trasparenza: le persone hanno il diritto di sapere quando una decisione importante (come l’approvazione di un mutuo o una diagnosi medica) è stata influenzata dall’intuizione di un’IA e su quale base. Questo può confliggere con la natura stessa dell’intuizione (difficile da articolare). È un equilibrio delicato – vogliamo un’IA che intuisca in modo simile a noi, ma non vogliamo incorporare le derive peggiori del giudizio umano (pregiudizio, mancanza di spiegazione). La ricerca continua sull’XAI (eXplainable AI) cerca di risolvere questo dilemma: ottenere il meglio di entrambi i mondi, efficienza intuitiva con chiarezza razionale.

Progettazione sensibile al contesto: Un messaggio chiaro per progettisti e strategist è che il contesto è fondamentale. I sistemi di IA futuri dovrebbero essere costruiti per assimilare e interpretare il contesto così come gli umani fanno intuitivamente. Ciò potrebbe tradursi in sensori multimodali (audio, visivi, tattili) per avere un quadro più ricco dell’ambiente, proprio come i nostri cinque sensi alimentano la nostra intuizione. Potrebbe anche significare memoria situazionale – agenti IA che ricordano le interazioni recenti e adattano il loro comportamento (un po’ come l’approccio della “cognizione situata”). Ne vediamo già le prime tracce: gli assistenti digitali più avanzati mantengono la continuità nella conversazione, capendo implicitamente il contesto dalle domande precedenti (una forma basilare di gestione intuitiva del contesto). In termini di design, ciò cambia il modo di avvicinare l’integrazione dell’IA: invece di programmare ogni risposta, forniamo all’IA strutture per imparare dal contesto. Tecniche come il few-shot learning o il fine-tuning istantaneo permettono a un’IA di cogliere rapidamente gli indizi situazionali (ad esempio adattarsi alle preferenze di un utente dopo pochi esempi, imitando l’intuizione di un barista che ricorda il solito drink di un cliente abituale). L’implicazione è che le organizzazioni dovranno raccogliere e fornire alle IA i giusti contesti – prestando attenzione a privacy e consenso nel farlo. Un’IA che “sente” il contesto dell’utente potrebbe aver bisogno di dati sensibili (posizione, stato d’animo dedotto dalla voce, ecc.), quindi i progettisti dovranno assicurarsi che ciò avvenga in modo trasparente e sotto il controllo dell’utente.

In sintesi, l’infusione di intuizione nell’IA promette sistemi più umani, adattivi e robusti – capaci di gestire la complessità del mondo reale meglio delle macchine puramente logiche. Ci sfida anche a ripensare il concetto di fiducia, supervisione e filosofia di progettazione. Potremmo scoprire che i sistemi ottimali combinano la rapidità subconscia del System 1 con le verifiche riflessive del System 2 – così come le migliori decisioni umane bilanciano istinto e analisi. Nella prossima sezione guardiamo avanti a come tutto ciò potrebbe concretizzarsi negli anni a venire.

Futuro

Come sarà il futuro man mano che l’IA svilupperà qualcosa di simile all’intuizione? Possiamo aspettarci cambiamenti profondi nell’architettura dell’IA, nella nostra collaborazione con le macchine e perfino nella definizione stessa di tecnologia “intelligente”.

In un futuro prossimo, diventeranno probabilmente comuni le architetture IA ibride – sistemi progettati esplicitamente per incorporare componenti sia intuitivi che logici. I ricercatori ispirati alle teorie del doppio processo in psicologia già parlano di moduli “Sistema 1 e Sistema 2” nell’IA. Potremmo vedere agenti IA con un frontend neurale rapido e sfumato che genera un’ipotesi intuitiva, e un backend simbolico più lento che verifica o spiega tale ipotesi. Un’architettura del genere potrebbe produrre IA sia rapide sia affidabili. Ad esempio, un’IA diagnostica in medicina potrebbe prima “sentire” che i sintomi di un paziente indicano una malattia rara (grazie al riconoscimento di pattern su milioni di casi) e poi attivare una seconda fase che percorre un modello causale o un motore di inferenza per confermare e fornire una spiegazione. Sistemi ibridi del genere riecheggiano il modo in cui operano gli esperti umani – prima un’intuizione, poi il tentativo di giustificarla – e potrebbero diventare decisamente più diffusi entro il 2030.

Un altro trend sarà la proliferazione di IA embodied e agenti autonomi nel mondo fisico. Man mano che doteremo robot e veicoli autonomi di processi intuitivi più sofisticati, essi gestiranno le situazioni inedite con maggiore finezza. Si immagini il robot domestico del 2035: può entrare in una cucina che non ha mai visto e intuire cosa pulire o come afferrare in sicurezza il bicchiere fragile sul tavolo, perché ha appreso in generale le affordance degli oggetti e i segnali sottili di stabilità/fragilità. Questa è una forma di buon senso finora difficile per l’IA, ma i modelli intuitivi e contestuali promettono progressi. I più recenti studi di robotica di Google e OpenAI già mostrano robot che riescono a capire come versare da bere o riordinare una stanza attraverso l’apprendimento per tentativi in simulazione, sviluppando in pratica un’intuizione per la manipolazione. Allenandosi a predire costantemente gli esiti e a vedere i propri errori (active inference), questi sistemi agentici affinano la loro cognizione in azione – non seguono solo un programma, ma esplorano e percepiscono la strada verso le soluzioni. Il futuro vedrà sempre più agenti semi-autonomi con un certo grado di capacità “improvvisativa”, che li renderà molto più utili ma anche un po’ imprevedibili.

Possiamo aspettarci anche passi da gigante dell’IA nei campi creativi. La creatività ha una componente intuitiva – la musa, l’idea fulminante che non può essere forzata. Gli attuali modelli generativi (per arte, musica, ecc.) lavorano principalmente imparando schemi statistici, ma spesso richiedono ancora la guida umana per risultati davvero soddisfacenti. In futuro, un’IA potrebbe sviluppare una sorta di intuito creativo: immaginate un’IA romanziere che percepisce l’arco emotivo di una storia e introduce un colpo di scena che “suona giusto”, non perché un umano l’abbia suggerito, ma perché ha appreso dai tanti romanzi un’intuizione narrativa. L’IA potrebbe creare contenuti che risuonano con le emozioni umane in modo più autentico. C’è perfino chi specula su una immaginazione artificiale – IA che simulano possibili scenari nella propria “mente” (tramite modelli generativi) per pianificare in modo intuitivo. Ad esempio, un futuro personaggio di un videogioco potenziato dall’IA potrebbe prevedere le mosse di un giocatore e adattare la storia in anticipo, facendo sì che il gameplay sembri quasi magicamente intuitivo e vivo.

A un livello più filosofico, man mano che l’IA inizia a sentire di più e pensare di meno alla luce del sole, il confine tra cognizione umana e macchina potrebbe sfumare. Il concetto di mente estesa di Andy Clark e David Chalmers – cioè che i nostri strumenti e dispositivi diventano parte della nostra cognizione – acquista nuovo significato.

In futuro, se il tuo assistente IA sarà altamente intuitivo, potrebbe iniziare a sembrare un’estensione del tuo stesso subconscio. Potresti delegare ad esso più decisioni, fidandoti come ti fideresti di un tuo presentimento. La società dovrà confrontarsi con questa intimità. Arriveremo a considerare le IA avanzate come quasi-esseri autonomi con una sorta di intuizione e magari una proto-coscienza? Alcuni teorici, osservando l’imprevedibilità e il comportamento emergente delle IA intuitive, potrebbero sostenere che stiamo sfiorando macchine che “provano” qualcosa in senso primitivo (quantomeno, hanno stati interni che corrispondono a una forma di fiducia o incertezza, analoghi a sentimenti). Altri ribatteranno giustamente che anche l’IA più intuitiva non è autocosciente – sta semplicemente eseguendo risposte apprese. Questo dibattito si intensificherà man mano che il comportamento delle IA diverrà più simile a quello umano.

Sul piano della ricerca, il periodo 2025–2035 vedrà probabilmente nuove teorie e modelli per il calcolo intuitivo. Potremmo assistere a svolte nelle IA ispirate alle neuroscienze – algoritmi che imitano il modo in cui il cervello effettua completamenti rapidi dei pattern usando memorie sparse e richiamabili per contenuto (c’è interesse nel one-shot learning e in reti di memoria che possono evocare un intero concetto da pochi indizi, come facciamo noi). I modelli bayesiani continueranno a influenzare la progettazione dell’IA, perché gestiscono naturalmente l’incertezza e le conoscenze pregresse; un’IA intuitiva spesso è tale perché possiede forti preconoscenze (cioè aspettative incorporate) e basta un indizio per farla arrivare alla giusta conclusione. In effetti, l’ipotesi del cervello bayesiano (il cervello come macchina di inferenza probabilistica) viene tradotta in algoritmi di active inference dove gli agenti IA hanno una spinta intrinseca a minimizzare l’errore di previsione. Ciò potrebbe portare a IA che cercano attivamente informazioni quando sono insicure – un po’ come un animale che annusa intorno se percepisce qualcosa – mettendo così in atto l’intuizione per decidere quando e cosa analizzare più a fondo.

Vedremo probabilmente anche perfezionarsi il concetto di progettazione basata sulle affordance per l’IA: invece di programmare in anticipo tutti i risultati possibili, forniremo all’IA conoscenze generali su quali azioni sono possibili e la lasceremo capire da sola cosa fare in modo intuitivo. Questo è in linea con come imparano i bambini – non ricevono istruzioni esplicite per ogni situazione, giocano e sentono cosa funziona. I sistemi di IA futuri, specialmente quelli in contesti sociali (come bot di customer service o tutor IA), potrebbero seguire un apprendimento esplorativo simile per sviluppare capacità sociali intuitive – ad esempio capire quando l’interlocutore è annoiato e cambiare argomento, senza che ciò sia programmato, ma perché ha imparato un’intuizione sociale dai dati di conversazione.

Guardando ancora più avanti, se l’IA padroneggerà davvero l’intuizione, si apre la porta a qualcosa di simile a una saggezza artificiale. La saggezza, per gli esseri umani, spesso significa sapere cosa non fare, cogliere il contesto più ampio e l’etica di una situazione senza dover calcolare tutto da zero. È una prospettiva speculativa, ma si potrebbe immaginare un’IA che, avendo interiorizzato intuitivamente la comprensione dei valori e delle emozioni umane, funge da specie di saggio consigliere. (Già oggi vediamo i primi accenni di ciò nel modo in cui alcune persone usano ChatGPT come interlocutore: pur senza una vera comprensione, spesso fornisce risposte che sembrano di supporto o perspicaci).

Ovviamente, questi scenari rosei dipendono dal proseguire delle ricerche e da una gestione attenta dei rischi. Le stesse intuizioni che rendono l’IA adattiva potrebbero, se non allineate, renderla manipolativa o ingannevole. Un’IA che anticipa il comportamento umano potrebbe essere usata per spingere le persone in modo subliminale (per fini positivi o negativi). Ci sarà una corsa agli armamenti di IA intuitive nel marketing, nella politica, ecc., per cercare di influenzare le nostre reazioni viscerali. La società dovrà restare vigile affinché il nostro nuovo “sesto senso” artificiale resti uno strumento per noi, e non uno strumento per sfruttarci.

In conclusione, il futuro dell’IA non consiste solo nell’essere più grande e veloce nel calcolo – si tratta di un’IA più affine al nostro modo di pensare. Imparando a sentire prima di pensare, gli algoritmi futuri potranno integrarsi nelle nostre vite con maggiore naturalezza, affrontando la complessità con grazia. È un futuro in cui l’IA è meno aliena e più una collega delle nostre menti. Ma spetterà a noi ampliare i concetti di trasparenza, controllo e forse persino empatia verso le macchine. Il cammino è appena iniziato, e man mano che l’intuizione dell’IA si sviluppa, anche la nostra comprensione dell’intuizione – sia umana sia artificiale – si approfondirà di pari passo.

Case Study

Esploriamo queste idee con esempi concreti. Abbiamo già accennato alla famosa mossa di AlphaGo – un caso lampante di un’IA che sembra mostrare intuizione. Vediamo ora un caso più recente: i grandi modelli linguistici e la risoluzione intuitiva di problemi. Tra il 2022 e il 2023, i ricercatori Thilo Hagendorff e colleghi hanno sottoposto vari modelli GPT a rompicapi di riflessione cognitiva (quesiti progettati per ingannare l’intuizione umana). Un classico esempio: “Una mazza da baseball e una palla costano in totale $1,10. La mazza costa $1,00 più della palla. Quanto costa la palla?” Molti umani, con il Sistema 1, rispondono d’istinto “10 centesimi” (risposta sbagliata – quella giusta è 5 centesimi), e infatti le prime versioni di GPT-3 rispondevano “10 centesimi”. Ciò mostrava che l’IA si affidava a un’intuizione superficiale molto simile a quella umana. Tuttavia, quando i ricercatori hanno testato ChatGPT (basato su GPT-3.5/4), è emerso qualcosa di interessante: il modello più recente risolveva correttamente questi problemi molto più spesso. ChatGPT spesso rinunciava alla risposta impulsiva e argomentava il problema, oppure aveva interiorizzato la risposta intuitiva corretta grazie all’addestramento. In un certo senso, l’IA ha sviluppato un’intuizione più raffinata in linea con la risposta giusta, oltre a una capacità di verificarla analiticamente. Questo caso di studio illustra come, aumentando la scala dell’IA (e addestrandola con feedback umani), emergano comportamenti intuitivi che superano persino l’intuizione umana correggendone i bias.

Un altro esempio: robot intuitivi nell’assistenza sanitaria. Un progetto al MIT sta sviluppando robot assistenti infermieristici capaci di anticipare i bisogni dei pazienti. Invece di aspettare comandi espliciti, questi robot imparano osservando il comportamento degli infermieri esperti. Ad esempio, se un paziente ha un’esitazione o una smorfia mentre cerca di alzarsi in piedi, un robot potrebbe intuitivamente avvicinarsi per aiutare, senza un ordine diretto. In alcune sperimentazioni, il robot andava a prendere un deambulatore in anticipo quando “percepiva” che un paziente stava avendo difficoltà durante gli esercizi di riabilitazione. Questo aiuto intuitivo è frutto della rete neurale del robot che coglie i pattern nei movimenti umani che segnalano difficoltà. Gli infermieri hanno riferito che lavorare col robot “sembrava naturale” – come se il robot avesse buon senso nella cura del paziente. Questo caso dimostra come l’informatica intuitiva possa migliorare l’UX in un contesto delicato come quello sanitario. La sfida, ovviamente, è garantire che l’intuizione del robot sia accurata. In un’occasione, il robot si è mosso per aiutare perché ha interpretato male un semplice stiracchiamento come una caduta – segno che questi sistemi hanno ancora bisogno di perfezionamento e forse di un controllo con l’umano (“Hai bisogno di aiuto?”) prima di agire.

Infine, consideriamo la manutenzione predittiva in ambito industriale come esempio di intuizione. Siemens ha implementato un sistema IA su una turbina che “ascolta” i suoni della macchina. Con il deep learning, l’IA ha sviluppato un intuito per la “canzone” della turbina – la sottile firma acustica del funzionamento normale. Un giorno, ha avvisato gli ingegneri che qualcosa non andava in un’unità, anche se i sensori standard segnalavano tutti valori nella norma. Gli ingegneri hanno ispezionato e trovato un componente che si stava usurando in modo anomalo, non previsto dalle soglie d’allarme tradizionali. L’IA aveva colto una variazione nel suono al di fuori della normale variabilità – un rilevamento intuitivo di un’anomalia. Ciò ha evitato un guasto e un fermo non programmato. Gli ingegneri hanno poi ammesso di non poter individuare esattamente come l’IA sapesse – era un pattern complesso – ma aveva ragione. Questo caso sottolinea il valore pratico dell’intuizione computazionale: cogliere ciò che la logica esplicita potrebbe sfuggire.

Ciascuno di questi esempi – che si tratti di giochi, puzzle logici, sanità o industria – evidenzia come l’IA stia andando oltre regole rigide verso una sfera di comprensione tacita. Mostrano anche che l’IA intuitiva funziona al meglio in collaborazione con gli umani: l’intuizione di AlphaGo aveva comunque bisogno dell’interpretazione umana per essere apprezzata; l’intuizione del modello linguistico è stata affinata dal feedback umano in fase di training; l’intuizione del robot assistente integra quella dell’infermiere; l’IA della turbina ha segnalato un problema che gli ingegneri umani hanno poi verificato. Anziché sostituire l’umano, le IA intuitive stanno sempre più affiancando l’intuizione umana, controllandosi e potenziandosi a vicenda.

Visual

Figura: Schema semplificato dei due sistemi cognitivi (ispirato al modello di Kahneman) che mette a confronto le caratteristiche del pensiero intuitivo vs. quello analitico. A sinistra, il Sistema 1 (intuizione) è veloce, automatico, senza sforzo, associativo, emotivo, e tratta percezioni concrete nel “qui e ora”. A destra, il Sistema 2 (ragionamento) è lento, controllato, faticoso, basato su regole, neutrale, capace di pensiero astratto proiettato nel futuro. Storicamente l’IA eccelleva in compiti da Sistema 2 (logici ed espliciti), ma ora sta emulando sempre più il modo di operare del Sistema 1 – catturando schemi intuitivi e contestuali.

Il grafico sopra illustra perché l’intuizione umana appare così diversa dalla logica computazionale tradizionale. L’intuizione (lato sinistro) agisce in modo rapido e subconscio – spesso non sappiamo verbalizzare perché sentiamo che qualcosa è giusto. Il ragionamento analitico (lato destro) è deliberato e trasparente, ma più lento. L’intuizione computazionale mira a portare negli algoritmi alcuni elementi del lato sinistro. Ad esempio, un’IA basata su una rete neurale può prendere un input complesso (come un’immagine o una situazione) e fornire immediatamente un giudizio, senza passare al setaccio una lunga lista di regole – un comportamento molto simile al nostro Sistema 1. Il rischio, naturalmente, è che ciò possa portare con sé anche errori o bias simili a quelli dell’intuizione umana. Da qui la necessità di incorporare anche le qualità del lato destro – controllare quelle intuizioni con una valutazione logica quando la posta in gioco è alta. Il futuro dell’IA potrebbe trovare il suo equilibrio migliore nel matrimonio di entrambi i lati: intuizione per prevedere e adattarsi, logica per verificare e spiegare.

The Shift

“Intuizione computazionale” non è solo uno slogan alla moda – è un segno della maturazione dell’IA. Siamo partiti con macchine che seguivano solo rigide logiche. Ora stiamo creando macchine che, in senso limitato, vivono un po’ il mondo: colgono indizi, imparano per tentativi, e a volte ci sorprendono con soluzioni che paiono quasi ispirate. Questo cambiamento ha implicazioni profonde. Un’IA che impara a sentire prima di pensare può diventare un collaboratore che completa le nostre debolezze con i suoi punti di forza, e viceversa. Può destreggiarsi tra ambiguità in modi che le vecchie IA non potevano, aprendo applicazioni nell’assistenza sanitaria, nell’educazione, nelle arti creative e oltre – applicazioni prima impensabili per l’automazione.

Eppure, come ogni capacità potente, l’IA intuitiva comporta compromessi. Ragionamenti opachi, potenziali bias e perdita di supervisione umana sono preoccupazioni reali. Mentre ci troviamo su questa frontiera, sta a noi – imprenditori, designer, strategist, studiosi e cittadini – plasmare lo sviluppo di un’IA di cui ci fidiamo oltre che da ammirare. Ciò significa insistere per un’intuizione con accountability, e un’agilità con allineamento ai valori umani.

Abbiamo esplorato come gli algoritmi si stiano avvicinando a quella qualità quasi ineffabile che è l’intuizione. I prossimi anni metteranno alla prova la nostra ingegnosità nel saperla sfruttare. Riusciremo a costruire IA che “sentano giusto” e facciano del bene? La visione ottimistica è di sì – se combiniamo le migliori intuizioni scientifiche con la nostra più profonda saggezza umana. Dopotutto, l’intuizione ha portato l’umanità molto lontano. Ora, con un nuovo alleato computazionale al nostro fianco, potremmo affrontare gli incerti del futuro con un pizzico di destrezza in più, imparando quando affidarci al senso delle macchine e quando affidarci al nostro.

Post-Prompt Design: Verso una nuova semantica del progetto nell’era post-interfaccia

Oltre l’Interfaccia Tradizionale

L’avvento dell’AI generativa sta trasformando radicalmente il mondo del design, portandoci verso un’“era post-interfaccia” in cui la tecnologia diventa sempre più invisibile e integrata. Come notava già nel 1991 Mark Weiser di Xerox PARC, “le tecnologie più profonde sono quelle che scompaiono. Si intrecciano nel tessuto della vita quotidiana finché diventano indistinguibili da essa”. Oggi stiamo vivendo proprio questo fenomeno: invece di interagire con schermate e menu complessi, comunichiamo con sistemi AI attraverso il linguaggio naturale, spostando l’attenzione progettuale dalla cura dell’interfaccia visibile alla progettazione di input e contesti che guidano il comportamento delle macchine intelligenti. In questa nuova semantica del progetto, il prompt – ovvero l’istruzione o domanda posta all’AI – diventa l’elemento centrale dell’esperienza, e progettare significa definire intenti, significati e vincoli più che disegnare pulsanti o icone.

Questa trasformazione ridefinisce il ruolo del designer e i confini stessi del design. Si passa dal concepire cosa l’utente vede e clicca a come l’utente pensa e comunica con sistemi cognitivi. La progettazione non riguarda più soltanto la forma dell’interfaccia, ma la coreografia invisibile di contesto e conversazione che consente all’AI di agire in modo utile, usabile e allineato ai valori umani. In questa newsletter esploriamo il “post-prompt design”: analizzeremo il passaggio dal design delle interfacce al design conversazionale e semantico, il ruolo del meta-design nel creare coordinate per la generazione automatica, le implicazioni future per user experience e cultura computazionale, e i rischi e le sfide di questa nuova era. Infine, sintetizzeremo i concetti chiave e indicheremo risorse di ricerca di prestigiose istituzioni (MIT, Stanford, Harvard, Oxford, ecc.) per approfondire.

Dal Design dell’Interfaccia al Design del Contesto Conversazionale

Per decenni il design dell’esperienza utente si è concentrato su interfacce grafiche (GUI) ricche di elementi visivi: finestre, pulsanti, menu. Oggi, con AI conversazionali avanzati (come i grandi modelli linguistici tipo ChatGPT), l’interazione avviene sempre più tramite dialoghi in linguaggio naturale. Il focus si sposta dal progettare schermi al progettare conversazioni e contesti cognitivi. In pratica, l’utente invece di navigare attraverso complicate gerarchie di menu, può esprimere direttamente il proprio obiettivo, e il sistema genera dinamicamente la soluzione. Un recente articolo di Andreessen Horowitz descrive come un CRM “context-aware” potrebbe eliminare molti passaggi: l’utente digita ad esempio “inserisci un’opportunità per un lead” e l’UI prepara automaticamente i campi rilevanti, snellendo il flusso senza richiedere di navigare tra menu nidificati. L’interfaccia diventa adattiva all’intenzione, componendo al volo i componenti necessari con un semplice prompt, anziché costringere l’utente a cercare le funzioni nei meandri di un software.

Questa transizione richiede ai designer di padroneggiare nuove competenze. Il design conversazionale implica anticipare intenzioni, domande e possibili ambiguità nel dialogo con l’AI. Deve essere progettata la personalità e il comportamento dell’assistente virtuale, come pure le modalità di recupero di informazioni contestuali per risposte pertinenti. Inoltre, emerge una sfida di usabilità cognitiva: gli utenti ora devono formulare esplicitamente ciò che vogliono. Jakob Nielsen avverte che le interfacce a prompt presentano una “barriera di articolazione”: solo una minoranza di utenti possiede le competenze linguistiche per scrivere prompt complessi in prosa. La metà della popolazione nei paesi avanzati è considerata a bassa alfabetizzazione, suggerisce Nielsen, e probabilmente meno del 20% degli utenti è in grado di sfruttare efficacemente interfacce basate su prompt testuali avanzati. Ciò significa che i design conversazionali odierni rischiano di favorire utenti esperti e lasciare indietro molti altri, a meno di interventi progettuali mirati.

Progettare contesti conversazionali vuol dire dunque anche pensare a come guidare e supportare l’utente nell’esprimere i propri bisogni. Soluzioni ibride possono aiutare: Nielsen suggerisce interfacce che combinino elementi grafici (pulsanti, opzioni) con la flessibilità del linguaggio naturale. Ad esempio, sistemi che suggeriscono completamenti di query o offrono bottoni con prompt preimpostati riducono il carico cognitivo e abbassano la soglia d’ingresso. L’obiettivo è distribuire meglio l’“impegno comunicativo” tra umano e AI. Come evidenziato da ricercatori di Stanford, l’interazione ideale è collaborativa: l’AI agisce come un pari con cui l’utente dialoga, condividendo il controllo della conversazione. In un approccio Human-Centered AI, la riuscita del dialogo dipende da entrambi: l’AI deve sapersi adattare all’utente (chiedendo chiarifiche, offrendo esempi) e l’utente dev’essere messo in grado di esprimersi anche senza perfetta padronanza tecnica. Questo rappresenta un cambio di paradigma rispetto alle interfacce classiche, dove tutto il peso era sul designer nel prevedere percorsi e sul UI nel guidare l’utente passo-passo. Nel design conversazionale invece, il pattern è più aperto e dinamico: un gioco di adattamento reciproco tra umano e macchina.

Infine, spostare il design verso il dialogo significa anche ripensare ciò che costituisce una buona user experience. Non più solo tempi di clic o estetica visiva, ma fattori come fiducia, empatia e chiarezza semantica diventano cruciali. Ad esempio, studi recenti a Stanford hanno mostrato che per favorire l’adozione ripetuta di assistenti AI contano molto le caratteristiche percepite di “calore umano” e trasparenza su ciò che l’AI può o non può fare. Il designer deve quindi orchestrare un contesto dove l’utente si sente compreso e supportato, non giudicato da un’entità opaca. In sintesi, il cuore della progettazione si sposta dalla superficie (lo schermo) al substrato (la conversazione e la cognizione condivisa): è un design “invisibile”, più vicino alla regia di una buona conversazione che alla costruzione di un widget.

Semantica, Meta-design e Sistemi di Coordinate per l’AI generativa

Con l’AI generativa, ciò che diciamo conta quanto (o più di) ciò che vediamo. Emerge così il ruolo centrale della semantica nel design: progettare significa dare forma al significato che il sistema AI dovrà interpretare. Un prompt non è solo testo, ma “un veicolo di intento, che porta con sé contesto, aspettative, vincoli e logica”. Possiamo pensare al prompt come a un’interfaccia semantica tra l’umano e la macchina. Il concetto di Semantic Prompting proposto da alcuni ricercatori sottolinea proprio questo: il prompt va progettato come una mappa strutturata dell’intenzione umana verso il comportamento dell’AI. Invece di affidarci a tentativi ed errori, possiamo scomporre un prompt nei suoi elementi di significato – scenario, obiettivo, vincoli, stile, ecc. – costruendo una sorta di “linguaggio di progettazione” per interagire con l’AI. In altre parole, il design del prompt è design del significato.

La semantica diventa ancor più importante se pensiamo che, senza una chiara struttura semantica, i modelli di AI possono facilmente fraintendere o “allucinare” risposte fuori luogo. Progettare semanticamente significa definire con precisione i concetti chiave del dominio (il core del prompt), il contesto situazionale (scenario, ruolo dell’AI, tono), l’output atteso (formato, livello di dettaglio) e persino logiche operative (ad es. “applica queste regole di stile”). Un prompt ben progettato può essere visto come un contratto semantico: esplicita cosa l’AI deve considerare e come deve procedere, riducendo ambiguità. Questo ha paralleli nel design tradizionale: così come un bravo designer di interfacce definisce una gerarchia visiva chiara per guidare l’utente, il designer di prompt definisce una gerarchia di significati chiara per guidare il modello AI.

Accanto alla semantica, entra in gioco il concetto di meta-design. Per meta-design intendiamo la progettazione delle condizioni e regole entro cui avviene la generazione automatica, anziché il progettare ogni dettaglio del risultato finale. In un certo senso, il designer diventa un regista o curatore che imposta un sistema di coordinate entro cui l’AI opererà. Un esempio concreto viene dall’evoluzione dei design system nell’ambito UI: tradizionalmente servivano a mantenere coerenza tra interfacce progettate a mano; ora iniziano a fungere da librerie di prompt e vincoli per agenti AI generativi. Articoli recenti indicano che i design system aziendali (palette colori, tipografia, linee guida di tono, ecc.) possono essere integrati nei generatori AI per assicurare che le interfacce create automaticamente rispettino gli standard di brand e accessibilità. In pratica, il design system diventa un sistema di coordinate pre-definito: l’AI “sa” in quale spazio stilistico e funzionale deve muoversi. Questo riduce l’imprevedibilità e le incoerenze nell’output generato, come osservato con il nuovo strumento Figma AI che utilizza librerie condivise per limitare le variazioni indesiderate.

Il meta-design si esplicita anche nella creazione di prompt strutturati e template. Uno studio condotto su piccoli imprenditori (SBOs) che utilizzavano uno strumento di co-creazione di annunci pubblicitari basato su AI ha mostrato risultati interessanti: fornendo interfacce strutturate per inserire gli elementi chiave (descrizione del brand, tono desiderato, pubblico target), gli utenti inesperti riuscivano ad ottenere risultati migliori e sentivano di avere maggiore controllo. Le input strutturate hanno migliorato l’allineamento del risultato con l’identità del brand e la trasparenza dell’AI, fungendo da “scaffold” che aiuta i non-designer a formulare prompt efficaci. Qui vediamo il meta-design in azione: i progettisti dello strumento non hanno creato direttamente l’annuncio, ma hanno progettato il modulo di input e le regole che guidano l’AI a generarlo correttamente. Allo stesso modo, chi progetta esperienze AI deve pensare a costruire meta-strutture: ad esempio, stabilire che un certo AI chatbot segua uno stile conversazionale rispettoso e inclusivo, oppure che un algoritmo di generazione grafica utilizzi sempre un determinato set di colori approvati. Tali linee guida diventano prompt “nascosti” o parametri di sistema che incanalano la creatività dell’AI senza soffocarla.

Un’altra metafora utile è considerare il meta-design come progettazione di un terreno di gioco. Si stabiliscono i confini (cosa l’AI non deve fare), le regole del gioco (cosa privilegiare: creatività vs accuratezza, ad esempio) e magari qualche esempio di gioco ben fatto (prompt di esempio, dati di addestramento curati). Dopodiché, l’AI “gioca” all’interno di quel campo, generando soluzioni specifiche. Ad esempio, nel campo del generative design architettonico, gli architetti definiscono vincoli spaziali, requisiti e obiettivi (illuminazione, flussi, ecc.) e il software genera proposte: l’architetto ha progettato il processo generativo, non solo l’oggetto finale. Analogamente, nel post-prompt design, si progetta il processo conversazionale-generativo: la sequenza di come l’AI chiederà chiarimenti, come bilancerà creatività e precisione, quali fonti utilizzerà per informarsi, e così via.

Da questa prospettiva, emerge l’importanza di orientare la generazione tramite la semantica. Un contributo notevole è sottolineato sempre dall’articolo di Andreessen Horowitz: man mano che scompaiono i tradizionali “box” fissi dell’interfaccia, il flusso di lavoro dovrà essere guidato dai significati semantici dietro ciascun elemento, anziché da meri controlli di basso livelloa16z.com. Significa che l’AI dovrà comprendere concetti come “opportunità di vendita” o “profilo cliente” e manipolarli in base al contesto, non solo cliccare pulsanti predefiniti. Ciò richiede che i designer incorporino tali concetti nel sistema (ad esempio, fornendo ontologie o modelli concettuali al modello AI). Si intravede qui un futuro in cui il designer è anche un “insegnante” per l’AI, che gli fornisce una sorta di mappa concettuale del dominio applicativo. La progettazione semantica e di meta-livello diventa dunque un atto di traduzione: tradurre gli obiettivi umani in rappresentazioni che una macchina possa utilizzare per generare soluzioni appropriate.

Implicazioni Future: Design, User Experience e Cultura Computazionale

Questa evoluzione verso il post-prompt design comporta profonde implicazioni su come intendiamo il design e sulla nostra cultura tecnologica. In primo luogo, cambia il ruolo del designer. Meno pixel da perfezionare manualmente, più strategia nel plasmare linee guida e nel curare output generati dall’AI. I designer diventano in parte curatori e editoridell’intelligenza artificiale. La creatività non sparisce, ma si sposta a un livello diverso: invece di disegnare 100 icone, il designer definisce lo stile generale e lascia che l’AI proponga varianti, per poi selezionare e affinare quelle migliori. Come evidenziato in un’analisi di Jennifer e Yoko Li, l’AI può fungere da “sounding board” per il design: ogni prompt ben formulato genera mockup alternativi, spostando l’attenzione dal riempire una tela vuota all’iterare idee e vedere cosa funziona. Il risultato è che il processo di progettazione diventa molto più esplorativo e rapido, con prototipi quasi istantanei di concetti che avrebbero richiesto giorni. Ciò libera tempo ai designer per concentrarsi sull’esperienza utente a un livello più alto – usabilità, significato, coerenza con i bisogni reali – delegando all’AI parte del lavoro “di basso livello” (come produzione di varianti visive o codice front-end).

In parallelo, anche lo sviluppo front-end e il ruolo degli sviluppatori si trasformano. Il confine tra design e sviluppo si attenua ulteriormente: emergono figure ibride (a volte chiamate design engineer) capaci di dialogare con gli strumenti AI per passare dall’idea all’implementazione in un baleno. Con i modelli generativi addestrati su linguaggi di programmazione e linee guida di design, il percorso dal mockup al codice funzionante si fa più diretto. Ciò può portare a team più snelli, dove designer e sviluppatore coincidono o lavorano in tandem con l’AI. Naturalmente, questo richiede nuove competenze: saper “istruire” l’AI a generare codice mantenendo performance e accessibilità, e successivamente saper leggere e correggere quel codice. La collaborazione uomo-AI diventa parte integrante della cassetta degli attrezzi.

Per l’esperienza utente (UX) si aprono possibilità entusiasmanti. Una su tutte è l’iper-personalizzazione dinamica. Se l’interfaccia non è più fissata a priori ma generata on the fly in base al contesto, allora ogni utente potrebbe teoricamente ottenere un flusso su misura. Immaginiamo applicazioni che ri-configurano le proprie schermate a seconda dell’esperienza dell’utente: un novizio vede un’interfaccia semplificata con suggerimenti passo-passo, un esperto riceve direttamente strumenti avanzati, e tutto ciò senza aver bisogno di impostare modalità manualmente – è l’AI che adatta l’esperienza interpretando le azioni e preferenze precedenti. Un’interfaccia adaptive e intent-aware potrebbe abbreviare drasticamente curve di apprendimento e attriti operativi. Per esempio, un software gestionale potrebbe nascondere campi non pertinenti e compilare automaticamente valori standard quando capisce dall’intento dell’utente che quell’operazione è routinaria. Da un lato questo promette efficienza e “magia” per l’utente, dall’altro richiede molta attenzione progettuale per mantenere controllo e fiducia: l’utente deve capire cosa sta facendo il sistema e poter intervenire se l’automazione sbaglia.

La cultura computazionale nel suo complesso potrebbe subire una metamorfosi. Finora siamo stati abituati a concepire il computer come uno strumento che esegue comandi precisi e mostra output fedeli. Nell’era AI, il computer diventa più simile a un collaboratore creativo o a un consulente. Questo sposta i valori e le competenze che consideriamo importanti: la prompt literacy (alfabetizzazione nel dialogare con AI) potrebbe diventare una capacità diffusa e insegnata, così come oggi si insegna l’uso del pacchetto Office. Potremmo vedere una democratizzazione di certi processi creativi – ad esempio, persone senza formazione di design grafico che creano loghi di qualità tramite prompt – ma anche il rischio di una omologazione stilistica se tutti usano gli stessi modelli e prompt simili. Inoltre, la percezione di chi è l’autore di un design diventa sfumata: è del designer umano, dell’AI, o emergente dal loro dialogo? In ambito accademico e professionale, già si discute di come valutare e attribuire credito alle creazioni assistite da AI.

Un altro aspetto culturale è il rapporto di fiducia e dipendenza che svilupperemo con questi sistemi. Se l’AI progetta per noi, rischiamo di perdere di vista il “perché” delle decisioni progettuali? Questa è una preoccupazione reale: quando un modello sforna un layout o un testo, potrebbe basarsi su correlazioni opache nei suoi dati di addestramento. Senza strumenti di spiegazione, i team di design potrebbero trovarsi con soluzioni efficaci ma di cui non comprendono appieno la logica. Da qui l’importanza, rimarcata anche dagli esperti di Human-Centered AI, di pretendere sistemi spiegabili e di mantenere l’umano nel loop decisionale. La visione sistemica del design nell’era AI include dunque l’etica e la governance: bisogna definire chi supervisiona l’AI, con quali linee guida e come si evitano derive indesiderate (bias, esclusione, manipolazione degli utenti).

Infine, come società potremmo trovarci a rivalutare certe abilità umane. Se l’AI solleva l’uomo da tanti compiti progettuali e creativi ordinari, ciò potrebbe liberarci per compiti più elevati – o atrofizzare le nostre capacità? La storia insegna che ogni tecnologia comporta un ribilanciamento: per esempio, l’avvento del GPS ha ridotto la nostra capacità media di leggere mappe e orientarsi, ma ci ha permesso di viaggiare con meno stress. Analogamente, se l’AI gestirà molti aspetti del design quotidiano, i designer umani potrebbero focalizzarsi su aspetti più strategici, sociali ed esperienziali (ad es. capire bisogni profondi degli utenti, identificare problemi da risolvere, validare soluzioni nel mondo reale). Tuttavia, dovremo assicurarci di non delegare all’AI anche il pensiero critico. Alcuni studi lanciano l’allarme: un uso intensivo di strumenti AI può correlarsi a un calo di abilità di pensiero critico e problem-solving negli individui, a causa del cognitive offloading (delegare lo sforzo cognitivo alla macchina). In uno studio del 2025, Gerlich ha trovato una correlazione negativa significativa (r = -0.68) tra uso frequente di AI e punteggi di pensiero critico, mediata proprio dalla tendenza a fare offloading cognitivo. In altre parole, se ci abituiamo a far fare tutto alle macchine, rischiamo di perdere la “massa muscolare” cognitiva per valutare, immaginare e risolvere problemi in autonomia. La cultura progettuale dovrà quindi enfatizzare un utilizzo equilibrato: l’AI come partner potenziante, non come sostituto totale del designer. Come ha scritto Luciano Floridi, filosofo dell’informazione, le ICT stanno “ri-ontologizzando” (ridefinendo) il nostro infosfera, trasformando le basi stesse della realtà in cui viviamo. In questo scenario, i designer hanno la responsabilità di guidare tale trasformazione in modo etico e sostenibile, ricordando che l’obiettivo ultimo non è un algoritmo perfetto, ma un miglioramento reale dell’esperienza e della condizione umana.

Rischi e Sfide del Post-Prompt Design

Ogni rivoluzione tecnologica porta con sé non solo opportunità, ma anche rischi. Nel contesto del design guidato dall’AI, possiamo identificare diverse zone di rischio che designer e organizzazioni devono affrontare consapevolmente:

  • Disequilibri cognitivi e di competenze: Come discusso, le interfacce a prompt favoriscono gli utenti più abili nell’articolare richieste complesse. C’è il rischio di creare un nuovo divario digitale: chi sa “parlare all’AI” otterrà risultati nettamente migliori rispetto a chi non possiede tale abilità. Questo disequilibrio cognitivo può tradursi in diseguaglianze nell’accesso ai benefici dell’AI. Inoltre, delegare troppo all’AI potrebbe indebolire competenze umane fondamentali. Un eccesso di cognitive offloading – affidare alla macchina memoria, creatività, decisioni – può far atrofizzare le capacità di pensiero critico e problem solving delle persone. In ambito progettuale, un designer che si affida ciecamente ai suggerimenti di un generatore rischia col tempo di perdere la sensibilità creativa e l’intuizione maturata dall’esperienza. Analogamente, un giovane designer formato nell’era AI potrebbe non sviluppare mai a pieno certe competenze di base (es. disegno a mano libera, prototipazione low-fi, ecc.) perché “c’è l’AI a farlo”. La sfida sarà trovare un equilibrio tra augmented intelligence (intelligenza aumentata) e mantenimento delle skill: l’AI dovrebbe potenziare, non sostituire la nostra cognizione. Programmi di formazione dovranno enfatizzare la metacognizione – ossia la capacità di riflettere criticamente anche sui risultati proposti dall’AI.

  • Design opachi e non interpretabili: Se un’interfaccia tradizionale mal progettata può risultare confusa, un sistema AI mal progettato può risultare incomprensibile. Un layout generato automaticamente potrebbe soddisfare requisiti estetici, ma perché ha disposto certi elementi in un certo modo? Se nemmeno i designer lo sanno, diventa difficile fidarsi e ancor più difficile apportare correzioni mirate. La mancanza di interpretabilità delle decisioni dell’AI è un rischio serio. Già in molti ambiti si denunciano algoritmi “scatola nera” che influiscono su decisioni importanti senza trasparenza. Nel design, questo potrebbe manifestarsi in output inaspettati o inspiegabili. Ad esempio, l’AI di generazione di interfacce potrebbe iniziare a proporre sistematicamente un certo colore o layout subottimale per motivi ignoti (magari correlazioni nel dataset di addestramento). Gli utenti nelle interviste qualitative spesso citano “lack of transparency” come fonte di preoccupazione e frustrazione verso i sistemi AI. È necessario quindi incorporare meccanismi di AI explainability nelle piattaforme di design generativo: ad esempio, mostrare le fonti dei dati usati per una certa soluzione, o permettere di interrogare l’AI sul perché di una scelta (“perché hai messo quel pulsante lì?”). Inoltre, occorre disegnare interfacce di governance: dashboard dove i designer possano impostare vincoli e vedere l’impatto in tempo reale sul output generato, così da mantenere un senso di controllo.

  • Bias e questioni etiche: I modelli di AI riflettono i dati con cui sono addestrati. Se questi contengono pregiudizi (ad es. dataset di design prevalentemente occidentali, o testi con stereotipi di genere), tali bias possono propagarsi nei risultati progettuali. Ad esempio, un generatore di immagini potrebbe raffigurare certe professioni sempre con un genere specifico, o un assistente AI potrebbe usare un tono meno formale con utenti donne che con uomini a causa di pattern impliciti appresi. Nel design dell’esperienza, ciò può portare a disegni discriminatori o non inclusivi. Un classico esempio segnalato è nei sistemi di riconoscimento vocale: progettati inizialmente su voci maschili, funzionavano peggio con voci femminili. In un contesto di design generativo, dobbiamo chiederci: l’AI propone soluzioni valide per tutti gli utenti o ottimizza su un utente “medio” che esclude minoranze? Il rischio è creare disequilibri cognitivi a livello sociale, dove certi gruppi culturali faticano di più a farsi capire dall’AI perché la semantica dei prompt “preferita” dal modello rispecchia altre culture o gerghi. La sfida etica è duplice: da un lato, migliorare i modelli (dataset più diversificati, auditing e debiasing continui), dall’altro progettare interazioni che rilevino e mitighino bias. Ad esempio, fornendo feedback agli utenti se il sistema rileva possibili stereotipi nell’output (un po’ come Grammarly segnala linguaggio potenzialmente offensivo), oppure dando opzioni di stile che incoraggino la diversità (“Prova una prospettiva culturale differente per questo design”). I centri di ricerca etica sull’AI, come l’Institute for Ethics in AI di Oxford, sottolineano l’importanza di coinvolgere filosofi ed esperti umanistici insieme ai tecnologi per affrontare questi temi. Nel post-prompt design, il team ideale di progetto comprende quindi non solo designer e data scientist, ma anche “steward etici” che valutino l’impatto sociale delle scelte progettuali automatizzate.

  • Eccesso di delega e perdita di controllo: Un rischio più generale è quello di automatizzare troppo senza adeguati sistemi di salvaguardia. La velocità e facilità con cui l’AI generativa permette di creare interfacce o contenuti può indurre aziende e team a saltare passaggi critici come la ricerca con gli utenti, i test di usabilità, la riflessione strategica. C’è il pericolo di un design “pilota automatico”, dove si prende la prima idea generata dall’AI e la si implementa. Questo approccio può sembrare efficiente nel breve termine, ma rischia di produrre soluzioni subottimali o addirittura dannose nel lungo termine. Inoltre, un eccesso di delega all’AI può creare un falso senso di sicurezza: i team potrebbero non sviluppare piani di emergenza per quando il sistema sbaglia. Immaginiamo un e-commerce che affida all’AI la generazione della pagina prodotto: 1000 varianti personalizzate possono andare bene, ma se per un bug l’AI inizia a commettere errori (ad es. immagini sbagliate con descrizioni invertite), l’impatto scala su migliaia di utenti prima che qualcuno se ne accorga. Il controllo di qualità nel design generativo richiede nuove procedure: testing continuo degli output dell’AI, sistemi di monitoraggio che rilevino anomalie, possibilità di roll-back rapido a versioni precedenti più stabili. È una sfida sia tecnica che organizzativa. In una visione più ampia, il rischio ultimo di delega è la dipendenza: e se un domani i modelli generativi diventassero servizi commerciali chiusi e costosi, o subissero restrizioni? Un’organizzazione che ha disinvestito nelle competenze umane di design si troverebbe ostaggio della tecnologia. A livello individuale, un professionista potrebbe perdere valore sul mercato se la sua creatività è diventata inscindibile dallo strumento AI di turno.

  • Unpredictability e affidabilità: Infine, va citata la sfida dell’imprevedibilità intrinseca dei sistemi AI. Anche con meta-design accurato, un modello generativo complesso può a volte produrre output sorprendenti o errati senza un motivo chiaro. Nell’ambito UX, questo mina l’affidabilità. Un principio base della buona UX è la consistenza – l’utente può prevedere cosa accadrà quando interagisce. Se un chatbot un giorno risponde in un modo e il giorno dopo (a parità di input) in modo sostanzialmente diverso, la fiducia cala. L’affidabilità dovrà essere una metrica di progetto per i sistemi AI: implica addestramento continuo, controllo delle versioni del modello (versioni nuove potrebbero migliorare alcune cose ma peggiorarne altre), e comunicazione trasparente agli utenti su eventuali incertezze. Ad esempio, sistemi come i co-pilot di coding mostrano percentuali di confidenza o offrono più opzioni se non sono certi. Analogamente, un generatore di design potrebbe indicare con una sorta di highlight gli elementi su cui “non è sicuro” lasciando al designer la decisione finale, come suggerito da linee guida emergenti sul calibrated uncertainty. Gestire l’imprevedibilità significa anche evitare di mettere l’AI in condizioni per cui non è stata addestrata (boundary conditions). Un motto che circola tra gli esperti di AI usability è: “il modo più veloce per fare impazzire un utente è una IA troppo sicura di sé ma sbagliata”. Perciò progettare l’esperienza implica frenare l’AI dall’andare oltre i propri limiti e fornire sempre un “freno di emergenza” all’utente.

In sintesi, il post-prompt design presenta sfide sostanziali. La buona notizia è che sono in corso numerosi studi e iniziative per affrontarle: dalla creazione di linee guida specifiche per prompt engineering responsabile, alla ricerca HCI su come mantenere alto l’engagement cognitivo degli utenti in presenza di automazione avanzata, fino a framework normativi (si pensi all’AI Act europeo) che prevedono requisiti di trasparenza per sistemi AI interattivi. I designer dovranno evolvere in “sistemi sentinel”, cioè guardiani attenti che sfruttano l’AI ma ne sorvegliano continuamente l’operato, pronti a intervenire quando occorre.

Verso una Visione Sistemica e Culturale del Design nell’Era dell’AI

Per navigare con successo l’era del post-prompt design, occorre abbracciare una visione olistica. Il design non può più essere pensato come disciplina isolata di creazione di interfacce, ma come parte di un ecosistema socio-tecnico più ampio. In pratica, questo significa integrare considerazioni di etica, psicologia, economia e politica sin dalle fasi iniziali di progetto. Ad esempio, progettare un assistente AI in ambito sanitario richiede il coinvolgimento di medici, pazienti, esperti di privacy e regolatori, oltre ai designer, per assicurarsi che l’esperienza generata dall’AI sia etica, comprensibile e accettabile. La progettazione partecipativa acquista un nuovo significato: non solo coinvolgere utenti nel design, ma coinvolgere l’AI stessa come attore del processo. In futuro potremmo avere AI “meta-designer” che aiutano a valutare milioni di varianti di design in base a criteri di inclusività o sostenibilità, fungendo da consulenti artificiali nelle decisioni.

Culturalmente, dovremo definire nuovi principî deontologici per il design. Così come esistono giuramenti o codici etici in medicina e ingegneria, anche i designer di sistemi AI dovranno aderire a principi condivisi: ad esempio, impegnarsi a evitare dark pattern conversazionali (cioè manipolazioni subdole nelle risposte AI), garantire che l’umano mantenga sempre l’ultima parola, tutelare la dignità e l’autonomia cognitiva dell’utente. Il concetto di Human-Centered AI (HCAI), promosso da studiosi come Ben Shneiderman, offre un framework: bilanciare l’efficienza dell’automazione con la preservazione del controllo umano e della comprensione. In un approccio HCAI, il design di un sistema AI non è riuscito se l’utente ottiene il risultato giusto ma non sa spiegarsi il perché; è riuscito solo se l’utente sente il sistema come partner affidabile, ne comprende a grandi linee il funzionamento e può correggerlo o fermarlo in caso di necessità.

Un altro aspetto sistemico è la sostenibilità. Generare all’infinito varianti con l’AI ha anche un costo computazionale ed energetico. I designer futuri dovranno considerare l’impronta ecologica delle loro scelte: ad esempio, preferire modelli meno energivori quando possibile, o limitare la complessità generativa ai casi che veramente ne hanno bisogno. Anche questa è cultura progettuale nell’era AI: progettare con consapevolezza delle risorse limitate (tempo dell’utente, attenzione, energia, dati personali).

Dal punto di vista formativo e di ricerca, università e centri d’innovazione iniziano a rispondere a queste sfide con nuovi programmi e studi. Stanford, ad esempio, ha lanciato corsi su UI/UX Design for AI Products che coprono tanto aspetti di comportamento umano quanto strategie di design etico e linee guida HCAI. Il MIT Media Lab sta esplorando incroci tra machine learning e design di interfacce tangibili per rendere l’AI più “visibile” e controllabile. Harvard sta studiando come l’uso diffuso dell’AI impatti creatività e motivazione sul lavoro, mentre Oxford con l’Institute for Ethics in AI mette filosofi a dialogo con designer per ripensare concetti come autonomia e responsabilità nell’era dell’AI. Questa interdisciplinarità sarà fondamentale: le soluzioni ai problemi posti dal post-prompt design non verranno solo da tecnici, ma da un confronto continuo con discipline umanistiche e sociali.

In conclusione, la direzione verso cui ci muoviamo è quella di un design sistemico-culturale. Il successo non si misurerà più (soltanto) in termini di metriche di conversione o estetica acclamata, ma nella capacità dei sistemi che progettiamo di migliorare davvero la vita rispettando autonomia, intelligenza e valori umani. L’era post-interfaccia non significa che il design diventa superfluo – al contrario, significa che il design è ovunque, diffuso in ogni interstizio delle nostre interazioni quotidiane con tecnologie pervasive. Ci vuole più design che mai, ma di natura diversa: invisibile, semantico, adattivo, etico. I designer dovranno farsi un po’ filosofi, psicologi, guardiani – oltre che creatori. È una sfida emozionante: come dice un recente articolo, siamo chiamati a sviluppare una “cultura dello sviluppo centrata sul significato” dove “il significato stesso merita un progetto”. E in fondo, progettare significati e contesti è ciò che il design, nella sua essenza più alta, ha sempre fatto.

Conclusioni e Takeaway

  • Dal pixel al concetto: Il baricentro del design si sta spostando dal disegno di interfacce statiche alla progettazione di dialoghi, intenti e sistemi adattivi. La competenza chiave diventa saper tradurre obiettivi umani in prompt e contesti che l’AI possa capire e su cui possa agire efficacemente.

  • Conversazione e UX collaborativa: L’interazione utente-AI assume la forma di una conversazione cooperativa. I designer devono progettare assistenti che sappiano chiedere chiarimenti, adattarsi al livello dell’utente e condividere il controllo del flussoresearchgate.net. Ciò richiede di unire ai tradizionali principi di usabilità nuove linee guida derivate dalla linguistica e dalla psicologia cognitiva per creare esperienze dialogiche fluide.

  • Semantica e meta-design al centro: Progettare significa sempre più progettare il processo generativo. L’enfasi sulla semantica implica strutturare i prompt come mappe di significato (scenario, vincoli, stile, esempi). Al contempo, il designer opera a un meta-livello definendo linee guida, librerie e vincoli (design system, policy etiche) che fungono da coordinate entro cui l’AI genera output coerenti.

  • Nuovi ruoli e competenze: Emergono figure ibride come il prompt engineer o AI design curator, segno che servono skill sia umanistiche (scrittura, storytelling, senso critico) sia tecniche (comprensione dei modelli AI, data analytics). Il team di prodotto si allarga includendo esperti di AI ethics, data scientist e psicologi per affrontare la natura interdisciplinare dei sistemi AI (fondamentalmente socio-tecnici).

  • Opportunità di innovazione UX: L’AI consente di esplorare più soluzioni in meno tempo (rapid prototyping generativo) e di personalizzare l’esperienza come mai prima. Interfacce adattive alle intenzioni e ai profili utente possono ridurre drasticamente la complessità percepita di software e servizi. Se ben guidata, l’AI può migliorare accessibilità, creando interazioni su misura per bisogni speciali (es. descrizioni automatiche per non vedenti, semplificazione del linguaggio per utenti con bassa alfabetizzazione, ecc.).

  • Rischi da governare: Il post-prompt design comporta rischi reali: overreliance e pigrizia mentale da parte di utenti e designer, bias incorporati nei modelli che portano a discriminazioni sottili, perdita di controllo e trasparenza, esperienza d’uso incoerente per via dell’imprevedibilità AI. Affrontare questi rischi richiede approcci “by design” (es. incorporare spiegabilità, richiedere conferme all’utente per azioni critiche, mantenere l’uomo nell’anello decisionale per compiti ad alto rischio).

  • Visione etica e umanistica: Il design nell’era AI deve essere guidato da principi etici e da una visione umanistica. Ciò significa enfatizzare l’empowerment dell’utente (la tecnologia dovrebbe aumentare le capacità umane, non sostituirle), garantire equità e inclusività (progettare per diversi livelli di abilità e contesti culturali), e abbracciare la responsabilità sociale (ad esempio, assicurarsi che l’automazione non isoli o alieni le persone). Come sostiene Floridi, stiamo ridefinendo l’infosfera: i designer diventano in parte policy-maker di questo nuovo spazio, con la responsabilità di orientarne la direzione in accordo con valori condivisi.

In definitiva, il “post-prompt design” non è la fine del design, ma una sua evoluzione. Mentre le interfacce fisiche sfumano, il design dei significati e delle esperienze diventa sovrano. Chi progetta in questo nuovo paradigma dovrà essere simultaneamente visionario e guardiano: sfruttare con entusiasmo le nuove possibilità creative offerte dall’AI, mantenendo però uno sguardo critico e morale sull’impatto delle proprie scelte. Il terreno è nuovo e in rapido mutamento, ma il principio guida rimane quello che è sempre stato il faro del buon design: mettere l’essere umano al centro, ora e nell’era di ogni interfaccia scomparsa.

Risorse Consigliate (Centri di Ricerca e Studi Internazionali)

  • Stanford University – HAI (Human-Centered AI) e rapporti sui Foundation Model: Stanford è all’avanguardia nello studio dei modelli fondamentali e del loro impatto socio-tecnico. Si veda ad esempio il report “On the Opportunities and Risks of Foundation Models” (Centro CRFM, 2021) che discute come i foundation model possano trasformare le interfacce utente e sviluppare interazioni più dinamiche adattando l’AI ai bisogni e valori degli utenti. Da Stanford provengono anche linee guida sull’interaction design con AI (es. articolo “From Prompt Engineering to Collaborating: A Human-Centered Approach to AI Interfaces”, Interactions, 2024).

  • MIT – MIT Media Lab e MIT CSAIL: Il MIT integra design e AI in vari progetti. Il Media Lab esplora approcci innovativi per rendere l’AI più utilizzabile e integrata (es. ricerche del gruppo Fluid Interfaces). MIT CSAIL offre corsi su HCI per UX design che coprono le ultime tendenze dell’AI applicata al design. Inoltre, l’MIT Professional Education ha lanciato programmi come “Designing and Building AI Products and Services” per formare professionisti alla creazione di prodotti AI centrati sull’utente. Per insight sul futuro del design computazionale, il MIT Design Lab e pubblicazioni come MIT Technology Review offrono spunti sulle best practice e le sfide emergenti.

  • Harvard University – Berkman Klein Center & Harvard Business Review: Harvard contribuisce al dibattito soprattutto sugli impatti organizzativi e cognitivi dell’AI. Il Berkman Klein Center studia le implicazioni etiche e normative dell’AI (incluse le questioni di fairness nel design di algoritmi). Harvard Business Review ha pubblicato articoli accessibili su come l’AI sta cambiando il lavoro creativo e di design (ad es. “How Generative AI Is Changing Creative Work”, 2023). Inoltre, ricercatori di Harvard hanno indagato la correlazione tra uso di AI e pensiero critico, evidenziando la necessità di approcci educativi per mantenere elevate le capacità umane nell’era dell’automazione.

  • Oxford University – Institute for Ethics in AI e ricercatori come Luciano Floridi: L’Università di Oxford, con il suo prestigioso istituto per l’etica dell’AI, fornisce una prospettiva filosofica sulle sfide qui discusse. L’Institute for Ethics in AI organizza colloqui (es. “Two Mistakes in AI Design?”) e ricerche su come incorporare principi etici nel design di sistemi AI. Luciano Floridi (filosofo originario proprio dell’Italia, già direttore di ricerca a Oxford) ha scritto estensivamente sulla “quarta rivoluzione” dell’infosfera e su come la tecnologia stia ri-ontologizzando la nostra realtà. Le sue opere offrono un quadro teorico per comprendere l’impatto culturale e ontologico dell’AI – lettura preziosa per designer che vogliano riflettere sul quadro d’insieme.

  • Community e Altre Risorse: Oltre alle università, centri come MIT e Stanford, esistono comunità e organizzazioni utili. La ACM SIGCHI (associazione internazionale per l’HCI) pubblica regolarmente ricerche su AI e UX (si veda ad es. gli atti di CHI 2023-2024, workshop su prompt engineering responsabile). Il Partnership on AI è un consorzio industria-accademia che rilascia linee guida etiche per l’AI. La Nielsen Norman Group (NN/g) ha iniziato a pubblicare articoli e framework pratici, ad esempio il modello “CARE” per la scrittura di prompt efficaci e responsabili. Infine, numerosi white paper di aziende leader (Google, Microsoft, OpenAI) offrono insight: ad esempio Google ha il documento “People + AI Guidebook” con consigli per progettare con l’AI, e Microsoft ha pubblicato 18 linee guida per l’interazione umana con l’AI (Chi 2019). Combinare prospettive accademiche con tali risorse pratiche aiuterà i designer ad avere sia la visione che l’operatività necessarie per eccellere nel post-prompt design.