Comprensione e fiducia: l’evoluzione dell’interazione uomo-macchina

Cosa significa davvero interagire? Negli ultimi decenni, ci siamo abituati a pulsanti, comandi vocali, feedback visivi. A un mondo in cui le macchine rispondono alle nostre intenzioni. Fermandomi a riflettere tra varie letture di questi giorni di vacanza, mi sono più volte soffermato su una domanda: possiamo dire che la tecnologia, oggi, interagisce con noi realmente? Oppure si limita a reagire, ad eseguire ciò che le chiediamo?

L’interattività è stata una rivoluzione. Senza dubbio. Grazie alla Human-Computer Interaction (HCI), abbiamo progettato sistemi ergonomici, intuitivi, capaci di rendere il dialogo con la tecnologia fluido e accessibile. Le interfacce sono diventate estensioni naturali del nostro modo di pensare e agire: dallo sviluppo delle interfacce grafiche, al touch, passando per quelle vocali e basate sul linguaggio naturale. Ogni progresso ha reso l’interazione più fluida, ma ha mantenuto un limite: tutto è rimasto vincolato alla nostra capacità di guidare, immaginare e – in parte – governare la tecnologia. E tutto questo, per quanto avanzato, si inizia dove iniziamo noi e si ferma dove ci fermiamo noi.

L’intelligenza artificiale sta spingendo oltre questa relazione. Non siamo più di fronte a macchine che aspettano input: siamo davanti a sistemi che imparano, elaborano, agiscono. Ed è qui che si apre una nuova fase, quella degli inter-agenti. Questi sistemi non si limitano a rispondere. Imparano. Anticipano. Suggeriscono. E in qualche modo, su nostra delega, “decidono”. Diventano partner attivi in grado di collaborare con noi. Non più un assistente che chiede: “Cosa posso fare?”, ma un agente che dice: “Ecco cosa ho preparato per te. È corretto?

Prima di approfondire il tema degli inter-agenti, è fondamentale riconoscere come l’AI stia trasformando il paradigma dell’interazione. Non si tratta solo di migliorare l’usabilità: l’AI sta ridefinendo il modo in cui percepiamo la tecnologia, passando dal considerarla uno strumento al vederla come un’estensione della nostra capacità decisionale. È una relazione che evolve verso una simbiosi più profonda.

Questo cambiamento non è solo tecnologico: è ergonomico, culturale e sociale. La tecnologia non sta più influenzando solo ciò che facciamo, ma tocca da vicino il modo in cui pensiamo, prendiamo decisioni e organizziamo la nostra vita. Siamo pronti a delegare parte delle nostre decisioni a un sistema che ci conosce, che può – in molti casi – agire meglio di noi?

E qui si apre un dubbio interessante: se socialmente siamo portati a non fidarci del prossimo, riusciremo a farlo delle macchine? E se sì, potrebbe essere proprio la macchina il ponte per instaurare un legame di fiducia maggiore tra le persone, facilitando rapporti meno condizionati dai nostri pregiudizi? Oppure ci troveremo di fronte a un’amplificazione dei bias, radicati nei dati che alimentano gli algoritmi?

La differenza tra interattività e inter-agenzialità è profonda. L’interattività è un dialogo lineare: l’umano pone una domanda, la macchina risponde. L’inter-agenzialità, invece, è un ecosistema collaborativo tra due o più entità. Gli inter-agenti agiscono -dopo la nostra delega- autonomamente, interpretano il contesto, colgono necessità che non abbiamo nemmeno espresso. Questo rapporto amplifica le possibilità, ma richiede un nuovo equilibrio tra autonomia umana e autonomia tecnologica.

Non credo esistano ambiti in cui un concetto di questo tipo non possa essere applicato. Pensiamo a un agente che ottimizza il consumo energetico della casa: non si limita a eseguire un comando, ma ci aiuta a vivere in modo più sostenibile (ma lo fa solo quando incontra situazioni già passate e registrate nei dati).  Oppure un assistente personale che non solo organizza il calendario degli appuntamenti, ma ci consiglia quando prenderci una pausa, perché ha notato che il nostro livello di stress è in aumento.

Questi sistemi non semplificano solo la vita. Ci abilitano. Ci permettono di concentrarci su ciò che conta davvero.

L’amico Massimo Chiriatti sottolinea spesso come la tecnologia non debba sostituirci, ma potenziarci esternalizzando alcune funzioni cognitive, per tale ragione ha avviato una ricerca multidisciplinare su Nature. Ed è qui che questa evoluzione mostra il suo vero valore: non dobbiamo sentirci privati del controllo, ma vedere l’opportunità di andare oltre i nostri limiti. Sistemi come questi ci stanno portando verso un cambio di prospettiva: meno esecuzione, più comprensione.

Dove ci porterà questa evoluzione? Quando gli inter-agenti inizieranno a collaborare tra loro, condividere informazioni e obiettivi, entreremo in un’era in cui l’efficienza sarà moltiplicata. Pensiamo a una rete di agenti che n un ospedale gestisce risorse, ottimizza turni e coordina diagnosi. O a una flotta di veicoli autonomi che riduce il traffico agendo in sinergia. Non è un futuro distante: è già il prossimo passo.

E se guardiamo ancora oltre? Esisterà l’agente consapevole, una tecnologia che non solo agisce, ma comprende? Che tipo di evoluzione possiamo aspettarci? Sarà una collaborazione ancora più profonda o un nuovo equilibrio da costruire?

Una cosa è certa: non stiamo solo evolvendo la tecnologia, stiamo ridefinendo il rapporto tra essere umano e macchina.

E questo, nel bene o nel male, potrebbe cambiare tutto.

AI Agent: la nuova interfaccia di internet

Nell’anno che si sta concludendo, gli AI Agent – tema crescente degli ultimi mesi – hanno raggiunto un nuovo livello di evoluzione. Non si limitano più solo ad analizzare e prevedere, ma stanno prendendo decisioni e agendo autonomamente. Un cambio di paradigma che ci proietta verso un’era di automazione più avanzata e integrata.

Cosa sono gli AI Agent e perché sono fondamentali

Gli AI Agent sono sistemi intelligenti progettati per interagire con l’ambiente, percepire informazioni, elaborarle e agire in base a regole predefinite o modelli di apprendimento. La loro capacità di combinare autonomia decisionale, apprendimento e azione li rende fondamentali per semplificare processi complessi, ridurre il margine di errore umano e velocizzare l’esecuzione di attività ripetitive o strategiche. Si differenziano dai chatbot tradizionali perché non si limitano a rispondere a comandi, ma possono gestire intere pipeline decisionali, spesso con un livello di personalizzazione elevato. Questa caratteristica li rende una risorsa chiave per aziende che puntano su efficienza e innovazione.

Le tipologie di AI Agent

L’evoluzione dei chatbot ha portato alla nascita di AI Agent sofisticati, capaci di affrontare sfide specifiche attraverso un approccio mirato. Questi agenti si differenziano in base al livello di complessità e al tipo di problema che affrontano, trovando applicazione in contesti aziendali e settori molto diversi. Vediamoli nel dettaglio:

  • Simple Reflex: Gli agenti di tipo “Simple Reflex” funzionano seguendo regole predefinite basate su condizioni attuali. Questi agenti non memorizzano dati del passato, ma reagiscono istantaneamente a stimoli specifici, come se eseguissero un’azione su comando diretto. Ad esempio, un termostato intelligente in un sistema di automazione domestica analizza la temperatura e regola il riscaldamento o il raffreddamento secondo regole stabilite. Sono ideali per applicazioni come domotica e HVAC (Heating, Ventilation, and Air Conditioning), dove la semplicità e la reattività sono essenziali.
  • Model-Based Reflex: Questo tipo di agente va oltre la reattività immediata e utilizza un modello del mondo per prevedere gli effetti delle sue azioni. Ad esempio, un sistema di gestione della logistica che prevede ritardi nella consegna e ricalcola i percorsi ottimali basandosi su dati real-time (traffico, condizioni meteorologiche, ecc.). Questi agenti sono ampiamente utilizzati nell’e-commerce, dove ottimizzano l’efficienza delle operazioni logistiche, come il tracciamento degli ordini e la gestione degli inventari.
  • Goal-Based: Gli agenti goal-based sono progettati per perseguire obiettivi specifici e utilizzano strategie per raggiungerli. La loro forza risiede nella capacità di pianificare e valutare diverse azioni in base al loro contributo verso il raggiungimento di un risultato desiderato. Ad esempio, un agente in un sistema tecnologico può ottimizzare l’utilizzo delle risorse di calcolo in un data center o identificare soluzioni per migliorare l’esperienza utente in una piattaforma digitale. Questo tipo di agenti è cruciale per aziende tecnologiche e di informazione che necessitano di soluzioni basate sull’analisi di scenari complessi.
  • Utility-Based: Questi agenti non solo si concentrano sugli obiettivi, ma considerano anche il valore delle diverse opzioni disponibili, scegliendo quelle che massimizzano un’utilità specifica. Ad esempio, nel settore finanziario, un utility-based agent può calcolare il portafoglio d’investimento ottimale basandosi su rischi, rendimenti e preferenze dell’investitore. La capacità di considerare variabili complesse li rende ideali per applicazioni in servizi finanziari e business, dove l’ottimizzazione e la gestione del rischio sono fondamentali.
  • Learning Agents: I learning agents rappresentano il livello più avanzato, poiché combinano l’apprendimento dai dati con la capacità di migliorare nel tempo. Questi agenti analizzano continuamente nuove informazioni, aggiornano i loro modelli interni e migliorano le decisioni future. Ad esempio, nei contesti aziendali complessi, un learning agent può analizzare le performance di un’organizzazione, proporre strategie per migliorare l’efficienza e adattarsi a nuovi obiettivi aziendali. Sono particolarmente adatti a grandi imprese e contesti dinamici, dove la flessibilità e la capacità di evolversi sono essenziali.

Le tipologie sono rilevanti

Questi modelli di AI Agent non sono solo tecnologie autonome, ma strumenti che riflettono le esigenze dei vari settori. Personalizzando i sistemi in base agli obiettivi e al contesto, le aziende possono sfruttare gli agenti per migliorare efficienza, precisione e scalabilità, rendendo l’innovazione digitale una leva strategica per la crescita.

L’ecosistema degli AI Agent

L’ecosistema degli AI Agent rappresenta l’infrastruttura tecnologica necessaria per sviluppare, implementare e gestire questi sistemi avanzati. Si tratta di un insieme complesso di framework, strumenti di hosting, piattaforme di monitoraggio, soluzioni di memoria e sistemi di archiviazione che lavorano in sinergia per garantire la scalabilità, la sicurezza e l’efficienza degli agenti.

Vediamolo nel dettaglio:

  • Framework per lo sviluppo di AI Agent: i framework rappresentano la base per creare agenti intelligenti, fornendo strumenti modulari e scalabili per la progettazione e l’implementazione. Tra i più noti:
    1. LangChain: un framework open-source che permette di costruire flussi di lavoro personalizzati, integrando strumenti esterni e modelli di AI con un’architettura di tipo “plan-and-execute”. È ideale per applicazioni complesse, come assistenti virtuali che gestiscono interi processi aziendali.
    2. Semantic Kernel: funziona come un middleware per integrare modelli AI nelle applicazioni esistenti, semplificando l’adozione dell’AI nei contesti aziendali. Offre una base per soluzioni che richiedono interazioni sofisticate tra diverse componenti tecnologiche.
    3. LangGraph: focalizzato sulla gestione di applicazioni multi-agente con persistenza e cicli complessi, è pensato per sistemi che necessitano di coordinazione tra più agenti autonomi.
    4. Phidata: un framework Python-oriented che supporta l’integrazione con database per la gestione di dati strutturati, essenziale per applicazioni che richiedono un forte legame tra dati e logica AI.
  • Hosting e serving: una volta sviluppati, gli AI Agent devono essere ospitati su piattaforme che ne garantiscano la disponibilità e la performance. Le soluzioni di hosting e serving includono:
    1. Amazon Bedrock Agents: una piattaforma che consente di implementare agenti AI su larga scala con un’infrastruttura affidabile e integrata nell’ecosistema AWS.
    2. Agents API e Assistants API: API progettate per fornire agenti come servizi, rendendo semplice l’integrazione in applicazioni esistenti.
    3. LiveKit Agents: una soluzione focalizzata su agenti real-time, perfetta per applicazioni interattive come customer support o gaming.
  • Strumenti di osservabilità: la gestione e il monitoraggio degli AI Agent sono fondamentali per garantirne il funzionamento corretto e per ottimizzare continuamente le loro performance:
    1. LangSmith e LangFuse: piattaforme che forniscono un monitoraggio dettagliato degli agenti, tracciando le interazioni e identificando eventuali anomalie.
    2. Braintrust e AgentOps.ai: soluzioni avanzate per la gestione delle operazioni degli agenti, con un focus su sicurezza, affidabilità e analisi predittiva delle prestazioni.
  • Soluzioni di memoria: per rendere gli agenti più efficaci, è necessario dotarli di una memoria che permetta loro di apprendere e migliorare nel tempo:
    1. MemGPT e LangMem: sistemi di memoria persistente che consentono agli agenti di memorizzare informazioni e utilizzarle per decisioni future, migliorando l’accuratezza e la continuità.
    2. zep e memo: soluzioni più leggere ma altamente efficaci per memorizzare contesti temporanei, ideali per applicazioni che richiedono interazioni di breve durata ma complesse.
  • Librerie di strumenti e sandbox: per testare e sviluppare agenti in ambienti controllati, le librerie di strumenti e le sandbox sono indispensabili:
    1. Composio e Browserbase: librerie che forniscono strumenti modulari per ampliare le capacità degli agenti.
    2. E2B e Modal: sandbox che simulano ambienti di produzione, permettendo agli sviluppatori di testare i loro agenti senza rischi per i sistemi reali.
  • Soluzioni di model serving: il deployment di modelli AI richiede piattaforme robuste in grado di gestire carichi di lavoro elevati:
    1. vLLM, Anthropic, OpenAI, Mistral AI, e Gemini: provider leader che offrono infrastrutture ottimizzate per il serving di modelli su larga scala.
    2. Fireworks AI e together.ai: nuovi attori che stanno emergendo con soluzioni innovative per il deployment di modelli AI personalizzati.
  • Sistemi di archiviazione: gli AI Agent necessitano di un’infrastruttura dati affidabile per archiviare e recuperare informazioni in modo efficiente:
    1. Chroma, Weaviate e Pinecone: soluzioni specializzate in database vettoriali, cruciali per gestire dati non strutturati e per l’inferenza.
    2. Neon e Supabase: soluzioni di database relazionale scalabili, ideali per gestire dati strutturati e semistrutturati.

La competizione tra piattaforme

Il 2024 ha visto una competizione crescente tra player consolidati, come OpenAI e Google, e nuovi attori emergenti, come AI16Z e Virtual Protocol. Mentre OpenAI continua a dominare con una quota di mercato significativa, l’ascesa di piattaforme come LangGraph e la crescente integrazione con protocolli crypto suggeriscono che l’ecosistema continuerà a evolversi rapidamente nei prossimi anni.

Perché il tema AI Agent sarà importante per le aziende

Gli AI Agent stanno trasformando processi chiave:

  • Supporto ai dipendenti con strumenti come i Copilot.
  • Automazione dei flussi di lavoro.
  • Personalizzazione dell’esperienza cliente.

Questi cambiamenti non solo aumentano la produttività, ma riducono i costi operativi. Ad esempio, soluzioni implementate da JP Morgan hanno tagliato le frodi del 70%, risparmiando oltre 200 milioni di dollari all’anno.

Cosa fare ora?

Gli AI Agent rappresentano un’opportunità straordinaria per le aziende, ma il loro impatto dipende dalla capacità di integrarli strategicamente nei processi organizzativi. Per i leader aziendali, agire ora significa cogliere il vantaggio competitivo e prepararsi a un futuro sempre più automatizzato. Ecco come affrontare questa transizione in modo efficace e strategico:

  1. Identificare i processi dove gli AI Agent possono semplificare attività complesse: la prima fase consiste nell’analisi interna dei processi aziendali per individuare attività che richiedono molto tempo, sono ripetitive o presentano margini di errore elevati. Ad esempio:
    • Customer service: automazione delle richieste comuni, migliorando la velocità di risposta e riducendo il carico di lavoro sui team.
    • Supply chain: ottimizzazione della gestione degli inventari, prevedendo la domanda con agenti AI che analizzano dati storici e in tempo reale.
    • Risorse umane: screening automatico dei CV e onboarding personalizzato, migliorando la qualità delle assunzioni.
    • Finance: monitoraggio delle spese aziendali o gestione automatizzata di portafogli d’investimento.
      L’obiettivo è concentrarsi su attività dove l’adozione di agenti può generare il massimo impatto in termini di efficienza, costi e qualità del servizio.
  2. Utilizzare framework open-source per prototipi rapidi e a basso costo: una delle barriere principali all’adozione dell’AI è il costo dello sviluppo. I framework open-source rappresentano una soluzione per prototipare rapidamente senza costi eccessivi.
    • LangChain e Semantic Kernel offrono infrastrutture scalabili per costruire agenti personalizzati in tempi brevi.
    • Utilizzare framework come Rasa per implementare soluzioni di customer support o Phidata per integrare agenti AI con i database aziendali.
      Prototipare in modo rapido consente alle aziende di testare diverse soluzioni, raccogliere feedback e iterare velocemente, riducendo al minimo gli investimenti iniziali.
  3. Implementare modelli ibridi che combinano supervisione umana e automazione AI: un approccio ibrido, che integra l’autonomia decisionale degli AI Agent con la supervisione umana, è spesso il più efficace, soprattutto nelle fasi iniziali. Ecco alcuni esempi di applicazione:
    • Supervisione nei processi critici: nei settori come il finance o il legale, l’AI può svolgere analisi preliminari, lasciando ai team umani il controllo delle decisioni finali.
    • Interventi in tempo reale: strumenti come LangFuse consentono di monitorare gli agenti in azione, segnalando anomalie o comportamenti indesiderati.
    • Apprendimento continuo: il feedback umano può essere utilizzato per addestrare ulteriormente i modelli AI, migliorando le performance nel tempo.
      Questo approccio non solo riduce i rischi associati all’automazione totale, ma aiuta anche il personale ad acquisire fiducia nella tecnologia.
  4. Valutare l’ROI basandosi su costi ridotti e output migliorati: per garantire il successo di un’iniziativa basata su AI Agent, è essenziale misurare il ritorno sull’investimento (ROI). Questo implica non solo considerare i costi diretti, ma anche il valore generato in termini di produttività, efficienza e soddisfazione dei clienti.
    • Costi diretti: riduzione delle spese operative grazie all’automazione di attività ripetitive. Ad esempio, JP Morgan ha risparmiato oltre 200 milioni di dollari all’anno con agenti AI che hanno ottimizzato la gestione del rischio e ridotto le frodi del 70%.
    • Produttività aumentata: misurare il tempo risparmiato dai dipendenti e il numero di processi automatizzati con successo.
    • Soddisfazione del cliente: valutare il miglioramento dell’esperienza cliente attraverso metriche come Net Promoter Score (NPS) o tempi di risposta ridotti.
      Il ROI non è solo una questione di numeri, ma anche di capacità di dimostrare che l’adozione degli AI Agent migliora la competitività aziendale a lungo termine.
  5. Coinvolgere i team e creare una cultura dell’innovazione: infine, l’implementazione degli AI Agent non è solo un progetto tecnologico, ma richiede il coinvolgimento attivo dei team:
    • Formare i dipendenti per integrare la tecnologia nelle loro attività quotidiane.
    • Comunicare chiaramente i benefici della tecnologia, riducendo la resistenza al cambiamento.
    • Promuovere una cultura in cui l’innovazione e la sperimentazione siano incoraggiate e premiate.
      Gli AI Agent non sono solo una moda tecnologica, ma una vera leva strategica per trasformare il modo in cui le aziende operano e competono. Agire ora, con una strategia chiara e un approccio mirato, consente di posizionarsi in vantaggio in un mercato in continua evoluzione.

Uno sguardo al futuro: verso il 2027 e oltre

Gli AI Agent stanno tracciando un percorso che cambierà radicalmente il modo in cui lavoriamo e innoviamo. Entro il 2027, le previsioni indicano che potrebbero raddoppiare la produttività nei settori basati sulla conoscenza, gestendo fino al 40% dei task. Questo impatto non si limiterà all’automazione, ma trasformerà i flussi di lavoro e il valore generato all’interno delle organizzazioni.

Il vero vantaggio, tuttavia, risiede nella loro capacità di collaborare tra loro, creando reti di agenti interconnessi che operano come ecosistemi multi-agent. Questi sistemi, già anticipati dai progressi nelle pipeline coordinate e nei modelli di Retrieval-Augmented Generation (RAG), saranno in grado di condividere informazioni, ottimizzare processi complessi e prendere decisioni integrate. L’evoluzione verso questa forma di intelligenza distribuita aprirà nuove possibilità per migliorare efficienza, scalabilità e personalizzazione.

Il framework D.E.E.P.: un approccio strutturato per adottare gli AI Agent

L’adozione strategica degli AI Agent richiede un approccio metodologico che consideri tutti gli aspetti fondamentali per un’integrazione efficace. Il framework D.E.E.P. (Dati, Esperienza, Ecosistema, Processo) guida le aziende attraverso una roadmap chiara e strutturata, assicurando che ogni fase sia coperta e che l’impatto sia massimizzato. Vediamo nel dettaglio ogni componente:

  1. Dati: questa fase si concentra sull’analisi della disponibilità, qualità e organizzazione dei dati. Attraverso un’analisi di data readiness, vengono:
    • Mappate le fonti di dati esistenti.
    • Identificate eventuali lacune o incoerenze nei dati disponibili.
    • Proposti interventi per migliorare la pulizia e la strutturazione dei dati.
      L’obiettivo è fornire un quadro chiaro del patrimonio informativo aziendale e definire le azioni necessarie per preparare i dati all’addestramento dei modelli di AI. Questo passaggio è cruciale, poiché la qualità dei dati influenza direttamente l’efficacia degli agenti AI.
  2. Esperienza: la seconda fase valuta la competenza interna e la disponibilità di esperti di dominio in grado di interpretare correttamente le problematiche aziendali. Include:
    • La mappatura delle competenze chiave all’interno dell’organizzazione.
    • L’identificazione degli stakeholder più rilevanti.
    • La valutazione di eventuali gap di conoscenza che potrebbero ostacolare l’implementazione.
      L’output di questa fase è un piano d’azione che prevede il coinvolgimento delle figure strategiche e la formazione necessaria per trasferire le competenze ai modelli AI, assicurando un allineamento tra tecnologia e obiettivi aziendali.
  3. Ecosistema: l’ecosistema aziendale – inteso come infrastruttura tecnologica, organizzativa e culturale – viene esaminato per garantirne la compatibilità e la scalabilità con soluzioni di AI. Questo include:
    • La valutazione dell’integrazione tra strumenti, piattaforme e team esistenti.
    • L’analisi delle barriere culturali o organizzative che potrebbero rallentare l’adozione.
    • La definizione di eventuali aggiornamenti necessari per rendere l’ecosistema pronto a supportare l’AI.
      L’output di questa fase è un documento di raccomandazioni operative, che suggerisce modifiche ai tool, ai processi e alla struttura organizzativa per massimizzare l’efficacia delle nuove soluzioni tecnologiche.
  4. Processo: l’ultima fase riguarda l’analisi dei workflow operativi. Si studia la ripetibilità, la standardizzazione e la documentazione dei processi per identificare le aree a maggior potenziale di ottimizzazione tramite AI. Questa fase prevede:
    1. L’assessment delle attività ripetitive e dei colli di bottiglia.
    2. La mappatura dei flussi di lavoro prioritari per l’introduzione dell’automazione.
    3. La proposta di un design ottimizzato dei processi, supportato da agenti AI.
      L’output è una mappa dei flussi di lavoro che evidenzia le aree critiche su cui intervenire, accompagnata da suggerimenti per la modellazione e l’automazione dei processi.

Valutare gli impatti

Non tutte le aziende sono pronte per questa transizione, e il rischio di sottovalutare gli impatti può portare a risultati controproducenti. È fondamentale:

  • Effettuare analisi di impatto iniziale, identificando rischi e opportunità.
  • Creare progetti pilota, utilizzando framework open-source come LangChain o Rasa per testare applicazioni specifiche prima di una distribuzione su larga scala.
  • Valutare il contributo degli AI Agent non solo in termini di produttività, ma anche di miglioramento della customer experience, innovazione e sostenibilità.

Le aziende che guideranno l’innovazione

La leadership nel settore degli AI Agent dipenderà dalla capacità di integrare queste tecnologie nei processi aziendali con una visione strategica. OpenAI, Google e Anthropic rimangono attori dominanti, ma nuovi player emergenti, come le piattaforme Crypto x AI (ad esempio, AI16Z), stanno guadagnando terreno grazie a modelli innovativi e un focus su scalabilità e velocità.

Il futuro degli AI Agent non riguarda solo l’efficienza, ma anche la capacità di trasformare interi settori con un approccio orientato ai dati, alla competenza e all’etica. Le aziende che sapranno integrare questi agenti in modo strategico e responsabile non solo aumenteranno la produttività, ma ridefiniranno la loro posizione sul mercato.

Human in the Loop: il valore dell’uomo nell’era dell’automazione

L’intelligenza artificiale è sempre più parte integrante dei processi decisionali e produttivi in ambito aziendale e sociale. Ma c’è un elemento che spesso viene sottovalutato: il ruolo insostituibile dell’essere umano nel ciclo decisionale, concetto noto come Human in the Loop (HITL). Questo paradigma non è solo una buona pratica, ma un approccio strategico per bilanciare automazione e controllo umano.

Origine e genesi del concetto

Il termine Human in the Loop emerge negli anni ’50 e ’60, con lo sviluppo dei primi sistemi cibernetici e automatizzati. Norbert Wiener, nel suo libro Cybernetics: Or Control and Communication in the Animal and the Machine (1948), sottolineava che l’intelligenza dei sistemi doveva necessariamente passare per il contributo umano, un principio che ha plasmato molte discipline moderne.

Con l’avvento dell’intelligenza artificiale, il concetto è stato ridefinito: da semplice “uomo nella catena di controllo” a pilastro di sicurezza, etica e miglioramento continuo nei sistemi di apprendimento automatico. Stuart Russell e Peter Norvig, nel celebre manuale Artificial Intelligence: A Modern Approach, esplorano come il ruolo umano rimanga centrale per garantire che i sistemi di AI operino in linea con i valori umani.

Cosa significa HITL oggi?

Oggi Human in the Loop si riferisce a una collaborazione attiva tra uomo e macchina. Non si tratta solo di supervisionare, ma di integrare competenze complementari. Le macchine eccellono nella velocità e nell’elaborazione di grandi quantità di dati; gli esseri umani offrono intuizione, empatia e giudizio morale. Tre modalità principali di intervento umano:

  • Supervisione e monitoraggio: L’uomo supervisiona l’output dell’AI, correggendo eventuali errori.
  • Addestramento e miglioramento: L’intervento umano serve per fornire dati migliori e ridurre bias negli algoritmi.
  • Decision-making condiviso: L’essere umano interviene nei processi decisionali, integrando l’analisi dell’AI con intuizioni contestuali.

Perché HITL è cruciale?

L’automazione ha i suoi limiti e rischi. L’assenza di supervisione umana può portare a conseguenze gravi, come bias discriminatori o errori in contesti critici. Cathy O’Neil, nel suo libro Weapons of Math Destruction, illustra come algoritmi non supervisionati possano amplificare le disuguaglianze sociali, dimostrando l’importanza dell’intervento umano.

Un caso emblematico è quello dei sistemi di content moderation nei social media. Nel suo libro The Age of Surveillance Capitalism, Shoshana Zuboff esplora come l’automazione pura non riesca a distinguere il contesto nei contenuti online, portando a decisioni sbagliate o persino pericolose.

Applicazioni e ambiti di utilizzo

  • Sanità: Eric Topol, in Deep Medicine, esplora come l’AI supporti i medici nell’analisi di immagini diagnostiche e nell’identificazione di anomalie. Decisioni come una diagnosi definitiva o una terapia rimangono nelle mani del medico.
  • Finance: Nel settore finanziario, il rischio di automazione non controllata è elevato. I sistemi di trading algoritmico e antifrode si affidano a modelli AI, ma l’intervento umano rimane cruciale per evitare errori che potrebbero causare gravi danni economici.
  • Giustizia e governance: Virginia Eubanks, in Automating Inequality, dimostra come l’uso non regolamentato dell’AI in contesti come il welfare possa perpetuare discriminazioni sistemiche. La presenza umana serve per valutare casi specifici e garantire equità.

Sfide e limiti del modello HITL

Nonostante i suoi benefici, HITL presenta sfide importanti:

  • Scalabilità: Integrare l’intervento umano in sistemi su larga scala può essere costoso e complesso.
  • Addestramento umano: Lavorare in sinergia con l’AI richiede competenze specifiche e un continuo aggiornamento.
  • Dipendenza dal giudizio umano: Gli esseri umani possono essere soggetti a bias cognitivi, che influenzano negativamente l’efficacia del modello.

Per affrontare queste sfide, Kai-Fu Lee, nel suo libro AI Superpowers, suggerisce che l’uomo deve evolversi insieme alle macchine, acquisendo nuove competenze per interpretare e collaborare con i sistemi AI.

Il punto di vista di Paolo Benanti

Nel libro “Human in the Loop” anche Paolo Benanti esprime 5 concetti sul tema, ovviamente da una angolazione etica:

  • Centralità dell’umano: l’essere umano deve restare al centro dei processi decisionali anche in presenza di tecnologie avanzate, evitando una delega totale all’AI.
  • Etica dell’AI: è necessario sviluppare un modello etico che guidi la progettazione e l’uso dell’AI, considerando le implicazioni sociali, morali e antropologiche.
  • Responsabilità condivisa: l’integrazione tra uomo e AI richiede una suddivisione delle responsabilità, assicurando che il controllo finale rimanga in mano agli esseri umani.
  • Bias e trasparenza: Benanti sottolinea l’importanza di affrontare i bias algoritmici e garantire la trasparenza dei sistemi AI per evitare discriminazioni o decisioni ingiuste.
  • Tecnologia come strumento, non fine: l’AI deve essere vista come un mezzo per migliorare le condizioni umane e non come un obiettivo autonomo o indipendente dall’etica e dai valori umani.

Il futuro del concetto

L’evoluzione dell’AI porterà il paradigma HITL verso nuovi orizzonti. Il concetto di Human in the Loop si trasformerà in Human on the Loop e infine in Human out of the Loop, dove il ruolo umano si sposterà da operatore a supervisore strategico. Come sottolineato da Nick Bostrom in Superintelligence, l’uomo rimarrà centrale per definire obiettivi e valori che le macchine non possono comprendere autonomamente.

Human in the Loop non è solo un approccio tecnico, ma una filosofia che ci ricorda che l’AI, per quanto potente, è sempre un’estensione delle nostre capacità. Come scrive Marshall McLuhan: “Non sono le macchine a dominare, ma il modo in cui le usiamo“. Il futuro dell’AI sarà scritto da sistemi sempre più autonomi, ma il ruolo umano rimarrà insostituibile per garantire etica, sicurezza e progresso sostenibile.

La nuova (rin)corsa ai dati: estrarre valore in profondità con l’AI e il metodo D.E.E.P & 4V

L’AI ha ridato vita alla nuova (rin)corsa al petrolio dei dati. L’entusiasmo generato dai media e l’enorme afflusso di capitali di rischio (oltre 4 miliardi di dollari investiti negli ultimi mesi) hanno innescato una gara serrata per ottenere un vantaggio competitivo nell’estrazione di dati (di qualità) e nell’uso dell’intelligenza artificiale.

Come con il petrolio, in cui la sfida non è stata tanto trovarlo, quanto saperlo raffinare e utilizzare per creare valore, ora succede con l’AI e con i dati. C’è un rischio reale in questa rincorsa che sta già iniziando a dare i primi segnali: muoversi con troppa fretta e ottimismo può portare a progetti di AI senza un effettivo ritorno, mentre un approccio troppo lento rischia di produrre soluzioni obsolete ancora prima di entrare in funzione.

L’obiettivo, per molte aziende, è trovare il giusto equilibrio, costruendo progetti che abbiano un impatto concreto e duraturo sul business, evitando di investire tempo e risorse in “pozzi a secco”.

Gli errori comuni nella creazione di progetti AI based

L’intelligenza artificiale non è più una mera curiosità sperimentale, ma una tecnologia matura che può rivoluzionare la progettazione, lo sviluppo e la distribuzione dei prodotti. Le aziende in grado di sfruttarla correttamente avranno senza dubbio aumento di produttività, riduzione dei costi e capacità finora impensabili in alcuni ambiti.

Per ottenere questi benefici, ed evitare i due errori comuni che ho visto già ripetutamente ripetersi, è necessario un livello di attenzione e progettazione su :

  1. Mancato allineamento con gli obiettivi aziendali: investire in AI solo perché “va di moda” conduce a progetti lunghi, costosi e privi di impatto concreto. Senza legare l’uso della tecnologia ad obiettivi di business chiari, si finisce per scavare in aree prive di petrolio di valore.
  2. Profili non adeguati: lasciare che un progetto sia gestito esclusivamente da team tecnici, senza coinvolgere business e prodotto, produce soluzioni che non rispondono alle reali esigenze dell’azienda, e del mercato. È come costruire un oleodotto senza sapere per quali mercati si sta estraendo.

Individuare il livello di maturità ed i casi d’uso con il framework D.E.E.P.

Negli anni ho imparato che non basta avere dati o tecnologie all’avanguardia per realizzare progetti di AI realmente efficaci. Il vero successo risiede nella capacità di individuare i giusti “campi di estrazione” e di definire chiaramente i criteri di impiego, evitando di farsi condizionare dal F.O.M.O. (Fear Of Missing Out) e puntando invece su un attento processo di analisi e assessment.

Partendo da queste esperienze, ho sviluppato gradualmente, in particolare nell’ultimo anno, un framework chiamato D.E.E.P. (Dati, Esperienza, Ecosistema, Processo). Applicato in diversi contesti industriali, questo approccio mi ha permesso di identificare il livello di maturità e le aree di intervento di un’organizzazione rispetto all’adozione dell’AI, riuscendo così a raffinare continuamente la metodologia. L’idea di “profondità” introdotta dal D.E.E.P. mira a valutare con precisione la situazione attuale dell’azienda e la sua capacità di generare valore attraverso l’AI, analizzando quattro dimensioni chiave, ciascuna con le sue analisi specifiche e i relativi output:

  1. Dati: in questa fase vengono valutati la disponibilità, la qualità, la strutturazione e la pulizia dei dati, conducendo un’analisi di data readiness che include l’inventario delle fonti, la valutazione delle lacune e la definizione di eventuali interventi di miglioramento. L’output finale è un quadro chiaro del patrimonio informativo disponibile, con indicazioni su come preparare i dati per l’addestramento di modelli IA.
  2. Esperienza: qui si verifica la presenza di esperti di dominio, la profondità della conoscenza interna e la capacità di interpretare correttamente le problematiche da risolvere con l’AI. L’analisi comprende l’identificazione degli stakeholder chiave, la mappatura delle competenze e la valutazione delle lacune conoscitive. L’output consiste in un piano per coinvolgere le figure di riferimento, colmare eventuali gap di expertise e facilitare il trasferimento di conoscenza ai modelli di intelligenza artificiale.
  3. Ecosistema: in questa fase viene esaminata l’infrastruttura tecnologica, organizzativa e culturale dell’azienda: l’integrazione tra strumenti, piattaforme, team e processi esistenti viene valutata attraverso un’analisi di compatibilità e scalabilità. L’output è un documento di raccomandazioni su come allineare o aggiornare l’ecosistema tecnologico, indicazioni su eventuali cambi di tool, su come integrare l’AI nei flussi di lavoro esistenti e su come preparare l’organizzazione ad accogliere nuove soluzioni.
  4. Processo: infine, vengono analizzati i workflow operativi, la loro ripetibilità, standardizzazione e documentazione. Attraverso un assessment dei processi, si individuano le attività a maggior potenziale di automazione o ottimizzazione tramite AI. L’output di questa fase è una mappa dei flussi di lavoro prioritari, con indicazioni su dove introdurre l’IA e suggerimenti per la modellazione del processo, al fine di massimizzare l’efficacia dell’intervento tecnologico.

L’insieme di queste analisi e output fornisce così una visione integrata dello stato di maturità dell’azienda e orienta i passi successivi verso l’implementazione di soluzioni IA solide, mirate e sostenibili.

Un esempio, banale, ma concettualmente efficace: un’azienda retail che vuole generare report accurati sulle tendenze di vendita partendo da un insieme di flussi di dati prevalentemente digitali ma integrato di dati cartacei disordinati, note interne non standardizzate e appunti informali sul comportamento dei clienti. Senza informazioni strutturate e digitalizzate (Dati), senza uno staff che abbia codificato a fondo la logica commerciale o le metriche critiche da monitorare (Esperienza), senza strumenti integrati per gestire e processare le informazioni (Ecosistema), né procedure ripetibili per l’analisi delle vendite (Processo), l’uso dell’AI diventa evidentemente inefficace. È come cercare di “estrarre valore” in un contesto caotico, senza i fondamenti necessari per ottenere risultati significativi.

Dopo il DEEP, l’analisi delle 4V per definire le priorità

Una volta individuati eventuali gap, maturità, i potenziali “giacimenti” e gli ambiti di intervento grazie a D.E.E.P., occorre ora valutarne il potenziale, così da permettere all’azienda di comprendere, senza illusioni o aspettative non correttamente tarate.

A questo scopo, utilizzo un modello che ho rivisto di un framework chiamato V.V.V. a cui ho aggiunto una quarta dimensione e trasformandolo in V.V.V.V. (Valutazione, Valore, Velocità, Visione):

1. Valutazione

  • Scopo:verificare la fattibilità reale del progetto, considerando competenze, risorse e contesto normativo, così da identificare gli ostacoli e le soluzioni necessarie prima di investire ulteriormente.
  • Analisi: in questa fase si mappano i gap di skill interne, si valutano i fornitori o partner potenziali, si considerano i requisiti legali e i vincoli tecnici. Questo passaggio serve anche a definire se conviene formare il personale interno, assumere nuovi talenti, acquisire tecnologie o esternalizzare parte dell’iniziativa.
  • Azioni: la conclusione della “Valutazione” è un piano operativo che evidenzia investimenti da effettuare, competenze da integrare (make or buy), modalità di coinvolgimento dei partner esterni e interventi per ridurre i rischi e aumentare la sostenibilità del progetto.

2. Valore:

  • Scopo: stabilire la reale utilità dell’iniziativa in termini di impatto su costi, ricavi, efficienza e vantaggio competitivo. L’obiettivo è comprendere se l’investimento genererà risultati tangibili, evitando di puntare su soluzioni prive di ritorno.
  • Analisi: si identificano i KPIs rilevanti, si stimano i potenziali incrementi di produttività o risparmi di tempo, si analizzano le opportunità di crescita dei ricavi e si verifica se il progetto supporta gli obiettivi strategici dell’azienda.
  • Azioni: a valle di questa fase, l’azienda ottiene una chiara definizione del ritorno sull’investimento (ROI) atteso, una mappa dei benefici misurabili e una lista di priorità per focalizzarsi sulle iniziative a maggiore impatto, orientando così le risorse dove offrono più valore.

3. Velocità

  • Scopo: valutare i tempi e le modalità di implementazione per garantire che il progetto non diventi obsoleto prima di essere completato. In un contesto di rapida evoluzione tecnologica, come quella che viviamo oggi, è essenziale agire con tempismo e definire release incrementali.
  • Analisi: si esamina la complessità delle attività, la disponibilità delle risorse, la presenza di eventuali colli di bottiglia, e si definiscono milestone e roadmap temporali. Ciò consente di capire se è meglio avviare subito il progetto o se attendere migliori condizioni.
  • Azioni: Il risultato è un piano di roll-out agile, con rilasci progressivi, test intermedî e la capacità di reagire rapidamente ai cambiamenti del mercato e alle nuove tecnologie, prevenendo un eccessivo allungamento dei tempi e inutili sprechi di risorse.

4. Visione:

  • Scopo: garantire che l’iniziativa non sia solo un’opportunità tattica ma anche strategica, inserita in una prospettiva di medio-lungo termine e allineata ai trend futuri del settore e alle evoluzioni interne all’azienda.
  • Analisi: si verifica la coerenza del progetto con la strategia complessiva, si valuta la capacità di scalare la soluzione nel tempo, di adattarsi a nuove esigenze o mercati, di integrarsi con altri progetti in pipeline e di sfruttare tecnologie emergenti.
  • Azioni: una volta conclusa l’analisi sulla Visione, l’azienda dispone di una roadmap di lungo periodo e di linee guida per far crescere o adattare l’iniziativa nel futuro, assicurando che l’investimento si riveli un asset duraturo e non una soluzione effimera.

L’integrazione di queste quattro dimensioni (Valutazione, Valore, Velocità, Visione) consente all’azienda di definire un quadro completo delle opportunità e dei rischi, assicurando interventi mirati, sostenibili e coerenti con il contesto presente e futuro. L’integrazione della componente Visione introduce a mio avviso una valutazione di lungo termine così da dare una prospettiva che permetta, nelle valutazioni progressive, di capire se la direzione è coerente e se attuale rispetto al contesto. In particolare questo punto di valutazione è utile quando il progetto non restituirà immediatamente risultati creando una condizione di sfiducia e quindi possibili decisioni non più coerenti con le valutazioni iniziali.

Utilizzando i due framework D.E.E.P. e 4V., si individuano a questo punto uno o due casi d’uso veramente promettenti, interessanti non solo per una area aziendale, che sia il business, l’applicabilità tecnica o la notiziabilità, e si definisce un piano trasversale che coinvolge l’azienda in una trasformazione spinta dall’AI e pronta per essere messa in produzione senza sprechi di risorse e in un’ottica di crescita sostenibile.

Linee guida chiave:

  • Coinvolgere più competenze: servono persone e competenze che conoscano sia la tecnologia sia il mercato, per assicurarsi che l’AI estragga il giusto tipo di “petrolio” e non sabbia.
  • Cambiare i processi di sviluppo: le metodologie tradizionali non si adattano perfettamente ai progetti trainati da AI. Occorre rilasciare prototipi, testare sul campo, iterare. È come calibrare un nuovo impianto di raffinazione fino a trovare l’ottimale. Bisogna introdurre una mentalità iterativa, orientata alla raffinazione degli errori e non al giudizio sul fallimento.
  • Procedere per piccoli passi: iniziare con progetti circoscritti e ad alto impatto, per minimizzare i rischi e imparare dall’esperienza, è meglio che cercare di trivellare subito in profondità senza la giusta preparazione, una giusta motivazione e una corretta sostenibilità.

Finisco il concetto continuando sulla metafora del petrolio: muoversi senza criterio sull’onda dell’hype porta a pozzi a secco e risorse sprecate. Agire troppo lentamente significa concedere il vantaggio e perdere in competitività. La chiave è trovare l’equilibrio, individuare i giacimenti di dati giusti, usare il metodo DEEP per capire come estrarli ed un modello come il 4V per prioritizzare ciò che può davvero generare valore per il business. In questo modo l’AI diventa il vero “petrolio” dell’era digitale, una risorsa su cui costruire un vantaggio competitivo duraturo.

L’obsolescenza delle competenze. Abbiamo bisogno ancora di imparare?

Sabato scorso, al festival di Medioera a Viterbo, ho avuto l’opportunità di rispondere a 11 delle 50 domande affrontate nel mio libro “L’AI non è quello che pensi”. Ho scelto i punti più curiosi e quelli su cui spesso lo scetticismo è più forte, approfondendo temi come il futuro delle competenze, il rapporto tra AI e capacità critica, e il rischio di una società sempre più dipendente dalla tecnologia.

Uno dei temi centrali del mio intervento è stato l’obsolescenza delle competenze. L’AI accelera inevitabilmente la velocità con cui ciò che sappiamo diventa obsoleto. Non basta più apprendere una volta sola; oggi la vera sfida è imparare come imparare.

Elga Nowotny, in Le Macchine di Dio, chiama questo rischio auto-appiattimento: non solo rischiamo di delegare troppo, ma anche di smettere di sviluppare un pensiero critico. Se consumiamo passivamente informazioni generate dall’AI senza metterle in discussione, diventiamo spettatori passivi. Qui, l’obsolescenza delle competenze si intreccia con una questione più ampia: la nostra autonomia intellettuale.

L’AI, infatti, non “pensa”, ma “calcola”. Non ha valori, emozioni o coscienza. Eppure, spesso tendiamo a trattarla come una fonte di verità assoluta. Questo può portarci a una passività intellettuale pericolosa, in cui accettiamo tutto ciò che viene proposto senza metterlo in discussione.

Eppure, l’AI può (e dovrebbe) essere uno strumento straordinario per amplificare le nostre capacità. Come ho detto durante lo speech, l’AI è uno specchio: riflette il meglio o amplifica il peggio di noi. Non è una minaccia né una salvezza, ma un’opportunità per sviluppare una nuova alfabetizzazione digitale e una capacità critica che ci permettano di costruire con questa tecnologia qualcosa di significativo.

Su questo punto, una delle domande su cui si è posato più l’interesse della platea è stata: “Con l’AI non ci servirà più imparare?”

A prima vista, potrebbe sembrare che, grazie all’intelligenza artificiale, non avremo più bisogno di accumulare conoscenze o competenze, dato che possiamo delegare il lavoro pesante alle macchine. Ma è davvero così?

La risposta è complessa e ci porta dritti al cuore di una trasformazione epocale: l’obsolescenza delle competenze. Ciò che impariamo oggi rischia di diventare irrilevante in tempi brevissimi, in un contesto in cui il ritmo di sviluppo del nuovo è così veloce da non permettere di consolidare quanto appreso.

L’AI sta ridisegnando il mondo del lavoro e il nostro rapporto con l’apprendimento. Non si tratta di non dover più imparare, ma di imparare in modo diverso e molto più velocemente. Le competenze che oggi riteniamo essenziali potrebbero diventare superflue in pochi anni. L’unica vera competenza per il futuro sarà la capacità di imparare continuamente. L’apprendimento non sarà più un processo statico legato alla formazione scolastica, ma un viaggio dinamico che ci accompagnerà per tutta la vita.

L’AI non sostituirà mai del tutto la nostra capacità di giudizio, ma potrebbe renderci dipendenti se non impariamo a governarla. Per questo, oltre ad aggiornare le nostre competenze tecniche, dobbiamo sviluppare capacità trasversali come l’analisi critica, la creatività e l’adattabilità. L’AI non elimina la necessità di imparare, ma trasforma il come e il cosaimpariamo.

Non basta più sapere. Dobbiamo saper cercare, collegare e creare. Non possiamo limitarci a memorizzare nozioni; dobbiamo comprendere i processi e i modelli che ci permettono di innovare. L’AI, come tutte le tecnologie, non dovrebbero renderci meno responsabili; al contrario, le innovazioni ci chiedono di assumere un ruolo attivo nell’interpretazione e nell’utilizzo, ed in particolare, con l’AI, nell’utilizzo dei dati. Paolo Benanti, parlando di algoretica, ci invita a non fermarci all’automatismo ma a sviluppare una consapevolezza critica sull’impatto degli algoritmi.

Imparare, quindi, non è solo una necessità, ma un atto di resistenza. Resistenza contro l’appiattimento (già amplificato da social e algoritmi), contro la tentazione di delegare tutto alla tecnologia.

L’idea che l’AI possa liberarci dal bisogno di imparare è una semplificazione pericolosa. Piuttosto, ci spinge a imparare di più, con nuove metodologie e a velocità mai viste prima. L’intelligenza artificiale deve essere un catalizzatore per un apprendimento più profondo, che possa abilitarci sempre più curiosità e spirito critico.

Forse la domanda giusta è: siamo pronti a reinventare il nostro modo di imparare?

+

Nel libro “L’AI non è quello che pensi” trovi altre 49 domande e risposte semplici.

L’AI non è quello che pensi – 50 domande frequenti e risposte serie ma semplici sull’Intelligenza Artificiale

Sarà che quando si pubblica qualcosa, si è felici, ma oggi lo sono un po’ di più. Oggi ho (auto) pubblicato un nuovo lavoro, una piccola novità che, in un certo senso, è il risultato di anni di dialoghi, discussioni (accese) e scambi di opinioni su un tema che continua ad affascinarmi e sfidarmi: l’intelligenza artificiale. Sono contento di annunciare la pubblicazione del mio ultimo e-book su Amazon, “L’AI non è quello che pensi – 50 domande frequenti e risposte serie ma semplici sull’Intelligenza Artificiale” – una raccolta strutturata in 50 domande frequenti e provocatorie che tentano di rispondere ai dubbi, alle curiosità e agli equivoci che ruotano intorno all’AI.

Come nasce questo libro?

La genesi del libro è un mix di casualità e intenzione: da anni, durante eventi, lezioni, conversazioni e persino cene con amici, ho accumulato domande – alcune tecniche, altre curiose, e altre ancora del tutto inaspettate. In meno di sette giorni, dopo uno spunto di amici discutendo per l’ennesima volta di questi temi, e grazie anche al supporto di strumenti di AI come ChatGPT, Perplexity, Claude e DALL-E, ho raccolto e organizzato tutte le risposte in un formato accessibile. Mi sono reso conto che la struttura a domande e risposte è perfetta per chi cerca di orientarsi nel mondo dell’AI senza voler (o dover) diventare un esperto.

A chi è rivolto?

Il libro è pensato per chiunque: dal curioso che vuole saperne di più, allo scettico convinto che l’AI sia solo un’altra moda passeggera, fino a chi, già nel settore, cerca uno sguardo nuovo, senza tecnicismi eccessivi ma con un approccio puntuale. Non troverete un manuale tecnico, ma una guida che invita a riflettere, a sfatare miti e a scoprire aspetti meno noti dell’AI.

Macro temi trattati

Il cuore del libro esplora temi attuali e spesso controversi:

  • Definizioni e Fondamenti: Cosa intendiamo per AI? Qual è il rapporto tra AI, machine learning e deep learning?
  • Miti e Percezioni Sbagliate: L’AI è davvero una minaccia per l’umanità o uno strumento di supporto?
  • Impatto sul Lavoro e sulle Professioni: Come cambierà il mercato del lavoro con l’avanzare dell’AI?
  • Etica, Privacy e Sicurezza: Come gestire il lato etico di un’intelligenza artificiale in continua evoluzione?
  • Creatività e Pensiero Critico: L’AI potrà mai essere creativa o comprenderà mai le emozioni umane?
  • Fantascienza e Futuro: Un gemello digitale potrebbe interagire per noi in futuro? E cosa significherebbe questo per il ricordo e il legame con chi non c’è più?

Un lancio speciale

Per i prossimi giorni, il libro sarà scaricabile gratuitamente su Amazon, e successivamente sarà disponibile a 4,99 euro. Sto anche valutando la possibilità di una versione cartacea per chi, come me, preferisce ancora avere qualcosa di fisico da sfogliare.

Un ringraziamento speciale

Non posso concludere senza ringraziare chi ha reso questo progetto possibile. Alla mia famiglia, che ha sempre pazientemente sopportato le mie discussioni infinite sull’AI, agli amici con cui ho condiviso idee e battute (Roberto, Andrea, Angelo, Stefano, Fabrizio, Alessandro), e a tutti coloro che continuano a farmi domande e stimolare il confronto. Un ringraziamento va anche agli scettici e a tutti i curiosi, perché senza di voi queste 50 domande non avrebbero mai trovato una risposta.

Spero che questo libro possa offrirvi qualche spunto nuovo e, chissà, magari anche ispirarvi a fare nuove domande. Buona lettura! Qui per prenderlo in eBook 

Un nuovo senso alla parola Fiducia, nell’intersezione Blockchain e AI. Non solo.

Fino a poco tempo fa, ciò che vedevamo e ascoltavamo sembrava essere la verità (non sempre) assoluta. Le immagini che scorrevano sui nostri schermi, le voci che ci arrivavano dagli altoparlanti, erano per noi un riflesso di una realtà alquanto tangibile. Ma questa sensazione di certezza, a cui ci siamo affidati per decenni, sta rapidamente crollando.

Oggi, voci, immagini, video e persino testi possono essere creati, manipolati e distorti con una facilità senza precedenti, grazie alle potenzialità dell’intelligenza artificiale generativa e agli strumenti sempre più accessibili. Ciò che un tempo era una rappresentazione affidabile della realtà è ora diventato un’ombra di quella stessa realtà. In questo contesto, ci troviamo di fronte a una domanda fondamentale: in un mondo in cui tutto può essere falsificato, cosa è realmente autentico? E, soprattutto, come possiamo fidarci di ciò che vediamo e ascoltiamo?

Cyber attacchi e truffe: una criticità crescente

Negli ultimi anni, le truffe e i cyber attacchi alimentati dall’intelligenza artificiale sono aumentati drasticamente, con conseguenze economiche e sociali gravi. Le frodi legate a identità e transazioni hanno portato, solo nel 2023, a perdite globali di miliardi di dollari. Tecniche avanzate come la sintesi vocale e la manipolazione video consentono ai criminali di creare attacchi sempre più sofisticati. Il problema non risiede solo nel danno economico immediato, ma nella crescente sfiducia che questi fenomeni generano. Più credibile è l’attacco, più difficile è ripristinare la fiducia nelle informazioni digitali.

Quali soluzioni abbiamo per lavorare su questo concetto di fiducia?

AI e Blockchain: un’opportunità nella convergenza tecnologica

Uno dei temi che maggiormente sto trattando recentemente e di cui ho scritto nel libro Spatial Shit, è quelllo della convergenza tecnologica, che vede, in questo momento storico, la maturità di diverse tecnologie raggiungere uno di contatto con tutte le altre. Intelligenza artificiale, Spatial Computing, Blockchain, Iot stanno iniziando appunto un processo di convergenza in cui ognuna di queste introduce vantaggi per le altre.

Se ci soffermiamo a osservare il rapporto tra l’intelligenza artificiale (AI) e la blockchain, per esempio, in riferimento alla domanda principale, è facile dedurre come queste due tecnologie, sebbene apparentemente diverse, siano in grado di integrarsi perfettamente. L’AI, da un lato, si basa su algoritmi capaci di apprendere dal passato, analizzare grandi quantità di dati e, attraverso processi predittivi, fornire scenari futuri per aiutare le aziende a prendere decisioni in tempo reale. In questo flusso costante di dati e previsioni, le informazioni però possono essere potenzialmente manipolate o modificate con facilità, soprattutto in un ambiente sempre più digitale e complesso.

Ed è qui che entra in gioco la blockchain, che svolge il ruolo di custode del passato. A differenza dell’AI, che è in continua evoluzione e ottimizzazione, la blockchain non prevede adattamenti o cambiamenti: una volta che un’informazione viene registrata in questo registro distribuito, diventa permanente. Ogni decisione o transazione è tracciabile e verificabile da tutti i partecipanti alla rete, garantendo che nulla possa essere alterato senza che l’intero sistema ne prenda atto.

Questa complementarità tra AI e blockchain crea un equilibrio a mio avviso fondamentale. L’AI offre velocità e capacità predittiva, ma in un contesto in cui è sempre necessario valutare quanto ci si possa fidare dei dati. La blockchain fornisce invece un contesto di trasparenza e integrità, assicurando che ogni dato, una volta registrato, non sia più soggetto a manipolazioni o alterazioni. Insieme, le due tecnologie, non solo accelerano il processo decisionale, ma lo rendono anche verificabile e sicuro. Pensiamo per esempio a un sistema aziendale in cui l’AI ottimizza le operazioni in base a scenari futuri, ma ogni scelta chiave è tracciata su blockchain per garantirne la trasparenza.

Un altro aspetto senza dubbio interessante da approfondire è che l’AI, per la sua stessa natura, tende a centralizzare il potere: ha bisogno di enormi risorse di calcolo e di dati per funzionare in modo ottimale, dati però spesso concentrati in pochi grandi centri. La blockchain, invece, opera esattamente all’opposto. La sua forza risiede nella decentralizzazione: ogni nodo della rete è autonomo ma collegato agli altri, il che significa che non esiste un singolo punto di controllo. Questo riduce la possibilità di manipolazione e aumenta la fiducia tra i partecipanti, creando un ecosistema in cui il potere è distribuito equamente.

Se l’AI quindi punta a risolvere problemi complessi attraverso la competizione e il miglioramento continuo, la blockchain mira a creare un ambiente di cooperazione, dove ogni partecipante ha la certezza che ciò che è registrato è reale e immutabile. Questo connubio tra previsione e sicurezza, centralizzazione e decentralizzazione, potrebbe rappresentare una nuova via per affrontare le sfide del mondo digitale di oggi, in cui la fiducia è diventata il bene più prezioso.

Fiducia e trasparenza: il cuore della blockchain

Un altro punto cruciale che differenzia AI e blockchain è la spiegabilità. Gli algoritmi di AI agiscono di fatto come scatole nere, con processi decisionali che spesso non sono chiari neanche ai loro creatori. Al contrario, la blockchain è costruita su principi di trasparenza. Ogni azione registrata è tracciabile e spiegabile da chiunque partecipi alla rete, offrendo così un sistema verificabile in ogni momento, e tale meccanismo è fondamentale per costruire una nuova architettura di fiducia in un mondo in cui ciò che vediamo e ascoltiamo non può più essere dato per scontato.

La blockchain non solo protegge l’integrità dei dati, ma cambia radicalmente il concetto di fiducia. In passato, questa fiducia era mediata da istituzioni, autorità centrali e relazioni umane. Oggi, potenzialmente, grazie alla blockchain, potremmo affidare il compito della fiducia a un sistema distribuito che verifica ogni passaggio. La fiducia, quindi, non sarebbe più una questione puramente umana o istituzionale, ma diventerebbe un processo tecnologico, una fiducia “computazionale”, come già alcuni la definiscono.

Ma non tutto è verità: i limiti della blockchain

Nonostante il suo potenziale, la blockchain non è una panacea. Pur avendo evidenziato un enorme potenziale, restano però alcuni limiti nella sua implementabilità rispetto al problema della fiducia. Un limite importante è che la blockchain può registrare informazioni false, rendendole permanenti e inalterabili nel tempo, ed una volta registrata, un’informazione errata, rimarrà nella blockchain per sempre, con la sola traccia di chi l’ha inserita. Questo significa che, sebbene la blockchain possa garantire l’integrità, non può garantire la sua veridicità. Un aspetto che spesso viene frainteso e che non può esser sottovalutato.

C’è poi un altro punto di debolezza che va affrontato nel provare a comprendere questo tema: la blockchain funziona solo in reti dove esiste una comunione di interessi tra i partecipanti. Se gli attori della rete non condividono gli stessi obiettivi, o non sono d’accordo su cosa monitorare, l’efficacia della blockchain diminuisce. E se, soprattutto, all’interno della rete esistono gerarchie rigide, l’intera filosofia decentralizzata della blockchain viene compromessa. In altre parole, la blockchain funziona meglio quando tutti i partecipanti della rete sono su un piano di parità e condividono gli stessi scopi. Ma questo è possibile realisticamente parlando?

Quindi cosa manca?

Guardando ad un possibile futuro, la fiducia nel mondo digitale richiederà un ecosistema di tecnologie integrate. Alcuni elementi chiave che potrebbero completare il puzzle, ad oggi, potrebbero appunto esser:

  1. Intelligenza Artificiale (AI): l’AI, utilizzata in modo trasparente e con logiche etiche ben definite, può aiutare a verificare e validare la qualità dei dati prima che vengano registrati sulla blockchain. Ad esempio, strumenti di AI avanzati potrebbero essere impiegati per analizzare i dati in tempo reale e distinguere tra contenuti genuini e falsificati, riducendo il rischio che informazioni false vengano immortalate su blockchain.
  2. Zero-Knowledge Proofs (ZKP): le prove a conoscenza zero sono un elemento fondamentale per garantire la privacy senza sacrificare la verificabilità. Con ZKP, sarà possibile dimostrare che un’informazione è vera senza rivelarla esplicitamente. Questo potrebbe rappresentare un miglioramento fondamentale per assicurare la fiducia nelle interazioni digitali senza violare la riservatezza dei dati sensibili.
  3. Regolamentazione e Governance: la fiducia ovviamente non può basarsi solo su tecnologia. Devono essere implementati chiari quadri normativi e regolamentazioni che definiscano le regole di ingaggio per le tecnologie come blockchain e AI. Una governance trasparente e condivisa permetterebbe di bilanciare l’uso di queste tecnologie con i diritti e le aspettative delle persone.
  4. Identità Digitale Decentralizzata (DID): infine uno degli elementi più critici per stabilire la fiducia nel futuro sarà la creazione di identità digitali sicure, che possano essere verificate in modo decentralizzato. La blockchain può giocare un ruolo chiave qui, ma sarà necessario integrarla con altri strumenti per garantire che le identità non possano essere falsificate o compromesse.

Un nuovo senso della parola fiducia

In un mondo in cui tutto può essere manipolato o falsificato, la fiducia deve essere ricostruita in modo diverso, più profondo. La regolamentazione giocherà un ruolo essenziale nel garantire che queste tecnologie convergenti operino all’interno di un quadro etico e sicuro, ma il vero cambiamento sarà culturale: la costruzione di una responsabilità distribuita e una governance decentralizzata, incarnata dal concetto di Web3.

Il bilanciamento tra il mondo probabilistico dell’intelligenza artificiale e quello deterministico della blockchain, integrate al un modello di regolamentazione, rappresenta un nuovo modo di costruire fiducia. In questa direzione, ownership e trasparenza diventano i pilastri portanti di un futuro in cui potremo non solo verificare ciò che vediamo e ascoltiamo, ma anche agire con consapevolezza e responsabilità se ciò che percepiamo non risulta affidabile.

The Intelligence Age: la trasformazione del lavoro e l’obsolescenza della competenza

Negli ultimi anni, l’intelligenza artificiale generativa (GenAI) ha guadagnato un ruolo centrale nella trasformazione del mondo del lavoro. Come evidenziato dallo studio di Sia Partners, oltre l’80% delle attività di un terzo delle professioni potrebbe essere automatizzato, e siamo solo all’inizio di una rivoluzione che cambierà il modo in cui lavoriamo, viviamo e risolviamo problemi complessi. Questa evoluzione non è solo un passaggio tecnologico: è il preludio a ciò che Sam Altman ha definito l’inizio dell’“The Intelligence Age”, un’era di straordinaria prosperità e innovazione.

Impatto settoriale e suddivisione del lavoro

Il potenziale impatto dell’AI generativa varia tra i settori, ma è significativo in aree come l’ingegneria, la finanza, il design digitale e l’assistenza sanitaria. Attività ripetitive e strutturate, come la gestione fiscale o la creazione di contenuti web, saranno tra le prime a essere automatizzate, mentre altre aree, come la sanità o il legale, vedranno l’intelligenza artificiale come supporto nella presa di decisioni complesse.

Sam Altman, nel suo post “The Intelligence Age“, sottolinea come l’intelligenza artificiale diventerà un potente strumento per aumentare le capacità umane, rendendo le persone in grado di affrontare problemi che prima sembravano irrisolvibili. Questo significa che anche settori come l’istruzione e la medicina potrebbero vedere una rivoluzione, con l’introduzione di tutor e assistenti virtuali che personalizzeranno l’apprendimento e miglioreranno la qualità delle cure sanitarie.

Nuovi modelli di lavoro: l’era del “team virtuale”

Uno dei concetti chiave introdotti da Altman è l’idea che in futuro ognuno di noi potrebbe avere un “team virtuale” composto da esperti AI in diverse discipline. Questi team ci aiuteranno a svolgere attività che oggi richiedono competenze multiple e interazioni complesse, trasformando il modo in cui collaboriamo e produciamo risultati. Questo concetto si inserisce nella visione di “lavoro aumentato“, dove l’intelligenza artificiale non sostituisce il lavoratore umano, ma ne amplifica le capacità.

Un esempio pratico può essere visto nel settore legale: un avvocato potrebbe affidare la ricerca e la revisione dei documenti a un sistema AI, concentrandosi sugli aspetti strategici e creativi del caso. Allo stesso modo, gli educatori potrebbero affidarsi a tutor AI personalizzati per offrire supporto individuale agli studenti, ottimizzando l’esperienza di apprendimento.

Efficienza e produttività: AI come forza moltiplicatrice

Lo studio di Sia Partners mostra come l’AI generativa potrebbe accelerare il 10-20% delle attività nelle professioni, portando a un significativo aumento della produttività. Sam Altman, sempre nel suo post, spinge oltre questa riflessione, immaginando un futuro in cui l’intelligenza artificiale diventerà un moltiplicatore di produttività su larga scala. “L’AI ci permetterà di realizzare molto di più di quanto possiamo fare oggi“, afferma, e il risultato sarà una prosperità senza precedenti per tutti.

L’AI non solo accelera i processi, ma porta precisione ed efficienza in compiti che finora richiedevano molto tempo e risorse. Aziende che adottano l’AI vedono miglioramenti nelle operazioni, dalla logistica alla pianificazione finanziaria. Questo livello di efficienza, secondo Altman, permetterà di concentrare risorse su sfide ancora più ambiziose, come la risoluzione della crisi climatica o la colonizzazione dello spazio.

Reskilling e Upskilling: prepararsi all’obsolescenza della competenza

Un punto critico, evidenziato sia dallo studio che da Altman, ma oggetto continuo di discussioni e confronti in ogni dove, è la necessità di preparare la forza lavoro a questa nuova era. Molte aziende non hanno ancora sviluppato piani chiari per il reskilling e l’upskilling dei loro dipendenti. Altman immagina un futuro in cui la formazione continua diventa un aspetto centrale del lavoro umano: dovremo costantemente adattarci e aggiornare le nostre competenze per sfruttare al meglio le nuove tecnologie. E questo, come dico da tempo, è legato alla velocità con cui la competenza invecchia, e viviamo un tema di obsolescenza della competenza.

Come società, la nostra capacità di navigare nell’era dell’intelligenza dipenderà da quanto investiremo nell’infrastruttura educativa e nell’accessibilità delle tecnologie AI. L’istruzione diventerà una componente essenziale per ridurre le disuguaglianze che potrebbero emergere da questa trasformazione.

Sfide e rischi: un futuro da costruire con saggezza

Nonostante le promesse, Altman riconosce che l’era dell’intelligenza porterà con sé rischi significativi, inclusi cambiamenti nel mercato del lavoro e potenziali disuguaglianze. La stessa automazione che aumenta la produttività potrebbe portare alla perdita di posti di lavoro, e questo richiederà una riflessione profonda su come redistribuire le risorse e creare nuove opportunità per tutti.

La sfida, quindi, è trovare un equilibrio tra il progresso tecnologico e la gestione etica di questi cambiamenti. Altman, e su questo condivido pienamente, avverte che l’AI non sarà solo uno strumento per i ricchi o per pochi settori privilegiati, ma dovrà essere accessibile a tutti per garantire una prosperità condivisa.

L’adozione dell’AI e il futuro dell’umanità

Sia lo studio di Sia Partners che le riflessioni di Altman convergono sull’importanza dell’adozione rapida dell’AI. Le aziende che per prime integreranno l’intelligenza artificiale nelle loro operazioni avranno un vantaggio competitivo significativo. Ma non solo, anche in contesti non solo professionali, l’adozione dell’AI porterà benefici a chi sarà usarla prima di altri. Come sottolinea Altman, il vero salto sarà quando l’AI diventerà parte integrante della vita quotidiana di ogni persona, migliorando non solo il lavoro, ma anche la qualità della vita.

Infine Altman dipinge un quadro ambizioso del futuro, in cui “la prosperità sarà così grande da sembrare inimmaginabile“. Questo richiederà un investimento in infrastrutture, energia e volontà umana, elementi necessari per far sì che l’AI diventi uno strumento di progresso per tutti, e non solo per pochi.

Un futuro luminoso e complesso

L’intelligenza artificiale generativa rappresenta una delle più grandi trasformazioni nella storia dell’umanità. Mentre lo studio di Sia Partners ci mostra il potenziale impatto sul mondo del lavoro, Sam Altman ci invita a guardare oltre, verso un futuro in cui l’AI diventerà parte integrante della nostra vita e della nostra civiltà. Le sfide saranno molte, come è comprensibile, e come è sempre successo ad ogni grande cambiamento, ma le opportunità sono altrettanto straordinarie.

Il futuro sarà così luminoso che nessuno può descriverlo adeguatamente oggi“. Ma ciò che possiamo fare è prepararci, investire in nuove competenze e infrastrutture, e abbracciare la promessa di un’era di intelligenza che potrebbe superare ogni nostra aspettativa.

Introduzione sintetica ai Modelli di Base On-Device e Server di Apple

Apple ha presentato Apple Intelligence alla Worldwide Developers Conference 2024. Questo sistema di intelligenza “personale”, praticamente un assistente sempre attivo sul device, sarà integrato completamente in iOS 18, iPadOS 18 e macOS Sequoia e compatibile su device Iphone 15 pro e successivi. Il sistema Apple Intelligence utilizza modelli generativi avanzati, specializzati per compiti quotidiani come la scrittura e la revisione di testi, la sintesi e la priorizzazione delle notifiche, la creazione di immagini per le conversazioni e l’esecuzione di azioni in-app per semplificare le interazioni tra le app.

Ho letto e studiato il paper pubblicato e presente a questo indirizzo con l’obiettivo di chiarirmi e chiarire meglio come funziona questo tipo di approccio.

Modelli di base

Prima di tutto partiamo dai modelli utilizzati. Apple Intelligence si basa su due modelli principali: un modello linguistico on-device con circa 3 miliardi di parametri e un modello più grande basato su server. Entrambi i modelli sono progettati per offrire prestazioni elevate, segregare alcune funzioni demandabili al device e altre ad un sistema fuori dal device e garantire di conseguenza un utilizzo responsabile dei dati e dell’AI, oltre a mio avviso del consumo e impatto.

Modello On-Device

Caratteristiche tecniche:

  • Parametri: Circa 3 miliardi di parametri.
  • Architettura: Basato su architettura Transformer, ottimizzata per l’esecuzione locale su dispositivi Apple.
  • Quantizzazione: Utilizza tecniche di riduzione della precisione, a bassa risoluzione (2-bit e 4-bit) così da ridurre i requisiti di memoria e migliorare l’efficienza energetica.
  • Ottimizzazioni:
    • Grouped-Query Attention (GQA): Riduce i requisiti di memoria e migliora la velocità di inferenza.
    • Palletizzazione: Implementa una configurazione mista di 2-bit e 4-bit per ottenere prestazioni comparabili a quelle dei modelli non compressi.
    • Talaria: Strumento interattivo di analisi della latenza e del consumo energetico per ottimizzare la selezione del bit rate in ogni operazione.
    • Quantizzazione di attivazioni e embedding: Riduce ulteriormente i requisiti di memoria senza compromettere la qualità del modello.

Utilizzo: Il modello on-device è integrato direttamente nei dispositivi Apple (iPhone, iPad e Mac) per gestire compiti quotidiani come:

  • Scrittura e Revisione di Testi: Assistenza nella stesura e modifica di email, messaggi e documenti.
  • Sintesi e Prioritizzazione delle Notifiche: Riassume e organizza le notifiche per migliorare la gestione delle comunicazioni.
  • Esecuzione di Azioni In-App: Automatizza attività e interazioni tra le app per rendere l’uso del dispositivo più intuitivo.

Modello Server-Based

Caratteristiche tecniche:

  • Parametri: Modello con un numero di parametri significativamente maggiore rispetto al modello on-device, progettato per operare sui server Apple Silicon.
  • Architettura: Anche questo modello si basa sull’architettura Transformer, ma è ottimizzato per l’elaborazione su larga scala nei data center.
  • Vocabulario: Utilizza una dimensione del vocabolario più ampia (100.000 token) rispetto al modello on-device (49.000 token), includendo token aggiuntivi per lingue e termini tecnici.
  • Ottimizzazioni:
    • Parallelismo: Impiega parallelismo a livello di dati, tensor, sequenza e Fully Sharded Data Parallel (FSDP) per scalare l’addestramento su vari hardware.
    • Reinforcement Learning from Human Feedback (RLHF): Utilizza algoritmi avanzati di ottimizzazione delle politiche per migliorare la qualità delle risposte del modello.
    • Rejection Sampling Fine-Tuning: Metodo di campionamento con un comitato di insegnanti per migliorare la capacità di seguire istruzioni.

Utilizzo: Il modello server-based è utilizzato per gestire compiti più complessi e intensivi in termini di calcolo, beneficiando delle capacità avanzate dei data center di Apple. Esempi di utilizzo includono:

  • Generazione di Contenuti Complessi: Creazione di testi dettagliati e specifici su richiesta degli utenti.
  • Analisi Avanzata dei Dati: Esecuzione di elaborazioni intensive come l’analisi approfondita dei dati.
  • Supporto ai Servizi Cloud: Fornisce potenza di calcolo per applicazioni e servizi che richiedono un’elaborazione continua e intensiva.

Integrazione nei Processi di Apple Intelligence

Apple Intelligence integra questi modelli in un sistema coeso per offrire una vasta gamma di funzionalità intelligenti. Questo processo coinvolge:

  1. Identificazione del Compito: Riconosce il tipo di attività che l’utente sta cercando di eseguire e decide se può essere gestita localmente o richiede il supporto del modello server-based.
  2. Selezione del Modello: Determina quale modello utilizzare in base alla complessità e ai requisiti del compito. Compiti quotidiani semplici vengono gestiti dal modello on-device, mentre compiti complessi vengono indirizzati al modello server-based.
  3. Esecuzione e Ottimizzazione: Il modello selezionato esegue il compito utilizzando ottimizzazioni specifiche per garantire velocità e precisione.
  4. Risposta e Feedback: Fornisce i risultati all’utente e raccoglie feedback per migliorare continuamente i modelli.
  5. Aggiornamenti e Manutenzione: I modelli sono costantemente aggiornati per migliorare le prestazioni e mantenere la sicurezza.

Questa architettura garantisce che Apple Intelligence possa offrire un’esperienza utente fluida, potente e sicura, sfruttando al meglio le capacità sia dei dispositivi locali che dell’infrastruttura cloud di Apple.

3. Sviluppo responsabile dell’IA

Apple segue una serie di principi di AI responsabile che guidano lo sviluppo di Apple Intelligence:

  • Empowerment degli utenti:
    • Apple si impegna a identificare aree in cui l’intelligenza artificiale può essere utilizzata responsabilmente per creare strumenti che rispondano a bisogni specifici degli utenti.
    • Rispetta le modalità in cui gli utenti scelgono di utilizzare questi strumenti per raggiungere i loro obiettivi, garantendo che l’IA sia uno strumento di potenziamento piuttosto che di controllo.
  • Rappresentazione autentica degli utenti:
    • L’obiettivo di Apple è creare prodotti che rappresentino autenticamente gli utenti di tutto il mondo, evitando di perpetuare stereotipi e bias sistemici.
    • Apple lavora continuamente per identificare e mitigare qualsiasi forma di bias nei loro modelli di intelligenza artificiale, assicurando una rappresentazione equa e inclusiva.
  • Design attento:
    • Apple prende precauzioni in tutte le fasi del processo di sviluppo dell’IA, inclusi il design, l’addestramento dei modelli, lo sviluppo delle funzionalità e la valutazione della qualità.
    • Si impegna a identificare e prevenire potenziali usi impropri o dannosi degli strumenti di IA, migliorando proattivamente questi strumenti attraverso il feedback degli utenti.
  • Protezione della privacy:
    • Apple utilizza processi on-device e infrastrutture come il Private Cloud Compute per proteggere la privacy degli utenti.
    • Non utilizza i dati personali privati degli utenti o le loro interazioni per addestrare i modelli di base, applicando filtri per rimuovere informazioni identificabili come numeri di previdenza sociale o di carte di credito.

4. Addestramento dei modelli

I modelli di base di Apple sono addestrati utilizzando il framework AXLearn, un progetto open-source basato su JAX e XLA, che permette un addestramento efficiente e scalabile.

  • Efficienza e Scalabilità:
    • AXLearn consente l’addestramento su vari hardware e piattaforme cloud, inclusi TPU e GPU sia in cloud che on-premise.
    • Apple utilizza tecniche come data parallelism, tensor parallelism, sequence parallelism e Fully Sharded Data Parallel (FSDP) per scalare l’addestramento su più dimensioni.
  • Strategia Ibrida dei Dati:
    • Apple combina dati annotati manualmente con dati sintetici e implementa procedure di curation e filtraggio rigorose per garantire la qualità del training data.
    • Apple filtra informazioni personali e contenuti di bassa qualità dal corpus di addestramento, utilizzando un classificatore basato su modelli per identificare documenti di alta qualità.
  • Algoritmi di Post-Training:
    • Rejection Sampling Fine-Tuning: Apple utilizza un algoritmo di campionamento con un comitato di insegnanti per migliorare la capacità del modello di seguire le istruzioni.
    • Reinforcement Learning from Human Feedback (RLHF): Un algoritmo avanzato che utilizza la politica di discesa speculare e un estimatore di vantaggio leave-one-out per migliorare la qualità delle risposte del modello.

5. Ottimizzazione

Apple applica una serie di tecniche innovative per ottimizzare i modelli, sia on-device che su server, garantendo velocità e efficienza.

  • Grouped-Query Attention (GQA): Questa tecnica riduce i requisiti di memoria e migliora le prestazioni di inferenza.
  • Quantizzazione:
    • Low-Bit Palletization: Utilizza una configurazione mista di 2-bit e 4-bit per ottenere prestazioni comparabili ai modelli non compressi, mantenendo la qualità.
    • Talaria Tool: Strumento interattivo per analizzare latenza e consumo energetico, ottimizzando il bit rate per ogni operazione.
    • Quantizzazione di Attivazioni e Embedding: Riduce ulteriormente i requisiti di memoria senza compromettere la qualità del modello.
  • Cache KV: Ottimizza l’aggiornamento della cache Key-Value sui motori neurali per migliorare l’efficienza.

6. Adattamento dei modelli

Apple utilizza adattatori, piccoli moduli di rete neurale, per specializzare i modelli per compiti specifici, mantenendo inalterati i parametri originali del modello base.

  • Adattatori (Adapters):
    • Gli adattatori sono integrati nei vari strati del modello pre-addestrato, consentendo una specializzazione dinamica per il compito attuale.
    • I parametri degli adattatori sono rappresentati con 16 bit e richiedono solo pochi megabyte di memoria.
    • Gli adattatori possono essere caricati dinamicamente e gestiti in memoria in modo efficiente, garantendo la reattività del sistema operativo.
  • Infrastruttura per l’Addestramento degli Adattatori:
    • Apple ha creato un’infrastruttura efficiente per addestrare, testare e distribuire rapidamente gli adattatori quando il modello base o i dati di addestramento vengono aggiornati.

7. Valutazione delle prestazioni

Apple valuta le prestazioni dei modelli tramite benchmark e valutazioni umane, concentrandosi sull’utilità per l’utente finale.

  • Benchmarking:
    • Apple utilizza un set completo di prompt reali per testare le capacità generali del modello, coprendo categorie come brainstorming, classificazione, codifica, ragionamento matematico e sicurezza.
    • Le valutazioni dimostrano che i modelli Apple spesso superano i modelli comparabili in termini di accuratezza e capacità di seguire le istruzioni.
  • Valutazioni di Specifiche Funzionalità:
    • Apple utilizza adattatori per ottimizzare le prestazioni su compiti specifici, come la sintesi di email, messaggi e notifiche.
    • Le valutazioni includono anche test su set diversificati di input rappresentativi dei casi d’uso reali.

8. Risultati di performance

Le valutazioni mostrano che i modelli Apple sono preferiti dai valutatori umani rispetto ai modelli concorrenti in vari compiti.

  • Comparazione con Modelli Competitor:
    • I modelli on-device di Apple con ~3 miliardi di parametri superano modelli più grandi come Phi-3-mini, Mistral-7B, Gemma-7B e Llama-3-8B.
    • I modelli server di Apple si confrontano favorevolmente con modelli commerciali come GPT-3.5, GPT-4 e Llama-3-70B, risultando più efficienti e sicuri.
  • Risultati di Sicurezza:
    • Apple utilizza prompt diversificati e avversariali per testare le prestazioni dei modelli su contenuti dannosi e argomenti sensibili, raggiungendo tassi di violazione inferiori rispetto ai modelli open-source e commerciali.
  • Benchmark di Instruction-Following (IFEval):
    • I modelli Apple dimostrano capacità superiori nel seguire istruzioni dettagliate rispetto ai modelli di dimensioni comparabili.
  • Benchmark di Scrittura e Sintesi:
    • I modelli Apple sono valutati positivamente nelle capacità di sintesi e composizione, ottenendo punteggi elevati nelle valutazioni interne.

Apple Intelligence, presentata alla WWDC 2024, è profondamente integrata nei dispositivi Apple e offre capacità potenti in ambito linguistico, visivo e di azione, sviluppate responsabilmente e guidate dai valori fondamentali di Apple. I modelli di base e gli adattatori garantiscono prestazioni elevate e sicure, migliorando l’esperienza utente in vari compiti quotidiani. Apple continuerà a condividere ulteriori informazioni sulla famiglia di modelli generativi, inclusi modelli linguistici, di diffusione e di programmazione.

A questo indirizzo è possibile leggere i paper integrale e la documentazione ufficiale. Vale la pena sse avete interesse e tempo di leggere tutto lo studio che in questo post ho sinteticamente riportato.

Spatial Intelligence: l’immersività-tangibile tra AI e Robotica

La robotica sta vivendo una trasformazione radicale. E di questo forse ne abbiamo già preso coscienza ultimamente guardando diversi video di Boston Dynamics e similari, in cui robot quadrupedi o androidi bipedi fanno cose incredibili.

Nell’era della convergenza di diverse tecnologie, tema che ho raccontato nel libro Spatial Shift, ognuna delle evoluzioni tecnico-tecnologiche che stiamo vivendo influenza e potenzia altre tecnologie, abilitandole di nuove possibilità. La convergenza dell’Intelligenza artificiale e della robotica, che prende il nome di “Spatial Intelligence” è forse quello che potenzialmente più spaventa e allo stesso tempo affascina per gli impatti che potrebbe avere sull’umanità.

Investitori come Khosla Ventures, Andreessen Horowitz, e General Catalyst stanno supportando una serie di startup che sviluppano robot capaci di ragionamento avanzato e elaborazione dei dati visivi, a dimostrazione che l’interesse sul tema è già piuttosto avanzato e soprattutto di progetti in fase di sviluppo con risultati già validati ce ne sono.

La spatial intelligence permette ai robot di navigare e interagire con l’ambiente in modo più efficiente, migliorando la precisione e l’adattabilità nei compiti complessi, migliorare efficacia ed efficienza e soprattutto come questo segmento possa potenziare l’uomo veramente.

Evoluzione della robotica e della Spatial Intelligence

Fin dagli anni ’60, i robot sono stati utilizzati principalmente per compiti ripetitivi in ambienti controllati, dove la variabilità era minima. La mancanza di “intelligenza” limitava la capacità dei robot di adattarsi a situazioni inaspettate. Con l’avvento della spatial intelligence, la robotica sta passando ad una nuova generazione di macchine che possono percepire, vedere, prendere decisioni e agire in base agli obiettivi e all’ambiente circostante.

Questa evoluzione è paragonabile alla rivoluzione portata dagli smartphone, trasformando dispositivi semplici in strumenti potenti e versatili che hanno negli anni di fatto esteso le potenzialità del singolo utente.

Applicazioni della Spatial Intelligence

La spatial intelligence sta trovando già applicazione in numerosi ambiti e settori, nei quali, in modo più o meno impattante sta già ridefinendo il modo in cui i robot vengono utilizzati. Tra le aree più promettenti e nelle quali stanno già entrando capitali e investimenti ci sono:

  • logistica e automazione industriale: i robot dotati di spatial intelligence possono navigare autonomamente nei magazzini, identificare e raccogliere oggetti, e consegnare pacchi con una precisione incredibile. Startup come Waabi stanno sviluppando camion autonomi, mentre Vayu sta creando robot per la consegna dell’ultimo miglio che utilizzano piste ciclabili.
  • sanità: in campo medico, i robot dotati di intelligenza spaziale possono assistere nelle procedure chirurgiche, fornendo supporto preciso e adattabile in tempo reale. Questo non solo migliora l’efficienza, ma riduce anche il rischio di errori umani e supporta il processo decisionale in determinati momenti, fortemente time critical. Un esempio innovativo è l’uso di robot che eseguono compiti come la sutura di ferite con precisione millimetrica.
  • agricoltura: Carbon Robotics utilizza laser intelligenti per eliminare le erbacce e piante infestanti nei campi, migliorando l’efficienza, riducendo l’uso di erbicidi, e mitigando l’impatto di utilizzo di componenti chimiche eccessive . Questa tecnologia già da tempo sta accelerando la gestione agricola, rendendola più sostenibile e produttiva
  • servizi di consegna: robot autonomi possono essere utilizzati per consegnare pacchi e cibo in ambienti urbani, adattandosi alle condizioni stradali e alle esigenze dei clienti in tempo reale Ovviamente sono solo primi esempi di ambiti in cui questa adozione è già avanzata ed i primi impatti sono già visibili.
  • superhuman: il potenziamento delle persone con gap, e non solo. La spatial intelligence ha il potenziale inoltre a mio avviso per supportare significativamente il potenziamento delle persone, specialmente quelle con handicap, malformazioni o menomazioni: protesi intelligenti: AI, robotica e sensoristica possono essere integrate in protesi avanzate che possono dotare la persona di una gamma di movimenti e funzioni molto più ampia rispetto alle protesi tradizionali e normali capacità. Queste protesi, in grado di adattarsi dinamicamente all’ambiente, possono non solo migliorare l’autonomia e la qualità della vita delle persone, ma possono aumentarne le capacità.
  • supporto alla mobilità: esoscheletri e dispositivi di supporto alla mobilità dotati di spatial intelligence possono aiutare le persone con difficoltà motorie a camminare e muoversi con maggiore sicurezza e autonomia. In questo caso dispositivi di questo tipo possono esser utilizzati per rilevare dinamicamente il contesto e adattarsi al terreno e alle superfici, prevenendo cadute e riducendo il rischio di incidenti interazione migliorata: La capacità dei robot di percepire e comprendere l’ambiente può essere utilizzata per sviluppare assistenti domestici intelligenti che aiutano le persone con disabilità a svolgere compiti quotidiani. Un esempio che gira in rete già da qualche mese è un assistente robotico che può aiutare preparare pasti, pulire la casa o ricordare appuntamenti importanti, erogare medicinali e supportare l’assistito nella gestione e pianificazione
  • riabilitazione e terapia: automi con spatial intelligence possono essere utilizzati in programmi di riabilitazione personalizzati, garantendo precisione e specificità di esercizi ed il monitoraggio dell’esecuzione e dei progressi in tempo reale. Questi sistemi possono adattare i programmi di riabilitazione in base alle esigenze individuali, modellare il piano in funzione del miglioramento del singolo utente, e accelerando il recupero e migliorando i risultati complessivi. Oltre al fatto che l’analisi del comportamento dei singoli può gradualmente creare la condizione di apprendimento progressivo dell’intelligenza stessa.
  • interfacciamento con mondo esterno: con l’avvento di dispositivi come i Vision Pro, dotati di telecamere avanzate, intelligenza artificiale e interfacce conversazionali, possiamo già immaginare un futuro (attuale) in cui le persone saranno dotate “vista aumentata”. Questi visori, in grado di interpretare ed interagire con informazioni in tempo reale, possono abilitare persone non vedenti o ipovedenti, a nuove possibilità di mobilità, movimento nello spazio, assistenza e supporto.

Verso una Immersività-Tangibile

Nello shift spaziale, la Spatial Intelligence sta iniziando il processo di ridefinizione di quella che io chiamo la fase dell’Immersività-Tangibile. Questa integrazione perfetta tra i mondi fisico e digitale permette ai robot non solo di eseguire compiti complessi con precisione, ma anche di interagire con l’ambiente e le persone in modo intuitivo e naturale. Allo stesso tempo, le persone, potenziate da nuove tecnologie e immerse in un contesto aumentato grazie all’uso di sensori avanzati, AI ed estensioni robotiche, possono non solo connettersi a un livello di realtà aumentata ma anche toccarla, sentirla e percepirla come reale. L’immersività-tangibile implica una trasformazione delle esperienze visive, cognitive e sensoriali.

Da un lato, l’esperienza visiva e cognitiva viene potenziata, permettendo alle persone di vedere dati e informazioni sovrapposte al mondo reale, facilitando una comprensione immediata e approfondita di ciò che le circonda. Un esempio, già attuale, è quello di un chirurgo che può vedere proiezioni tridimensionali di immagini mediche direttamente sul paziente, migliorando la precisione e la sicurezza delle operazioni.

Dall’altro lato, l’aspetto tangibile e sensoriale rende questa immersione ancora più profonda. Grazie a tecnologie aptiche e feedback sensoriali avanzati, le persone possono percepire fisicamente la presenza e le caratteristiche degli oggetti virtuali. Immaginiamo di poter “toccare” un modello virtuale di un oggetto in fase di progettazione, sentire la sua superficie e consistenza. Questa combinazione di immersione visiva, cognitiva e sensoriale crea un’esperienza totale, dove il confine tra reale e virtuale si dissolve.

La tecnologia non è più solo uno strumento, ma diventa un’estensione del corpo e della mente umana, migliorando la capacità di percepire, creare, interagire e comprendere il mondo in modi che prima erano inimmaginabili. L’immersività-tangibile rappresenta quindi non solo un avanzamento tecnologico, ma una vera e propria evoluzione del modo in cui viviamo e percepiamo la realtà.

Futuro della Spatial Intelligence

Nei prossimi anni, considerata la velocità a cui stiamo viaggiando, mi aspetto di vedere una diffusione più ampia della Spatial Intelligence in molti settori. Innovazioni come l’integrazione con la realtà aumentata e virtuale, nonché l’uso di reti neurali avanzate, guideranno ulteriormente questa evoluzione.

La combinazione di intelligenza artificiale, computing edge e 5G permetterà ai robot di operare con maggiore efficienza e reattività, trasformando radicalmente il nostro modo di vivere e lavorare e per quanto brutto il pensiero possa sembrare, farci compagnia.

La spatial intelligence, oggi ancora tema poco noto, rappresenta senza dubbio in questa convergenza ed evoluzione un ulteriore frontiera evolutiva dell’uomo, e grazie alla sua capacità di combinare il mondo fisico, digitale e virtuale, si rivelerà sempre più un elemento chiave per il futuro della robotica e delle tecnologie immersive.