AI Agent: la nuova interfaccia di internet

Nell’anno che si sta concludendo, gli AI Agent – tema crescente degli ultimi mesi – hanno raggiunto un nuovo livello di evoluzione. Non si limitano più solo ad analizzare e prevedere, ma stanno prendendo decisioni e agendo autonomamente. Un cambio di paradigma che ci proietta verso un’era di automazione più avanzata e integrata.

Cosa sono gli AI Agent e perché sono fondamentali

Gli AI Agent sono sistemi intelligenti progettati per interagire con l’ambiente, percepire informazioni, elaborarle e agire in base a regole predefinite o modelli di apprendimento. La loro capacità di combinare autonomia decisionale, apprendimento e azione li rende fondamentali per semplificare processi complessi, ridurre il margine di errore umano e velocizzare l’esecuzione di attività ripetitive o strategiche. Si differenziano dai chatbot tradizionali perché non si limitano a rispondere a comandi, ma possono gestire intere pipeline decisionali, spesso con un livello di personalizzazione elevato. Questa caratteristica li rende una risorsa chiave per aziende che puntano su efficienza e innovazione.

Le tipologie di AI Agent

L’evoluzione dei chatbot ha portato alla nascita di AI Agent sofisticati, capaci di affrontare sfide specifiche attraverso un approccio mirato. Questi agenti si differenziano in base al livello di complessità e al tipo di problema che affrontano, trovando applicazione in contesti aziendali e settori molto diversi. Vediamoli nel dettaglio:

  • Simple Reflex: Gli agenti di tipo “Simple Reflex” funzionano seguendo regole predefinite basate su condizioni attuali. Questi agenti non memorizzano dati del passato, ma reagiscono istantaneamente a stimoli specifici, come se eseguissero un’azione su comando diretto. Ad esempio, un termostato intelligente in un sistema di automazione domestica analizza la temperatura e regola il riscaldamento o il raffreddamento secondo regole stabilite. Sono ideali per applicazioni come domotica e HVAC (Heating, Ventilation, and Air Conditioning), dove la semplicità e la reattività sono essenziali.
  • Model-Based Reflex: Questo tipo di agente va oltre la reattività immediata e utilizza un modello del mondo per prevedere gli effetti delle sue azioni. Ad esempio, un sistema di gestione della logistica che prevede ritardi nella consegna e ricalcola i percorsi ottimali basandosi su dati real-time (traffico, condizioni meteorologiche, ecc.). Questi agenti sono ampiamente utilizzati nell’e-commerce, dove ottimizzano l’efficienza delle operazioni logistiche, come il tracciamento degli ordini e la gestione degli inventari.
  • Goal-Based: Gli agenti goal-based sono progettati per perseguire obiettivi specifici e utilizzano strategie per raggiungerli. La loro forza risiede nella capacità di pianificare e valutare diverse azioni in base al loro contributo verso il raggiungimento di un risultato desiderato. Ad esempio, un agente in un sistema tecnologico può ottimizzare l’utilizzo delle risorse di calcolo in un data center o identificare soluzioni per migliorare l’esperienza utente in una piattaforma digitale. Questo tipo di agenti è cruciale per aziende tecnologiche e di informazione che necessitano di soluzioni basate sull’analisi di scenari complessi.
  • Utility-Based: Questi agenti non solo si concentrano sugli obiettivi, ma considerano anche il valore delle diverse opzioni disponibili, scegliendo quelle che massimizzano un’utilità specifica. Ad esempio, nel settore finanziario, un utility-based agent può calcolare il portafoglio d’investimento ottimale basandosi su rischi, rendimenti e preferenze dell’investitore. La capacità di considerare variabili complesse li rende ideali per applicazioni in servizi finanziari e business, dove l’ottimizzazione e la gestione del rischio sono fondamentali.
  • Learning Agents: I learning agents rappresentano il livello più avanzato, poiché combinano l’apprendimento dai dati con la capacità di migliorare nel tempo. Questi agenti analizzano continuamente nuove informazioni, aggiornano i loro modelli interni e migliorano le decisioni future. Ad esempio, nei contesti aziendali complessi, un learning agent può analizzare le performance di un’organizzazione, proporre strategie per migliorare l’efficienza e adattarsi a nuovi obiettivi aziendali. Sono particolarmente adatti a grandi imprese e contesti dinamici, dove la flessibilità e la capacità di evolversi sono essenziali.

Le tipologie sono rilevanti

Questi modelli di AI Agent non sono solo tecnologie autonome, ma strumenti che riflettono le esigenze dei vari settori. Personalizzando i sistemi in base agli obiettivi e al contesto, le aziende possono sfruttare gli agenti per migliorare efficienza, precisione e scalabilità, rendendo l’innovazione digitale una leva strategica per la crescita.

L’ecosistema degli AI Agent

L’ecosistema degli AI Agent rappresenta l’infrastruttura tecnologica necessaria per sviluppare, implementare e gestire questi sistemi avanzati. Si tratta di un insieme complesso di framework, strumenti di hosting, piattaforme di monitoraggio, soluzioni di memoria e sistemi di archiviazione che lavorano in sinergia per garantire la scalabilità, la sicurezza e l’efficienza degli agenti.

Vediamolo nel dettaglio:

  • Framework per lo sviluppo di AI Agent: i framework rappresentano la base per creare agenti intelligenti, fornendo strumenti modulari e scalabili per la progettazione e l’implementazione. Tra i più noti:
    1. LangChain: un framework open-source che permette di costruire flussi di lavoro personalizzati, integrando strumenti esterni e modelli di AI con un’architettura di tipo “plan-and-execute”. È ideale per applicazioni complesse, come assistenti virtuali che gestiscono interi processi aziendali.
    2. Semantic Kernel: funziona come un middleware per integrare modelli AI nelle applicazioni esistenti, semplificando l’adozione dell’AI nei contesti aziendali. Offre una base per soluzioni che richiedono interazioni sofisticate tra diverse componenti tecnologiche.
    3. LangGraph: focalizzato sulla gestione di applicazioni multi-agente con persistenza e cicli complessi, è pensato per sistemi che necessitano di coordinazione tra più agenti autonomi.
    4. Phidata: un framework Python-oriented che supporta l’integrazione con database per la gestione di dati strutturati, essenziale per applicazioni che richiedono un forte legame tra dati e logica AI.
  • Hosting e serving: una volta sviluppati, gli AI Agent devono essere ospitati su piattaforme che ne garantiscano la disponibilità e la performance. Le soluzioni di hosting e serving includono:
    1. Amazon Bedrock Agents: una piattaforma che consente di implementare agenti AI su larga scala con un’infrastruttura affidabile e integrata nell’ecosistema AWS.
    2. Agents API e Assistants API: API progettate per fornire agenti come servizi, rendendo semplice l’integrazione in applicazioni esistenti.
    3. LiveKit Agents: una soluzione focalizzata su agenti real-time, perfetta per applicazioni interattive come customer support o gaming.
  • Strumenti di osservabilità: la gestione e il monitoraggio degli AI Agent sono fondamentali per garantirne il funzionamento corretto e per ottimizzare continuamente le loro performance:
    1. LangSmith e LangFuse: piattaforme che forniscono un monitoraggio dettagliato degli agenti, tracciando le interazioni e identificando eventuali anomalie.
    2. Braintrust e AgentOps.ai: soluzioni avanzate per la gestione delle operazioni degli agenti, con un focus su sicurezza, affidabilità e analisi predittiva delle prestazioni.
  • Soluzioni di memoria: per rendere gli agenti più efficaci, è necessario dotarli di una memoria che permetta loro di apprendere e migliorare nel tempo:
    1. MemGPT e LangMem: sistemi di memoria persistente che consentono agli agenti di memorizzare informazioni e utilizzarle per decisioni future, migliorando l’accuratezza e la continuità.
    2. zep e memo: soluzioni più leggere ma altamente efficaci per memorizzare contesti temporanei, ideali per applicazioni che richiedono interazioni di breve durata ma complesse.
  • Librerie di strumenti e sandbox: per testare e sviluppare agenti in ambienti controllati, le librerie di strumenti e le sandbox sono indispensabili:
    1. Composio e Browserbase: librerie che forniscono strumenti modulari per ampliare le capacità degli agenti.
    2. E2B e Modal: sandbox che simulano ambienti di produzione, permettendo agli sviluppatori di testare i loro agenti senza rischi per i sistemi reali.
  • Soluzioni di model serving: il deployment di modelli AI richiede piattaforme robuste in grado di gestire carichi di lavoro elevati:
    1. vLLM, Anthropic, OpenAI, Mistral AI, e Gemini: provider leader che offrono infrastrutture ottimizzate per il serving di modelli su larga scala.
    2. Fireworks AI e together.ai: nuovi attori che stanno emergendo con soluzioni innovative per il deployment di modelli AI personalizzati.
  • Sistemi di archiviazione: gli AI Agent necessitano di un’infrastruttura dati affidabile per archiviare e recuperare informazioni in modo efficiente:
    1. Chroma, Weaviate e Pinecone: soluzioni specializzate in database vettoriali, cruciali per gestire dati non strutturati e per l’inferenza.
    2. Neon e Supabase: soluzioni di database relazionale scalabili, ideali per gestire dati strutturati e semistrutturati.

La competizione tra piattaforme

Il 2024 ha visto una competizione crescente tra player consolidati, come OpenAI e Google, e nuovi attori emergenti, come AI16Z e Virtual Protocol. Mentre OpenAI continua a dominare con una quota di mercato significativa, l’ascesa di piattaforme come LangGraph e la crescente integrazione con protocolli crypto suggeriscono che l’ecosistema continuerà a evolversi rapidamente nei prossimi anni.

Perché il tema AI Agent sarà importante per le aziende

Gli AI Agent stanno trasformando processi chiave:

  • Supporto ai dipendenti con strumenti come i Copilot.
  • Automazione dei flussi di lavoro.
  • Personalizzazione dell’esperienza cliente.

Questi cambiamenti non solo aumentano la produttività, ma riducono i costi operativi. Ad esempio, soluzioni implementate da JP Morgan hanno tagliato le frodi del 70%, risparmiando oltre 200 milioni di dollari all’anno.

Cosa fare ora?

Gli AI Agent rappresentano un’opportunità straordinaria per le aziende, ma il loro impatto dipende dalla capacità di integrarli strategicamente nei processi organizzativi. Per i leader aziendali, agire ora significa cogliere il vantaggio competitivo e prepararsi a un futuro sempre più automatizzato. Ecco come affrontare questa transizione in modo efficace e strategico:

  1. Identificare i processi dove gli AI Agent possono semplificare attività complesse: la prima fase consiste nell’analisi interna dei processi aziendali per individuare attività che richiedono molto tempo, sono ripetitive o presentano margini di errore elevati. Ad esempio:
    • Customer service: automazione delle richieste comuni, migliorando la velocità di risposta e riducendo il carico di lavoro sui team.
    • Supply chain: ottimizzazione della gestione degli inventari, prevedendo la domanda con agenti AI che analizzano dati storici e in tempo reale.
    • Risorse umane: screening automatico dei CV e onboarding personalizzato, migliorando la qualità delle assunzioni.
    • Finance: monitoraggio delle spese aziendali o gestione automatizzata di portafogli d’investimento.
      L’obiettivo è concentrarsi su attività dove l’adozione di agenti può generare il massimo impatto in termini di efficienza, costi e qualità del servizio.
  2. Utilizzare framework open-source per prototipi rapidi e a basso costo: una delle barriere principali all’adozione dell’AI è il costo dello sviluppo. I framework open-source rappresentano una soluzione per prototipare rapidamente senza costi eccessivi.
    • LangChain e Semantic Kernel offrono infrastrutture scalabili per costruire agenti personalizzati in tempi brevi.
    • Utilizzare framework come Rasa per implementare soluzioni di customer support o Phidata per integrare agenti AI con i database aziendali.
      Prototipare in modo rapido consente alle aziende di testare diverse soluzioni, raccogliere feedback e iterare velocemente, riducendo al minimo gli investimenti iniziali.
  3. Implementare modelli ibridi che combinano supervisione umana e automazione AI: un approccio ibrido, che integra l’autonomia decisionale degli AI Agent con la supervisione umana, è spesso il più efficace, soprattutto nelle fasi iniziali. Ecco alcuni esempi di applicazione:
    • Supervisione nei processi critici: nei settori come il finance o il legale, l’AI può svolgere analisi preliminari, lasciando ai team umani il controllo delle decisioni finali.
    • Interventi in tempo reale: strumenti come LangFuse consentono di monitorare gli agenti in azione, segnalando anomalie o comportamenti indesiderati.
    • Apprendimento continuo: il feedback umano può essere utilizzato per addestrare ulteriormente i modelli AI, migliorando le performance nel tempo.
      Questo approccio non solo riduce i rischi associati all’automazione totale, ma aiuta anche il personale ad acquisire fiducia nella tecnologia.
  4. Valutare l’ROI basandosi su costi ridotti e output migliorati: per garantire il successo di un’iniziativa basata su AI Agent, è essenziale misurare il ritorno sull’investimento (ROI). Questo implica non solo considerare i costi diretti, ma anche il valore generato in termini di produttività, efficienza e soddisfazione dei clienti.
    • Costi diretti: riduzione delle spese operative grazie all’automazione di attività ripetitive. Ad esempio, JP Morgan ha risparmiato oltre 200 milioni di dollari all’anno con agenti AI che hanno ottimizzato la gestione del rischio e ridotto le frodi del 70%.
    • Produttività aumentata: misurare il tempo risparmiato dai dipendenti e il numero di processi automatizzati con successo.
    • Soddisfazione del cliente: valutare il miglioramento dell’esperienza cliente attraverso metriche come Net Promoter Score (NPS) o tempi di risposta ridotti.
      Il ROI non è solo una questione di numeri, ma anche di capacità di dimostrare che l’adozione degli AI Agent migliora la competitività aziendale a lungo termine.
  5. Coinvolgere i team e creare una cultura dell’innovazione: infine, l’implementazione degli AI Agent non è solo un progetto tecnologico, ma richiede il coinvolgimento attivo dei team:
    • Formare i dipendenti per integrare la tecnologia nelle loro attività quotidiane.
    • Comunicare chiaramente i benefici della tecnologia, riducendo la resistenza al cambiamento.
    • Promuovere una cultura in cui l’innovazione e la sperimentazione siano incoraggiate e premiate.
      Gli AI Agent non sono solo una moda tecnologica, ma una vera leva strategica per trasformare il modo in cui le aziende operano e competono. Agire ora, con una strategia chiara e un approccio mirato, consente di posizionarsi in vantaggio in un mercato in continua evoluzione.

Uno sguardo al futuro: verso il 2027 e oltre

Gli AI Agent stanno tracciando un percorso che cambierà radicalmente il modo in cui lavoriamo e innoviamo. Entro il 2027, le previsioni indicano che potrebbero raddoppiare la produttività nei settori basati sulla conoscenza, gestendo fino al 40% dei task. Questo impatto non si limiterà all’automazione, ma trasformerà i flussi di lavoro e il valore generato all’interno delle organizzazioni.

Il vero vantaggio, tuttavia, risiede nella loro capacità di collaborare tra loro, creando reti di agenti interconnessi che operano come ecosistemi multi-agent. Questi sistemi, già anticipati dai progressi nelle pipeline coordinate e nei modelli di Retrieval-Augmented Generation (RAG), saranno in grado di condividere informazioni, ottimizzare processi complessi e prendere decisioni integrate. L’evoluzione verso questa forma di intelligenza distribuita aprirà nuove possibilità per migliorare efficienza, scalabilità e personalizzazione.

Il framework D.E.E.P.: un approccio strutturato per adottare gli AI Agent

L’adozione strategica degli AI Agent richiede un approccio metodologico che consideri tutti gli aspetti fondamentali per un’integrazione efficace. Il framework D.E.E.P. (Dati, Esperienza, Ecosistema, Processo) guida le aziende attraverso una roadmap chiara e strutturata, assicurando che ogni fase sia coperta e che l’impatto sia massimizzato. Vediamo nel dettaglio ogni componente:

  1. Dati: questa fase si concentra sull’analisi della disponibilità, qualità e organizzazione dei dati. Attraverso un’analisi di data readiness, vengono:
    • Mappate le fonti di dati esistenti.
    • Identificate eventuali lacune o incoerenze nei dati disponibili.
    • Proposti interventi per migliorare la pulizia e la strutturazione dei dati.
      L’obiettivo è fornire un quadro chiaro del patrimonio informativo aziendale e definire le azioni necessarie per preparare i dati all’addestramento dei modelli di AI. Questo passaggio è cruciale, poiché la qualità dei dati influenza direttamente l’efficacia degli agenti AI.
  2. Esperienza: la seconda fase valuta la competenza interna e la disponibilità di esperti di dominio in grado di interpretare correttamente le problematiche aziendali. Include:
    • La mappatura delle competenze chiave all’interno dell’organizzazione.
    • L’identificazione degli stakeholder più rilevanti.
    • La valutazione di eventuali gap di conoscenza che potrebbero ostacolare l’implementazione.
      L’output di questa fase è un piano d’azione che prevede il coinvolgimento delle figure strategiche e la formazione necessaria per trasferire le competenze ai modelli AI, assicurando un allineamento tra tecnologia e obiettivi aziendali.
  3. Ecosistema: l’ecosistema aziendale – inteso come infrastruttura tecnologica, organizzativa e culturale – viene esaminato per garantirne la compatibilità e la scalabilità con soluzioni di AI. Questo include:
    • La valutazione dell’integrazione tra strumenti, piattaforme e team esistenti.
    • L’analisi delle barriere culturali o organizzative che potrebbero rallentare l’adozione.
    • La definizione di eventuali aggiornamenti necessari per rendere l’ecosistema pronto a supportare l’AI.
      L’output di questa fase è un documento di raccomandazioni operative, che suggerisce modifiche ai tool, ai processi e alla struttura organizzativa per massimizzare l’efficacia delle nuove soluzioni tecnologiche.
  4. Processo: l’ultima fase riguarda l’analisi dei workflow operativi. Si studia la ripetibilità, la standardizzazione e la documentazione dei processi per identificare le aree a maggior potenziale di ottimizzazione tramite AI. Questa fase prevede:
    1. L’assessment delle attività ripetitive e dei colli di bottiglia.
    2. La mappatura dei flussi di lavoro prioritari per l’introduzione dell’automazione.
    3. La proposta di un design ottimizzato dei processi, supportato da agenti AI.
      L’output è una mappa dei flussi di lavoro che evidenzia le aree critiche su cui intervenire, accompagnata da suggerimenti per la modellazione e l’automazione dei processi.

Valutare gli impatti

Non tutte le aziende sono pronte per questa transizione, e il rischio di sottovalutare gli impatti può portare a risultati controproducenti. È fondamentale:

  • Effettuare analisi di impatto iniziale, identificando rischi e opportunità.
  • Creare progetti pilota, utilizzando framework open-source come LangChain o Rasa per testare applicazioni specifiche prima di una distribuzione su larga scala.
  • Valutare il contributo degli AI Agent non solo in termini di produttività, ma anche di miglioramento della customer experience, innovazione e sostenibilità.

Le aziende che guideranno l’innovazione

La leadership nel settore degli AI Agent dipenderà dalla capacità di integrare queste tecnologie nei processi aziendali con una visione strategica. OpenAI, Google e Anthropic rimangono attori dominanti, ma nuovi player emergenti, come le piattaforme Crypto x AI (ad esempio, AI16Z), stanno guadagnando terreno grazie a modelli innovativi e un focus su scalabilità e velocità.

Il futuro degli AI Agent non riguarda solo l’efficienza, ma anche la capacità di trasformare interi settori con un approccio orientato ai dati, alla competenza e all’etica. Le aziende che sapranno integrare questi agenti in modo strategico e responsabile non solo aumenteranno la produttività, ma ridefiniranno la loro posizione sul mercato.

Human in the Loop: il valore dell’uomo nell’era dell’automazione

L’intelligenza artificiale è sempre più parte integrante dei processi decisionali e produttivi in ambito aziendale e sociale. Ma c’è un elemento che spesso viene sottovalutato: il ruolo insostituibile dell’essere umano nel ciclo decisionale, concetto noto come Human in the Loop (HITL). Questo paradigma non è solo una buona pratica, ma un approccio strategico per bilanciare automazione e controllo umano.

Origine e genesi del concetto

Il termine Human in the Loop emerge negli anni ’50 e ’60, con lo sviluppo dei primi sistemi cibernetici e automatizzati. Norbert Wiener, nel suo libro Cybernetics: Or Control and Communication in the Animal and the Machine (1948), sottolineava che l’intelligenza dei sistemi doveva necessariamente passare per il contributo umano, un principio che ha plasmato molte discipline moderne.

Con l’avvento dell’intelligenza artificiale, il concetto è stato ridefinito: da semplice “uomo nella catena di controllo” a pilastro di sicurezza, etica e miglioramento continuo nei sistemi di apprendimento automatico. Stuart Russell e Peter Norvig, nel celebre manuale Artificial Intelligence: A Modern Approach, esplorano come il ruolo umano rimanga centrale per garantire che i sistemi di AI operino in linea con i valori umani.

Cosa significa HITL oggi?

Oggi Human in the Loop si riferisce a una collaborazione attiva tra uomo e macchina. Non si tratta solo di supervisionare, ma di integrare competenze complementari. Le macchine eccellono nella velocità e nell’elaborazione di grandi quantità di dati; gli esseri umani offrono intuizione, empatia e giudizio morale. Tre modalità principali di intervento umano:

  • Supervisione e monitoraggio: L’uomo supervisiona l’output dell’AI, correggendo eventuali errori.
  • Addestramento e miglioramento: L’intervento umano serve per fornire dati migliori e ridurre bias negli algoritmi.
  • Decision-making condiviso: L’essere umano interviene nei processi decisionali, integrando l’analisi dell’AI con intuizioni contestuali.

Perché HITL è cruciale?

L’automazione ha i suoi limiti e rischi. L’assenza di supervisione umana può portare a conseguenze gravi, come bias discriminatori o errori in contesti critici. Cathy O’Neil, nel suo libro Weapons of Math Destruction, illustra come algoritmi non supervisionati possano amplificare le disuguaglianze sociali, dimostrando l’importanza dell’intervento umano.

Un caso emblematico è quello dei sistemi di content moderation nei social media. Nel suo libro The Age of Surveillance Capitalism, Shoshana Zuboff esplora come l’automazione pura non riesca a distinguere il contesto nei contenuti online, portando a decisioni sbagliate o persino pericolose.

Applicazioni e ambiti di utilizzo

  • Sanità: Eric Topol, in Deep Medicine, esplora come l’AI supporti i medici nell’analisi di immagini diagnostiche e nell’identificazione di anomalie. Decisioni come una diagnosi definitiva o una terapia rimangono nelle mani del medico.
  • Finance: Nel settore finanziario, il rischio di automazione non controllata è elevato. I sistemi di trading algoritmico e antifrode si affidano a modelli AI, ma l’intervento umano rimane cruciale per evitare errori che potrebbero causare gravi danni economici.
  • Giustizia e governance: Virginia Eubanks, in Automating Inequality, dimostra come l’uso non regolamentato dell’AI in contesti come il welfare possa perpetuare discriminazioni sistemiche. La presenza umana serve per valutare casi specifici e garantire equità.

Sfide e limiti del modello HITL

Nonostante i suoi benefici, HITL presenta sfide importanti:

  • Scalabilità: Integrare l’intervento umano in sistemi su larga scala può essere costoso e complesso.
  • Addestramento umano: Lavorare in sinergia con l’AI richiede competenze specifiche e un continuo aggiornamento.
  • Dipendenza dal giudizio umano: Gli esseri umani possono essere soggetti a bias cognitivi, che influenzano negativamente l’efficacia del modello.

Per affrontare queste sfide, Kai-Fu Lee, nel suo libro AI Superpowers, suggerisce che l’uomo deve evolversi insieme alle macchine, acquisendo nuove competenze per interpretare e collaborare con i sistemi AI.

Il punto di vista di Paolo Benanti

Nel libro “Human in the Loop” anche Paolo Benanti esprime 5 concetti sul tema, ovviamente da una angolazione etica:

  • Centralità dell’umano: l’essere umano deve restare al centro dei processi decisionali anche in presenza di tecnologie avanzate, evitando una delega totale all’AI.
  • Etica dell’AI: è necessario sviluppare un modello etico che guidi la progettazione e l’uso dell’AI, considerando le implicazioni sociali, morali e antropologiche.
  • Responsabilità condivisa: l’integrazione tra uomo e AI richiede una suddivisione delle responsabilità, assicurando che il controllo finale rimanga in mano agli esseri umani.
  • Bias e trasparenza: Benanti sottolinea l’importanza di affrontare i bias algoritmici e garantire la trasparenza dei sistemi AI per evitare discriminazioni o decisioni ingiuste.
  • Tecnologia come strumento, non fine: l’AI deve essere vista come un mezzo per migliorare le condizioni umane e non come un obiettivo autonomo o indipendente dall’etica e dai valori umani.

Il futuro del concetto

L’evoluzione dell’AI porterà il paradigma HITL verso nuovi orizzonti. Il concetto di Human in the Loop si trasformerà in Human on the Loop e infine in Human out of the Loop, dove il ruolo umano si sposterà da operatore a supervisore strategico. Come sottolineato da Nick Bostrom in Superintelligence, l’uomo rimarrà centrale per definire obiettivi e valori che le macchine non possono comprendere autonomamente.

Human in the Loop non è solo un approccio tecnico, ma una filosofia che ci ricorda che l’AI, per quanto potente, è sempre un’estensione delle nostre capacità. Come scrive Marshall McLuhan: “Non sono le macchine a dominare, ma il modo in cui le usiamo“. Il futuro dell’AI sarà scritto da sistemi sempre più autonomi, ma il ruolo umano rimarrà insostituibile per garantire etica, sicurezza e progresso sostenibile.

La nuova (rin)corsa ai dati: estrarre valore in profondità con l’AI e il metodo D.E.E.P & 4V

L’AI ha ridato vita alla nuova (rin)corsa al petrolio dei dati. L’entusiasmo generato dai media e l’enorme afflusso di capitali di rischio (oltre 4 miliardi di dollari investiti negli ultimi mesi) hanno innescato una gara serrata per ottenere un vantaggio competitivo nell’estrazione di dati (di qualità) e nell’uso dell’intelligenza artificiale.

Come con il petrolio, in cui la sfida non è stata tanto trovarlo, quanto saperlo raffinare e utilizzare per creare valore, ora succede con l’AI e con i dati. C’è un rischio reale in questa rincorsa che sta già iniziando a dare i primi segnali: muoversi con troppa fretta e ottimismo può portare a progetti di AI senza un effettivo ritorno, mentre un approccio troppo lento rischia di produrre soluzioni obsolete ancora prima di entrare in funzione.

L’obiettivo, per molte aziende, è trovare il giusto equilibrio, costruendo progetti che abbiano un impatto concreto e duraturo sul business, evitando di investire tempo e risorse in “pozzi a secco”.

Gli errori comuni nella creazione di progetti AI based

L’intelligenza artificiale non è più una mera curiosità sperimentale, ma una tecnologia matura che può rivoluzionare la progettazione, lo sviluppo e la distribuzione dei prodotti. Le aziende in grado di sfruttarla correttamente avranno senza dubbio aumento di produttività, riduzione dei costi e capacità finora impensabili in alcuni ambiti.

Per ottenere questi benefici, ed evitare i due errori comuni che ho visto già ripetutamente ripetersi, è necessario un livello di attenzione e progettazione su :

  1. Mancato allineamento con gli obiettivi aziendali: investire in AI solo perché “va di moda” conduce a progetti lunghi, costosi e privi di impatto concreto. Senza legare l’uso della tecnologia ad obiettivi di business chiari, si finisce per scavare in aree prive di petrolio di valore.
  2. Profili non adeguati: lasciare che un progetto sia gestito esclusivamente da team tecnici, senza coinvolgere business e prodotto, produce soluzioni che non rispondono alle reali esigenze dell’azienda, e del mercato. È come costruire un oleodotto senza sapere per quali mercati si sta estraendo.

Individuare il livello di maturità ed i casi d’uso con il framework D.E.E.P.

Negli anni ho imparato che non basta avere dati o tecnologie all’avanguardia per realizzare progetti di AI realmente efficaci. Il vero successo risiede nella capacità di individuare i giusti “campi di estrazione” e di definire chiaramente i criteri di impiego, evitando di farsi condizionare dal F.O.M.O. (Fear Of Missing Out) e puntando invece su un attento processo di analisi e assessment.

Partendo da queste esperienze, ho sviluppato gradualmente, in particolare nell’ultimo anno, un framework chiamato D.E.E.P. (Dati, Esperienza, Ecosistema, Processo). Applicato in diversi contesti industriali, questo approccio mi ha permesso di identificare il livello di maturità e le aree di intervento di un’organizzazione rispetto all’adozione dell’AI, riuscendo così a raffinare continuamente la metodologia. L’idea di “profondità” introdotta dal D.E.E.P. mira a valutare con precisione la situazione attuale dell’azienda e la sua capacità di generare valore attraverso l’AI, analizzando quattro dimensioni chiave, ciascuna con le sue analisi specifiche e i relativi output:

  1. Dati: in questa fase vengono valutati la disponibilità, la qualità, la strutturazione e la pulizia dei dati, conducendo un’analisi di data readiness che include l’inventario delle fonti, la valutazione delle lacune e la definizione di eventuali interventi di miglioramento. L’output finale è un quadro chiaro del patrimonio informativo disponibile, con indicazioni su come preparare i dati per l’addestramento di modelli IA.
  2. Esperienza: qui si verifica la presenza di esperti di dominio, la profondità della conoscenza interna e la capacità di interpretare correttamente le problematiche da risolvere con l’AI. L’analisi comprende l’identificazione degli stakeholder chiave, la mappatura delle competenze e la valutazione delle lacune conoscitive. L’output consiste in un piano per coinvolgere le figure di riferimento, colmare eventuali gap di expertise e facilitare il trasferimento di conoscenza ai modelli di intelligenza artificiale.
  3. Ecosistema: in questa fase viene esaminata l’infrastruttura tecnologica, organizzativa e culturale dell’azienda: l’integrazione tra strumenti, piattaforme, team e processi esistenti viene valutata attraverso un’analisi di compatibilità e scalabilità. L’output è un documento di raccomandazioni su come allineare o aggiornare l’ecosistema tecnologico, indicazioni su eventuali cambi di tool, su come integrare l’AI nei flussi di lavoro esistenti e su come preparare l’organizzazione ad accogliere nuove soluzioni.
  4. Processo: infine, vengono analizzati i workflow operativi, la loro ripetibilità, standardizzazione e documentazione. Attraverso un assessment dei processi, si individuano le attività a maggior potenziale di automazione o ottimizzazione tramite AI. L’output di questa fase è una mappa dei flussi di lavoro prioritari, con indicazioni su dove introdurre l’IA e suggerimenti per la modellazione del processo, al fine di massimizzare l’efficacia dell’intervento tecnologico.

L’insieme di queste analisi e output fornisce così una visione integrata dello stato di maturità dell’azienda e orienta i passi successivi verso l’implementazione di soluzioni IA solide, mirate e sostenibili.

Un esempio, banale, ma concettualmente efficace: un’azienda retail che vuole generare report accurati sulle tendenze di vendita partendo da un insieme di flussi di dati prevalentemente digitali ma integrato di dati cartacei disordinati, note interne non standardizzate e appunti informali sul comportamento dei clienti. Senza informazioni strutturate e digitalizzate (Dati), senza uno staff che abbia codificato a fondo la logica commerciale o le metriche critiche da monitorare (Esperienza), senza strumenti integrati per gestire e processare le informazioni (Ecosistema), né procedure ripetibili per l’analisi delle vendite (Processo), l’uso dell’AI diventa evidentemente inefficace. È come cercare di “estrarre valore” in un contesto caotico, senza i fondamenti necessari per ottenere risultati significativi.

Dopo il DEEP, l’analisi delle 4V per definire le priorità

Una volta individuati eventuali gap, maturità, i potenziali “giacimenti” e gli ambiti di intervento grazie a D.E.E.P., occorre ora valutarne il potenziale, così da permettere all’azienda di comprendere, senza illusioni o aspettative non correttamente tarate.

A questo scopo, utilizzo un modello che ho rivisto di un framework chiamato V.V.V. a cui ho aggiunto una quarta dimensione e trasformandolo in V.V.V.V. (Valutazione, Valore, Velocità, Visione):

1. Valutazione

  • Scopo:verificare la fattibilità reale del progetto, considerando competenze, risorse e contesto normativo, così da identificare gli ostacoli e le soluzioni necessarie prima di investire ulteriormente.
  • Analisi: in questa fase si mappano i gap di skill interne, si valutano i fornitori o partner potenziali, si considerano i requisiti legali e i vincoli tecnici. Questo passaggio serve anche a definire se conviene formare il personale interno, assumere nuovi talenti, acquisire tecnologie o esternalizzare parte dell’iniziativa.
  • Azioni: la conclusione della “Valutazione” è un piano operativo che evidenzia investimenti da effettuare, competenze da integrare (make or buy), modalità di coinvolgimento dei partner esterni e interventi per ridurre i rischi e aumentare la sostenibilità del progetto.

2. Valore:

  • Scopo: stabilire la reale utilità dell’iniziativa in termini di impatto su costi, ricavi, efficienza e vantaggio competitivo. L’obiettivo è comprendere se l’investimento genererà risultati tangibili, evitando di puntare su soluzioni prive di ritorno.
  • Analisi: si identificano i KPIs rilevanti, si stimano i potenziali incrementi di produttività o risparmi di tempo, si analizzano le opportunità di crescita dei ricavi e si verifica se il progetto supporta gli obiettivi strategici dell’azienda.
  • Azioni: a valle di questa fase, l’azienda ottiene una chiara definizione del ritorno sull’investimento (ROI) atteso, una mappa dei benefici misurabili e una lista di priorità per focalizzarsi sulle iniziative a maggiore impatto, orientando così le risorse dove offrono più valore.

3. Velocità

  • Scopo: valutare i tempi e le modalità di implementazione per garantire che il progetto non diventi obsoleto prima di essere completato. In un contesto di rapida evoluzione tecnologica, come quella che viviamo oggi, è essenziale agire con tempismo e definire release incrementali.
  • Analisi: si esamina la complessità delle attività, la disponibilità delle risorse, la presenza di eventuali colli di bottiglia, e si definiscono milestone e roadmap temporali. Ciò consente di capire se è meglio avviare subito il progetto o se attendere migliori condizioni.
  • Azioni: Il risultato è un piano di roll-out agile, con rilasci progressivi, test intermedî e la capacità di reagire rapidamente ai cambiamenti del mercato e alle nuove tecnologie, prevenendo un eccessivo allungamento dei tempi e inutili sprechi di risorse.

4. Visione:

  • Scopo: garantire che l’iniziativa non sia solo un’opportunità tattica ma anche strategica, inserita in una prospettiva di medio-lungo termine e allineata ai trend futuri del settore e alle evoluzioni interne all’azienda.
  • Analisi: si verifica la coerenza del progetto con la strategia complessiva, si valuta la capacità di scalare la soluzione nel tempo, di adattarsi a nuove esigenze o mercati, di integrarsi con altri progetti in pipeline e di sfruttare tecnologie emergenti.
  • Azioni: una volta conclusa l’analisi sulla Visione, l’azienda dispone di una roadmap di lungo periodo e di linee guida per far crescere o adattare l’iniziativa nel futuro, assicurando che l’investimento si riveli un asset duraturo e non una soluzione effimera.

L’integrazione di queste quattro dimensioni (Valutazione, Valore, Velocità, Visione) consente all’azienda di definire un quadro completo delle opportunità e dei rischi, assicurando interventi mirati, sostenibili e coerenti con il contesto presente e futuro. L’integrazione della componente Visione introduce a mio avviso una valutazione di lungo termine così da dare una prospettiva che permetta, nelle valutazioni progressive, di capire se la direzione è coerente e se attuale rispetto al contesto. In particolare questo punto di valutazione è utile quando il progetto non restituirà immediatamente risultati creando una condizione di sfiducia e quindi possibili decisioni non più coerenti con le valutazioni iniziali.

Utilizzando i due framework D.E.E.P. e 4V., si individuano a questo punto uno o due casi d’uso veramente promettenti, interessanti non solo per una area aziendale, che sia il business, l’applicabilità tecnica o la notiziabilità, e si definisce un piano trasversale che coinvolge l’azienda in una trasformazione spinta dall’AI e pronta per essere messa in produzione senza sprechi di risorse e in un’ottica di crescita sostenibile.

Linee guida chiave:

  • Coinvolgere più competenze: servono persone e competenze che conoscano sia la tecnologia sia il mercato, per assicurarsi che l’AI estragga il giusto tipo di “petrolio” e non sabbia.
  • Cambiare i processi di sviluppo: le metodologie tradizionali non si adattano perfettamente ai progetti trainati da AI. Occorre rilasciare prototipi, testare sul campo, iterare. È come calibrare un nuovo impianto di raffinazione fino a trovare l’ottimale. Bisogna introdurre una mentalità iterativa, orientata alla raffinazione degli errori e non al giudizio sul fallimento.
  • Procedere per piccoli passi: iniziare con progetti circoscritti e ad alto impatto, per minimizzare i rischi e imparare dall’esperienza, è meglio che cercare di trivellare subito in profondità senza la giusta preparazione, una giusta motivazione e una corretta sostenibilità.

Finisco il concetto continuando sulla metafora del petrolio: muoversi senza criterio sull’onda dell’hype porta a pozzi a secco e risorse sprecate. Agire troppo lentamente significa concedere il vantaggio e perdere in competitività. La chiave è trovare l’equilibrio, individuare i giacimenti di dati giusti, usare il metodo DEEP per capire come estrarli ed un modello come il 4V per prioritizzare ciò che può davvero generare valore per il business. In questo modo l’AI diventa il vero “petrolio” dell’era digitale, una risorsa su cui costruire un vantaggio competitivo duraturo.

L’obsolescenza delle competenze. Abbiamo bisogno ancora di imparare?

Sabato scorso, al festival di Medioera a Viterbo, ho avuto l’opportunità di rispondere a 11 delle 50 domande affrontate nel mio libro “L’AI non è quello che pensi”. Ho scelto i punti più curiosi e quelli su cui spesso lo scetticismo è più forte, approfondendo temi come il futuro delle competenze, il rapporto tra AI e capacità critica, e il rischio di una società sempre più dipendente dalla tecnologia.

Uno dei temi centrali del mio intervento è stato l’obsolescenza delle competenze. L’AI accelera inevitabilmente la velocità con cui ciò che sappiamo diventa obsoleto. Non basta più apprendere una volta sola; oggi la vera sfida è imparare come imparare.

Elga Nowotny, in Le Macchine di Dio, chiama questo rischio auto-appiattimento: non solo rischiamo di delegare troppo, ma anche di smettere di sviluppare un pensiero critico. Se consumiamo passivamente informazioni generate dall’AI senza metterle in discussione, diventiamo spettatori passivi. Qui, l’obsolescenza delle competenze si intreccia con una questione più ampia: la nostra autonomia intellettuale.

L’AI, infatti, non “pensa”, ma “calcola”. Non ha valori, emozioni o coscienza. Eppure, spesso tendiamo a trattarla come una fonte di verità assoluta. Questo può portarci a una passività intellettuale pericolosa, in cui accettiamo tutto ciò che viene proposto senza metterlo in discussione.

Eppure, l’AI può (e dovrebbe) essere uno strumento straordinario per amplificare le nostre capacità. Come ho detto durante lo speech, l’AI è uno specchio: riflette il meglio o amplifica il peggio di noi. Non è una minaccia né una salvezza, ma un’opportunità per sviluppare una nuova alfabetizzazione digitale e una capacità critica che ci permettano di costruire con questa tecnologia qualcosa di significativo.

Su questo punto, una delle domande su cui si è posato più l’interesse della platea è stata: “Con l’AI non ci servirà più imparare?”

A prima vista, potrebbe sembrare che, grazie all’intelligenza artificiale, non avremo più bisogno di accumulare conoscenze o competenze, dato che possiamo delegare il lavoro pesante alle macchine. Ma è davvero così?

La risposta è complessa e ci porta dritti al cuore di una trasformazione epocale: l’obsolescenza delle competenze. Ciò che impariamo oggi rischia di diventare irrilevante in tempi brevissimi, in un contesto in cui il ritmo di sviluppo del nuovo è così veloce da non permettere di consolidare quanto appreso.

L’AI sta ridisegnando il mondo del lavoro e il nostro rapporto con l’apprendimento. Non si tratta di non dover più imparare, ma di imparare in modo diverso e molto più velocemente. Le competenze che oggi riteniamo essenziali potrebbero diventare superflue in pochi anni. L’unica vera competenza per il futuro sarà la capacità di imparare continuamente. L’apprendimento non sarà più un processo statico legato alla formazione scolastica, ma un viaggio dinamico che ci accompagnerà per tutta la vita.

L’AI non sostituirà mai del tutto la nostra capacità di giudizio, ma potrebbe renderci dipendenti se non impariamo a governarla. Per questo, oltre ad aggiornare le nostre competenze tecniche, dobbiamo sviluppare capacità trasversali come l’analisi critica, la creatività e l’adattabilità. L’AI non elimina la necessità di imparare, ma trasforma il come e il cosaimpariamo.

Non basta più sapere. Dobbiamo saper cercare, collegare e creare. Non possiamo limitarci a memorizzare nozioni; dobbiamo comprendere i processi e i modelli che ci permettono di innovare. L’AI, come tutte le tecnologie, non dovrebbero renderci meno responsabili; al contrario, le innovazioni ci chiedono di assumere un ruolo attivo nell’interpretazione e nell’utilizzo, ed in particolare, con l’AI, nell’utilizzo dei dati. Paolo Benanti, parlando di algoretica, ci invita a non fermarci all’automatismo ma a sviluppare una consapevolezza critica sull’impatto degli algoritmi.

Imparare, quindi, non è solo una necessità, ma un atto di resistenza. Resistenza contro l’appiattimento (già amplificato da social e algoritmi), contro la tentazione di delegare tutto alla tecnologia.

L’idea che l’AI possa liberarci dal bisogno di imparare è una semplificazione pericolosa. Piuttosto, ci spinge a imparare di più, con nuove metodologie e a velocità mai viste prima. L’intelligenza artificiale deve essere un catalizzatore per un apprendimento più profondo, che possa abilitarci sempre più curiosità e spirito critico.

Forse la domanda giusta è: siamo pronti a reinventare il nostro modo di imparare?

+

Nel libro “L’AI non è quello che pensi” trovi altre 49 domande e risposte semplici.

L’AI non è quello che pensi – 50 domande frequenti e risposte serie ma semplici sull’Intelligenza Artificiale

Sarà che quando si pubblica qualcosa, si è felici, ma oggi lo sono un po’ di più. Oggi ho (auto) pubblicato un nuovo lavoro, una piccola novità che, in un certo senso, è il risultato di anni di dialoghi, discussioni (accese) e scambi di opinioni su un tema che continua ad affascinarmi e sfidarmi: l’intelligenza artificiale. Sono contento di annunciare la pubblicazione del mio ultimo e-book su Amazon, “L’AI non è quello che pensi – 50 domande frequenti e risposte serie ma semplici sull’Intelligenza Artificiale” – una raccolta strutturata in 50 domande frequenti e provocatorie che tentano di rispondere ai dubbi, alle curiosità e agli equivoci che ruotano intorno all’AI.

Come nasce questo libro?

La genesi del libro è un mix di casualità e intenzione: da anni, durante eventi, lezioni, conversazioni e persino cene con amici, ho accumulato domande – alcune tecniche, altre curiose, e altre ancora del tutto inaspettate. In meno di sette giorni, dopo uno spunto di amici discutendo per l’ennesima volta di questi temi, e grazie anche al supporto di strumenti di AI come ChatGPT, Perplexity, Claude e DALL-E, ho raccolto e organizzato tutte le risposte in un formato accessibile. Mi sono reso conto che la struttura a domande e risposte è perfetta per chi cerca di orientarsi nel mondo dell’AI senza voler (o dover) diventare un esperto.

A chi è rivolto?

Il libro è pensato per chiunque: dal curioso che vuole saperne di più, allo scettico convinto che l’AI sia solo un’altra moda passeggera, fino a chi, già nel settore, cerca uno sguardo nuovo, senza tecnicismi eccessivi ma con un approccio puntuale. Non troverete un manuale tecnico, ma una guida che invita a riflettere, a sfatare miti e a scoprire aspetti meno noti dell’AI.

Macro temi trattati

Il cuore del libro esplora temi attuali e spesso controversi:

  • Definizioni e Fondamenti: Cosa intendiamo per AI? Qual è il rapporto tra AI, machine learning e deep learning?
  • Miti e Percezioni Sbagliate: L’AI è davvero una minaccia per l’umanità o uno strumento di supporto?
  • Impatto sul Lavoro e sulle Professioni: Come cambierà il mercato del lavoro con l’avanzare dell’AI?
  • Etica, Privacy e Sicurezza: Come gestire il lato etico di un’intelligenza artificiale in continua evoluzione?
  • Creatività e Pensiero Critico: L’AI potrà mai essere creativa o comprenderà mai le emozioni umane?
  • Fantascienza e Futuro: Un gemello digitale potrebbe interagire per noi in futuro? E cosa significherebbe questo per il ricordo e il legame con chi non c’è più?

Un lancio speciale

Per i prossimi giorni, il libro sarà scaricabile gratuitamente su Amazon, e successivamente sarà disponibile a 4,99 euro. Sto anche valutando la possibilità di una versione cartacea per chi, come me, preferisce ancora avere qualcosa di fisico da sfogliare.

Un ringraziamento speciale

Non posso concludere senza ringraziare chi ha reso questo progetto possibile. Alla mia famiglia, che ha sempre pazientemente sopportato le mie discussioni infinite sull’AI, agli amici con cui ho condiviso idee e battute (Roberto, Andrea, Angelo, Stefano, Fabrizio, Alessandro), e a tutti coloro che continuano a farmi domande e stimolare il confronto. Un ringraziamento va anche agli scettici e a tutti i curiosi, perché senza di voi queste 50 domande non avrebbero mai trovato una risposta.

Spero che questo libro possa offrirvi qualche spunto nuovo e, chissà, magari anche ispirarvi a fare nuove domande. Buona lettura! Qui per prenderlo in eBook 

Un nuovo senso alla parola Fiducia, nell’intersezione Blockchain e AI. Non solo.

Fino a poco tempo fa, ciò che vedevamo e ascoltavamo sembrava essere la verità (non sempre) assoluta. Le immagini che scorrevano sui nostri schermi, le voci che ci arrivavano dagli altoparlanti, erano per noi un riflesso di una realtà alquanto tangibile. Ma questa sensazione di certezza, a cui ci siamo affidati per decenni, sta rapidamente crollando.

Oggi, voci, immagini, video e persino testi possono essere creati, manipolati e distorti con una facilità senza precedenti, grazie alle potenzialità dell’intelligenza artificiale generativa e agli strumenti sempre più accessibili. Ciò che un tempo era una rappresentazione affidabile della realtà è ora diventato un’ombra di quella stessa realtà. In questo contesto, ci troviamo di fronte a una domanda fondamentale: in un mondo in cui tutto può essere falsificato, cosa è realmente autentico? E, soprattutto, come possiamo fidarci di ciò che vediamo e ascoltiamo?

Cyber attacchi e truffe: una criticità crescente

Negli ultimi anni, le truffe e i cyber attacchi alimentati dall’intelligenza artificiale sono aumentati drasticamente, con conseguenze economiche e sociali gravi. Le frodi legate a identità e transazioni hanno portato, solo nel 2023, a perdite globali di miliardi di dollari. Tecniche avanzate come la sintesi vocale e la manipolazione video consentono ai criminali di creare attacchi sempre più sofisticati. Il problema non risiede solo nel danno economico immediato, ma nella crescente sfiducia che questi fenomeni generano. Più credibile è l’attacco, più difficile è ripristinare la fiducia nelle informazioni digitali.

Quali soluzioni abbiamo per lavorare su questo concetto di fiducia?

AI e Blockchain: un’opportunità nella convergenza tecnologica

Uno dei temi che maggiormente sto trattando recentemente e di cui ho scritto nel libro Spatial Shit, è quelllo della convergenza tecnologica, che vede, in questo momento storico, la maturità di diverse tecnologie raggiungere uno di contatto con tutte le altre. Intelligenza artificiale, Spatial Computing, Blockchain, Iot stanno iniziando appunto un processo di convergenza in cui ognuna di queste introduce vantaggi per le altre.

Se ci soffermiamo a osservare il rapporto tra l’intelligenza artificiale (AI) e la blockchain, per esempio, in riferimento alla domanda principale, è facile dedurre come queste due tecnologie, sebbene apparentemente diverse, siano in grado di integrarsi perfettamente. L’AI, da un lato, si basa su algoritmi capaci di apprendere dal passato, analizzare grandi quantità di dati e, attraverso processi predittivi, fornire scenari futuri per aiutare le aziende a prendere decisioni in tempo reale. In questo flusso costante di dati e previsioni, le informazioni però possono essere potenzialmente manipolate o modificate con facilità, soprattutto in un ambiente sempre più digitale e complesso.

Ed è qui che entra in gioco la blockchain, che svolge il ruolo di custode del passato. A differenza dell’AI, che è in continua evoluzione e ottimizzazione, la blockchain non prevede adattamenti o cambiamenti: una volta che un’informazione viene registrata in questo registro distribuito, diventa permanente. Ogni decisione o transazione è tracciabile e verificabile da tutti i partecipanti alla rete, garantendo che nulla possa essere alterato senza che l’intero sistema ne prenda atto.

Questa complementarità tra AI e blockchain crea un equilibrio a mio avviso fondamentale. L’AI offre velocità e capacità predittiva, ma in un contesto in cui è sempre necessario valutare quanto ci si possa fidare dei dati. La blockchain fornisce invece un contesto di trasparenza e integrità, assicurando che ogni dato, una volta registrato, non sia più soggetto a manipolazioni o alterazioni. Insieme, le due tecnologie, non solo accelerano il processo decisionale, ma lo rendono anche verificabile e sicuro. Pensiamo per esempio a un sistema aziendale in cui l’AI ottimizza le operazioni in base a scenari futuri, ma ogni scelta chiave è tracciata su blockchain per garantirne la trasparenza.

Un altro aspetto senza dubbio interessante da approfondire è che l’AI, per la sua stessa natura, tende a centralizzare il potere: ha bisogno di enormi risorse di calcolo e di dati per funzionare in modo ottimale, dati però spesso concentrati in pochi grandi centri. La blockchain, invece, opera esattamente all’opposto. La sua forza risiede nella decentralizzazione: ogni nodo della rete è autonomo ma collegato agli altri, il che significa che non esiste un singolo punto di controllo. Questo riduce la possibilità di manipolazione e aumenta la fiducia tra i partecipanti, creando un ecosistema in cui il potere è distribuito equamente.

Se l’AI quindi punta a risolvere problemi complessi attraverso la competizione e il miglioramento continuo, la blockchain mira a creare un ambiente di cooperazione, dove ogni partecipante ha la certezza che ciò che è registrato è reale e immutabile. Questo connubio tra previsione e sicurezza, centralizzazione e decentralizzazione, potrebbe rappresentare una nuova via per affrontare le sfide del mondo digitale di oggi, in cui la fiducia è diventata il bene più prezioso.

Fiducia e trasparenza: il cuore della blockchain

Un altro punto cruciale che differenzia AI e blockchain è la spiegabilità. Gli algoritmi di AI agiscono di fatto come scatole nere, con processi decisionali che spesso non sono chiari neanche ai loro creatori. Al contrario, la blockchain è costruita su principi di trasparenza. Ogni azione registrata è tracciabile e spiegabile da chiunque partecipi alla rete, offrendo così un sistema verificabile in ogni momento, e tale meccanismo è fondamentale per costruire una nuova architettura di fiducia in un mondo in cui ciò che vediamo e ascoltiamo non può più essere dato per scontato.

La blockchain non solo protegge l’integrità dei dati, ma cambia radicalmente il concetto di fiducia. In passato, questa fiducia era mediata da istituzioni, autorità centrali e relazioni umane. Oggi, potenzialmente, grazie alla blockchain, potremmo affidare il compito della fiducia a un sistema distribuito che verifica ogni passaggio. La fiducia, quindi, non sarebbe più una questione puramente umana o istituzionale, ma diventerebbe un processo tecnologico, una fiducia “computazionale”, come già alcuni la definiscono.

Ma non tutto è verità: i limiti della blockchain

Nonostante il suo potenziale, la blockchain non è una panacea. Pur avendo evidenziato un enorme potenziale, restano però alcuni limiti nella sua implementabilità rispetto al problema della fiducia. Un limite importante è che la blockchain può registrare informazioni false, rendendole permanenti e inalterabili nel tempo, ed una volta registrata, un’informazione errata, rimarrà nella blockchain per sempre, con la sola traccia di chi l’ha inserita. Questo significa che, sebbene la blockchain possa garantire l’integrità, non può garantire la sua veridicità. Un aspetto che spesso viene frainteso e che non può esser sottovalutato.

C’è poi un altro punto di debolezza che va affrontato nel provare a comprendere questo tema: la blockchain funziona solo in reti dove esiste una comunione di interessi tra i partecipanti. Se gli attori della rete non condividono gli stessi obiettivi, o non sono d’accordo su cosa monitorare, l’efficacia della blockchain diminuisce. E se, soprattutto, all’interno della rete esistono gerarchie rigide, l’intera filosofia decentralizzata della blockchain viene compromessa. In altre parole, la blockchain funziona meglio quando tutti i partecipanti della rete sono su un piano di parità e condividono gli stessi scopi. Ma questo è possibile realisticamente parlando?

Quindi cosa manca?

Guardando ad un possibile futuro, la fiducia nel mondo digitale richiederà un ecosistema di tecnologie integrate. Alcuni elementi chiave che potrebbero completare il puzzle, ad oggi, potrebbero appunto esser:

  1. Intelligenza Artificiale (AI): l’AI, utilizzata in modo trasparente e con logiche etiche ben definite, può aiutare a verificare e validare la qualità dei dati prima che vengano registrati sulla blockchain. Ad esempio, strumenti di AI avanzati potrebbero essere impiegati per analizzare i dati in tempo reale e distinguere tra contenuti genuini e falsificati, riducendo il rischio che informazioni false vengano immortalate su blockchain.
  2. Zero-Knowledge Proofs (ZKP): le prove a conoscenza zero sono un elemento fondamentale per garantire la privacy senza sacrificare la verificabilità. Con ZKP, sarà possibile dimostrare che un’informazione è vera senza rivelarla esplicitamente. Questo potrebbe rappresentare un miglioramento fondamentale per assicurare la fiducia nelle interazioni digitali senza violare la riservatezza dei dati sensibili.
  3. Regolamentazione e Governance: la fiducia ovviamente non può basarsi solo su tecnologia. Devono essere implementati chiari quadri normativi e regolamentazioni che definiscano le regole di ingaggio per le tecnologie come blockchain e AI. Una governance trasparente e condivisa permetterebbe di bilanciare l’uso di queste tecnologie con i diritti e le aspettative delle persone.
  4. Identità Digitale Decentralizzata (DID): infine uno degli elementi più critici per stabilire la fiducia nel futuro sarà la creazione di identità digitali sicure, che possano essere verificate in modo decentralizzato. La blockchain può giocare un ruolo chiave qui, ma sarà necessario integrarla con altri strumenti per garantire che le identità non possano essere falsificate o compromesse.

Un nuovo senso della parola fiducia

In un mondo in cui tutto può essere manipolato o falsificato, la fiducia deve essere ricostruita in modo diverso, più profondo. La regolamentazione giocherà un ruolo essenziale nel garantire che queste tecnologie convergenti operino all’interno di un quadro etico e sicuro, ma il vero cambiamento sarà culturale: la costruzione di una responsabilità distribuita e una governance decentralizzata, incarnata dal concetto di Web3.

Il bilanciamento tra il mondo probabilistico dell’intelligenza artificiale e quello deterministico della blockchain, integrate al un modello di regolamentazione, rappresenta un nuovo modo di costruire fiducia. In questa direzione, ownership e trasparenza diventano i pilastri portanti di un futuro in cui potremo non solo verificare ciò che vediamo e ascoltiamo, ma anche agire con consapevolezza e responsabilità se ciò che percepiamo non risulta affidabile.

The Intelligence Age: la trasformazione del lavoro e l’obsolescenza della competenza

Negli ultimi anni, l’intelligenza artificiale generativa (GenAI) ha guadagnato un ruolo centrale nella trasformazione del mondo del lavoro. Come evidenziato dallo studio di Sia Partners, oltre l’80% delle attività di un terzo delle professioni potrebbe essere automatizzato, e siamo solo all’inizio di una rivoluzione che cambierà il modo in cui lavoriamo, viviamo e risolviamo problemi complessi. Questa evoluzione non è solo un passaggio tecnologico: è il preludio a ciò che Sam Altman ha definito l’inizio dell’“The Intelligence Age”, un’era di straordinaria prosperità e innovazione.

Impatto settoriale e suddivisione del lavoro

Il potenziale impatto dell’AI generativa varia tra i settori, ma è significativo in aree come l’ingegneria, la finanza, il design digitale e l’assistenza sanitaria. Attività ripetitive e strutturate, come la gestione fiscale o la creazione di contenuti web, saranno tra le prime a essere automatizzate, mentre altre aree, come la sanità o il legale, vedranno l’intelligenza artificiale come supporto nella presa di decisioni complesse.

Sam Altman, nel suo post “The Intelligence Age“, sottolinea come l’intelligenza artificiale diventerà un potente strumento per aumentare le capacità umane, rendendo le persone in grado di affrontare problemi che prima sembravano irrisolvibili. Questo significa che anche settori come l’istruzione e la medicina potrebbero vedere una rivoluzione, con l’introduzione di tutor e assistenti virtuali che personalizzeranno l’apprendimento e miglioreranno la qualità delle cure sanitarie.

Nuovi modelli di lavoro: l’era del “team virtuale”

Uno dei concetti chiave introdotti da Altman è l’idea che in futuro ognuno di noi potrebbe avere un “team virtuale” composto da esperti AI in diverse discipline. Questi team ci aiuteranno a svolgere attività che oggi richiedono competenze multiple e interazioni complesse, trasformando il modo in cui collaboriamo e produciamo risultati. Questo concetto si inserisce nella visione di “lavoro aumentato“, dove l’intelligenza artificiale non sostituisce il lavoratore umano, ma ne amplifica le capacità.

Un esempio pratico può essere visto nel settore legale: un avvocato potrebbe affidare la ricerca e la revisione dei documenti a un sistema AI, concentrandosi sugli aspetti strategici e creativi del caso. Allo stesso modo, gli educatori potrebbero affidarsi a tutor AI personalizzati per offrire supporto individuale agli studenti, ottimizzando l’esperienza di apprendimento.

Efficienza e produttività: AI come forza moltiplicatrice

Lo studio di Sia Partners mostra come l’AI generativa potrebbe accelerare il 10-20% delle attività nelle professioni, portando a un significativo aumento della produttività. Sam Altman, sempre nel suo post, spinge oltre questa riflessione, immaginando un futuro in cui l’intelligenza artificiale diventerà un moltiplicatore di produttività su larga scala. “L’AI ci permetterà di realizzare molto di più di quanto possiamo fare oggi“, afferma, e il risultato sarà una prosperità senza precedenti per tutti.

L’AI non solo accelera i processi, ma porta precisione ed efficienza in compiti che finora richiedevano molto tempo e risorse. Aziende che adottano l’AI vedono miglioramenti nelle operazioni, dalla logistica alla pianificazione finanziaria. Questo livello di efficienza, secondo Altman, permetterà di concentrare risorse su sfide ancora più ambiziose, come la risoluzione della crisi climatica o la colonizzazione dello spazio.

Reskilling e Upskilling: prepararsi all’obsolescenza della competenza

Un punto critico, evidenziato sia dallo studio che da Altman, ma oggetto continuo di discussioni e confronti in ogni dove, è la necessità di preparare la forza lavoro a questa nuova era. Molte aziende non hanno ancora sviluppato piani chiari per il reskilling e l’upskilling dei loro dipendenti. Altman immagina un futuro in cui la formazione continua diventa un aspetto centrale del lavoro umano: dovremo costantemente adattarci e aggiornare le nostre competenze per sfruttare al meglio le nuove tecnologie. E questo, come dico da tempo, è legato alla velocità con cui la competenza invecchia, e viviamo un tema di obsolescenza della competenza.

Come società, la nostra capacità di navigare nell’era dell’intelligenza dipenderà da quanto investiremo nell’infrastruttura educativa e nell’accessibilità delle tecnologie AI. L’istruzione diventerà una componente essenziale per ridurre le disuguaglianze che potrebbero emergere da questa trasformazione.

Sfide e rischi: un futuro da costruire con saggezza

Nonostante le promesse, Altman riconosce che l’era dell’intelligenza porterà con sé rischi significativi, inclusi cambiamenti nel mercato del lavoro e potenziali disuguaglianze. La stessa automazione che aumenta la produttività potrebbe portare alla perdita di posti di lavoro, e questo richiederà una riflessione profonda su come redistribuire le risorse e creare nuove opportunità per tutti.

La sfida, quindi, è trovare un equilibrio tra il progresso tecnologico e la gestione etica di questi cambiamenti. Altman, e su questo condivido pienamente, avverte che l’AI non sarà solo uno strumento per i ricchi o per pochi settori privilegiati, ma dovrà essere accessibile a tutti per garantire una prosperità condivisa.

L’adozione dell’AI e il futuro dell’umanità

Sia lo studio di Sia Partners che le riflessioni di Altman convergono sull’importanza dell’adozione rapida dell’AI. Le aziende che per prime integreranno l’intelligenza artificiale nelle loro operazioni avranno un vantaggio competitivo significativo. Ma non solo, anche in contesti non solo professionali, l’adozione dell’AI porterà benefici a chi sarà usarla prima di altri. Come sottolinea Altman, il vero salto sarà quando l’AI diventerà parte integrante della vita quotidiana di ogni persona, migliorando non solo il lavoro, ma anche la qualità della vita.

Infine Altman dipinge un quadro ambizioso del futuro, in cui “la prosperità sarà così grande da sembrare inimmaginabile“. Questo richiederà un investimento in infrastrutture, energia e volontà umana, elementi necessari per far sì che l’AI diventi uno strumento di progresso per tutti, e non solo per pochi.

Un futuro luminoso e complesso

L’intelligenza artificiale generativa rappresenta una delle più grandi trasformazioni nella storia dell’umanità. Mentre lo studio di Sia Partners ci mostra il potenziale impatto sul mondo del lavoro, Sam Altman ci invita a guardare oltre, verso un futuro in cui l’AI diventerà parte integrante della nostra vita e della nostra civiltà. Le sfide saranno molte, come è comprensibile, e come è sempre successo ad ogni grande cambiamento, ma le opportunità sono altrettanto straordinarie.

Il futuro sarà così luminoso che nessuno può descriverlo adeguatamente oggi“. Ma ciò che possiamo fare è prepararci, investire in nuove competenze e infrastrutture, e abbracciare la promessa di un’era di intelligenza che potrebbe superare ogni nostra aspettativa.

Introduzione sintetica ai Modelli di Base On-Device e Server di Apple

Apple ha presentato Apple Intelligence alla Worldwide Developers Conference 2024. Questo sistema di intelligenza “personale”, praticamente un assistente sempre attivo sul device, sarà integrato completamente in iOS 18, iPadOS 18 e macOS Sequoia e compatibile su device Iphone 15 pro e successivi. Il sistema Apple Intelligence utilizza modelli generativi avanzati, specializzati per compiti quotidiani come la scrittura e la revisione di testi, la sintesi e la priorizzazione delle notifiche, la creazione di immagini per le conversazioni e l’esecuzione di azioni in-app per semplificare le interazioni tra le app.

Ho letto e studiato il paper pubblicato e presente a questo indirizzo con l’obiettivo di chiarirmi e chiarire meglio come funziona questo tipo di approccio.

Modelli di base

Prima di tutto partiamo dai modelli utilizzati. Apple Intelligence si basa su due modelli principali: un modello linguistico on-device con circa 3 miliardi di parametri e un modello più grande basato su server. Entrambi i modelli sono progettati per offrire prestazioni elevate, segregare alcune funzioni demandabili al device e altre ad un sistema fuori dal device e garantire di conseguenza un utilizzo responsabile dei dati e dell’AI, oltre a mio avviso del consumo e impatto.

Modello On-Device

Caratteristiche tecniche:

  • Parametri: Circa 3 miliardi di parametri.
  • Architettura: Basato su architettura Transformer, ottimizzata per l’esecuzione locale su dispositivi Apple.
  • Quantizzazione: Utilizza tecniche di riduzione della precisione, a bassa risoluzione (2-bit e 4-bit) così da ridurre i requisiti di memoria e migliorare l’efficienza energetica.
  • Ottimizzazioni:
    • Grouped-Query Attention (GQA): Riduce i requisiti di memoria e migliora la velocità di inferenza.
    • Palletizzazione: Implementa una configurazione mista di 2-bit e 4-bit per ottenere prestazioni comparabili a quelle dei modelli non compressi.
    • Talaria: Strumento interattivo di analisi della latenza e del consumo energetico per ottimizzare la selezione del bit rate in ogni operazione.
    • Quantizzazione di attivazioni e embedding: Riduce ulteriormente i requisiti di memoria senza compromettere la qualità del modello.

Utilizzo: Il modello on-device è integrato direttamente nei dispositivi Apple (iPhone, iPad e Mac) per gestire compiti quotidiani come:

  • Scrittura e Revisione di Testi: Assistenza nella stesura e modifica di email, messaggi e documenti.
  • Sintesi e Prioritizzazione delle Notifiche: Riassume e organizza le notifiche per migliorare la gestione delle comunicazioni.
  • Esecuzione di Azioni In-App: Automatizza attività e interazioni tra le app per rendere l’uso del dispositivo più intuitivo.

Modello Server-Based

Caratteristiche tecniche:

  • Parametri: Modello con un numero di parametri significativamente maggiore rispetto al modello on-device, progettato per operare sui server Apple Silicon.
  • Architettura: Anche questo modello si basa sull’architettura Transformer, ma è ottimizzato per l’elaborazione su larga scala nei data center.
  • Vocabulario: Utilizza una dimensione del vocabolario più ampia (100.000 token) rispetto al modello on-device (49.000 token), includendo token aggiuntivi per lingue e termini tecnici.
  • Ottimizzazioni:
    • Parallelismo: Impiega parallelismo a livello di dati, tensor, sequenza e Fully Sharded Data Parallel (FSDP) per scalare l’addestramento su vari hardware.
    • Reinforcement Learning from Human Feedback (RLHF): Utilizza algoritmi avanzati di ottimizzazione delle politiche per migliorare la qualità delle risposte del modello.
    • Rejection Sampling Fine-Tuning: Metodo di campionamento con un comitato di insegnanti per migliorare la capacità di seguire istruzioni.

Utilizzo: Il modello server-based è utilizzato per gestire compiti più complessi e intensivi in termini di calcolo, beneficiando delle capacità avanzate dei data center di Apple. Esempi di utilizzo includono:

  • Generazione di Contenuti Complessi: Creazione di testi dettagliati e specifici su richiesta degli utenti.
  • Analisi Avanzata dei Dati: Esecuzione di elaborazioni intensive come l’analisi approfondita dei dati.
  • Supporto ai Servizi Cloud: Fornisce potenza di calcolo per applicazioni e servizi che richiedono un’elaborazione continua e intensiva.

Integrazione nei Processi di Apple Intelligence

Apple Intelligence integra questi modelli in un sistema coeso per offrire una vasta gamma di funzionalità intelligenti. Questo processo coinvolge:

  1. Identificazione del Compito: Riconosce il tipo di attività che l’utente sta cercando di eseguire e decide se può essere gestita localmente o richiede il supporto del modello server-based.
  2. Selezione del Modello: Determina quale modello utilizzare in base alla complessità e ai requisiti del compito. Compiti quotidiani semplici vengono gestiti dal modello on-device, mentre compiti complessi vengono indirizzati al modello server-based.
  3. Esecuzione e Ottimizzazione: Il modello selezionato esegue il compito utilizzando ottimizzazioni specifiche per garantire velocità e precisione.
  4. Risposta e Feedback: Fornisce i risultati all’utente e raccoglie feedback per migliorare continuamente i modelli.
  5. Aggiornamenti e Manutenzione: I modelli sono costantemente aggiornati per migliorare le prestazioni e mantenere la sicurezza.

Questa architettura garantisce che Apple Intelligence possa offrire un’esperienza utente fluida, potente e sicura, sfruttando al meglio le capacità sia dei dispositivi locali che dell’infrastruttura cloud di Apple.

3. Sviluppo responsabile dell’IA

Apple segue una serie di principi di AI responsabile che guidano lo sviluppo di Apple Intelligence:

  • Empowerment degli utenti:
    • Apple si impegna a identificare aree in cui l’intelligenza artificiale può essere utilizzata responsabilmente per creare strumenti che rispondano a bisogni specifici degli utenti.
    • Rispetta le modalità in cui gli utenti scelgono di utilizzare questi strumenti per raggiungere i loro obiettivi, garantendo che l’IA sia uno strumento di potenziamento piuttosto che di controllo.
  • Rappresentazione autentica degli utenti:
    • L’obiettivo di Apple è creare prodotti che rappresentino autenticamente gli utenti di tutto il mondo, evitando di perpetuare stereotipi e bias sistemici.
    • Apple lavora continuamente per identificare e mitigare qualsiasi forma di bias nei loro modelli di intelligenza artificiale, assicurando una rappresentazione equa e inclusiva.
  • Design attento:
    • Apple prende precauzioni in tutte le fasi del processo di sviluppo dell’IA, inclusi il design, l’addestramento dei modelli, lo sviluppo delle funzionalità e la valutazione della qualità.
    • Si impegna a identificare e prevenire potenziali usi impropri o dannosi degli strumenti di IA, migliorando proattivamente questi strumenti attraverso il feedback degli utenti.
  • Protezione della privacy:
    • Apple utilizza processi on-device e infrastrutture come il Private Cloud Compute per proteggere la privacy degli utenti.
    • Non utilizza i dati personali privati degli utenti o le loro interazioni per addestrare i modelli di base, applicando filtri per rimuovere informazioni identificabili come numeri di previdenza sociale o di carte di credito.

4. Addestramento dei modelli

I modelli di base di Apple sono addestrati utilizzando il framework AXLearn, un progetto open-source basato su JAX e XLA, che permette un addestramento efficiente e scalabile.

  • Efficienza e Scalabilità:
    • AXLearn consente l’addestramento su vari hardware e piattaforme cloud, inclusi TPU e GPU sia in cloud che on-premise.
    • Apple utilizza tecniche come data parallelism, tensor parallelism, sequence parallelism e Fully Sharded Data Parallel (FSDP) per scalare l’addestramento su più dimensioni.
  • Strategia Ibrida dei Dati:
    • Apple combina dati annotati manualmente con dati sintetici e implementa procedure di curation e filtraggio rigorose per garantire la qualità del training data.
    • Apple filtra informazioni personali e contenuti di bassa qualità dal corpus di addestramento, utilizzando un classificatore basato su modelli per identificare documenti di alta qualità.
  • Algoritmi di Post-Training:
    • Rejection Sampling Fine-Tuning: Apple utilizza un algoritmo di campionamento con un comitato di insegnanti per migliorare la capacità del modello di seguire le istruzioni.
    • Reinforcement Learning from Human Feedback (RLHF): Un algoritmo avanzato che utilizza la politica di discesa speculare e un estimatore di vantaggio leave-one-out per migliorare la qualità delle risposte del modello.

5. Ottimizzazione

Apple applica una serie di tecniche innovative per ottimizzare i modelli, sia on-device che su server, garantendo velocità e efficienza.

  • Grouped-Query Attention (GQA): Questa tecnica riduce i requisiti di memoria e migliora le prestazioni di inferenza.
  • Quantizzazione:
    • Low-Bit Palletization: Utilizza una configurazione mista di 2-bit e 4-bit per ottenere prestazioni comparabili ai modelli non compressi, mantenendo la qualità.
    • Talaria Tool: Strumento interattivo per analizzare latenza e consumo energetico, ottimizzando il bit rate per ogni operazione.
    • Quantizzazione di Attivazioni e Embedding: Riduce ulteriormente i requisiti di memoria senza compromettere la qualità del modello.
  • Cache KV: Ottimizza l’aggiornamento della cache Key-Value sui motori neurali per migliorare l’efficienza.

6. Adattamento dei modelli

Apple utilizza adattatori, piccoli moduli di rete neurale, per specializzare i modelli per compiti specifici, mantenendo inalterati i parametri originali del modello base.

  • Adattatori (Adapters):
    • Gli adattatori sono integrati nei vari strati del modello pre-addestrato, consentendo una specializzazione dinamica per il compito attuale.
    • I parametri degli adattatori sono rappresentati con 16 bit e richiedono solo pochi megabyte di memoria.
    • Gli adattatori possono essere caricati dinamicamente e gestiti in memoria in modo efficiente, garantendo la reattività del sistema operativo.
  • Infrastruttura per l’Addestramento degli Adattatori:
    • Apple ha creato un’infrastruttura efficiente per addestrare, testare e distribuire rapidamente gli adattatori quando il modello base o i dati di addestramento vengono aggiornati.

7. Valutazione delle prestazioni

Apple valuta le prestazioni dei modelli tramite benchmark e valutazioni umane, concentrandosi sull’utilità per l’utente finale.

  • Benchmarking:
    • Apple utilizza un set completo di prompt reali per testare le capacità generali del modello, coprendo categorie come brainstorming, classificazione, codifica, ragionamento matematico e sicurezza.
    • Le valutazioni dimostrano che i modelli Apple spesso superano i modelli comparabili in termini di accuratezza e capacità di seguire le istruzioni.
  • Valutazioni di Specifiche Funzionalità:
    • Apple utilizza adattatori per ottimizzare le prestazioni su compiti specifici, come la sintesi di email, messaggi e notifiche.
    • Le valutazioni includono anche test su set diversificati di input rappresentativi dei casi d’uso reali.

8. Risultati di performance

Le valutazioni mostrano che i modelli Apple sono preferiti dai valutatori umani rispetto ai modelli concorrenti in vari compiti.

  • Comparazione con Modelli Competitor:
    • I modelli on-device di Apple con ~3 miliardi di parametri superano modelli più grandi come Phi-3-mini, Mistral-7B, Gemma-7B e Llama-3-8B.
    • I modelli server di Apple si confrontano favorevolmente con modelli commerciali come GPT-3.5, GPT-4 e Llama-3-70B, risultando più efficienti e sicuri.
  • Risultati di Sicurezza:
    • Apple utilizza prompt diversificati e avversariali per testare le prestazioni dei modelli su contenuti dannosi e argomenti sensibili, raggiungendo tassi di violazione inferiori rispetto ai modelli open-source e commerciali.
  • Benchmark di Instruction-Following (IFEval):
    • I modelli Apple dimostrano capacità superiori nel seguire istruzioni dettagliate rispetto ai modelli di dimensioni comparabili.
  • Benchmark di Scrittura e Sintesi:
    • I modelli Apple sono valutati positivamente nelle capacità di sintesi e composizione, ottenendo punteggi elevati nelle valutazioni interne.

Apple Intelligence, presentata alla WWDC 2024, è profondamente integrata nei dispositivi Apple e offre capacità potenti in ambito linguistico, visivo e di azione, sviluppate responsabilmente e guidate dai valori fondamentali di Apple. I modelli di base e gli adattatori garantiscono prestazioni elevate e sicure, migliorando l’esperienza utente in vari compiti quotidiani. Apple continuerà a condividere ulteriori informazioni sulla famiglia di modelli generativi, inclusi modelli linguistici, di diffusione e di programmazione.

A questo indirizzo è possibile leggere i paper integrale e la documentazione ufficiale. Vale la pena sse avete interesse e tempo di leggere tutto lo studio che in questo post ho sinteticamente riportato.

Oltre i confini dell’immaginazione: il pensiero creativo supportato da AI

Questa mattina mentre navigavo nel feed leggendo diversi contenuti e facendo un po’ della mia curation mattutina, mi sono imbattuto in un esperimento condotto da Allie K. Miller e Reid Hoffman riguardo al tema Creatività e AI. In pochi minuti di videoil loro confronto offre spunti illuminanti su come si possa sfruttare l’AI per potenziare il nostro pensiero creativo.

In un modo non molto diverso da un lavoro di sperimentazione che ho fatto con un cliente recentemente durante il quale abbiamo simulato i sei cappelli di Edward de Bono, attraverso l’addestramento di un GPT, la loro conversazione ha visto l’impiego di diversi GPT personalizzati, ed una sequenza di domande e quesiti per analizzare un tema.

Il punto focale su cui riflettere non è quale AI utilizzano e come, ma l’importanza della co-creazione uomo-macchina in un futuro ormai presente.

L’orchestra GPT: una sinfonia di prospettive

Miller e Hoffman hanno creato un “Entourage AI”, un ensemble di GPT ciascuno con un ruolo specifico:

  1. Lo Scriba: per sintetizzare e documentare
  2. Il Ricercatore: per fornire dati e contesto
  3. Lo Scettico: per sollevare dubbi e sfide
  4. L’Acceleratore: per spingere le idee oltre i limiti
  5. Lo Storico: per offrire prospettive storiche
  6. Il Gemello Digitale: per emulare il pensiero umano

Questa diversità di “voci” IA, che ricorda appunto i sei cappelli di De Bono, permette di esplorare problemi da angolazioni multiple, ampliando l’orizzonte creativo. Come osserva Hoffman: “È come suonare un’orchestra GPT per aiutarci a compiere i nostri compiti meglio.”

La metafora musicale nell’era dell’IA

La metafora dell’orchestra non è casuale. Hoffman sottolinea: “Le persone pensano spesso di interagire con una sola cosa, ma l’idea di avere un entourage, un ensemble, un set di cose diverse… e ti ritrovi che improvvisamente stai creando musica molto più interessante.” Questa visione si allinea perfettamente con la teoria dei sei cappelli del pensiero di Edward de Bono, dimostrando come diverse modalità di pensiero, diverse competenze e discipline, diverse angolazioni e punti di vista – ora amplificate dall’IA – possano coesistere e collaborare.

Lateralità del pensiero e IA: danzare con l’inaspettato

L’interazione con diverse intelligenze artificiali, come dimostrato dall’esempio del “Cheshire Cat GPT” nell’esperimento di Allie K. Miller e Reid Hoffman, rivela come l’IA possa “danzare con l’inaspettato“. Questo modello ha risposto mescolando temi di creatività con metafore musicali, creando connessioni sorprendenti che ampliano il nostro orizzonte creativo. La capacità dell’IA di combinare elementi in modi non convenzionali evidenzia il suo potenziale nel promuovere il pensiero laterale, un approccio che esplora nuove angolazioni e sfide preconcetti, portando a scoperte innovative e inaspettate.

L’IA come strumento di fact-checking e validazione

Hoffman evidenzia un punto cruciale: “Una delle frequenti idee sbagliate sui GPT è che l’unica cosa che si ottiene indietro è la suddivisione dei dati inseriti, invece della sintesi e di cose effettivamente nuove.” Questo sottolinea l’importanza di utilizzare l’IA non solo per la generazione di idee, ma anche per la loro validazione e contestualizzazione. Utilizzando l’IA come strumento di fact-checking, possiamo verificare l’accuratezza delle informazioni e identificare eventuali bias o errori nei dati di partenza. L’IA può contestualizzare le informazioni fornite, integrandole con dati aggiornati e pertinenti, creando una base più solida per prendere decisioni informate, soprattutto se il check viene effettuato con diverse AI. Questo processo di validazione è essenziale per evitare che si diffondano informazioni fuorvianti o inesatte, garantendo che le decisioni siano basate su una sintesi accurata e rilevante dei dati disponibili. L’uso dell’IA in questo modo non solo migliora la qualità delle informazioni, ma rafforza anche la nostra capacità di pensiero critico, permettendoci di discernere meglio tra ciò che è vero e ciò che non lo è.

Integrazione con strumenti di automazione: dall’idea all’azione

Miller menziona come il suo team utilizzi già l’IA “quasi come uno strumento di analisi delle lacune“. Questo passaggio suggerisce un futuro (ormai attuale) in cui l’automazione e l’IA lavoreranno in tandem per non solo generare idee, ma anche per testarle e refinarle in tempo reale. Utilizzando l’IA per identificare le aree di miglioramento o le carenze in un progetto, possiamo ottenere una visione chiara e dettagliata delle opportunità di ottimizzazione. Una volta individuate queste lacune, gli strumenti di automazione possono essere impiegati per implementare rapidamente soluzioni, monitorare i risultati e apportare ulteriori perfezionamenti. Questa sinergia tra AI e automazione permette un ciclo continuo di innovazione e miglioramento, dove le idee non solo nascono, ma vengono continuamente validate e migliorate. Il risultato è un processo decisionale più agile e informato, in grado di rispondere rapidamente ai cambiamenti e alle nuove informazioni. In un mondo in cui la velocità e l’efficienza sono cruciali, questa integrazione promette di trasformare radicalmente il modo in cui concepiamo, sviluppiamo e implementiamo le nostre idee, portando a un livello di produttività e innovazione senza precedenti.

Nuove frontiere: comunicazione interspecifica e coscienza

Un aspetto affascinante emerso dalla conversazione è il potenziale dell’IA di fungere da ponte tra specie. Hoffman menziona il suo coinvolgimento nel “Earth Species Project“, che mira a utilizzare l’IA per decodificare e potenzialmente comunicare con altre specie animali. Questo progetto ambizioso cerca di sfruttare le capacità avanzate dell’IA per analizzare e interpretare i modelli di comunicazione animale, con l’obiettivo di comprendere e, eventualmente, dialogare con essi. Se riuscissimo a decodificare il linguaggio dei delfini, delle balene o degli uccelli, potremmo ottenere una comprensione senza precedenti dei loro comportamenti, delle loro emozioni e delle loro interazioni sociali.

L’idea di Miller, che scherzosamente suggerisce di avere un “amico aquila” che esplori e riporti informazioni, illustra in modo creativo le possibilità che si aprono con tale tecnologia. Immaginiamo un mondo in cui possiamo chiedere ai nostri amici animali di raccogliere dati ambientali, avvertirci di pericoli imminenti o semplicemente condividere con noi le loro prospettive uniche sulla vita. Questo non solo rivoluzionerebbe il campo della biologia e dell’etologia, ma avrebbe anche implicazioni profonde per la conservazione e la protezione delle specie.

La comunicazione interspecifica potrebbe offrirci nuove intuizioni sulla coscienza e sull’intelligenza animale, sfidando e ampliando le nostre concezioni attuali. Potremmo scoprire che molte specie possiedono forme di consapevolezza e pensiero complesso che non avevamo mai immaginato. In sintesi, l’uso dell’IA per facilitare la comunicazione tra specie rappresenta una delle frontiere più entusiasmanti e promettenti della ricerca tecnologica e scientifica, aprendo scenari di interazione e comprensione del tutto nuovi e affascinanti.

Preparare le future generazioni

Miller propone un’idea provocatoria ma potenzialmente rivoluzionaria: “L’IA dovrebbe essere richiesta in classe per compiti o lavori specifici, e ci dovrebbero essere alcuni compiti o lavori in cui l’IA non è permessa.” Questo approccio duale permetterebbe agli studenti di sviluppare sia competenze tradizionali che la capacità di lavorare efficacemente con l’IA.

Competenze essenziali per un futuro guidato dall’IA

Hoffman sintetizza le competenze chiave per il futuro: “Avrai bisogno di creatività, curiosità, pensiero critico, consapevolezza del contesto e giudizio.” Queste abilità umane, combinate con la potenza dell’IA, formeranno la base per l’innovazione futura.

Verso una nuova era di co-creazione

L’esperimento di Miller e Hoffman offre uno spunto su un futuro in cui l’IA non sostituisce il pensiero umano, ma lo amplifica in modi prima inimmaginabili. Come osserva Miller, “Nel futuro potremmo averne 10.000 [IA] a cui possiamo fare appello, alcune delle quali stanno compiendo azioni, alcune stanno facendo battute e meme, alcune stanno mediando una lite che potrebbe scoppiare.

In questo nuovo shift, in cui la convergenza tecnologica di cui parlo anche nel libro Spatial Shift, integra fisico, digitale e virtuale, viviamo una ulteriore integrazione: quella dell’uomo e della macchina. La creatività umana viene potenziata, permettendoci di esplorare territori dell’innovazione prima inaccessibili. Il futuro della creatività è una danza armoniosa tra l’intuizione umana e l’analisi dell’IA, una partnership che promette di ridefinire i limiti di ciò che possiamo immaginare e realizzare.

Come ci ricorda il “Cheshire Cat GPT”: “Preparate i nostri giovani per un futuro intrecciato con l’IA concentrandovi su queste abilità curiose: creatività per danzare con l’inaspettato, pensiero critico per mettere in discussione il noto e consapevolezza del contesto per giudicare il momento. È una sinfonia di abilità, un equilibrio giocoso tra uomo e macchina.

Ci stiamo addentrando in questa nuova era di co-creazione con l’IA, una fase in cui diventa fondamentale per sviluppare le competenze necessarie per orchestrare efficacemente questi strumenti. L’abilità di dialogare con diverse “personalità” IA, di sintetizzare le loro intuizioni e di integrarle nel nostro processo creativo diventerà una competenza chiave per i professionisti del futuro e ci permetterà di andare oltre i confini della nostra immaginazione.

La convergenza: AI, Blockchain e Spatial Computing

Stiamo vivendo un momento di convergenza senza precedenti tra intelligenza artificiale (AI), blockchain e spatial computing, una trasformazione che promette di ridefinire i processi in molti settori, influenzando la trasparenza, la sicurezza e l’efficienza in tempi brevi.

Recentemente ho avuto modo di approfondire un paper pubblicato dall’AI & Blockchain Convergences Task Force in collaborazione con esperti internazionali del settore. Questo studio esamina in dettaglio come queste tecnologie stiano convergendo e offre una panoramica delle implicazioni per il futuro. I razionali del lavoro includono un’analisi approfondita degli sviluppi tecnologici e delle loro applicazioni reali, con contributi di vari esperti come Mariana de la Roche, Erwin Voloder, e altri professionisti provenienti da organizzazioni come Cheqd, Hyperledger Foundation e UNJSPF.

Questi esperti hanno unito le loro competenze per delineare un quadro chiaro di come l’integrazione di AI e blockchain possa rivoluzionare vari settori.

Anche nel mio libro Spatial Shift, ho esplorato come la convergenza tecnologica stia trasformando il nostro mondo, e ho trovato molteplici punti di contatto con quanto trattato nel paper. Innanzitutto, la combinazione di AI e blockchain crea un nuovo paradigma nella gestione dei dati, noto come “dataconomy“. La Blockchain offre una piattaforma sicura e immutabile per la gestione dei dati, garantendo che i dati utilizzati dagli algoritmi di AI siano autentici e di alta qualità. Questo approccio migliora la trasparenza e l’integrità dei dati, affrontando problemi di accesso e sicurezza.

La decentralizzazione offerta dalla blockchain potrà ridurre i bias nei modelli di AI, distribuendo il controllo e le decisioni su una rete di nodi piuttosto che concentrarle in un’unica entità. Questo aumenterà la sicurezza e la trasparenza dei processi decisionali, rendendo l’AI più equa e affidabile. Inoltre, l’addestramento distribuito dei modelli di AI su una rete blockchain permette di accelerare i tempi di elaborazione e migliorare l’efficienza dei modelli su larga scala. La decentralizzazione del calcolo distribuisce il carico su più nodi, riducendo i colli di bottiglia e migliorando la scalabilità dei modelli di AI.

Gli smart contracts basati su blockchain possono automatizzare la gestione del consenso e la revoca dell’accesso ai dati. Questi contratti intelligenti potranno (e possono già) garantire che i dati vengano utilizzati solo per gli scopi autorizzati, aumentando la fiducia degli utenti e rispettando la privacy. Inoltre, l’AI migliora la sicurezza delle reti blockchain monitorando e rilevando comportamenti anomali in tempo reale. Questo permetterà di prevenire attività fraudolente come hacking e riciclaggio di denaro, garantendo la protezione delle risorse digitali.

La convergenza di AI, blockchain e spatial computing sta trasformando anche le esperienze di realtà mista (Mixed Reality, MR). L’AI crea ambienti virtuali più realistici e interattivi in tempo reale attraverso la sua capacità generativa e predittiva, mentre la blockchain gestisce la proprietà e le transazioni di asset digitali, assicurando autenticità e tracciabilità. Questa combinazione renderà sempre più le esperienze di MR coinvolgenti e sicure, permettendo agli utenti di interagire in modo naturale e protetto.

L’integrazione di AI e blockchain sarà inoltre il boost di miglioramento alla sostenibilità e l’autenticità delle operazioni in vari settori. Per esempio, nella gestione delle catene di approvvigionamento, l’AI potrà prevedere le complessità logistiche, mentre la blockchain garantirà la trasparenza e l’autenticità dei prodotti, promuovendo pratiche sostenibili e responsabili. Un esempio pratico che ho trattato nel libro riguarda il settore agricolo, dove la blockchain sarà la base su cui tracciare l’intero ciclo di vita di un prodotto agricolo, dall’origine alla tavola del consumatore, mentre l’AI può ottimizzare la gestione delle risorse e prevedere le condizioni meteorologiche per migliorare la resa delle colture e lo spatial computing sarà l’elemento di visualizzazione immersiva.

Nel campo della sanità, la blockchain, già oggi utilizzata in alcuni progetti, potrà gestire le credenziali digitali portatili dei pazienti, mantenendo la loro storia medica sicura e sotto il controllo del paziente. L’IA potrà invece analizzare questi dati per prevedere tendenze di salute o epidemie, mentre la blockchain assicurerà che i dati rimangano immutabili e tracciabili. Nel mio libro, discuto anche di un caso studio in cui un sistema basato su blockchain e AI ha migliorato la gestione delle malattie croniche, permettendo ai pazienti di condividere i propri dati con i ricercatori in cambio di incentivi sotto forma di token, promuovendo così la ricerca medica senza compromettere la privacy.

La convergenza di queste tecnologie si sta estendendo a diversi settori, tra cui anche quello finanziario, dove l’AI verrà sempre più utilizzata per creare strategie di trading automatizzate e personalizzate, di asset allocation, di analisi dinamica dei parametri finanziari, mentre la blockchain assicurerà a tutte le transazioni la trasparenza e la verificabilità. Questo non solo migliorerà l’efficienza, ma ridurrà anche il rischio di frodi e manipolazioni ed introdurrà modalità nuove per lo sviluppo degli investimenti.

Infine, uno dei temi più discussi ultimamente – e attualmente fuori hype – trattati nel paper è l’applicazione delle tecnologie convergenti nel contesto del metaverso. L’IA come già visto in una fase ancora immatura sar utilizzata per creare avatar realistici e ambienti interattivi, mentre la blockchain garantirà che gli asset digitali all’interno del metaverso siano autentici, posseduti dagli utenti, realmente visualizzati in un determinato contesto e garantirà inoltre la veridicità delle informazioni a cui l’utente sarà esposto in termini di sollecitazioni visive. Questo apre una nuova strada a nuove forme di interazione sociale e economica, in cui gli utenti potranno possedere, scambiare e monetizzare beni digitali, ma soprattutto “collegare” alla realtà un layer virtuale sicuro e trasparente, e condivisibile.

Questa convergenza tecnologica non solo sta rendendo le esperienze digitali più coinvolgenti e sicure, ma sta mettendo le basi per promuovere una fase nuovo del web (il “famoso” web3) e un ambiente di sviluppo e utilizzo più inclusivo e collaborativo.

L’integrazione di AI, blockchain e spatial computing sta costruendo le fondamenta per un futuro in cui il digitale, il fisico e il virtuale si fondono armoniosamente, offrendo soluzioni innovative e sostenibili per le sfide globali.

Per approfondire questi temi e capire come queste tecnologie stanno rivoluzionando il nostro mondo, vi invito a leggere il mio libro Spatial Shift, disponibile su Amazon.