Human in the Loop: il valore dell’uomo nell’era dell’automazione

L’intelligenza artificiale è sempre più parte integrante dei processi decisionali e produttivi in ambito aziendale e sociale. Ma c’è un elemento che spesso viene sottovalutato: il ruolo insostituibile dell’essere umano nel ciclo decisionale, concetto noto come Human in the Loop (HITL). Questo paradigma non è solo una buona pratica, ma un approccio strategico per bilanciare automazione e controllo umano.

Origine e genesi del concetto

Il termine Human in the Loop emerge negli anni ’50 e ’60, con lo sviluppo dei primi sistemi cibernetici e automatizzati. Norbert Wiener, nel suo libro Cybernetics: Or Control and Communication in the Animal and the Machine (1948), sottolineava che l’intelligenza dei sistemi doveva necessariamente passare per il contributo umano, un principio che ha plasmato molte discipline moderne.

Con l’avvento dell’intelligenza artificiale, il concetto è stato ridefinito: da semplice “uomo nella catena di controllo” a pilastro di sicurezza, etica e miglioramento continuo nei sistemi di apprendimento automatico. Stuart Russell e Peter Norvig, nel celebre manuale Artificial Intelligence: A Modern Approach, esplorano come il ruolo umano rimanga centrale per garantire che i sistemi di AI operino in linea con i valori umani.

Cosa significa HITL oggi?

Oggi Human in the Loop si riferisce a una collaborazione attiva tra uomo e macchina. Non si tratta solo di supervisionare, ma di integrare competenze complementari. Le macchine eccellono nella velocità e nell’elaborazione di grandi quantità di dati; gli esseri umani offrono intuizione, empatia e giudizio morale. Tre modalità principali di intervento umano:

  • Supervisione e monitoraggio: L’uomo supervisiona l’output dell’AI, correggendo eventuali errori.
  • Addestramento e miglioramento: L’intervento umano serve per fornire dati migliori e ridurre bias negli algoritmi.
  • Decision-making condiviso: L’essere umano interviene nei processi decisionali, integrando l’analisi dell’AI con intuizioni contestuali.

Perché HITL è cruciale?

L’automazione ha i suoi limiti e rischi. L’assenza di supervisione umana può portare a conseguenze gravi, come bias discriminatori o errori in contesti critici. Cathy O’Neil, nel suo libro Weapons of Math Destruction, illustra come algoritmi non supervisionati possano amplificare le disuguaglianze sociali, dimostrando l’importanza dell’intervento umano.

Un caso emblematico è quello dei sistemi di content moderation nei social media. Nel suo libro The Age of Surveillance Capitalism, Shoshana Zuboff esplora come l’automazione pura non riesca a distinguere il contesto nei contenuti online, portando a decisioni sbagliate o persino pericolose.

Applicazioni e ambiti di utilizzo

  • Sanità: Eric Topol, in Deep Medicine, esplora come l’AI supporti i medici nell’analisi di immagini diagnostiche e nell’identificazione di anomalie. Decisioni come una diagnosi definitiva o una terapia rimangono nelle mani del medico.
  • Finance: Nel settore finanziario, il rischio di automazione non controllata è elevato. I sistemi di trading algoritmico e antifrode si affidano a modelli AI, ma l’intervento umano rimane cruciale per evitare errori che potrebbero causare gravi danni economici.
  • Giustizia e governance: Virginia Eubanks, in Automating Inequality, dimostra come l’uso non regolamentato dell’AI in contesti come il welfare possa perpetuare discriminazioni sistemiche. La presenza umana serve per valutare casi specifici e garantire equità.

Sfide e limiti del modello HITL

Nonostante i suoi benefici, HITL presenta sfide importanti:

  • Scalabilità: Integrare l’intervento umano in sistemi su larga scala può essere costoso e complesso.
  • Addestramento umano: Lavorare in sinergia con l’AI richiede competenze specifiche e un continuo aggiornamento.
  • Dipendenza dal giudizio umano: Gli esseri umani possono essere soggetti a bias cognitivi, che influenzano negativamente l’efficacia del modello.

Per affrontare queste sfide, Kai-Fu Lee, nel suo libro AI Superpowers, suggerisce che l’uomo deve evolversi insieme alle macchine, acquisendo nuove competenze per interpretare e collaborare con i sistemi AI.

Il punto di vista di Paolo Benanti

Nel libro “Human in the Loop” anche Paolo Benanti esprime 5 concetti sul tema, ovviamente da una angolazione etica:

  • Centralità dell’umano: l’essere umano deve restare al centro dei processi decisionali anche in presenza di tecnologie avanzate, evitando una delega totale all’AI.
  • Etica dell’AI: è necessario sviluppare un modello etico che guidi la progettazione e l’uso dell’AI, considerando le implicazioni sociali, morali e antropologiche.
  • Responsabilità condivisa: l’integrazione tra uomo e AI richiede una suddivisione delle responsabilità, assicurando che il controllo finale rimanga in mano agli esseri umani.
  • Bias e trasparenza: Benanti sottolinea l’importanza di affrontare i bias algoritmici e garantire la trasparenza dei sistemi AI per evitare discriminazioni o decisioni ingiuste.
  • Tecnologia come strumento, non fine: l’AI deve essere vista come un mezzo per migliorare le condizioni umane e non come un obiettivo autonomo o indipendente dall’etica e dai valori umani.

Il futuro del concetto

L’evoluzione dell’AI porterà il paradigma HITL verso nuovi orizzonti. Il concetto di Human in the Loop si trasformerà in Human on the Loop e infine in Human out of the Loop, dove il ruolo umano si sposterà da operatore a supervisore strategico. Come sottolineato da Nick Bostrom in Superintelligence, l’uomo rimarrà centrale per definire obiettivi e valori che le macchine non possono comprendere autonomamente.

Human in the Loop non è solo un approccio tecnico, ma una filosofia che ci ricorda che l’AI, per quanto potente, è sempre un’estensione delle nostre capacità. Come scrive Marshall McLuhan: “Non sono le macchine a dominare, ma il modo in cui le usiamo“. Il futuro dell’AI sarà scritto da sistemi sempre più autonomi, ma il ruolo umano rimarrà insostituibile per garantire etica, sicurezza e progresso sostenibile.

La nuova (rin)corsa ai dati: estrarre valore in profondità con l’AI e il metodo D.E.E.P & 4V

L’AI ha ridato vita alla nuova (rin)corsa al petrolio dei dati. L’entusiasmo generato dai media e l’enorme afflusso di capitali di rischio (oltre 4 miliardi di dollari investiti negli ultimi mesi) hanno innescato una gara serrata per ottenere un vantaggio competitivo nell’estrazione di dati (di qualità) e nell’uso dell’intelligenza artificiale.

Come con il petrolio, in cui la sfida non è stata tanto trovarlo, quanto saperlo raffinare e utilizzare per creare valore, ora succede con l’AI e con i dati. C’è un rischio reale in questa rincorsa che sta già iniziando a dare i primi segnali: muoversi con troppa fretta e ottimismo può portare a progetti di AI senza un effettivo ritorno, mentre un approccio troppo lento rischia di produrre soluzioni obsolete ancora prima di entrare in funzione.

L’obiettivo, per molte aziende, è trovare il giusto equilibrio, costruendo progetti che abbiano un impatto concreto e duraturo sul business, evitando di investire tempo e risorse in “pozzi a secco”.

Gli errori comuni nella creazione di progetti AI based

L’intelligenza artificiale non è più una mera curiosità sperimentale, ma una tecnologia matura che può rivoluzionare la progettazione, lo sviluppo e la distribuzione dei prodotti. Le aziende in grado di sfruttarla correttamente avranno senza dubbio aumento di produttività, riduzione dei costi e capacità finora impensabili in alcuni ambiti.

Per ottenere questi benefici, ed evitare i due errori comuni che ho visto già ripetutamente ripetersi, è necessario un livello di attenzione e progettazione su :

  1. Mancato allineamento con gli obiettivi aziendali: investire in AI solo perché “va di moda” conduce a progetti lunghi, costosi e privi di impatto concreto. Senza legare l’uso della tecnologia ad obiettivi di business chiari, si finisce per scavare in aree prive di petrolio di valore.
  2. Profili non adeguati: lasciare che un progetto sia gestito esclusivamente da team tecnici, senza coinvolgere business e prodotto, produce soluzioni che non rispondono alle reali esigenze dell’azienda, e del mercato. È come costruire un oleodotto senza sapere per quali mercati si sta estraendo.

Individuare il livello di maturità ed i casi d’uso con il framework D.E.E.P.

Negli anni ho imparato che non basta avere dati o tecnologie all’avanguardia per realizzare progetti di AI realmente efficaci. Il vero successo risiede nella capacità di individuare i giusti “campi di estrazione” e di definire chiaramente i criteri di impiego, evitando di farsi condizionare dal F.O.M.O. (Fear Of Missing Out) e puntando invece su un attento processo di analisi e assessment.

Partendo da queste esperienze, ho sviluppato gradualmente, in particolare nell’ultimo anno, un framework chiamato D.E.E.P. (Dati, Esperienza, Ecosistema, Processo). Applicato in diversi contesti industriali, questo approccio mi ha permesso di identificare il livello di maturità e le aree di intervento di un’organizzazione rispetto all’adozione dell’AI, riuscendo così a raffinare continuamente la metodologia. L’idea di “profondità” introdotta dal D.E.E.P. mira a valutare con precisione la situazione attuale dell’azienda e la sua capacità di generare valore attraverso l’AI, analizzando quattro dimensioni chiave, ciascuna con le sue analisi specifiche e i relativi output:

  1. Dati: in questa fase vengono valutati la disponibilità, la qualità, la strutturazione e la pulizia dei dati, conducendo un’analisi di data readiness che include l’inventario delle fonti, la valutazione delle lacune e la definizione di eventuali interventi di miglioramento. L’output finale è un quadro chiaro del patrimonio informativo disponibile, con indicazioni su come preparare i dati per l’addestramento di modelli IA.
  2. Esperienza: qui si verifica la presenza di esperti di dominio, la profondità della conoscenza interna e la capacità di interpretare correttamente le problematiche da risolvere con l’AI. L’analisi comprende l’identificazione degli stakeholder chiave, la mappatura delle competenze e la valutazione delle lacune conoscitive. L’output consiste in un piano per coinvolgere le figure di riferimento, colmare eventuali gap di expertise e facilitare il trasferimento di conoscenza ai modelli di intelligenza artificiale.
  3. Ecosistema: in questa fase viene esaminata l’infrastruttura tecnologica, organizzativa e culturale dell’azienda: l’integrazione tra strumenti, piattaforme, team e processi esistenti viene valutata attraverso un’analisi di compatibilità e scalabilità. L’output è un documento di raccomandazioni su come allineare o aggiornare l’ecosistema tecnologico, indicazioni su eventuali cambi di tool, su come integrare l’AI nei flussi di lavoro esistenti e su come preparare l’organizzazione ad accogliere nuove soluzioni.
  4. Processo: infine, vengono analizzati i workflow operativi, la loro ripetibilità, standardizzazione e documentazione. Attraverso un assessment dei processi, si individuano le attività a maggior potenziale di automazione o ottimizzazione tramite AI. L’output di questa fase è una mappa dei flussi di lavoro prioritari, con indicazioni su dove introdurre l’IA e suggerimenti per la modellazione del processo, al fine di massimizzare l’efficacia dell’intervento tecnologico.

L’insieme di queste analisi e output fornisce così una visione integrata dello stato di maturità dell’azienda e orienta i passi successivi verso l’implementazione di soluzioni IA solide, mirate e sostenibili.

Un esempio, banale, ma concettualmente efficace: un’azienda retail che vuole generare report accurati sulle tendenze di vendita partendo da un insieme di flussi di dati prevalentemente digitali ma integrato di dati cartacei disordinati, note interne non standardizzate e appunti informali sul comportamento dei clienti. Senza informazioni strutturate e digitalizzate (Dati), senza uno staff che abbia codificato a fondo la logica commerciale o le metriche critiche da monitorare (Esperienza), senza strumenti integrati per gestire e processare le informazioni (Ecosistema), né procedure ripetibili per l’analisi delle vendite (Processo), l’uso dell’AI diventa evidentemente inefficace. È come cercare di “estrarre valore” in un contesto caotico, senza i fondamenti necessari per ottenere risultati significativi.

Dopo il DEEP, l’analisi delle 4V per definire le priorità

Una volta individuati eventuali gap, maturità, i potenziali “giacimenti” e gli ambiti di intervento grazie a D.E.E.P., occorre ora valutarne il potenziale, così da permettere all’azienda di comprendere, senza illusioni o aspettative non correttamente tarate.

A questo scopo, utilizzo un modello che ho rivisto di un framework chiamato V.V.V. a cui ho aggiunto una quarta dimensione e trasformandolo in V.V.V.V. (Valutazione, Valore, Velocità, Visione):

1. Valutazione

  • Scopo:verificare la fattibilità reale del progetto, considerando competenze, risorse e contesto normativo, così da identificare gli ostacoli e le soluzioni necessarie prima di investire ulteriormente.
  • Analisi: in questa fase si mappano i gap di skill interne, si valutano i fornitori o partner potenziali, si considerano i requisiti legali e i vincoli tecnici. Questo passaggio serve anche a definire se conviene formare il personale interno, assumere nuovi talenti, acquisire tecnologie o esternalizzare parte dell’iniziativa.
  • Azioni: la conclusione della “Valutazione” è un piano operativo che evidenzia investimenti da effettuare, competenze da integrare (make or buy), modalità di coinvolgimento dei partner esterni e interventi per ridurre i rischi e aumentare la sostenibilità del progetto.

2. Valore:

  • Scopo: stabilire la reale utilità dell’iniziativa in termini di impatto su costi, ricavi, efficienza e vantaggio competitivo. L’obiettivo è comprendere se l’investimento genererà risultati tangibili, evitando di puntare su soluzioni prive di ritorno.
  • Analisi: si identificano i KPIs rilevanti, si stimano i potenziali incrementi di produttività o risparmi di tempo, si analizzano le opportunità di crescita dei ricavi e si verifica se il progetto supporta gli obiettivi strategici dell’azienda.
  • Azioni: a valle di questa fase, l’azienda ottiene una chiara definizione del ritorno sull’investimento (ROI) atteso, una mappa dei benefici misurabili e una lista di priorità per focalizzarsi sulle iniziative a maggiore impatto, orientando così le risorse dove offrono più valore.

3. Velocità

  • Scopo: valutare i tempi e le modalità di implementazione per garantire che il progetto non diventi obsoleto prima di essere completato. In un contesto di rapida evoluzione tecnologica, come quella che viviamo oggi, è essenziale agire con tempismo e definire release incrementali.
  • Analisi: si esamina la complessità delle attività, la disponibilità delle risorse, la presenza di eventuali colli di bottiglia, e si definiscono milestone e roadmap temporali. Ciò consente di capire se è meglio avviare subito il progetto o se attendere migliori condizioni.
  • Azioni: Il risultato è un piano di roll-out agile, con rilasci progressivi, test intermedî e la capacità di reagire rapidamente ai cambiamenti del mercato e alle nuove tecnologie, prevenendo un eccessivo allungamento dei tempi e inutili sprechi di risorse.

4. Visione:

  • Scopo: garantire che l’iniziativa non sia solo un’opportunità tattica ma anche strategica, inserita in una prospettiva di medio-lungo termine e allineata ai trend futuri del settore e alle evoluzioni interne all’azienda.
  • Analisi: si verifica la coerenza del progetto con la strategia complessiva, si valuta la capacità di scalare la soluzione nel tempo, di adattarsi a nuove esigenze o mercati, di integrarsi con altri progetti in pipeline e di sfruttare tecnologie emergenti.
  • Azioni: una volta conclusa l’analisi sulla Visione, l’azienda dispone di una roadmap di lungo periodo e di linee guida per far crescere o adattare l’iniziativa nel futuro, assicurando che l’investimento si riveli un asset duraturo e non una soluzione effimera.

L’integrazione di queste quattro dimensioni (Valutazione, Valore, Velocità, Visione) consente all’azienda di definire un quadro completo delle opportunità e dei rischi, assicurando interventi mirati, sostenibili e coerenti con il contesto presente e futuro. L’integrazione della componente Visione introduce a mio avviso una valutazione di lungo termine così da dare una prospettiva che permetta, nelle valutazioni progressive, di capire se la direzione è coerente e se attuale rispetto al contesto. In particolare questo punto di valutazione è utile quando il progetto non restituirà immediatamente risultati creando una condizione di sfiducia e quindi possibili decisioni non più coerenti con le valutazioni iniziali.

Utilizzando i due framework D.E.E.P. e 4V., si individuano a questo punto uno o due casi d’uso veramente promettenti, interessanti non solo per una area aziendale, che sia il business, l’applicabilità tecnica o la notiziabilità, e si definisce un piano trasversale che coinvolge l’azienda in una trasformazione spinta dall’AI e pronta per essere messa in produzione senza sprechi di risorse e in un’ottica di crescita sostenibile.

Linee guida chiave:

  • Coinvolgere più competenze: servono persone e competenze che conoscano sia la tecnologia sia il mercato, per assicurarsi che l’AI estragga il giusto tipo di “petrolio” e non sabbia.
  • Cambiare i processi di sviluppo: le metodologie tradizionali non si adattano perfettamente ai progetti trainati da AI. Occorre rilasciare prototipi, testare sul campo, iterare. È come calibrare un nuovo impianto di raffinazione fino a trovare l’ottimale. Bisogna introdurre una mentalità iterativa, orientata alla raffinazione degli errori e non al giudizio sul fallimento.
  • Procedere per piccoli passi: iniziare con progetti circoscritti e ad alto impatto, per minimizzare i rischi e imparare dall’esperienza, è meglio che cercare di trivellare subito in profondità senza la giusta preparazione, una giusta motivazione e una corretta sostenibilità.

Finisco il concetto continuando sulla metafora del petrolio: muoversi senza criterio sull’onda dell’hype porta a pozzi a secco e risorse sprecate. Agire troppo lentamente significa concedere il vantaggio e perdere in competitività. La chiave è trovare l’equilibrio, individuare i giacimenti di dati giusti, usare il metodo DEEP per capire come estrarli ed un modello come il 4V per prioritizzare ciò che può davvero generare valore per il business. In questo modo l’AI diventa il vero “petrolio” dell’era digitale, una risorsa su cui costruire un vantaggio competitivo duraturo.

L’obsolescenza delle competenze. Abbiamo bisogno ancora di imparare?

Sabato scorso, al festival di Medioera a Viterbo, ho avuto l’opportunità di rispondere a 11 delle 50 domande affrontate nel mio libro “L’AI non è quello che pensi”. Ho scelto i punti più curiosi e quelli su cui spesso lo scetticismo è più forte, approfondendo temi come il futuro delle competenze, il rapporto tra AI e capacità critica, e il rischio di una società sempre più dipendente dalla tecnologia.

Uno dei temi centrali del mio intervento è stato l’obsolescenza delle competenze. L’AI accelera inevitabilmente la velocità con cui ciò che sappiamo diventa obsoleto. Non basta più apprendere una volta sola; oggi la vera sfida è imparare come imparare.

Elga Nowotny, in Le Macchine di Dio, chiama questo rischio auto-appiattimento: non solo rischiamo di delegare troppo, ma anche di smettere di sviluppare un pensiero critico. Se consumiamo passivamente informazioni generate dall’AI senza metterle in discussione, diventiamo spettatori passivi. Qui, l’obsolescenza delle competenze si intreccia con una questione più ampia: la nostra autonomia intellettuale.

L’AI, infatti, non “pensa”, ma “calcola”. Non ha valori, emozioni o coscienza. Eppure, spesso tendiamo a trattarla come una fonte di verità assoluta. Questo può portarci a una passività intellettuale pericolosa, in cui accettiamo tutto ciò che viene proposto senza metterlo in discussione.

Eppure, l’AI può (e dovrebbe) essere uno strumento straordinario per amplificare le nostre capacità. Come ho detto durante lo speech, l’AI è uno specchio: riflette il meglio o amplifica il peggio di noi. Non è una minaccia né una salvezza, ma un’opportunità per sviluppare una nuova alfabetizzazione digitale e una capacità critica che ci permettano di costruire con questa tecnologia qualcosa di significativo.

Su questo punto, una delle domande su cui si è posato più l’interesse della platea è stata: “Con l’AI non ci servirà più imparare?”

A prima vista, potrebbe sembrare che, grazie all’intelligenza artificiale, non avremo più bisogno di accumulare conoscenze o competenze, dato che possiamo delegare il lavoro pesante alle macchine. Ma è davvero così?

La risposta è complessa e ci porta dritti al cuore di una trasformazione epocale: l’obsolescenza delle competenze. Ciò che impariamo oggi rischia di diventare irrilevante in tempi brevissimi, in un contesto in cui il ritmo di sviluppo del nuovo è così veloce da non permettere di consolidare quanto appreso.

L’AI sta ridisegnando il mondo del lavoro e il nostro rapporto con l’apprendimento. Non si tratta di non dover più imparare, ma di imparare in modo diverso e molto più velocemente. Le competenze che oggi riteniamo essenziali potrebbero diventare superflue in pochi anni. L’unica vera competenza per il futuro sarà la capacità di imparare continuamente. L’apprendimento non sarà più un processo statico legato alla formazione scolastica, ma un viaggio dinamico che ci accompagnerà per tutta la vita.

L’AI non sostituirà mai del tutto la nostra capacità di giudizio, ma potrebbe renderci dipendenti se non impariamo a governarla. Per questo, oltre ad aggiornare le nostre competenze tecniche, dobbiamo sviluppare capacità trasversali come l’analisi critica, la creatività e l’adattabilità. L’AI non elimina la necessità di imparare, ma trasforma il come e il cosaimpariamo.

Non basta più sapere. Dobbiamo saper cercare, collegare e creare. Non possiamo limitarci a memorizzare nozioni; dobbiamo comprendere i processi e i modelli che ci permettono di innovare. L’AI, come tutte le tecnologie, non dovrebbero renderci meno responsabili; al contrario, le innovazioni ci chiedono di assumere un ruolo attivo nell’interpretazione e nell’utilizzo, ed in particolare, con l’AI, nell’utilizzo dei dati. Paolo Benanti, parlando di algoretica, ci invita a non fermarci all’automatismo ma a sviluppare una consapevolezza critica sull’impatto degli algoritmi.

Imparare, quindi, non è solo una necessità, ma un atto di resistenza. Resistenza contro l’appiattimento (già amplificato da social e algoritmi), contro la tentazione di delegare tutto alla tecnologia.

L’idea che l’AI possa liberarci dal bisogno di imparare è una semplificazione pericolosa. Piuttosto, ci spinge a imparare di più, con nuove metodologie e a velocità mai viste prima. L’intelligenza artificiale deve essere un catalizzatore per un apprendimento più profondo, che possa abilitarci sempre più curiosità e spirito critico.

Forse la domanda giusta è: siamo pronti a reinventare il nostro modo di imparare?

+

Nel libro “L’AI non è quello che pensi” trovi altre 49 domande e risposte semplici.

L’AI non è quello che pensi – 50 domande frequenti e risposte serie ma semplici sull’Intelligenza Artificiale

Sarà che quando si pubblica qualcosa, si è felici, ma oggi lo sono un po’ di più. Oggi ho (auto) pubblicato un nuovo lavoro, una piccola novità che, in un certo senso, è il risultato di anni di dialoghi, discussioni (accese) e scambi di opinioni su un tema che continua ad affascinarmi e sfidarmi: l’intelligenza artificiale. Sono contento di annunciare la pubblicazione del mio ultimo e-book su Amazon, “L’AI non è quello che pensi – 50 domande frequenti e risposte serie ma semplici sull’Intelligenza Artificiale” – una raccolta strutturata in 50 domande frequenti e provocatorie che tentano di rispondere ai dubbi, alle curiosità e agli equivoci che ruotano intorno all’AI.

Come nasce questo libro?

La genesi del libro è un mix di casualità e intenzione: da anni, durante eventi, lezioni, conversazioni e persino cene con amici, ho accumulato domande – alcune tecniche, altre curiose, e altre ancora del tutto inaspettate. In meno di sette giorni, dopo uno spunto di amici discutendo per l’ennesima volta di questi temi, e grazie anche al supporto di strumenti di AI come ChatGPT, Perplexity, Claude e DALL-E, ho raccolto e organizzato tutte le risposte in un formato accessibile. Mi sono reso conto che la struttura a domande e risposte è perfetta per chi cerca di orientarsi nel mondo dell’AI senza voler (o dover) diventare un esperto.

A chi è rivolto?

Il libro è pensato per chiunque: dal curioso che vuole saperne di più, allo scettico convinto che l’AI sia solo un’altra moda passeggera, fino a chi, già nel settore, cerca uno sguardo nuovo, senza tecnicismi eccessivi ma con un approccio puntuale. Non troverete un manuale tecnico, ma una guida che invita a riflettere, a sfatare miti e a scoprire aspetti meno noti dell’AI.

Macro temi trattati

Il cuore del libro esplora temi attuali e spesso controversi:

  • Definizioni e Fondamenti: Cosa intendiamo per AI? Qual è il rapporto tra AI, machine learning e deep learning?
  • Miti e Percezioni Sbagliate: L’AI è davvero una minaccia per l’umanità o uno strumento di supporto?
  • Impatto sul Lavoro e sulle Professioni: Come cambierà il mercato del lavoro con l’avanzare dell’AI?
  • Etica, Privacy e Sicurezza: Come gestire il lato etico di un’intelligenza artificiale in continua evoluzione?
  • Creatività e Pensiero Critico: L’AI potrà mai essere creativa o comprenderà mai le emozioni umane?
  • Fantascienza e Futuro: Un gemello digitale potrebbe interagire per noi in futuro? E cosa significherebbe questo per il ricordo e il legame con chi non c’è più?

Un lancio speciale

Per i prossimi giorni, il libro sarà scaricabile gratuitamente su Amazon, e successivamente sarà disponibile a 4,99 euro. Sto anche valutando la possibilità di una versione cartacea per chi, come me, preferisce ancora avere qualcosa di fisico da sfogliare.

Un ringraziamento speciale

Non posso concludere senza ringraziare chi ha reso questo progetto possibile. Alla mia famiglia, che ha sempre pazientemente sopportato le mie discussioni infinite sull’AI, agli amici con cui ho condiviso idee e battute (Roberto, Andrea, Angelo, Stefano, Fabrizio, Alessandro), e a tutti coloro che continuano a farmi domande e stimolare il confronto. Un ringraziamento va anche agli scettici e a tutti i curiosi, perché senza di voi queste 50 domande non avrebbero mai trovato una risposta.

Spero che questo libro possa offrirvi qualche spunto nuovo e, chissà, magari anche ispirarvi a fare nuove domande. Buona lettura! Qui per prenderlo in eBook 

Un nuovo senso alla parola Fiducia, nell’intersezione Blockchain e AI. Non solo.

Fino a poco tempo fa, ciò che vedevamo e ascoltavamo sembrava essere la verità (non sempre) assoluta. Le immagini che scorrevano sui nostri schermi, le voci che ci arrivavano dagli altoparlanti, erano per noi un riflesso di una realtà alquanto tangibile. Ma questa sensazione di certezza, a cui ci siamo affidati per decenni, sta rapidamente crollando.

Oggi, voci, immagini, video e persino testi possono essere creati, manipolati e distorti con una facilità senza precedenti, grazie alle potenzialità dell’intelligenza artificiale generativa e agli strumenti sempre più accessibili. Ciò che un tempo era una rappresentazione affidabile della realtà è ora diventato un’ombra di quella stessa realtà. In questo contesto, ci troviamo di fronte a una domanda fondamentale: in un mondo in cui tutto può essere falsificato, cosa è realmente autentico? E, soprattutto, come possiamo fidarci di ciò che vediamo e ascoltiamo?

Cyber attacchi e truffe: una criticità crescente

Negli ultimi anni, le truffe e i cyber attacchi alimentati dall’intelligenza artificiale sono aumentati drasticamente, con conseguenze economiche e sociali gravi. Le frodi legate a identità e transazioni hanno portato, solo nel 2023, a perdite globali di miliardi di dollari. Tecniche avanzate come la sintesi vocale e la manipolazione video consentono ai criminali di creare attacchi sempre più sofisticati. Il problema non risiede solo nel danno economico immediato, ma nella crescente sfiducia che questi fenomeni generano. Più credibile è l’attacco, più difficile è ripristinare la fiducia nelle informazioni digitali.

Quali soluzioni abbiamo per lavorare su questo concetto di fiducia?

AI e Blockchain: un’opportunità nella convergenza tecnologica

Uno dei temi che maggiormente sto trattando recentemente e di cui ho scritto nel libro Spatial Shit, è quelllo della convergenza tecnologica, che vede, in questo momento storico, la maturità di diverse tecnologie raggiungere uno di contatto con tutte le altre. Intelligenza artificiale, Spatial Computing, Blockchain, Iot stanno iniziando appunto un processo di convergenza in cui ognuna di queste introduce vantaggi per le altre.

Se ci soffermiamo a osservare il rapporto tra l’intelligenza artificiale (AI) e la blockchain, per esempio, in riferimento alla domanda principale, è facile dedurre come queste due tecnologie, sebbene apparentemente diverse, siano in grado di integrarsi perfettamente. L’AI, da un lato, si basa su algoritmi capaci di apprendere dal passato, analizzare grandi quantità di dati e, attraverso processi predittivi, fornire scenari futuri per aiutare le aziende a prendere decisioni in tempo reale. In questo flusso costante di dati e previsioni, le informazioni però possono essere potenzialmente manipolate o modificate con facilità, soprattutto in un ambiente sempre più digitale e complesso.

Ed è qui che entra in gioco la blockchain, che svolge il ruolo di custode del passato. A differenza dell’AI, che è in continua evoluzione e ottimizzazione, la blockchain non prevede adattamenti o cambiamenti: una volta che un’informazione viene registrata in questo registro distribuito, diventa permanente. Ogni decisione o transazione è tracciabile e verificabile da tutti i partecipanti alla rete, garantendo che nulla possa essere alterato senza che l’intero sistema ne prenda atto.

Questa complementarità tra AI e blockchain crea un equilibrio a mio avviso fondamentale. L’AI offre velocità e capacità predittiva, ma in un contesto in cui è sempre necessario valutare quanto ci si possa fidare dei dati. La blockchain fornisce invece un contesto di trasparenza e integrità, assicurando che ogni dato, una volta registrato, non sia più soggetto a manipolazioni o alterazioni. Insieme, le due tecnologie, non solo accelerano il processo decisionale, ma lo rendono anche verificabile e sicuro. Pensiamo per esempio a un sistema aziendale in cui l’AI ottimizza le operazioni in base a scenari futuri, ma ogni scelta chiave è tracciata su blockchain per garantirne la trasparenza.

Un altro aspetto senza dubbio interessante da approfondire è che l’AI, per la sua stessa natura, tende a centralizzare il potere: ha bisogno di enormi risorse di calcolo e di dati per funzionare in modo ottimale, dati però spesso concentrati in pochi grandi centri. La blockchain, invece, opera esattamente all’opposto. La sua forza risiede nella decentralizzazione: ogni nodo della rete è autonomo ma collegato agli altri, il che significa che non esiste un singolo punto di controllo. Questo riduce la possibilità di manipolazione e aumenta la fiducia tra i partecipanti, creando un ecosistema in cui il potere è distribuito equamente.

Se l’AI quindi punta a risolvere problemi complessi attraverso la competizione e il miglioramento continuo, la blockchain mira a creare un ambiente di cooperazione, dove ogni partecipante ha la certezza che ciò che è registrato è reale e immutabile. Questo connubio tra previsione e sicurezza, centralizzazione e decentralizzazione, potrebbe rappresentare una nuova via per affrontare le sfide del mondo digitale di oggi, in cui la fiducia è diventata il bene più prezioso.

Fiducia e trasparenza: il cuore della blockchain

Un altro punto cruciale che differenzia AI e blockchain è la spiegabilità. Gli algoritmi di AI agiscono di fatto come scatole nere, con processi decisionali che spesso non sono chiari neanche ai loro creatori. Al contrario, la blockchain è costruita su principi di trasparenza. Ogni azione registrata è tracciabile e spiegabile da chiunque partecipi alla rete, offrendo così un sistema verificabile in ogni momento, e tale meccanismo è fondamentale per costruire una nuova architettura di fiducia in un mondo in cui ciò che vediamo e ascoltiamo non può più essere dato per scontato.

La blockchain non solo protegge l’integrità dei dati, ma cambia radicalmente il concetto di fiducia. In passato, questa fiducia era mediata da istituzioni, autorità centrali e relazioni umane. Oggi, potenzialmente, grazie alla blockchain, potremmo affidare il compito della fiducia a un sistema distribuito che verifica ogni passaggio. La fiducia, quindi, non sarebbe più una questione puramente umana o istituzionale, ma diventerebbe un processo tecnologico, una fiducia “computazionale”, come già alcuni la definiscono.

Ma non tutto è verità: i limiti della blockchain

Nonostante il suo potenziale, la blockchain non è una panacea. Pur avendo evidenziato un enorme potenziale, restano però alcuni limiti nella sua implementabilità rispetto al problema della fiducia. Un limite importante è che la blockchain può registrare informazioni false, rendendole permanenti e inalterabili nel tempo, ed una volta registrata, un’informazione errata, rimarrà nella blockchain per sempre, con la sola traccia di chi l’ha inserita. Questo significa che, sebbene la blockchain possa garantire l’integrità, non può garantire la sua veridicità. Un aspetto che spesso viene frainteso e che non può esser sottovalutato.

C’è poi un altro punto di debolezza che va affrontato nel provare a comprendere questo tema: la blockchain funziona solo in reti dove esiste una comunione di interessi tra i partecipanti. Se gli attori della rete non condividono gli stessi obiettivi, o non sono d’accordo su cosa monitorare, l’efficacia della blockchain diminuisce. E se, soprattutto, all’interno della rete esistono gerarchie rigide, l’intera filosofia decentralizzata della blockchain viene compromessa. In altre parole, la blockchain funziona meglio quando tutti i partecipanti della rete sono su un piano di parità e condividono gli stessi scopi. Ma questo è possibile realisticamente parlando?

Quindi cosa manca?

Guardando ad un possibile futuro, la fiducia nel mondo digitale richiederà un ecosistema di tecnologie integrate. Alcuni elementi chiave che potrebbero completare il puzzle, ad oggi, potrebbero appunto esser:

  1. Intelligenza Artificiale (AI): l’AI, utilizzata in modo trasparente e con logiche etiche ben definite, può aiutare a verificare e validare la qualità dei dati prima che vengano registrati sulla blockchain. Ad esempio, strumenti di AI avanzati potrebbero essere impiegati per analizzare i dati in tempo reale e distinguere tra contenuti genuini e falsificati, riducendo il rischio che informazioni false vengano immortalate su blockchain.
  2. Zero-Knowledge Proofs (ZKP): le prove a conoscenza zero sono un elemento fondamentale per garantire la privacy senza sacrificare la verificabilità. Con ZKP, sarà possibile dimostrare che un’informazione è vera senza rivelarla esplicitamente. Questo potrebbe rappresentare un miglioramento fondamentale per assicurare la fiducia nelle interazioni digitali senza violare la riservatezza dei dati sensibili.
  3. Regolamentazione e Governance: la fiducia ovviamente non può basarsi solo su tecnologia. Devono essere implementati chiari quadri normativi e regolamentazioni che definiscano le regole di ingaggio per le tecnologie come blockchain e AI. Una governance trasparente e condivisa permetterebbe di bilanciare l’uso di queste tecnologie con i diritti e le aspettative delle persone.
  4. Identità Digitale Decentralizzata (DID): infine uno degli elementi più critici per stabilire la fiducia nel futuro sarà la creazione di identità digitali sicure, che possano essere verificate in modo decentralizzato. La blockchain può giocare un ruolo chiave qui, ma sarà necessario integrarla con altri strumenti per garantire che le identità non possano essere falsificate o compromesse.

Un nuovo senso della parola fiducia

In un mondo in cui tutto può essere manipolato o falsificato, la fiducia deve essere ricostruita in modo diverso, più profondo. La regolamentazione giocherà un ruolo essenziale nel garantire che queste tecnologie convergenti operino all’interno di un quadro etico e sicuro, ma il vero cambiamento sarà culturale: la costruzione di una responsabilità distribuita e una governance decentralizzata, incarnata dal concetto di Web3.

Il bilanciamento tra il mondo probabilistico dell’intelligenza artificiale e quello deterministico della blockchain, integrate al un modello di regolamentazione, rappresenta un nuovo modo di costruire fiducia. In questa direzione, ownership e trasparenza diventano i pilastri portanti di un futuro in cui potremo non solo verificare ciò che vediamo e ascoltiamo, ma anche agire con consapevolezza e responsabilità se ciò che percepiamo non risulta affidabile.

The Intelligence Age: la trasformazione del lavoro e l’obsolescenza della competenza

Negli ultimi anni, l’intelligenza artificiale generativa (GenAI) ha guadagnato un ruolo centrale nella trasformazione del mondo del lavoro. Come evidenziato dallo studio di Sia Partners, oltre l’80% delle attività di un terzo delle professioni potrebbe essere automatizzato, e siamo solo all’inizio di una rivoluzione che cambierà il modo in cui lavoriamo, viviamo e risolviamo problemi complessi. Questa evoluzione non è solo un passaggio tecnologico: è il preludio a ciò che Sam Altman ha definito l’inizio dell’“The Intelligence Age”, un’era di straordinaria prosperità e innovazione.

Impatto settoriale e suddivisione del lavoro

Il potenziale impatto dell’AI generativa varia tra i settori, ma è significativo in aree come l’ingegneria, la finanza, il design digitale e l’assistenza sanitaria. Attività ripetitive e strutturate, come la gestione fiscale o la creazione di contenuti web, saranno tra le prime a essere automatizzate, mentre altre aree, come la sanità o il legale, vedranno l’intelligenza artificiale come supporto nella presa di decisioni complesse.

Sam Altman, nel suo post “The Intelligence Age“, sottolinea come l’intelligenza artificiale diventerà un potente strumento per aumentare le capacità umane, rendendo le persone in grado di affrontare problemi che prima sembravano irrisolvibili. Questo significa che anche settori come l’istruzione e la medicina potrebbero vedere una rivoluzione, con l’introduzione di tutor e assistenti virtuali che personalizzeranno l’apprendimento e miglioreranno la qualità delle cure sanitarie.

Nuovi modelli di lavoro: l’era del “team virtuale”

Uno dei concetti chiave introdotti da Altman è l’idea che in futuro ognuno di noi potrebbe avere un “team virtuale” composto da esperti AI in diverse discipline. Questi team ci aiuteranno a svolgere attività che oggi richiedono competenze multiple e interazioni complesse, trasformando il modo in cui collaboriamo e produciamo risultati. Questo concetto si inserisce nella visione di “lavoro aumentato“, dove l’intelligenza artificiale non sostituisce il lavoratore umano, ma ne amplifica le capacità.

Un esempio pratico può essere visto nel settore legale: un avvocato potrebbe affidare la ricerca e la revisione dei documenti a un sistema AI, concentrandosi sugli aspetti strategici e creativi del caso. Allo stesso modo, gli educatori potrebbero affidarsi a tutor AI personalizzati per offrire supporto individuale agli studenti, ottimizzando l’esperienza di apprendimento.

Efficienza e produttività: AI come forza moltiplicatrice

Lo studio di Sia Partners mostra come l’AI generativa potrebbe accelerare il 10-20% delle attività nelle professioni, portando a un significativo aumento della produttività. Sam Altman, sempre nel suo post, spinge oltre questa riflessione, immaginando un futuro in cui l’intelligenza artificiale diventerà un moltiplicatore di produttività su larga scala. “L’AI ci permetterà di realizzare molto di più di quanto possiamo fare oggi“, afferma, e il risultato sarà una prosperità senza precedenti per tutti.

L’AI non solo accelera i processi, ma porta precisione ed efficienza in compiti che finora richiedevano molto tempo e risorse. Aziende che adottano l’AI vedono miglioramenti nelle operazioni, dalla logistica alla pianificazione finanziaria. Questo livello di efficienza, secondo Altman, permetterà di concentrare risorse su sfide ancora più ambiziose, come la risoluzione della crisi climatica o la colonizzazione dello spazio.

Reskilling e Upskilling: prepararsi all’obsolescenza della competenza

Un punto critico, evidenziato sia dallo studio che da Altman, ma oggetto continuo di discussioni e confronti in ogni dove, è la necessità di preparare la forza lavoro a questa nuova era. Molte aziende non hanno ancora sviluppato piani chiari per il reskilling e l’upskilling dei loro dipendenti. Altman immagina un futuro in cui la formazione continua diventa un aspetto centrale del lavoro umano: dovremo costantemente adattarci e aggiornare le nostre competenze per sfruttare al meglio le nuove tecnologie. E questo, come dico da tempo, è legato alla velocità con cui la competenza invecchia, e viviamo un tema di obsolescenza della competenza.

Come società, la nostra capacità di navigare nell’era dell’intelligenza dipenderà da quanto investiremo nell’infrastruttura educativa e nell’accessibilità delle tecnologie AI. L’istruzione diventerà una componente essenziale per ridurre le disuguaglianze che potrebbero emergere da questa trasformazione.

Sfide e rischi: un futuro da costruire con saggezza

Nonostante le promesse, Altman riconosce che l’era dell’intelligenza porterà con sé rischi significativi, inclusi cambiamenti nel mercato del lavoro e potenziali disuguaglianze. La stessa automazione che aumenta la produttività potrebbe portare alla perdita di posti di lavoro, e questo richiederà una riflessione profonda su come redistribuire le risorse e creare nuove opportunità per tutti.

La sfida, quindi, è trovare un equilibrio tra il progresso tecnologico e la gestione etica di questi cambiamenti. Altman, e su questo condivido pienamente, avverte che l’AI non sarà solo uno strumento per i ricchi o per pochi settori privilegiati, ma dovrà essere accessibile a tutti per garantire una prosperità condivisa.

L’adozione dell’AI e il futuro dell’umanità

Sia lo studio di Sia Partners che le riflessioni di Altman convergono sull’importanza dell’adozione rapida dell’AI. Le aziende che per prime integreranno l’intelligenza artificiale nelle loro operazioni avranno un vantaggio competitivo significativo. Ma non solo, anche in contesti non solo professionali, l’adozione dell’AI porterà benefici a chi sarà usarla prima di altri. Come sottolinea Altman, il vero salto sarà quando l’AI diventerà parte integrante della vita quotidiana di ogni persona, migliorando non solo il lavoro, ma anche la qualità della vita.

Infine Altman dipinge un quadro ambizioso del futuro, in cui “la prosperità sarà così grande da sembrare inimmaginabile“. Questo richiederà un investimento in infrastrutture, energia e volontà umana, elementi necessari per far sì che l’AI diventi uno strumento di progresso per tutti, e non solo per pochi.

Un futuro luminoso e complesso

L’intelligenza artificiale generativa rappresenta una delle più grandi trasformazioni nella storia dell’umanità. Mentre lo studio di Sia Partners ci mostra il potenziale impatto sul mondo del lavoro, Sam Altman ci invita a guardare oltre, verso un futuro in cui l’AI diventerà parte integrante della nostra vita e della nostra civiltà. Le sfide saranno molte, come è comprensibile, e come è sempre successo ad ogni grande cambiamento, ma le opportunità sono altrettanto straordinarie.

Il futuro sarà così luminoso che nessuno può descriverlo adeguatamente oggi“. Ma ciò che possiamo fare è prepararci, investire in nuove competenze e infrastrutture, e abbracciare la promessa di un’era di intelligenza che potrebbe superare ogni nostra aspettativa.

Introduzione sintetica ai Modelli di Base On-Device e Server di Apple

Apple ha presentato Apple Intelligence alla Worldwide Developers Conference 2024. Questo sistema di intelligenza “personale”, praticamente un assistente sempre attivo sul device, sarà integrato completamente in iOS 18, iPadOS 18 e macOS Sequoia e compatibile su device Iphone 15 pro e successivi. Il sistema Apple Intelligence utilizza modelli generativi avanzati, specializzati per compiti quotidiani come la scrittura e la revisione di testi, la sintesi e la priorizzazione delle notifiche, la creazione di immagini per le conversazioni e l’esecuzione di azioni in-app per semplificare le interazioni tra le app.

Ho letto e studiato il paper pubblicato e presente a questo indirizzo con l’obiettivo di chiarirmi e chiarire meglio come funziona questo tipo di approccio.

Modelli di base

Prima di tutto partiamo dai modelli utilizzati. Apple Intelligence si basa su due modelli principali: un modello linguistico on-device con circa 3 miliardi di parametri e un modello più grande basato su server. Entrambi i modelli sono progettati per offrire prestazioni elevate, segregare alcune funzioni demandabili al device e altre ad un sistema fuori dal device e garantire di conseguenza un utilizzo responsabile dei dati e dell’AI, oltre a mio avviso del consumo e impatto.

Modello On-Device

Caratteristiche tecniche:

  • Parametri: Circa 3 miliardi di parametri.
  • Architettura: Basato su architettura Transformer, ottimizzata per l’esecuzione locale su dispositivi Apple.
  • Quantizzazione: Utilizza tecniche di riduzione della precisione, a bassa risoluzione (2-bit e 4-bit) così da ridurre i requisiti di memoria e migliorare l’efficienza energetica.
  • Ottimizzazioni:
    • Grouped-Query Attention (GQA): Riduce i requisiti di memoria e migliora la velocità di inferenza.
    • Palletizzazione: Implementa una configurazione mista di 2-bit e 4-bit per ottenere prestazioni comparabili a quelle dei modelli non compressi.
    • Talaria: Strumento interattivo di analisi della latenza e del consumo energetico per ottimizzare la selezione del bit rate in ogni operazione.
    • Quantizzazione di attivazioni e embedding: Riduce ulteriormente i requisiti di memoria senza compromettere la qualità del modello.

Utilizzo: Il modello on-device è integrato direttamente nei dispositivi Apple (iPhone, iPad e Mac) per gestire compiti quotidiani come:

  • Scrittura e Revisione di Testi: Assistenza nella stesura e modifica di email, messaggi e documenti.
  • Sintesi e Prioritizzazione delle Notifiche: Riassume e organizza le notifiche per migliorare la gestione delle comunicazioni.
  • Esecuzione di Azioni In-App: Automatizza attività e interazioni tra le app per rendere l’uso del dispositivo più intuitivo.

Modello Server-Based

Caratteristiche tecniche:

  • Parametri: Modello con un numero di parametri significativamente maggiore rispetto al modello on-device, progettato per operare sui server Apple Silicon.
  • Architettura: Anche questo modello si basa sull’architettura Transformer, ma è ottimizzato per l’elaborazione su larga scala nei data center.
  • Vocabulario: Utilizza una dimensione del vocabolario più ampia (100.000 token) rispetto al modello on-device (49.000 token), includendo token aggiuntivi per lingue e termini tecnici.
  • Ottimizzazioni:
    • Parallelismo: Impiega parallelismo a livello di dati, tensor, sequenza e Fully Sharded Data Parallel (FSDP) per scalare l’addestramento su vari hardware.
    • Reinforcement Learning from Human Feedback (RLHF): Utilizza algoritmi avanzati di ottimizzazione delle politiche per migliorare la qualità delle risposte del modello.
    • Rejection Sampling Fine-Tuning: Metodo di campionamento con un comitato di insegnanti per migliorare la capacità di seguire istruzioni.

Utilizzo: Il modello server-based è utilizzato per gestire compiti più complessi e intensivi in termini di calcolo, beneficiando delle capacità avanzate dei data center di Apple. Esempi di utilizzo includono:

  • Generazione di Contenuti Complessi: Creazione di testi dettagliati e specifici su richiesta degli utenti.
  • Analisi Avanzata dei Dati: Esecuzione di elaborazioni intensive come l’analisi approfondita dei dati.
  • Supporto ai Servizi Cloud: Fornisce potenza di calcolo per applicazioni e servizi che richiedono un’elaborazione continua e intensiva.

Integrazione nei Processi di Apple Intelligence

Apple Intelligence integra questi modelli in un sistema coeso per offrire una vasta gamma di funzionalità intelligenti. Questo processo coinvolge:

  1. Identificazione del Compito: Riconosce il tipo di attività che l’utente sta cercando di eseguire e decide se può essere gestita localmente o richiede il supporto del modello server-based.
  2. Selezione del Modello: Determina quale modello utilizzare in base alla complessità e ai requisiti del compito. Compiti quotidiani semplici vengono gestiti dal modello on-device, mentre compiti complessi vengono indirizzati al modello server-based.
  3. Esecuzione e Ottimizzazione: Il modello selezionato esegue il compito utilizzando ottimizzazioni specifiche per garantire velocità e precisione.
  4. Risposta e Feedback: Fornisce i risultati all’utente e raccoglie feedback per migliorare continuamente i modelli.
  5. Aggiornamenti e Manutenzione: I modelli sono costantemente aggiornati per migliorare le prestazioni e mantenere la sicurezza.

Questa architettura garantisce che Apple Intelligence possa offrire un’esperienza utente fluida, potente e sicura, sfruttando al meglio le capacità sia dei dispositivi locali che dell’infrastruttura cloud di Apple.

3. Sviluppo responsabile dell’IA

Apple segue una serie di principi di AI responsabile che guidano lo sviluppo di Apple Intelligence:

  • Empowerment degli utenti:
    • Apple si impegna a identificare aree in cui l’intelligenza artificiale può essere utilizzata responsabilmente per creare strumenti che rispondano a bisogni specifici degli utenti.
    • Rispetta le modalità in cui gli utenti scelgono di utilizzare questi strumenti per raggiungere i loro obiettivi, garantendo che l’IA sia uno strumento di potenziamento piuttosto che di controllo.
  • Rappresentazione autentica degli utenti:
    • L’obiettivo di Apple è creare prodotti che rappresentino autenticamente gli utenti di tutto il mondo, evitando di perpetuare stereotipi e bias sistemici.
    • Apple lavora continuamente per identificare e mitigare qualsiasi forma di bias nei loro modelli di intelligenza artificiale, assicurando una rappresentazione equa e inclusiva.
  • Design attento:
    • Apple prende precauzioni in tutte le fasi del processo di sviluppo dell’IA, inclusi il design, l’addestramento dei modelli, lo sviluppo delle funzionalità e la valutazione della qualità.
    • Si impegna a identificare e prevenire potenziali usi impropri o dannosi degli strumenti di IA, migliorando proattivamente questi strumenti attraverso il feedback degli utenti.
  • Protezione della privacy:
    • Apple utilizza processi on-device e infrastrutture come il Private Cloud Compute per proteggere la privacy degli utenti.
    • Non utilizza i dati personali privati degli utenti o le loro interazioni per addestrare i modelli di base, applicando filtri per rimuovere informazioni identificabili come numeri di previdenza sociale o di carte di credito.

4. Addestramento dei modelli

I modelli di base di Apple sono addestrati utilizzando il framework AXLearn, un progetto open-source basato su JAX e XLA, che permette un addestramento efficiente e scalabile.

  • Efficienza e Scalabilità:
    • AXLearn consente l’addestramento su vari hardware e piattaforme cloud, inclusi TPU e GPU sia in cloud che on-premise.
    • Apple utilizza tecniche come data parallelism, tensor parallelism, sequence parallelism e Fully Sharded Data Parallel (FSDP) per scalare l’addestramento su più dimensioni.
  • Strategia Ibrida dei Dati:
    • Apple combina dati annotati manualmente con dati sintetici e implementa procedure di curation e filtraggio rigorose per garantire la qualità del training data.
    • Apple filtra informazioni personali e contenuti di bassa qualità dal corpus di addestramento, utilizzando un classificatore basato su modelli per identificare documenti di alta qualità.
  • Algoritmi di Post-Training:
    • Rejection Sampling Fine-Tuning: Apple utilizza un algoritmo di campionamento con un comitato di insegnanti per migliorare la capacità del modello di seguire le istruzioni.
    • Reinforcement Learning from Human Feedback (RLHF): Un algoritmo avanzato che utilizza la politica di discesa speculare e un estimatore di vantaggio leave-one-out per migliorare la qualità delle risposte del modello.

5. Ottimizzazione

Apple applica una serie di tecniche innovative per ottimizzare i modelli, sia on-device che su server, garantendo velocità e efficienza.

  • Grouped-Query Attention (GQA): Questa tecnica riduce i requisiti di memoria e migliora le prestazioni di inferenza.
  • Quantizzazione:
    • Low-Bit Palletization: Utilizza una configurazione mista di 2-bit e 4-bit per ottenere prestazioni comparabili ai modelli non compressi, mantenendo la qualità.
    • Talaria Tool: Strumento interattivo per analizzare latenza e consumo energetico, ottimizzando il bit rate per ogni operazione.
    • Quantizzazione di Attivazioni e Embedding: Riduce ulteriormente i requisiti di memoria senza compromettere la qualità del modello.
  • Cache KV: Ottimizza l’aggiornamento della cache Key-Value sui motori neurali per migliorare l’efficienza.

6. Adattamento dei modelli

Apple utilizza adattatori, piccoli moduli di rete neurale, per specializzare i modelli per compiti specifici, mantenendo inalterati i parametri originali del modello base.

  • Adattatori (Adapters):
    • Gli adattatori sono integrati nei vari strati del modello pre-addestrato, consentendo una specializzazione dinamica per il compito attuale.
    • I parametri degli adattatori sono rappresentati con 16 bit e richiedono solo pochi megabyte di memoria.
    • Gli adattatori possono essere caricati dinamicamente e gestiti in memoria in modo efficiente, garantendo la reattività del sistema operativo.
  • Infrastruttura per l’Addestramento degli Adattatori:
    • Apple ha creato un’infrastruttura efficiente per addestrare, testare e distribuire rapidamente gli adattatori quando il modello base o i dati di addestramento vengono aggiornati.

7. Valutazione delle prestazioni

Apple valuta le prestazioni dei modelli tramite benchmark e valutazioni umane, concentrandosi sull’utilità per l’utente finale.

  • Benchmarking:
    • Apple utilizza un set completo di prompt reali per testare le capacità generali del modello, coprendo categorie come brainstorming, classificazione, codifica, ragionamento matematico e sicurezza.
    • Le valutazioni dimostrano che i modelli Apple spesso superano i modelli comparabili in termini di accuratezza e capacità di seguire le istruzioni.
  • Valutazioni di Specifiche Funzionalità:
    • Apple utilizza adattatori per ottimizzare le prestazioni su compiti specifici, come la sintesi di email, messaggi e notifiche.
    • Le valutazioni includono anche test su set diversificati di input rappresentativi dei casi d’uso reali.

8. Risultati di performance

Le valutazioni mostrano che i modelli Apple sono preferiti dai valutatori umani rispetto ai modelli concorrenti in vari compiti.

  • Comparazione con Modelli Competitor:
    • I modelli on-device di Apple con ~3 miliardi di parametri superano modelli più grandi come Phi-3-mini, Mistral-7B, Gemma-7B e Llama-3-8B.
    • I modelli server di Apple si confrontano favorevolmente con modelli commerciali come GPT-3.5, GPT-4 e Llama-3-70B, risultando più efficienti e sicuri.
  • Risultati di Sicurezza:
    • Apple utilizza prompt diversificati e avversariali per testare le prestazioni dei modelli su contenuti dannosi e argomenti sensibili, raggiungendo tassi di violazione inferiori rispetto ai modelli open-source e commerciali.
  • Benchmark di Instruction-Following (IFEval):
    • I modelli Apple dimostrano capacità superiori nel seguire istruzioni dettagliate rispetto ai modelli di dimensioni comparabili.
  • Benchmark di Scrittura e Sintesi:
    • I modelli Apple sono valutati positivamente nelle capacità di sintesi e composizione, ottenendo punteggi elevati nelle valutazioni interne.

Apple Intelligence, presentata alla WWDC 2024, è profondamente integrata nei dispositivi Apple e offre capacità potenti in ambito linguistico, visivo e di azione, sviluppate responsabilmente e guidate dai valori fondamentali di Apple. I modelli di base e gli adattatori garantiscono prestazioni elevate e sicure, migliorando l’esperienza utente in vari compiti quotidiani. Apple continuerà a condividere ulteriori informazioni sulla famiglia di modelli generativi, inclusi modelli linguistici, di diffusione e di programmazione.

A questo indirizzo è possibile leggere i paper integrale e la documentazione ufficiale. Vale la pena sse avete interesse e tempo di leggere tutto lo studio che in questo post ho sinteticamente riportato.

Spatial Intelligence: l’immersività-tangibile tra AI e Robotica

La robotica sta vivendo una trasformazione radicale. E di questo forse ne abbiamo già preso coscienza ultimamente guardando diversi video di Boston Dynamics e similari, in cui robot quadrupedi o androidi bipedi fanno cose incredibili.

Nell’era della convergenza di diverse tecnologie, tema che ho raccontato nel libro Spatial Shift, ognuna delle evoluzioni tecnico-tecnologiche che stiamo vivendo influenza e potenzia altre tecnologie, abilitandole di nuove possibilità. La convergenza dell’Intelligenza artificiale e della robotica, che prende il nome di “Spatial Intelligence” è forse quello che potenzialmente più spaventa e allo stesso tempo affascina per gli impatti che potrebbe avere sull’umanità.

Investitori come Khosla Ventures, Andreessen Horowitz, e General Catalyst stanno supportando una serie di startup che sviluppano robot capaci di ragionamento avanzato e elaborazione dei dati visivi, a dimostrazione che l’interesse sul tema è già piuttosto avanzato e soprattutto di progetti in fase di sviluppo con risultati già validati ce ne sono.

La spatial intelligence permette ai robot di navigare e interagire con l’ambiente in modo più efficiente, migliorando la precisione e l’adattabilità nei compiti complessi, migliorare efficacia ed efficienza e soprattutto come questo segmento possa potenziare l’uomo veramente.

Evoluzione della robotica e della Spatial Intelligence

Fin dagli anni ’60, i robot sono stati utilizzati principalmente per compiti ripetitivi in ambienti controllati, dove la variabilità era minima. La mancanza di “intelligenza” limitava la capacità dei robot di adattarsi a situazioni inaspettate. Con l’avvento della spatial intelligence, la robotica sta passando ad una nuova generazione di macchine che possono percepire, vedere, prendere decisioni e agire in base agli obiettivi e all’ambiente circostante.

Questa evoluzione è paragonabile alla rivoluzione portata dagli smartphone, trasformando dispositivi semplici in strumenti potenti e versatili che hanno negli anni di fatto esteso le potenzialità del singolo utente.

Applicazioni della Spatial Intelligence

La spatial intelligence sta trovando già applicazione in numerosi ambiti e settori, nei quali, in modo più o meno impattante sta già ridefinendo il modo in cui i robot vengono utilizzati. Tra le aree più promettenti e nelle quali stanno già entrando capitali e investimenti ci sono:

  • logistica e automazione industriale: i robot dotati di spatial intelligence possono navigare autonomamente nei magazzini, identificare e raccogliere oggetti, e consegnare pacchi con una precisione incredibile. Startup come Waabi stanno sviluppando camion autonomi, mentre Vayu sta creando robot per la consegna dell’ultimo miglio che utilizzano piste ciclabili.
  • sanità: in campo medico, i robot dotati di intelligenza spaziale possono assistere nelle procedure chirurgiche, fornendo supporto preciso e adattabile in tempo reale. Questo non solo migliora l’efficienza, ma riduce anche il rischio di errori umani e supporta il processo decisionale in determinati momenti, fortemente time critical. Un esempio innovativo è l’uso di robot che eseguono compiti come la sutura di ferite con precisione millimetrica.
  • agricoltura: Carbon Robotics utilizza laser intelligenti per eliminare le erbacce e piante infestanti nei campi, migliorando l’efficienza, riducendo l’uso di erbicidi, e mitigando l’impatto di utilizzo di componenti chimiche eccessive . Questa tecnologia già da tempo sta accelerando la gestione agricola, rendendola più sostenibile e produttiva
  • servizi di consegna: robot autonomi possono essere utilizzati per consegnare pacchi e cibo in ambienti urbani, adattandosi alle condizioni stradali e alle esigenze dei clienti in tempo reale Ovviamente sono solo primi esempi di ambiti in cui questa adozione è già avanzata ed i primi impatti sono già visibili.
  • superhuman: il potenziamento delle persone con gap, e non solo. La spatial intelligence ha il potenziale inoltre a mio avviso per supportare significativamente il potenziamento delle persone, specialmente quelle con handicap, malformazioni o menomazioni: protesi intelligenti: AI, robotica e sensoristica possono essere integrate in protesi avanzate che possono dotare la persona di una gamma di movimenti e funzioni molto più ampia rispetto alle protesi tradizionali e normali capacità. Queste protesi, in grado di adattarsi dinamicamente all’ambiente, possono non solo migliorare l’autonomia e la qualità della vita delle persone, ma possono aumentarne le capacità.
  • supporto alla mobilità: esoscheletri e dispositivi di supporto alla mobilità dotati di spatial intelligence possono aiutare le persone con difficoltà motorie a camminare e muoversi con maggiore sicurezza e autonomia. In questo caso dispositivi di questo tipo possono esser utilizzati per rilevare dinamicamente il contesto e adattarsi al terreno e alle superfici, prevenendo cadute e riducendo il rischio di incidenti interazione migliorata: La capacità dei robot di percepire e comprendere l’ambiente può essere utilizzata per sviluppare assistenti domestici intelligenti che aiutano le persone con disabilità a svolgere compiti quotidiani. Un esempio che gira in rete già da qualche mese è un assistente robotico che può aiutare preparare pasti, pulire la casa o ricordare appuntamenti importanti, erogare medicinali e supportare l’assistito nella gestione e pianificazione
  • riabilitazione e terapia: automi con spatial intelligence possono essere utilizzati in programmi di riabilitazione personalizzati, garantendo precisione e specificità di esercizi ed il monitoraggio dell’esecuzione e dei progressi in tempo reale. Questi sistemi possono adattare i programmi di riabilitazione in base alle esigenze individuali, modellare il piano in funzione del miglioramento del singolo utente, e accelerando il recupero e migliorando i risultati complessivi. Oltre al fatto che l’analisi del comportamento dei singoli può gradualmente creare la condizione di apprendimento progressivo dell’intelligenza stessa.
  • interfacciamento con mondo esterno: con l’avvento di dispositivi come i Vision Pro, dotati di telecamere avanzate, intelligenza artificiale e interfacce conversazionali, possiamo già immaginare un futuro (attuale) in cui le persone saranno dotate “vista aumentata”. Questi visori, in grado di interpretare ed interagire con informazioni in tempo reale, possono abilitare persone non vedenti o ipovedenti, a nuove possibilità di mobilità, movimento nello spazio, assistenza e supporto.

Verso una Immersività-Tangibile

Nello shift spaziale, la Spatial Intelligence sta iniziando il processo di ridefinizione di quella che io chiamo la fase dell’Immersività-Tangibile. Questa integrazione perfetta tra i mondi fisico e digitale permette ai robot non solo di eseguire compiti complessi con precisione, ma anche di interagire con l’ambiente e le persone in modo intuitivo e naturale. Allo stesso tempo, le persone, potenziate da nuove tecnologie e immerse in un contesto aumentato grazie all’uso di sensori avanzati, AI ed estensioni robotiche, possono non solo connettersi a un livello di realtà aumentata ma anche toccarla, sentirla e percepirla come reale. L’immersività-tangibile implica una trasformazione delle esperienze visive, cognitive e sensoriali.

Da un lato, l’esperienza visiva e cognitiva viene potenziata, permettendo alle persone di vedere dati e informazioni sovrapposte al mondo reale, facilitando una comprensione immediata e approfondita di ciò che le circonda. Un esempio, già attuale, è quello di un chirurgo che può vedere proiezioni tridimensionali di immagini mediche direttamente sul paziente, migliorando la precisione e la sicurezza delle operazioni.

Dall’altro lato, l’aspetto tangibile e sensoriale rende questa immersione ancora più profonda. Grazie a tecnologie aptiche e feedback sensoriali avanzati, le persone possono percepire fisicamente la presenza e le caratteristiche degli oggetti virtuali. Immaginiamo di poter “toccare” un modello virtuale di un oggetto in fase di progettazione, sentire la sua superficie e consistenza. Questa combinazione di immersione visiva, cognitiva e sensoriale crea un’esperienza totale, dove il confine tra reale e virtuale si dissolve.

La tecnologia non è più solo uno strumento, ma diventa un’estensione del corpo e della mente umana, migliorando la capacità di percepire, creare, interagire e comprendere il mondo in modi che prima erano inimmaginabili. L’immersività-tangibile rappresenta quindi non solo un avanzamento tecnologico, ma una vera e propria evoluzione del modo in cui viviamo e percepiamo la realtà.

Futuro della Spatial Intelligence

Nei prossimi anni, considerata la velocità a cui stiamo viaggiando, mi aspetto di vedere una diffusione più ampia della Spatial Intelligence in molti settori. Innovazioni come l’integrazione con la realtà aumentata e virtuale, nonché l’uso di reti neurali avanzate, guideranno ulteriormente questa evoluzione.

La combinazione di intelligenza artificiale, computing edge e 5G permetterà ai robot di operare con maggiore efficienza e reattività, trasformando radicalmente il nostro modo di vivere e lavorare e per quanto brutto il pensiero possa sembrare, farci compagnia.

La spatial intelligence, oggi ancora tema poco noto, rappresenta senza dubbio in questa convergenza ed evoluzione un ulteriore frontiera evolutiva dell’uomo, e grazie alla sua capacità di combinare il mondo fisico, digitale e virtuale, si rivelerà sempre più un elemento chiave per il futuro della robotica e delle tecnologie immersive.

Oltre i confini dell’immaginazione: il pensiero creativo supportato da AI

Questa mattina mentre navigavo nel feed leggendo diversi contenuti e facendo un po’ della mia curation mattutina, mi sono imbattuto in un esperimento condotto da Allie K. Miller e Reid Hoffman riguardo al tema Creatività e AI. In pochi minuti di videoil loro confronto offre spunti illuminanti su come si possa sfruttare l’AI per potenziare il nostro pensiero creativo.

In un modo non molto diverso da un lavoro di sperimentazione che ho fatto con un cliente recentemente durante il quale abbiamo simulato i sei cappelli di Edward de Bono, attraverso l’addestramento di un GPT, la loro conversazione ha visto l’impiego di diversi GPT personalizzati, ed una sequenza di domande e quesiti per analizzare un tema.

Il punto focale su cui riflettere non è quale AI utilizzano e come, ma l’importanza della co-creazione uomo-macchina in un futuro ormai presente.

L’orchestra GPT: una sinfonia di prospettive

Miller e Hoffman hanno creato un “Entourage AI”, un ensemble di GPT ciascuno con un ruolo specifico:

  1. Lo Scriba: per sintetizzare e documentare
  2. Il Ricercatore: per fornire dati e contesto
  3. Lo Scettico: per sollevare dubbi e sfide
  4. L’Acceleratore: per spingere le idee oltre i limiti
  5. Lo Storico: per offrire prospettive storiche
  6. Il Gemello Digitale: per emulare il pensiero umano

Questa diversità di “voci” IA, che ricorda appunto i sei cappelli di De Bono, permette di esplorare problemi da angolazioni multiple, ampliando l’orizzonte creativo. Come osserva Hoffman: “È come suonare un’orchestra GPT per aiutarci a compiere i nostri compiti meglio.”

La metafora musicale nell’era dell’IA

La metafora dell’orchestra non è casuale. Hoffman sottolinea: “Le persone pensano spesso di interagire con una sola cosa, ma l’idea di avere un entourage, un ensemble, un set di cose diverse… e ti ritrovi che improvvisamente stai creando musica molto più interessante.” Questa visione si allinea perfettamente con la teoria dei sei cappelli del pensiero di Edward de Bono, dimostrando come diverse modalità di pensiero, diverse competenze e discipline, diverse angolazioni e punti di vista – ora amplificate dall’IA – possano coesistere e collaborare.

Lateralità del pensiero e IA: danzare con l’inaspettato

L’interazione con diverse intelligenze artificiali, come dimostrato dall’esempio del “Cheshire Cat GPT” nell’esperimento di Allie K. Miller e Reid Hoffman, rivela come l’IA possa “danzare con l’inaspettato“. Questo modello ha risposto mescolando temi di creatività con metafore musicali, creando connessioni sorprendenti che ampliano il nostro orizzonte creativo. La capacità dell’IA di combinare elementi in modi non convenzionali evidenzia il suo potenziale nel promuovere il pensiero laterale, un approccio che esplora nuove angolazioni e sfide preconcetti, portando a scoperte innovative e inaspettate.

L’IA come strumento di fact-checking e validazione

Hoffman evidenzia un punto cruciale: “Una delle frequenti idee sbagliate sui GPT è che l’unica cosa che si ottiene indietro è la suddivisione dei dati inseriti, invece della sintesi e di cose effettivamente nuove.” Questo sottolinea l’importanza di utilizzare l’IA non solo per la generazione di idee, ma anche per la loro validazione e contestualizzazione. Utilizzando l’IA come strumento di fact-checking, possiamo verificare l’accuratezza delle informazioni e identificare eventuali bias o errori nei dati di partenza. L’IA può contestualizzare le informazioni fornite, integrandole con dati aggiornati e pertinenti, creando una base più solida per prendere decisioni informate, soprattutto se il check viene effettuato con diverse AI. Questo processo di validazione è essenziale per evitare che si diffondano informazioni fuorvianti o inesatte, garantendo che le decisioni siano basate su una sintesi accurata e rilevante dei dati disponibili. L’uso dell’IA in questo modo non solo migliora la qualità delle informazioni, ma rafforza anche la nostra capacità di pensiero critico, permettendoci di discernere meglio tra ciò che è vero e ciò che non lo è.

Integrazione con strumenti di automazione: dall’idea all’azione

Miller menziona come il suo team utilizzi già l’IA “quasi come uno strumento di analisi delle lacune“. Questo passaggio suggerisce un futuro (ormai attuale) in cui l’automazione e l’IA lavoreranno in tandem per non solo generare idee, ma anche per testarle e refinarle in tempo reale. Utilizzando l’IA per identificare le aree di miglioramento o le carenze in un progetto, possiamo ottenere una visione chiara e dettagliata delle opportunità di ottimizzazione. Una volta individuate queste lacune, gli strumenti di automazione possono essere impiegati per implementare rapidamente soluzioni, monitorare i risultati e apportare ulteriori perfezionamenti. Questa sinergia tra AI e automazione permette un ciclo continuo di innovazione e miglioramento, dove le idee non solo nascono, ma vengono continuamente validate e migliorate. Il risultato è un processo decisionale più agile e informato, in grado di rispondere rapidamente ai cambiamenti e alle nuove informazioni. In un mondo in cui la velocità e l’efficienza sono cruciali, questa integrazione promette di trasformare radicalmente il modo in cui concepiamo, sviluppiamo e implementiamo le nostre idee, portando a un livello di produttività e innovazione senza precedenti.

Nuove frontiere: comunicazione interspecifica e coscienza

Un aspetto affascinante emerso dalla conversazione è il potenziale dell’IA di fungere da ponte tra specie. Hoffman menziona il suo coinvolgimento nel “Earth Species Project“, che mira a utilizzare l’IA per decodificare e potenzialmente comunicare con altre specie animali. Questo progetto ambizioso cerca di sfruttare le capacità avanzate dell’IA per analizzare e interpretare i modelli di comunicazione animale, con l’obiettivo di comprendere e, eventualmente, dialogare con essi. Se riuscissimo a decodificare il linguaggio dei delfini, delle balene o degli uccelli, potremmo ottenere una comprensione senza precedenti dei loro comportamenti, delle loro emozioni e delle loro interazioni sociali.

L’idea di Miller, che scherzosamente suggerisce di avere un “amico aquila” che esplori e riporti informazioni, illustra in modo creativo le possibilità che si aprono con tale tecnologia. Immaginiamo un mondo in cui possiamo chiedere ai nostri amici animali di raccogliere dati ambientali, avvertirci di pericoli imminenti o semplicemente condividere con noi le loro prospettive uniche sulla vita. Questo non solo rivoluzionerebbe il campo della biologia e dell’etologia, ma avrebbe anche implicazioni profonde per la conservazione e la protezione delle specie.

La comunicazione interspecifica potrebbe offrirci nuove intuizioni sulla coscienza e sull’intelligenza animale, sfidando e ampliando le nostre concezioni attuali. Potremmo scoprire che molte specie possiedono forme di consapevolezza e pensiero complesso che non avevamo mai immaginato. In sintesi, l’uso dell’IA per facilitare la comunicazione tra specie rappresenta una delle frontiere più entusiasmanti e promettenti della ricerca tecnologica e scientifica, aprendo scenari di interazione e comprensione del tutto nuovi e affascinanti.

Preparare le future generazioni

Miller propone un’idea provocatoria ma potenzialmente rivoluzionaria: “L’IA dovrebbe essere richiesta in classe per compiti o lavori specifici, e ci dovrebbero essere alcuni compiti o lavori in cui l’IA non è permessa.” Questo approccio duale permetterebbe agli studenti di sviluppare sia competenze tradizionali che la capacità di lavorare efficacemente con l’IA.

Competenze essenziali per un futuro guidato dall’IA

Hoffman sintetizza le competenze chiave per il futuro: “Avrai bisogno di creatività, curiosità, pensiero critico, consapevolezza del contesto e giudizio.” Queste abilità umane, combinate con la potenza dell’IA, formeranno la base per l’innovazione futura.

Verso una nuova era di co-creazione

L’esperimento di Miller e Hoffman offre uno spunto su un futuro in cui l’IA non sostituisce il pensiero umano, ma lo amplifica in modi prima inimmaginabili. Come osserva Miller, “Nel futuro potremmo averne 10.000 [IA] a cui possiamo fare appello, alcune delle quali stanno compiendo azioni, alcune stanno facendo battute e meme, alcune stanno mediando una lite che potrebbe scoppiare.

In questo nuovo shift, in cui la convergenza tecnologica di cui parlo anche nel libro Spatial Shift, integra fisico, digitale e virtuale, viviamo una ulteriore integrazione: quella dell’uomo e della macchina. La creatività umana viene potenziata, permettendoci di esplorare territori dell’innovazione prima inaccessibili. Il futuro della creatività è una danza armoniosa tra l’intuizione umana e l’analisi dell’IA, una partnership che promette di ridefinire i limiti di ciò che possiamo immaginare e realizzare.

Come ci ricorda il “Cheshire Cat GPT”: “Preparate i nostri giovani per un futuro intrecciato con l’IA concentrandovi su queste abilità curiose: creatività per danzare con l’inaspettato, pensiero critico per mettere in discussione il noto e consapevolezza del contesto per giudicare il momento. È una sinfonia di abilità, un equilibrio giocoso tra uomo e macchina.

Ci stiamo addentrando in questa nuova era di co-creazione con l’IA, una fase in cui diventa fondamentale per sviluppare le competenze necessarie per orchestrare efficacemente questi strumenti. L’abilità di dialogare con diverse “personalità” IA, di sintetizzare le loro intuizioni e di integrarle nel nostro processo creativo diventerà una competenza chiave per i professionisti del futuro e ci permetterà di andare oltre i confini della nostra immaginazione.

SPATIAL SHIFT : La convergenza tecnologica di Computing, Mixed Reality, Artificial Intelligence e Blockchain

Quando nel 2007 Steve Jobs presentò al mondo l’iPhone, pochi potevano immaginare l’impatto rivoluzionario che questo dispositivo avrebbe avuto sulle nostre vite. In quel momento storico, non solo assistevamo alla nascita di un nuovo prodotto, ma eravamo testimoni dell’alba di un’era completamente nuova: l’era dello smartphone, un’epoca in cui la tecnologia mobile avrebbe ridefinito il modo in cui comunichiamo, ci connettiamo, lavoriamo, giochiamo e viviamo.

Oggi, mentre scrivo queste righe, sento un senso di déjà vu, una sensazione che l’”iPhone moment” sta per arrivare di nuovo, ma per una tecnologia diversa, o forse meglio, per una convergenza di diverse tecnologie che stanno arrivando ad una fase di maturità, tutte nello stesso momento. Forse come non è mai successo in modo così impattante. Un momento che sta preparando il terreno per una trasformazione altrettanto monumentale e che appunto non riguarda solo una tecnologia come successe con il mobile, ma riguarda l’intelligenza artificiale, la blockchain, la mixed reality e diverse altre tecnologie come la sensoristica, la connettività e che stanno definendo la nuova fase di internet.

Una fase che viene battezzata come web3 e che porta internet dal bidimensionale (2D) al tridimensionale (3D) integrando in questo processo di transizione una serie di nuovi paradigmi legati all’ownership delle informazioni, la decentralizzazione, l’intelligenza artificiale ed una nuova capacità computazionale e capacità di interazione.

Il cambiamento introdotto da questa convergenza tecnologica e lo sviluppo di nuovi dispositivi che stanno entrando sul mercato stanno consentendo la crescita di un altro trend che prende il nome di Spatial Computing. Il computing spaziale, con la sua promessa di unire il mondo fisico e quello virtuale in un continuum senza percezione di discontinuità, insieme all’AI che offre capacità di comprensione, previsione e personalizzazione a livelli prima inimmaginabili, rappresenta un ulteriore cambio di paradigma nell’interazione uomo-macchina.

Stiamo percorrendo la strada che ci porterà a un futuro in cui l’estensione della realtà diventerà la norma, i nostri ambienti di vita e di lavoro saranno arricchiti da informazioni e interazioni virtuali, rendendo la nostra quotidianità più connessa, intuitiva e più avanzata tecnologicamente e potenzialmente più umana. L’impatto che queste tecnologie potranno avere, in particolare lo Spatial Computing, sulla società moderna è enorme ed abbraccia non solo la sfera personale ed empatica, ma anche quella professionale e la sua efficacia ed efficienza. Se da una parte avremo accesso ad informazioni in una modalità nuova, dall’altra avremo strumenti di interazione, nuove forme di apprendimento e di lavoro.

Se il pensiero, mentre si leggono queste prime righe di libro, è che il mondo stia andando verso un contesto distopico in cui avremo permanentemente un casco in testa o una maschera sul volto, come nelle visioni fantascientifiche di serie Tv e film iconici come Black mirror o Ready Player One, beh no, lo dico subito, non credo in questo tipo mondo. Ma soprattutto lo spero dal più profondo del cuore.

Il motivo per cui ho deciso di scrivere questo libro, e di cui ringrazio #Egea per la fiducia, “Spatial Shift, la convergenza tecnologica di Computing, Mixed Reality, Artificial Intelligence e Blockchain“, nasce da una convinzione profonda che il momento che stiamo vivendo è un punto di svolta per la nostra società, paragonabile appunto all’uscita dell’iPhone e lo sviluppo degli smartphone nella direzione come la conosciamo oggi.

La recente introduzione di dispositivi come il Vision Pro, l’aggiornamento del Quest 3 e l’evoluzione di altri dispositivi e smart glass, insieme agli sviluppi nell’intelligenza artificiale generativa, stanno alimentando un hype ed un entusiasmo che non vedevamo da anni nel settore tecnologico. Tuttavia, questo entusiasmo non è infondato; è il preludio a un cambiamento epocale nel modo in cui interagiamo con le informazioni, gli ambienti e tra di noi.

Il percorso che ho fatto in questi anni e che mi ha portato a scrivere questo libro è stato tanto personale quanto professionale. Negli ultimi anni, ho avuto il privilegio di lavorare a stretto contatto con persone brillanti nell’ambito del design, della user Experience e dello sviluppo di nuove tecnologie, collaborando con aziende, progetti ed eventi che spingevano i confini del possibile, nel loro ambito, sempre al limite. Ho visto da vicino cosa significa progettare progetti di mixed reality in contesti ed industrie differenti, tra successi incredibili e le sfide impreviste che hanno portato anche al fallimento di progetti che apparentemente sembrano eterni. Ho inoltre avuto modo di sperimentar l’entusiasmo di vedere un progetto passare da un’idea su carta a un’applicazione reale e poi vedere l’impatto che questo ha avuto sulle persone, sul come interagiscono con il mondo intorno a loro e come sono cambiate alcune abitudini.

Quando recentemente poi ho avuto modo di provare due nuovi strumenti Quest3, VisionPro e trovarmi a sperimentare con sistemi di Intelligenza Artificiale Generativa in modo diretto, mi sono reso conto che esisteva un vuoto. Mancava un testo che da una parte esplorasse le potenzialità tecniche e le applicazioni del computing spaziale e dell’AI, ma che considerasse anche le implicazioni più ampie di queste tecnologie, tra modalità di progettazione e riflessioni più etiche.

Come questo Spatial Shift influenzerà il nostro modo di vivere, di pensare, di relazionarci? Quali sfide progettuali, tecniche, etiche e sociali dobbiamo anticipare e affrontare? E, forse più pressante di tutto, come possiamo assicurarci che queste tecnologie siano utilizzate in modo corretto nel suo complesso, piuttosto che trasformarci in esseri completamente isolati e assuefatti da stimoli digitali e virtuali?

Queste domande mi hanno stimolato nella ricerca e la stesura di questo libro. Ho voluto creare una testo che fosse una prima guida ed un punto di partenza per coloro che sono nuovi a questi concetti, e anche una punto di unione di diversi concetti per coloro che, come me, sono immersi in questi temi da anni.

Spatial Shift, la convergenza tecnologica di Computing, Mixed Reality, Artificial Intelligence e Blockchain” non è quindi solo un titolo; è una dichiarazione d’intenti. In queste pagine, esploreremo insieme un po’ di storia della realtà aumentata, la convergenza tecnologica che ci ha portato fino ad oggi, termini, contesti e ambiti in cui lo spatial computing e l’intelligenza non sono (e non saranno) solo strumenti nelle nostre mani, ma fondamenti di una nuova realtà. In modo non del tutto esteso, anche perché siamo all’inizio di questo viaggio, vedremo come queste tecnologie potranno avere un impatto trasformativo in diverse industrie, dalla sanità all’educazione, dal retail all’intrattenimento, e di come stiano riscrivendo le regole del gioco in termini di interazione umana, produttività e creatività.

Attraverso questo libro, mi auguro di trasmettere non solo la conoscenza e la comprensione di queste potenti tecnologie, ma anche di ispirare una riflessione su come possiamo utilizzarle per creare un futuro in cui la tecnologia arricchisce le nostre vite senza sopraffarle. Un futuro in cui la convergenza tra il mondo fisico e quello digitale ci porta a nuove altezze di innovazione e intimità umana, senza perdere di vista i valori che ci rendono veramente umani.

Benvenuti in un viaggio verso il futuro.

Per acquistarlo