Interfacce Neurali-Spaziali – Riscrivere l’Interazione nell’Era dello Spatial Computing

Le interfacce neurali-spaziali rappresentano una svolta epocale nell’interazione uomo-macchina: uniscono l’intelligenza artificiale multimodale, il computing spaziale (AR/VR) e gli input neurali o sensoriali (BCI) per fondere il digitale con il mondo fisico. Questo numero di InsideTheShift esplora come questa convergenza stia creando un nuovo patto tra il corpo umano, lo spazio che ci circonda e i sistemi intelligenti che ci assistono. Esamineremo le implicazioni di interfacce sempre più “invisibili” e integrate nella realtà, i collegamenti con i trend già trattati (dalle cognitive interfaces alla computational intuition) e come questa frontiera tecnologica stia riscrivendo le regole del design, dell’accessibilità e della nostra esperienza quotidiana con la tecnologia.

The Shift in Focus

Nel 2024 una dimostrazione all’apparenza discreta in una conferenza tech ha segnalato un cambiamento epocale: un’interfaccia in realtà aumentata controllata tramite segnali neurali anziché dispositivi fisici. Nei suoi laboratori, Meta ha mostrato un braccialetto EMG capace di leggere i minuscoli impulsi elettrici che dal cervello viaggiano verso i muscoli della mano, “leggendo nel pensiero” l’intenzione di sfogliare o afferrare un oggetto digitale e traducendola in azione. In pratica, questo significa far scorrere un menu in AR semplicemente pensando di muovere il dito. Questa tecnologia potrebbe rendere obsoleti goffi controller fisici, ampliando il potenziale dello spatial computing fino a eliminare l’intermediario tra noi e il contenuto digitale. È uno scorcio di futuro in cui pensieri e gesti impercettibili interagiscono direttamente con i sistemi digitali.

Questo cambio di prospettiva – dai dispositivi esterni ai segnali interni – ridefinisce il concetto stesso di interfaccia. Così come il Vision Pro di Apple ha introdotto al grande pubblico lo spatial computing (fondere contenuti digitali e spazio fisico in tempo reale), le tecnologie di interfaccia neurale promettono di fare un passo ulteriore. L’approccio di Apple con Vision Pro si affida a input “naturali” come lo sguardo e il gesto di pinch, mantenendoci presenti nell’ambiente. Ma il salto successivo, prefigurato dalle interfacce neurali, potrebbe rendere quasi invisibile il confine tra intenzione e azione. Un’interfaccia non deve più essere qualcosa che tocchiamo o vediamo: può diventare qualcosa che indossiamo o addirittura parte di noi. Il sistema nervoso umano stesso si sta trasformando in un dispositivo di input. In questo numero ci concentriamo su questa idea trasformativa: il design dell’interazione si sta spostando sotto la pelle e tutt’intorno a noi, portando concetti da fantascienza ai prototipi – e presto, nelle esperienze quotidiane.

Understanding the Shift

Lo spatial computing è il paradigma nascente in cui i contenuti digitali non sono confinati a uno schermo, ma si integrano senza soluzione di continuità con l’ambiente fisico. Simon Greenwold lo definì nel 2003 come “interazione umana con una macchina in cui la macchina mantiene e manipola riferimenti a oggetti e spazi reali”. In parole povere, il computing spaziale si riferisce a AR/VR e dispositivi ricchi di sensori che permettono ai computer di comprendere e aumentare lo spazio reale: dalle app AR sullo smartphone ai visori di mixed reality immersiva. Questa tecnologia “fonde il mondo fisico e le esperienze virtuali usando un’ampia gamma di tecnologie”, permettendo nuovi modi di interagire con le macchine e dando alle macchine la capacità di navigare e capire l’ambiente attorno a no. Innovazioni recenti come Apple Vision Pro – che Apple significativamente chiama un “computer spaziale” – evidenziano questo cambiamento: le interfacce non sono più solo finestre (schermi) attraverso cui guardiamo, ma spazi dentro cui viviamo.

In parallelo, abbiamo le interfacce neurali – spesso sinonimo di interfacce cervello-computer (Brain-Computer Interface, BCI) – che collegano il sistema nervoso umano ai computer. Queste vanno da impianti invasivi (come il chip Neuralink di Elon Musk, o il celebre Utah array usato nelle neuroscienze) a wearable non invasivi (come fasce EEG o braccialetti EMG). In tutti i casi, captano segnali bioelettrici (onde cerebrali, impulsi muscolari, ecc.) e li traducono in comandi interpretabili dalle macchine. Sebbene i BCI siano nati nei laboratori di ricerca e in ambito clinico, oggi li vediamo spingersi verso applicazioni consumer. Una distinzione chiave è che le interfacce non invasive, che non richiedono chirurgia, sono al centro delle applicazioni mainstream. Ad esempio, il prototipo di bracciale neurale di Meta utilizza sensori EMG sul braccio per rilevare i segnali elettrici dei movimenti muscolari intenzionati dal cervello, senza bisogno di impianti né addirittura di telecamere. In sostanza, ascolta i segnali nervosi che il cervello invia già alla mano. Questa tecnologia si basa su decenni di ricerche BCI che hanno dimostrato la possibilità di operare computer con il solo pensiero: dai primi esperimenti in cui scimmie controllavano bracci robotici, fino a pazienti umani che muovevano cursori sullo schermo con la mente. Oggi, sensori migliorati e algoritmi di AI per il decoding stanno aumentando la precisione, rendendo possibile usare tali input neurali nelle interfacce di tutti i giorni. Come ha osservato James Landay dello Stanford HAI, ci aspettiamo “modelli più grandi e multimodali” con nuove capacità entusiasmanti – e interpretare segnali neurali è intrinsecamente una sfida multimodale (che combina elaborazione del segnale, visione artificiale per il contesto, comprensione del linguaggio, ecc.). La convergenza di questi trend prepara il terreno per le interfacce neurali-spaziali.

Interfacce neurali-spaziali è dunque ciò che otteniamo all’incrocio di questi due ambiti: ambienti di spatial computing che possiamo controllare – o che si adattano – tramite input neurali. Questa convergenza oggi è possibile perché l’AI è divenuta abile nel fondere flussi multipli di dati – quella che chiamiamo AI multimodale. Gli avanzati sistemi di AI attuali sanno analizzare in parallelo dati visivi, comandi vocali e segnali biometrici, trovandovi schemi e significati. Ad esempio, un sistema di AI potrebbe prendere segnali EEG da un visore, dati di eye-tracking da un display AR e informazioni sul contesto ambientale dell’utente, sintetizzando il tutto per inferire cosa l’utente desidera o di cosa ha bisogno. Aumenta così in modo esponenziale la larghezza di banda della comunicazione tra umano e macchina. Invece di affidarci a un singolo canale (come solo il tocco o solo la voce), ne abbiamo molti aperti: segnali cerebrali, gesti, sguardo, voce e contesto ambientale simultaneamente. La fusione dei BCI con AR/VR, come osservano i ricercatori su Frontiers in Human Neuroscience, “può fornire canali di comunicazione aggiuntivi aumentando la banda dell’interazione umano-AR/VR”, sia attraverso comandi attivi che tramite monitoraggio passivo dello stato dell’utente. In altre parole, le interfacce neurali-spaziali promettono interazioni più ricche e naturali. Un utente immerso in un’esperienza di spatial computing potrebbe impartire un comando senza muovere un dito, e al contempo il sistema potrebbe contemporaneamente percepire il carico cognitivo o lo stato emotivo dell’utente e adattarsi di conseguenza. In pratica, stiamo insegnando ai computer a cogliere l’atmosfera – e a leggere l’utente – allo stesso tempo.

The Core

Al cuore di questo cambiamento vi è un nuovo tipo di simbiosi uomo-macchina. Spesso parliamo di interfacce “naturali” o “senza soluzione di continuità” – ebbene, le interfacce neurali-spaziali promettono proprio questo, cancellando le cuciture tra il nostro corpo, l’ambiente e il sistema computazionale. L’interfaccia non è più un oggetto distinto (uno schermo, una tastiera, un pulsante); si dissolve nel mondo intorno a noi e dentro di noi. Nel numero #7 di InsideTheShift – Designed to be Lived abbiamo esplorato il passaggio “da interfacce pensate per essere guardate a quelle progettate per essere vissute”, evidenziando come gli strati digitali possano coesistere con la realtà fisica anziché farle concorrenza. Le interfacce neurali-spaziali incarnano questa filosofia: la progettazione dello spazio diventa progettazione dell’interfaccia, e il corpo umano diventa un elemento attivo del sistema. Stiamo passando “da interfacce basate su schermo a esperienze prive di interfaccia, incorporate nello spazio”, come descrive un lavoro accademico. I confini tra utente e computer sfumano – la nostra intenzione diventa input, e l’ambiente intorno a noi diventa la tela per l’output.

Riflettiamo su cosa significhi tutto ciò per il design dell’interazione. Anziché cliccare menu o toccare icone, potremmo semplicemente guardare un oggetto in AR e pensare “apri” – e quello si apre. Invece di controllare un avatar virtuale con joystick, potrebbe essere il nostro sistema nervoso e i biosensori a guidarlo: il nostro livello di stress, misurato via EEG e frequenza cardiaca, potrebbe modulare in tempo reale la difficoltà di un videogioco; i movimenti oculari potrebbero pilotare un drone virtuale in modo naturale come girare lo sguardo. In sostanza, l’intenzione diventa il nuovo click. È un’estensione radicale di quanto discusso nel numero #2 di InsideTheShift – Cognitive Interfaces, dove l’AI iniziava a interpretare l’intento dell’utente dal linguaggio naturale e dal contesto. Ora quella interpretazione si estende ai segnali neurali e fisiologici. L’unità di interazione non è più il movimento di un mouse o il tap su uno schermo – è una combinazione di sguardo, pattern di onde cerebrali, micro-movimenti muscolari e parole pronunciate, tutti orchestrati insieme. Stiamo avvicinandoci a ciò che InsideTheShift #13 ha descritto come Computational Intuition: interfacce così intelligenti da capire ciò che vogliamo senza comandi espliciti, sfruttando segnali sottili e un vasto contesto. Un’interfaccia neurale-spaziale dotata di AI multimodale può sviluppare una sorta di sesto senso riguardo all’utente – un’intuizione computazionale che anticipa bisogni o rileva problemi (ad esempio notando dai segnali cerebrali un calo di attenzione o un sovraccarico, e offrendo aiuto in modo proattivo).

Fondamentalmente, questo nuovo paradigma ridefinisce la relazione tra umano e macchina. Non è più un modello dell’utensile (dove diciamo esplicitamente al computer cosa fare), bensì un modello di partnership. L’interfaccia diventa un’estensione dell’utente. In effetti, quando ben realizzata, l’interfaccia quasi scompare. Mark Weiser, pioniere dell’ubiquitous computing, disse notoriamente che “le tecnologie più profonde sono quelle che scompaiono… si integrano nel tessuto della vita quotidiana fino a diventare indistinguibili da essa.” Le interfacce neurali-spaziali puntano esattamente a questo ideale. I tuoi occhiali AR, i tuoi auricolari intelligenti o i futuri cerchietti neurali dovrebbero sembrare parte naturale dei sistemi di feedback del tuo corpo – quotidiani quanto la vista o la propriocezione. Nel numero #5 di InsideTheShift – Integrated Intelligence, abbiamo immaginato un’intelligenza intessuta nei nostri ambienti e prodotti. Ora vediamo quella visione prendere forma: un’intelligenza integrata non solo attorno a noi, ma dentro di noi (attraverso link neurali) e tra noi e il mondo (attraverso il computing spaziale). Il nocciolo di questo cambiamento è un nuovo patto uomo-macchina: noi concediamo alla tecnologia un accesso più intimo a noi stessi (i nostri dati neurali, il nostro spazio fisico) e in cambio essa fornisce assistenza che si percepisce quasi come un’estensione della nostra mente e dei nostri sensi. È una visione affascinante, che può potenziare le capacità umane e forse amplificare la nostra cognizione – in pratica la realizzazione high-tech dell’antico sogno di fondere senza soluzione di continuità mente, corpo e strumento.

The Broader Shift

Gli effetti a cascata delle interfacce neurali-spaziali potrebbero essere vastissimi. Prima di tutto, c’è il potenziale per un’enorme accessibilità e inclusività. Per persone con mobilità limitata o disabilità, il poter controllare dispositivi con segnali neurali è rivoluzionario. Chi non può usare le mani non sarebbe più escluso da un’esperienza di spatial computing – potrebbe navigare un ambiente aumentato o comunicare tramite un’interfaccia cerebrale. La stessa tecnologia di interfaccia neurale “potrebbe trasformare l’accessibilità della tecnologia”, nota XR Today, permettendo a persone con paralisi o disabilità motorie di interagire con contenuti digitali in modo avanzato. Un visore che legge i movimenti oculari, o un impianto cerebrale che traduce i pensieri in movimenti di un cursore, possono aprire il mondo informatico a chi finora gli strumenti tradizionali l’hanno precluso. In senso più ampio, man mano che le interfacce diventano più adattive (ad es. regolando la dimensione dei font o le modalità di input basandosi sui feedback neurali dell’utente), la tecnologia potrà personalizzarsi sui bisogni e sul contesto di ciascuno.

Da grandi poteri derivano grandi responsabilità – e rischi. L’idea di una tecnologia che attinge direttamente ai nostri cervelli e corpi solleva questioni cruciali. Una è la privacy: i dati neurali sono estremamente personali. Se i nostri dispositivi possono letteralmente leggere i nostri pensieri (anche solo a livello di intenzioni o stati emotivi), come proteggere quella privacy mentale? Gli studiosi hanno già iniziato a discutere di “neurodiritti” – il diritto alla libertà cognitiva e alla riservatezza dei dati cerebrali. Il mondo medico e gli eticisti avvertono che man mano che i BCI entrano nell’uso reale, dovremo prevenire usi impropri dei dati neurali. C’è chi teme un futuro in cui le pubblicità si adattino alle reazioni inconsce, o in cui i datori di lavoro monitorino l’attenzione dei dipendenti tramite metriche cerebrali. Questi scenari rendono fondamentale integrare da subito la privacy by design nelle interfacce neurali. Un altro tema è la sicurezza: un’interfaccia cerebrale violata da un hacker sarebbe l’incubo cibernetico per eccellenza. Anche il caso più semplice di interfacce non invasive – poniamo un visore AR che influenza i tuoi sensi – va protetto da manipolazioni malevole. Dobbiamo poi considerare l’etica del design: affidando più agenzia all’AI (per esempio un sistema che auto-regola l’ambiente o filtra informazioni in base allo stato mentale rilevato), chi mantiene il controllo? Eliminare tastiere e schermi può potenziare gli utenti, ma anche disorientare o ridurre la scelta consapevole se gestito male. Mantenere la sovranità umana in questo circuito è fondamentale – un tema che abbiamo toccato in diversi numeri passati. Il sistema deve ampliare, non prevaricare, le nostre intenzioni.

Dobbiamo anche considerare i cambiamenti sociali e culturali. Man mano che la tecnologia si sposta sotto la pelle, il confine tra ciò che è “umano” e ciò che è “macchina” si fa sfumato, ponendo questioni di accettazione. Le persone saranno disposte a indossare dispositivi neurali quotidianamente? I segnali iniziali sono incoraggianti: la società sta gradualmente normalizzando i wearable come gli smartwatch che tracciano costantemente le nostre biometrie, e gli occhiali AR sono sul punto di una più ampia adozione. Tuttavia, qualsiasi passo falso (per esempio uno scandalo legato alla privacy o un dispositivo che causa danni) potrebbe innescare reazioni pubbliche negative, simili alla vicenda di Google Glass. Dunque design e implementazione dovranno essere human-centered e trasparenti, per guadagnare fiducia. Sul piano culturale, potremmo vedere nuove forme di espressione digitale – immaginiamo condividere uno “stato neuro” oppure designer che creano esperienze responsive ai pattern cerebrali collettivi di una folla. Arte, intrattenimento, istruzione – tutti potrebbero trasformarsi. Una classe, ad esempio, potrebbe usare la mixed reality con BCI passivi per capire quando gli studenti sono confusi o annoiati e adeguare dinamicamente la lezione. I luoghi di lavoro potrebbero impiegare interfacce spaziali per potenziare la collaborazione, con mediatori AI che percepiscono quando qualcuno ha un’idea sulla punta della lingua ma esita a esprimerla. Queste possibilità si ricollegano al concetto trattato in InsideTheShift #10 Temporal Interfaces – la tecnologia che riconfigura come viviamo il tempo e i ritmi. Le interfacce neurali-spaziali potrebbero, ad esempio, aiutarci a gestire i nostri tempi cognitivi (ricordandoci di fare una pausa quando viene rilevata stanchezza mentale, o catturando idee nel momento in cui emergono). Potrebbero registrare flussi di esperienza per rivederli in seguito (una sorta di memoria esternalizzata), mescolando ulteriormente passato e presente nel nostro modo di lavorare. In sintesi, lo shift più ampio ci porta verso un mondo in cui tecnologia e vita sono intrecciate più che mai, con un potenziale sia di empowerment sia di sfide nel ridefinire i confini.

What’s Next

Guardando al futuro, il percorso delle interfacce neurali-spaziali probabilmente si dispiegherà per fasi. Nel breve termine vedremo più esperimenti e prodotti pionieristici che lasciano intravedere il possibile. Aziende come Meta hanno segnalato che l’AR senza controller è nei loro piani (gli occhiali Orion, attesi nei prossimi anni, puntano a basarsi su input neurali da polso). Il visore Galea di OpenBCI – che integra EEG, EMG, EDA e altro in headset VR/XR di fascia alta – sta entrando in beta e probabilmente stimolerà una serie di ricerche e sviluppo indie. Possiamo aspettarci che laboratori accademici e startup affineranno gli algoritmi per decodificare i segnali neurali, usando modelli di AI avanzati (potenzialmente arrivando a integrare architetture stile large language model per interpretare i complessi dati cerebrali). Sarà cruciale la collaborazione tra discipline: neuroscienziati, esperti di AI, designer AR ed eticisti che lavorano assieme per risolvere gli ostacoli tecnici e definire linee guida. All’orizzonte, forse fra 5-10 anni, potremmo vedere occhiali AR mainstream (da Apple, Meta, Snapchat o altri) integrare discretamente capacità di interfaccia neurale – magari iniziando con semplici elettrodi EMG o EEG incorporati in fascette o auricolari. Potrebbe essere qualcosa di sottile, come il tuo auricolare AR che legge l’attività cerebrale per capire se stai prestando attenzione a una riunione virtuale. Proprio come gli assistenti vocali sono passati da curiosità a funzionalità standard degli smartphone, gli input neurali potrebbero fare il salto da sperimentali a attesi.

Standard ed etica dovranno tenere il passo rapidamente. L’IEEE, ad esempio, ha lanciato un’iniziativa sullo Spatial Computing per il Metaverso focalizzandosi su HMI (interfacce uomo-macchina) e “brain-machine interface, occhiali AR e tecnologie HMD”, con l’obiettivo di sviluppare linee guida per compatibilità e sicurezza degli utenti. Gli enti regolatori potrebbero iniziare a redigere normative specifiche sul neurotech (potremmo vedere qualcosa di simile al GDPR ma per i dati cerebrali). Sul fronte tecnico, per l’adozione sarà fondamentale risolvere le questioni di comfort dei sensori e calibrazione – nessuno vuole un’interfaccia che richieda gel appiccicosi sul cuoio capelluto o continue ricalibrazioni. Dobbiamo quindi aspettarci progressi in termini di indossabilità (dispositivi più comodi ed eleganti) e usabilità (auto-calibrazione, personalizzazione tramite AI). Un altro trend probabile: le interfacce ibride. Anziché puntare su un solo canale, i futuri sistemi combineranno input cerebrale con eye-tracking, voce e gesto nel mix che funziona meglio. I primi studi sugli utenti indicano già che l’interazione multimodale migliora l’affidabilità – ad esempio, se il segnale cerebrale è rumoroso, uno sguardo veloce o un battito di ciglia di conferma possono disambiguare l’intenzione.

A più lungo termine, il confine tra potenziare e aumentare potrebbe sfumare. Oggi le interfacce neurali mirano ad assistere o ripristinare (aiutare una persona disabile a comunicare, o permettere a un utente AR di controllare i menu più velocemente). Ma gli sviluppi futuri potrebbero spingersi nel campo del miglioramento cognitivo – usare queste interfacce per potenziare effettivamente memoria, attenzione o altre funzioni mentali attraverso un’integrazione stretta con l’AI. Ciò solleva questioni profonde (ed echi da fantascienza): se avessimo un co-processore AI per il cervello, cosa significherebbe per il pensiero individuale e la creatività? Sebbene tali scenari siano speculativi, non sono più pura fantasia. Potremmo davvero vedere prime forme di “protesi digitali” per la mente nella nostra vita. Immaginiamo una lente a contatto AR che non solo mostri informazioni ma stimoli determinati pattern neurali per migliorare apprendimento o umore. Il passo ancora successivo potrebbe essere interfacce bi-direzionali: non solo leggere l’attività neurale ma anche scriverla (alcuni laboratori già lavorano su loop di neurofeedback e perfino protesi visive rudimentali che inviano immagini al cervello). Le implicazioni sarebbero immense – dal curare la depressione con stimolazione neurale su misura, fino forse un giorno a condividere pensieri direttamente da cervello a cervello. Ognuno di questi passi richiederà che la società valuti attentamente benefici e rischi. Ma se la storia insegna qualcosa, il momentum del progresso tecnologico è difficile da rallentare. Le interfacce neurali-spaziali stanno arrivando, gradualmente ma inesorabilmente, e rappresentano una frontiera che dobbiamo approcciare con entusiasmo ma anche con prudenza.

Takeaways

  • Le interfacce neurali-spaziali fondono AI multimodale, computing spaziale (AR/VR) e input neurali, creando interazioni digitali immersive guidate da gesti sottili e segnali cerebrali.

  • L’interfaccia diventa “invisibile”: il corpo e lo spazio fisico sono ora parte integrante del sistema di interazione. Intenzioni, sguardi e stati mentali possono attivare comandi senza bisogno di touch screen o controller.

  • Queste tecnologie promettono maggiore accessibilità: persone con disabilità motorie potranno controllare interfacce complesse col pensiero o piccoli movimenti, aprendo nuovi orizzonti di inclusione

  • Le interfacce neurali-spaziali abilitano esperienze adattive e contestuali: sistemi in grado di “percepire” il carico cognitivo o l’emozione dell’utente e modificare l’esperienza di conseguenza (ad es. adattando la difficoltà di un compito in tempo reale).

  • Servono però approcci ethics-first: tutela dei dati neurali personali (neurorights), sicurezza contro abusi o hacking, e design centrato sull’uomo per mantenere controllo e fiducia dell’utente.

  • A breve vedremo più dispositivi wearable con sensori neurali (braccialetti EMG, cerotti EEG) integrati in occhiali AR o auricolari. La multimodalità (voce+sguardo+BCI) sarà fondamentale per affidabilità e usabilità

  • Standardizzazione e linee guida (es. iniziative IEEE) saranno cruciali per garantire compatibilità hardware/software e un ecosistema aperto e sicuro

  • Nel lungo termine, le interfacce neurali potrebbero evolvere in potenziamenti cognitivi e comunicazione diretta cervello-cervello, ponendo sfide senza precedenti ma ampliando le possibilità umane.

  • Questo shift prosegue temi già trattati: dalle cognitive interfaces (interfacce AI conversazionali) alle integrated intelligence (AI diffusa nell’ambiente) fino alla computational intuition (sistemi che intuiscono bisogni). Le interfacce neurali-spaziali sono la naturale estensione di questi trend.

  • Siamo all’alba di un nuovo patto tra uomo e tecnologia: più profondo, pervasivo e intimo. Il corpo diventa la nuova periferica, lo spazio il nuovo schermo, l’intelligenza artificiale il nuovo intermediario. Sta a noi guidarne lo sviluppo in modo responsabile.

The Shift Continues

La storia della tecnologia è una storia di distanze che si accorciano sempre di più – tra noi e i nostri strumenti, tra le nostre intenzioni e la loro realizzazione. Le interfacce neurali-spaziali sono forse il passo più audace in questo viaggio, nel quale molta della frizione residua viene eliminata. In questo diciassettesimo numero di InsideTheShift abbiamo visto come fili un tempo separati – AI, AR, wearables, tecnologie neurali – si stiano intrecciando in un nuovo tessuto esperienziale. È un tessuto in cui digitale e fisico, mente e macchina si interconnettono. Ma, come in ogni grande tessitura, siamo anche i tessitori. Le scelte di design, le decisioni etiche e i salti creativi che compiamo ora daranno forma a come questo arazzo si dispiegherà. Ci darà potere e includerà tutti, o ci avvolgerà in nuovi dilemmi? Probabilmente entrambe le cose, e il nostro compito è orientarlo verso la prima possibilità.

Ripensando alle edizioni precedenti – dalle interfacce cognitive, alle dimensioni temporali, fino ai sistemi intuitivi – emerge un fil rouge chiaro: la spinta verso una tecnologia sempre più human-centric, che si adatta a noi invece di costringerci ad adattarci ad essa. Le interfacce neurali-spaziali sono un apice di questo trend, ma al contempo un nuovo inizio. Ci spingono a ridefinire concetti fondamentali: cosa significa comunicare quando persino il silenzio parla (attraverso segnali cerebrali)? Cosa significa progettare quando l’“interfaccia” è ovunque e in nessun luogo? Come preservare dignità e autonomia umana quando persino i nostri pattern neurali potrebbero far parte del flusso di input/output?

Sono domande impegnative, ma affrontarle con lucidità è proprio ciò che entusiasma la comunità di innovatori e pensatori che InsideTheShift riunisce. Lo shift che stiamo vivendo non è un singolo balzo, ma un’evoluzione costante – una che richiede curiosità, spirito critico e visione in egual misura.

Man mano che questo shift continua, vi invito a immaginarne le possibilità senza perdere di vista i principi. Figuriamoci un anziano che ritrova autonomia grazie a un assistente domestico controllato col pensiero; un gruppo di amici in città diverse che condivide uno spazio di realtà mista che reagisce al loro umore collettivo; o una AI che non solo risponde alle tue domande ma percepisce l’istante stesso in cui ne stai formulando una. Futuri del genere sono a portata di mano. Sta a noi guidare questa tecnologia affinché accresca la nostra umanità, e non la offuschi.

La convergenza fra interfacce neurali e spatial computing sta riscrivendo il linguaggio dell’interazione. Un linguaggio che diventerà intimamente personale, riccamente multimodale e, si spera, universalmente abilitante. Insieme, come sempre, continueremo a decifrare questo linguaggio e a scriverne il futuro. Lo shift va avanti – e tutti noi, in un certo senso, ne siamo gli autori.

Beyond Virtual: come lo Spatial Computing sta ridisegnando il futuro del gaming

Ieri ho partecipato all’Italian Gaming Expo a Roma con uno speech dal titolo “Beyond Virtual: Spatial Computing and XR for the Future of Gaming”. Un’occasione utile per mettere a fuoco un tema che seguo da tempo con passione e studio, e che ho affrontato anche nel mio libro Spatial Shift: la convergenza tra intelligenza artificiale, tecnologie immersive e nuovi ambienti digitali.

Questa volta ho voluto declinare quei concetti sul settore del gaming, che forse più di altri sta già vivendo una trasformazione profonda, non tanto nel linguaggio estetico o nella logica del gameplay, ma nel modo in cui esperienze, ambienti e contenuti si relazionano allo spazio fisico e alla nostra presenza nel mondo reale.

Il punto di partenza è semplice quanto radicale: stiamo entrando in una nuova fase del computing. Dopo l’epoca desktop, quella mobile e quella cloud, oggi siamo nell’alba di un’era spatial, dove l’interazione con i contenuti digitali si libera dallo schermo e si distribuisce nell’ambiente che ci circonda. Lo chiamiamo spatial computing, ed è molto più di un’estensione dell’AR o della VR. È un cambio di paradigma nel modo in cui il digitale “vive” nello spazio.

Spatial computing: dal dispositivo all’ambiente

In questa nuova fase non interagiamo più con il contenuto “guardando dentro” un device. Il contenuto si proietta fuori. Lo spazio intorno a noi diventa un canvas digitale su cui appaiono elementi immersivi, persistenti, personalizzati. Non è solo una questione di effetto wow: è una trasformazione sistemica del nostro rapporto con l’informazione, la narrazione e il gioco.

Come sottolinea Cathy Hackl, una delle voci più lucide su questi temi, “spatial computing isn’t about devices, it’s about context”. È il contesto che conta. È lì che si gioca la sfida: capire come, dove e quando interagiamo. E soprattutto: chi costruisce questi contesti?

Nel gaming questa transizione è già visibile. Giochi come Pokémon GO hanno mostrato per primi la possibilità di costruire esperienze ludiche sovrapposte al mondo reale. Ma oggi siamo ben oltre: visori come Meta Quest 3 o Apple Vision Pro ci permettono di trasformare il salotto in uno spazio ibrido dove avatar, elementi digitali e oggetti fisici convivono. Il gioco non si svolge più in una finestra digitale, ma intorno a noi, in tempo reale, connesso a ciò che facciamo, vediamo e sentiamo.

Il gioco entra nel mondo reale

Questo shift ha due implicazioni molto forti per chi progetta e costruisce contenuti ludici.

La prima è che l’ambiente stesso diventa parte integrante dell’esperienza. Non parliamo più di livelli predefiniti da navigare con un controller, ma di spazi reali in cui ci si muove fisicamente e in cui ogni elemento – un muro, una sedia, una finestra – può diventare parte attiva della narrazione. L’ambiente non è più lo sfondo, è il gameplay.

La seconda è che il corpo torna ad essere centrale. Il corpo non come ostacolo, ma come interfaccia. Con la computer vision, l’eye tracking, il motion sensing e il feedback aptico, il giocatore non è più “fuori dal gioco” ma dentro, presente, immerso e co-autore dell’esperienza.

In questo scenario, il design cambia pelle. Non si tratta più di scrivere regole per un mondo chiuso, ma di orchestrare esperienze in ambienti aperti, dinamici, interattivi e spesso condivisi. Il confine tra gaming, fitness, socialità, formazione o comunicazione diventa sempre più sottile.

AI, generazione procedurale e ambienti intelligenti

Un’altra variabile che sta accelerando tutto questo è l’intelligenza artificiale.

Non è un’esagerazione dire che la convergenza tra AI e spatial computing sta ridisegnando le fondamenta stesse dell’intrattenimento.

L’AI generativa consente oggi di creare NPC autonomi e realistici, mondi generati dinamicamente, missioni che si adattano in tempo reale al comportamento del giocatore. Ma soprattutto, permette a ogni esperienza di essere personalizzata e situata. Un gioco spatial può cambiare non solo in base al tuo livello o alle tue scelte, ma in base al luogo in cui sei, all’ora del giorno, a chi hai intorno.

Stiamo passando da ambienti digitali “chiusi” a ecosistemi intelligenti in grado di leggere, interpretare e rispondere. La logica stessa della progettazione cambia: da una narrativa predefinita a una co-costruita, dove il giocatore entra in relazione attiva con il contesto. È un salto concettuale e tecnico, ma è anche una grande opportunità per re-immaginare il concetto stesso di gioco.

Il gaming come infrastruttura esperienziale

Molti considerano il gaming un sottoinsieme dell’intrattenimento. In realtà, oggi sta diventando sempre più una piattaforma culturale, un’infrastruttura esperienziale. Lo vediamo nei mondi persistenti di Fortnite o Roblox, dove i confini tra gioco, socialità, evento e commercio si fondono. Lo vediamo nella logica dei digital twin, nei training simulator in XR, nei giochi educativi in MR. Il linguaggio ludico sta diventando la grammatica con cui interpreteremo una parte crescente della realtà aumentata che abiteremo nei prossimi anni.

Il gioco non è più uno spazio-tempo separato. È un layer aggiuntivo che si sovrappone alla vita. Può accendersi durante una camminata in città, durante una sessione di allenamento, o mentre esploriamo un museo. Diventa strumento di coinvolgimento, apprendimento, relazione.

Opportunità e nuove domande

Tutto questo apre scenari enormi per chi sviluppa prodotti, contenuti e strategie in ambito gaming e tech. Si apre un nuovo mercato, con nuovi modelli di business e nuove filiere. Ma emergono anche domande nuove, profonde, che non possiamo ignorare.

Chi possiede lo spazio virtuale sovrapposto a quello fisico? Come si tutelano la privacy, i dati ambientali, i comportamenti biometrici raccolti dai dispositivi XR? Come si regolamenta l’accesso, la moderazione, la sicurezza in un gioco che si svolge nel mondo reale, tra persone vere?

Sono le domande che iniziano ad affiorare oggi, ma che saranno centrali domani, quando milioni di persone inizieranno ad abitare queste esperienze spatial ogni giorno.

Oltre il virtuale

Lo spatial computing non è una moda passeggera. È un cambio di fase.

E il gaming non è semplicemente uno dei primi settori a esserne toccato: è il motore culturale che può guidarne l’evoluzione.

Come ha detto Tim Sweeney, CEO di Epic Games:

“AR glasses will become the entertainment platform of the future, replacing smartphones, tablets, and maybe even TVs.”

Non è più questione di se, ma di quando.

E soprattutto, di come costruire esperienze che non si limitino a stupire, ma che abbiano valore, coerenza e impatto.

Per questo credo che oggi più che mai sia il momento di pensare oltre il virtuale – e iniziare a progettare quello che viene dopo.

Il futuro dell’Immersività nello Sport: intervista in università parlando di tecnologia, spatial computing e fan engagement

Nel mondo dello sport, le tecnologie immersive come la realtà aumentata (AR) e la realtà virtuale (VR) stanno rivoluzionando l’esperienza dei tifosi e l’ottimizzazione delle prestazioni degli atleti. Ho presentato qualche giorno fa il libro “Spatial Shift” che ho recentemente scritto, partecipando a un’intervista con un’università per discutere del futuro dello sport e dell’immersività.

In questa intervista, che riporto, ho condiviso la mia visione su come queste tecnologie vengono sfruttate oggi nell’NBA, le loro potenzialità future e l’apertura delle società sportive all’adozione di queste innovazioni. Scopriamo insieme come AR e VR stanno trasformando il panorama sportivo e quali prospettive ci attendono. Ho anche annunciato la prossima uscita del libro “Sport Tech, una nuova era dello sport business e della trasformazione digitale.”

Come vengono sfruttate queste tecnologie al giorno d’oggi? C’è o ci sarà secondo Lei un’apertura da parte di tutte le società sportive all’utilizzo di esse? Le nuove tecnologie, come la realtà aumentata (AR) e la realtà virtuale (VR), sono già ampiamente sfruttate nell’NBA per migliorare l’esperienza dei tifosi e ottimizzare le performance dei giocatori. Le applicazioni includono la trasmissione di partite in VR per una visione immersiva (da punti in cui sono situate camere 360), l’uso di sensori e analisi avanzate per monitorare e migliorare le prestazioni degli atleti (ed i cui dati sono poi utilizzati per ambiti di simulazione immersiva), e la creazione di contenuti interattivi per i social media che coinvolgono i fan in modo più profondo (AI, Video Recognition, Image Recognition). Credo fermamente che tutte le società sportive seguiranno questa tendenza, poiché l’adozione di queste tecnologie può offrire vantaggi competitivi significativi, sia in termini di ingaggio del pubblico che di miglioramento delle prestazioni sportive e diventerà una condizione necessaria anche di sopravvivenza a tendere in termini di possibili forme di ricavo.

Come si possono coinvolgere sempre più emotivamente le persone rispetto ad una partita live vista con i propri occhi? Per coinvolgere emotivamente le persone in modo paragonabile a una partita live, le tecnologie immersive come la VR possono giocare un ruolo cruciale. Offrendo esperienze che replicano la sensazione di essere presenti fisicamente all’evento, si può creare un legame emotivo più forte. Ad esempio, trasmettere le partite in VR permetterà ai tifosi di vivere l’emozione del gioco da diverse prospettive, come se fossero seduti a bordo campo. L’uso di AR per fornire statistiche in tempo reale, replay e angolazioni esclusive arricchisce l’esperienza visiva e mantiene l’attenzione del pubblico. Il tutto poi deve esser sempre corredato di servizi a valore aggiunto, come loyalty, reward e accesso ad esclusività differenziante. Se prima del covid il fisico era ormai commodity ed il digitale l’opportunità derivante dalla novità, ora stiamo vivendo un processo inverso in cui il digitale è l’elemento di commodity in cui avvengono naturalmente fruizioni, interazioni e servizi all’utente con contenuti esclusivi per il digitale, ed il fisico è la componente dell’esperienza in cui viene creato un valore unico e raro per l’utente.

Come si possono “convincere” le persone scettiche a provare ad indossare un visore per provare un’esperienza immersiva del genere? Per convincere le persone scettiche a provare i visori VR, è fondamentale offrire dimostrazioni gratuite e esperienze pilota che mostrino chiaramente i vantaggi di queste tecnologie. Questo nella fase educativa, senza dubbio. Eventi promozionali in cui i tifosi possono sperimentare la VR senza costi iniziali potrebbero essere molto efficaci. Dopodiché, passata la fase di evangelizzazione, l’utilizzo di testimonianze di celebrità e atleti che raccontano le loro esperienze positive attraverso l’uso dell’extended reality, possono aumentare l’interesse e ridurre le riserve. Non c’è dubbio che per migliorare l’esperienza ed accelerare poi l’adozione del visore ci siano tre condizioni che devono verificarsi nello stesso momento (e ci siamo quasi)

  • ergonomia, semplicità d’uso e user experience del device
  • abbattimento del prezzo dei device consumer per la massa
  • creazione di contenuto esclusivo e unico fruibile da device (come sta facendo AppleTV con MLS e contenuti solo visibili in vision pro)

Secondo Lei siamo solo all’inizio, o già con quello che accade in NBA siamo ad un buon punto rispetto all’utilizzo di a.r. e v.r. in campo sportivo? Ritengo che siamo ancora agli inizi di un lungo percorso evolutivo nell’uso della AR e VR nello sport e delle nuove tecnologie convergenti (AI e Blockchain incluse). Sebbene l’NBA stia facendo passi significativi nell’adozione di queste tecnologie, sia per temi di cultura, budget e approccio, c’è ancora un ampio margine per l’innovazione e la diffusione. Le possibilità offerte dal computing spaziale e dall’intelligenza artificiale, come discusso nel mio libro, promettono di trasformare ulteriormente l’esperienza sportiva e di renderla sempre più coinvolgente e personalizzata oltre che generare nuove opportunità per brand e partner in termini di forme di nuova monetizzazione.

Secondo Lei i visori quando potranno cominciare ad essere accessibili ai più in termini di prezzo e di “comodità” d’utilizzo? Prevedo che i visori VR diventeranno accessibili al grande pubblico nei prossimi 3-5 anni. La rapida evoluzione tecnologica e la competizione tra i produttori stanno già portando a una riduzione dei costi e a miglioramenti significativi nella comodità d’uso. La miniaturizzazione dei componenti, l’aumento della durata della batteria e il miglioramento dell’ergonomia sono tutti fattori che contribuiranno a rendere questi dispositivi più attraenti e accessibili. L’avvento del Vision pro ha accelerato già il contesto di competizione: se da una parte Meta ha iniziato ad adeguare ed evolvere il proprio sistema operativo nella direzione introdotta da Apple con lo Spatial Computing, dall’altra altri competitor di device hardware hanno capito che diminuzione della dimensione, l’integrazione di sensori, camere e display e la progettazione ergonomica per creare accessibilità e inclusività sono elementi progettuali necessari.

Molte persone si rifiutano di provare la realtà virtuale solo perché devono indossare un caschetto, quindi i visori anche se diventeranno sempre più piccoli e accessibili potranno sostituire gli smartphone? O le persone si rifiuteranno perché si tratta di “indossare” qualcosa sulla propria testa? È vero che molte persone sono riluttanti a indossare un caschetto VR ed in generale per persone sono poco predisposte a modificare il proprio visus se non hanno una reale necessità (problemi di vista per capirci…). Con il continuo miglioramento del design e la riduzione delle dimensioni dei visori, ritengo che questa resistenza diminuirà trasformando il visore da maschera / caschetto ad occhiale, indossabile tutti i giorni (esattamente la strada che sta facendo Meta e Luxottica). Anche se i visori VR potrebbero non sostituire completamente gli smartphone, diventeranno probabilmente un complemento importante per determinate esperienze immersive che non possono essere replicate su uno schermo piatto. La chiave sarà offrire valore aggiunto che giustifichi l’uso di un dispositivo indossabile, in determinate circostanze. Sono dell’idea che non avremo mai un uso costante di un occhiale in testa, ma utilizzi specifici e fortemente contestualizzate e caratterizzanti in cui saremo ben predisposti a farlo.

Attualmente negli sport, da parte delle società è più utilizzata la realtà aumentata o la realtà virtuale? Attualmente, la realtà aumentata è più utilizzata rispetto alla realtà virtuale, soprattutto per le sue applicazioni immediate e facilmente integrabili nelle trasmissioni televisive e nelle app mobili o nei siti internet attraverso la WebAR. La AR è utilizzata per sovrapporre grafici, statistiche e replay durante le partite, o per mostrare asset tridimensionali e contestualizzati nello spazio fisico, migliorando l’esperienza visiva senza la necessità di attrezzature speciali. La VR sta guadagnando terreno, soprattutto per le esperienze immersive, simulazioni e allenamenti degli atleti.

Nel calcio l’utilizzo di queste tecnologie è ancora un miraggio? L’utilizzo della v.r. nella finale di Copa América è un approccio o gli esperimenti attualmente si fermeranno a quella partita? Nel calcio, l’adozione delle tecnologie AR e VR sta crescendo. L’uso della VR nella finale di Copa América rappresenta un passo importante verso l’integrazione di queste tecnologie, ma è ancora in fase sperimentale. Ritengo che con i successi iniziali e il feedback positivi di queste inizaitive, si creerà l’effetto “follower” e vedremo un’adozione più ampia e sistematica nel prossimo futuro, non solo limitata a eventi singoli ma integrata regolarmente nelle competizioni sportive. Il tema dei diritti da sbloccare è in corso, e questo sarà inoltre un abbattimento enorme di barriere.

In quanto tempo si potrebbe arrivare all’utilizzo totale di queste tecnologie in tutti gli sport? L’adozione totale di AR e VR in tutti gli sport potrebbe avvenire entro i prossimi 5-10 anni. Questo dipenderà dall’evoluzione tecnologica, dalla riduzione dei costi e dall’accettazione da parte del pubblico e degli atleti. Man mano che le tecnologie diventano più avanzate e accessibili, e i benefici diventano più evidenti, la loro integrazione nei vari sport diventerà inevitabile. Questa è una valutazione “lineare” ma non ho dubbi sul fatto che potremmo vedere una accelerazione di adozione come successo con il mobile.

Potrebbero capitare casi in futuro di spettatori presenti solo virtualmente allo stadio e non fisicamente? È plausibile e a mio avviso inevitabile, che in futuro vedremo spettatori che partecipano agli eventi sportivi esclusivamente tramite realtà virtuale. Questo permetterà ai fan (e non solo) di tutto il mondo di “essere presenti” a una partita senza dover viaggiare, offrendo un’esperienza simile a quella dal vivo, permettendo l’estensione del business per il brand e le opportunità di coinvolgere una nuova utenza. L’esperienza fisica – quella di andare allo stadio – manterrà sempre un fascino unico e anzi, il ruolo di esclusività / rarità di posti e unicità, renderà il fisico ancora più attraente e probabilmente vedremo un’integrazione di entrambe le modalità, fisica e virtuale, per soddisfare le diverse esigenze e preferenze dei tifosi.

La convergenza: AI, Blockchain e Spatial Computing

Stiamo vivendo un momento di convergenza senza precedenti tra intelligenza artificiale (AI), blockchain e spatial computing, una trasformazione che promette di ridefinire i processi in molti settori, influenzando la trasparenza, la sicurezza e l’efficienza in tempi brevi.

Recentemente ho avuto modo di approfondire un paper pubblicato dall’AI & Blockchain Convergences Task Force in collaborazione con esperti internazionali del settore. Questo studio esamina in dettaglio come queste tecnologie stiano convergendo e offre una panoramica delle implicazioni per il futuro. I razionali del lavoro includono un’analisi approfondita degli sviluppi tecnologici e delle loro applicazioni reali, con contributi di vari esperti come Mariana de la Roche, Erwin Voloder, e altri professionisti provenienti da organizzazioni come Cheqd, Hyperledger Foundation e UNJSPF.

Questi esperti hanno unito le loro competenze per delineare un quadro chiaro di come l’integrazione di AI e blockchain possa rivoluzionare vari settori.

Anche nel mio libro Spatial Shift, ho esplorato come la convergenza tecnologica stia trasformando il nostro mondo, e ho trovato molteplici punti di contatto con quanto trattato nel paper. Innanzitutto, la combinazione di AI e blockchain crea un nuovo paradigma nella gestione dei dati, noto come “dataconomy“. La Blockchain offre una piattaforma sicura e immutabile per la gestione dei dati, garantendo che i dati utilizzati dagli algoritmi di AI siano autentici e di alta qualità. Questo approccio migliora la trasparenza e l’integrità dei dati, affrontando problemi di accesso e sicurezza.

La decentralizzazione offerta dalla blockchain potrà ridurre i bias nei modelli di AI, distribuendo il controllo e le decisioni su una rete di nodi piuttosto che concentrarle in un’unica entità. Questo aumenterà la sicurezza e la trasparenza dei processi decisionali, rendendo l’AI più equa e affidabile. Inoltre, l’addestramento distribuito dei modelli di AI su una rete blockchain permette di accelerare i tempi di elaborazione e migliorare l’efficienza dei modelli su larga scala. La decentralizzazione del calcolo distribuisce il carico su più nodi, riducendo i colli di bottiglia e migliorando la scalabilità dei modelli di AI.

Gli smart contracts basati su blockchain possono automatizzare la gestione del consenso e la revoca dell’accesso ai dati. Questi contratti intelligenti potranno (e possono già) garantire che i dati vengano utilizzati solo per gli scopi autorizzati, aumentando la fiducia degli utenti e rispettando la privacy. Inoltre, l’AI migliora la sicurezza delle reti blockchain monitorando e rilevando comportamenti anomali in tempo reale. Questo permetterà di prevenire attività fraudolente come hacking e riciclaggio di denaro, garantendo la protezione delle risorse digitali.

La convergenza di AI, blockchain e spatial computing sta trasformando anche le esperienze di realtà mista (Mixed Reality, MR). L’AI crea ambienti virtuali più realistici e interattivi in tempo reale attraverso la sua capacità generativa e predittiva, mentre la blockchain gestisce la proprietà e le transazioni di asset digitali, assicurando autenticità e tracciabilità. Questa combinazione renderà sempre più le esperienze di MR coinvolgenti e sicure, permettendo agli utenti di interagire in modo naturale e protetto.

L’integrazione di AI e blockchain sarà inoltre il boost di miglioramento alla sostenibilità e l’autenticità delle operazioni in vari settori. Per esempio, nella gestione delle catene di approvvigionamento, l’AI potrà prevedere le complessità logistiche, mentre la blockchain garantirà la trasparenza e l’autenticità dei prodotti, promuovendo pratiche sostenibili e responsabili. Un esempio pratico che ho trattato nel libro riguarda il settore agricolo, dove la blockchain sarà la base su cui tracciare l’intero ciclo di vita di un prodotto agricolo, dall’origine alla tavola del consumatore, mentre l’AI può ottimizzare la gestione delle risorse e prevedere le condizioni meteorologiche per migliorare la resa delle colture e lo spatial computing sarà l’elemento di visualizzazione immersiva.

Nel campo della sanità, la blockchain, già oggi utilizzata in alcuni progetti, potrà gestire le credenziali digitali portatili dei pazienti, mantenendo la loro storia medica sicura e sotto il controllo del paziente. L’IA potrà invece analizzare questi dati per prevedere tendenze di salute o epidemie, mentre la blockchain assicurerà che i dati rimangano immutabili e tracciabili. Nel mio libro, discuto anche di un caso studio in cui un sistema basato su blockchain e AI ha migliorato la gestione delle malattie croniche, permettendo ai pazienti di condividere i propri dati con i ricercatori in cambio di incentivi sotto forma di token, promuovendo così la ricerca medica senza compromettere la privacy.

La convergenza di queste tecnologie si sta estendendo a diversi settori, tra cui anche quello finanziario, dove l’AI verrà sempre più utilizzata per creare strategie di trading automatizzate e personalizzate, di asset allocation, di analisi dinamica dei parametri finanziari, mentre la blockchain assicurerà a tutte le transazioni la trasparenza e la verificabilità. Questo non solo migliorerà l’efficienza, ma ridurrà anche il rischio di frodi e manipolazioni ed introdurrà modalità nuove per lo sviluppo degli investimenti.

Infine, uno dei temi più discussi ultimamente – e attualmente fuori hype – trattati nel paper è l’applicazione delle tecnologie convergenti nel contesto del metaverso. L’IA come già visto in una fase ancora immatura sar utilizzata per creare avatar realistici e ambienti interattivi, mentre la blockchain garantirà che gli asset digitali all’interno del metaverso siano autentici, posseduti dagli utenti, realmente visualizzati in un determinato contesto e garantirà inoltre la veridicità delle informazioni a cui l’utente sarà esposto in termini di sollecitazioni visive. Questo apre una nuova strada a nuove forme di interazione sociale e economica, in cui gli utenti potranno possedere, scambiare e monetizzare beni digitali, ma soprattutto “collegare” alla realtà un layer virtuale sicuro e trasparente, e condivisibile.

Questa convergenza tecnologica non solo sta rendendo le esperienze digitali più coinvolgenti e sicure, ma sta mettendo le basi per promuovere una fase nuovo del web (il “famoso” web3) e un ambiente di sviluppo e utilizzo più inclusivo e collaborativo.

L’integrazione di AI, blockchain e spatial computing sta costruendo le fondamenta per un futuro in cui il digitale, il fisico e il virtuale si fondono armoniosamente, offrendo soluzioni innovative e sostenibili per le sfide globali.

Per approfondire questi temi e capire come queste tecnologie stanno rivoluzionando il nostro mondo, vi invito a leggere il mio libro Spatial Shift, disponibile su Amazon.

Direzione Hyper Reality: ma qual’è la differenza tra AR, MR, VR e XR?

Negli ultimi anni la nostra realtà quotidiana è stata intrisa di tecnologia che ha tessuto una trama complessa e multiforme che sta sfidando continuamente le nostre percezioni tradizionali di spazio, tempo e interazione. In questo contesto emergente, concetti come realtà virtuale (VR), realtà aumentata (AR), realtà mista (MR), realtà estesa (XR) e, più recentemente, Hyper Reality, non sono solo diventati argomenti di fervente discussione tra tecnologi, sociologi, filosofi, ma hanno anche aperto nuove frontiere di esperienza e possibilità per l’utente medio che sta iniziando a vedere questi temi come più comuni, per quanto ancora non pervasivi e di massa.

Nonostante la loro crescente prevalenza nella nostra cultura digitale, la comprensione di questi termini e la distinzione tra le loro applicazioni e potenzialità rimangono avvolte in una nebbia di ambiguità e malintesi.

Scrivo questo articolo in risposta alle domande che spesso ricevo in aula, o da clienti, e metto un po’ più a focus questi concetti, delineando non solo le loro definizioni ma anche esplorando il loro impatto sul tessuto della società moderna e sul potenziale futuro che ci attende. Mentre il mercato delle tecnologie XR è previsto crescere esponenzialmente, raggiungendo valori astronomici nei prossimi anni, diventa imperativo per designer, sviluppatori, educatori e curiosi di ogni sorta comprendere a fondo queste tecnologie, per poter navigare e plasmare il futuro digitale che ci aspetta.

Parto da qui: “Ma che differenza c’è tra Augmented Reality, Virtual Reality e Mixed Reality?” e per rispondere è corretto approfondire ognuno di queste classificazioni, partendo però da un concetto di base.

Cosa è la Realtà?

La realtà, come la conosciamo, è un concetto profondamente personale e soggettivo, modellato dalle nostre esperienze, percezioni e interpretazioni del mondo che ci circonda. Questo concetto di realtà è stato ulteriormente complicato e arricchito dall’avvento delle tecnologie digitali, che hanno introdotto nuovi strati di esperienza e percezione. La realtà virtuale, la realtà aumentata, la realtà mista e la realtà estesa sono tutte espressioni di come la tecnologia stia sfidando e riscrivendo le regole della percezione umana, offrendo nuove finestre attraverso le quali osservare e interagire con il mondo.

La distinzione tra il mondo fisico e quello digitale sta diventando sempre più sfumata, con tecnologie che ci permettono di immergerci in ambienti virtuali indistinguibili dalla realtà, arricchire il nostro ambiente fisico con informazioni e oggetti digitali, o persino creare spazi in cui il fisico e il digitale coesistono e interagiscono in modi precedentemente inimmaginabili. La comprensione moderna della realtà non può prescindere dall’influenza delle tecnologie immersive che, giorno dopo giorno, riscrivono le nostre esperienze sensoriali e cognitive.

Approfondendo il concetto di Continuum della virtualità 

Il concetto di continuum della virtualità fornisce un quadro teorico fondamentale per comprendere il vasto panorama delle tecnologie immersive. Originariamente proposto da Paul Milgram e Fumio Kishino nel 1994, il continuum della virtualità esplora l’intero spettro delle esperienze che si estendono dal mondo reale, completamente fisico, fino a quello totalmente virtuale, offrendo una mappa per navigare tra le varie gradazioni di realtà mista. Questo spettro non è statico, ma dinamico, riflettendo l’evoluzione continua della tecnologia e delle sue applicazioni nel mescolare elementi digitali e fisici.

All’estremità del continuum, troviamo la realtà pura, non mediata da alcuna tecnologia digitale. Man mano che ci spostiamo lungo il continuum, incontriamo la realtà aumentata, che sovrappone elementi digitali al mondo fisico, e la realtà mista, che permette un’interazione più profonda tra questi elementi. Proseguendo, raggiungiamo l’ambiente completamente immersivo della realtà virtuale, dove il mondo fisico è sostituito da uno digitale. Questo modello ci aiuta a capire che le esperienze offerte da AR, MR e VR non sono entità isolate, ma parti di un continuum fluido di realtà, ognuna con il proprio potenziale unico di trasformare la nostra interazione con il mondo.

Cosa è la Realtà Aumentata (AR)?

La realtà aumentata (AR) rappresenta la tecnologia che sovrappone contenuti digitali – come immagini, video, o dati – al mondo reale, arricchendo così l’esperienza visiva naturale con informazioni aggiuntive percepite attraverso dispositivi come smartphone, tablet, o visori specifici. A differenza della realtà virtuale, che crea un ambiente completamente artificiale, l’AR migliora l’ambiente esistente senza sostituirlo, mantenendo l’utente ancorato al suo contesto fisico mentre interagisce con elementi digitali.

L’applicazione dell’AR è vasta e variegata, spaziando dall’intrattenimento all’istruzione, dalla manutenzione industriale al marketing. Nelle applicazioni educative, per esempio, l’AR può trasformare un libro di testo tradizionale in un’esperienza interattiva, con immagini che prendono vita o con modelli 3D che gli studenti possono esplorare da diverse angolazioni. Nel commercio, l’AR offre ai consumatori la possibilità di visualizzare prodotti in 3D nel proprio ambiente prima di effettuare un acquisto, migliorando l’esperienza d’acquisto online con un livello di interazione e personalizzazione precedentemente inaccessibile.

Cosa è la Realtà Virtuale (VR)?

La realtà virtuale (VR) trasporta l’utente in un mondo completamente generato / renderizzato, creando un’esperienza immersiva totalizzante che può simulare la realtà o trasportare in ambienti fantastici o ambienti reali riprodotti o registrati con foto/video a 360. A differenza dell’AR, che integra e arricchisce l’ambiente fisico con elementi digitali, la VR sostituisce il mondo reale con uno spazio virtuale, isolando l’utente dall’esterno e impegno tutti i sensi per produrre un’esperienza completamente immersiva. Gli utenti interagiscono con il mondo virtuale tramite dispositivi come visori VR, guanti tattili e sistemi di tracciamento del movimento, o altri sistemi in grado di abilitare ulteriori dinamiche (esempio il nuovo tappeto di Disney Holotile) e che insieme creano la sensazione di essere fisicamente presenti nell’ambiente digitale.

L’impiego della VR spazia dall’intrattenimento e dai giochi, dove offre esperienze coinvolgenti e spettacolari, all’istruzione e alla formazione, dove può simulare situazioni complesse o pericolose in un contesto sicuro. Per esempio, i piloti utilizzano simulatori VR per l’addestramento al volo o automobilistico, permettendo loro di esercitarsi in varie condizioni meteorologiche e situazioni di emergenza senza i rischi associati alla dinamica reale. In campo medico, la VR viene impiegata per la formazione chirurgica, la riabilitazione e perfino per il trattamento di disturbi psicologici, come la fobia e il disturbo da stress post-traumatico, offrendo un ambiente controllato in cui i pazienti possono affrontare e lavorare sulle loro paure.

Cosa è la Realtà Mista (MR)?

La realtà mista (MR) va oltre la realtà aumentata ed aggiunge alcune potenzialità del VR, integrando e sovrapponendo elementi virtuali al mondo reale in modo che interagiscano dinamicamente con l’ambiente fisico. Questo significa che gli oggetti digitali inseriti in uno spazio MR possono essere manipolati e possono rispondere alle modifiche dell’ambiente reale, creando un’esperienza che unisce il meglio di entrambi i mondi. La MR rappresenta quindi un avanzamento significativo nell’interazione uomo-macchina, poiché richiede una comprensione più profonda e un’integrazione più sofisticata di realtà fisica e digitale.

Le applicazioni della MR sono particolarmente promettenti in campi come la progettazione e l’ingegneria, dove i professionisti possono collaborare su modelli 3D virtuali sovrapposti all’ambiente di lavoro reale, consentendo una visualizzazione e una manipolazione senza precedenti dei progetti in fase di sviluppo. In ambito educativo, la MR può immergere gli studenti in ambienti di apprendimento interattivi che stimolano sia il coinvolgimento che la comprensione, offrendo esperienze pratiche in contesti altrimenti inaccessibili o pericolosi nella realtà.

Cosa è la Realtà Estesa (XR)?

La realtà estesa (XR) rappresenta il concetto che incorpora tutte le forme di realtà combinata, dalla realtà aumentata (AR) e la realtà mista (MR) fino alla realtà virtuale (VR), e qualsiasi altra tecnologia futura che sfuma i confini tra il mondo fisico e quello digitale. L’XR non si limita a un singolo tipo di interazione o esperienza; piuttosto, abbraccia l’intero spettro di ambienti che si estendono, arricchiscono o sostituiscono completamente la realtà fisica con una digitale. Questo termine è diventato sempre più prevalente man mano che le tecnologie immersive si sono sviluppate, riflettendo il loro potenziale collettivo di creare esperienze senza precedenti che possono rivoluzionare settori come l’educazione, l’intrattenimento, la medicina e il commercio.

L’importanza dell’XR risiede nella sua capacità di integrare senza soluzione di continuità le informazioni digitali con il mondo fisico, migliorando così la nostra comprensione e interazione con la realtà circostante. In particolare stanno convergendo verso l’XR tecnologie come Connettività in mobilità, Intelligenza Artificiale, IOT e Wearable Techgnology.

Nell’ambito dell’istruzione, gli studenti possono esplorare ambienti virtuali che riproducono eventi storici o simulano fenomeni scientifici complessi, offrendo un livello di immersione e interattività che i metodi didattici tradizionali faticano a raggiungere. In ambito sanitario, l’XR può assistere i chirurghi visualizzando in 3D l’anatomia del paziente durante gli interventi, riducendo il rischio di errori e migliorando gli esiti delle operazioni.

Spatial Computing: alla base di AR, VR, MR e XR

Per comprendere le potenzialità delle varie realtà AR, MR, VR e XR, è fondamentale riconoscere il ruolo cruciale dello Spatial Computing come colonna portante di queste tecnologie immersive. Lo Spatial Computing, o computazione spaziale, è una tecnologia all’avanguardia che consente ai dispositivi di percepire, analizzare e interagire con il mondo fisico in tre dimensioni. Attraverso l’uso di sensori avanzati, realtà aumentata, e l’intelligenza artificiale, lo Spatial Computing permette agli ambienti digitali di integrarsi perfettamente con lo spazio fisico, creando esperienze utente dinamiche e interattive che vanno oltre i confini dello schermo.

Questa tecnologia non solo rende possibile la sovrapposizione visiva di oggetti virtuali nel mondo reale, come nella AR, ma abilita anche interazioni complesse nel contesto della MR, dove utenti e oggetti virtuali possono interagire in tempo reale con l’ambiente circostante. Nel dominio della VR, lo Spatial Computing facilita la creazione di spazi completamente immersivi che possono replicare o superare le leggi fisiche, offrendo esperienze che erano precedentemente inimmaginabili. Non per ultimo nell’ambito della XR, questa tecnologia è indispensabile per fondere fluidamente realtà fisica e digitale, spianando la strada verso un futuro di Hyper Reality dove la distinzione tra reale e virtuale diventa sempre più sfumata.

Lo Spatial Computing non è solo una componente aggiuntiva delle esperienze AR, MR, VR e XR; è il motore che permette a queste tecnologie di trasformare radicalmente il modo in cui interagiamo con il mondo che ci circonda, aprendo nuove frontiere nell’istruzione, nel lavoro, nell’intrattenimento e oltre.

Perchè si parla di Hyper Reality?

La Hyper Reality rappresenta l’evoluzione ultima delle tecnologie immersive, in cui la distinzione tra fisico e digitale non solo si sfuma ma diventa indistinguibile. In questo scenario, gli elementi della realtà virtuale, aumentata e mista convergono in un’esperienza unificata che integra in modo così fluido il reale e il virtuale da rendere la transizione tra i due impercettibile. La Hyper Reality potrebbe permettere agli utenti di vivere in un mondo in cui informazioni digitali, oggetti virtuali e ambienti fisici si fondono in un unico tessuto esperienziale, creando possibilità illimitate per l’apprendimento, l’intrattenimento, il lavoro e le interazioni sociali.

La visione della Hyper Reality solleva questioni significative riguardanti l’identità, la privacy e la percezione della realtà. Mentre offre opportunità straordinarie per arricchire l’esperienza umana, pone anche sfide etiche e filosofiche sul ruolo della tecnologia nella nostra vita e su come mantenere un senso di autenticità e connessione umana in un mondo sempre più mediato digitalmente. La progettazione e lo sviluppo responsabile di queste tecnologie saranno cruciali per garantire che arricchiscano piuttosto che erodere la qualità della nostra esperienza di vita.

Potenziali Impatti e Considerazioni Etiche, Inclusa la Noia dalla Realtà

La promessa di un arricchimento dell’esperienza umana è tangibile: l’istruzione si avvale di metodi sempre più immersivi, i luoghi di lavoro si trasformano in spazi ibridi tra fisico e virtuale, l’intrattenimento e il turismo sperimentano frontiere inesplorate, e la medicina e la terapia psicologica beneficiano di nuovi strumenti per il trattamento e la riabilitazione.

Al di là dei vantaggi evidenti, l’integrazione di queste realtà estese porta con sé una serie di questioni etiche e problematiche non trascurabili. Tra queste, la noia dalla realtà, uno dei problemi che come padre con figli piccoli e già fortemente fagocitati dal digitale, vedo e vivo come una vera, complessa, e difficile sfida: l’abitudine a stimoli digitali costanti e sempre più coinvolgenti potrebbe rendere la realtà quotidiana meno appetibile, incidendo sul nostro livello di engagement e soddisfazione nelle attività del mondo reale. Ciò potrebbe condurre a una crescente disaffezione o a una ricerca ininterrotta di esperienze virtuali come fuga dalla realtà.

Si aggiungono a questo preoccupazioni relative alla privacy e alla sicurezza dei dati, visto che queste tecnologie raccolgono e elaborano enormi quantità di informazioni personali, dirette della persona e del comportamento (dallo sguardo ai movimenti), fino al contesto in cui si trovano. La riflessione sull’uso etico della tecnologia diventa una necessità sempre di più forte, così come il dibattito su come queste tecnologie possano influenzare la nostra percezione della realtà e le relazioni con gli altri. La sfida secondo me sarà quella di bilanciare i benefici di queste realtà estese con un uso consapevole e responsabile, assicurando che il progresso tecnologico non pregiudichi la nostra capacità di apprezzare e valorizzare la vita al di fuori dello schermo.

Sicuramente non mi auguro di vedere gente che gesticola camminando in mezza alla strada…

Spatial Computing: Un Altro Passo Verso l’Hyper Reality

Lo Spatial Computing segna un’evoluzione cruciale nell’interazione tra umani e computer, superando le tradizionali barriere tra il mondo fisico e quello digitale per creare un ambiente coesivo e interattivo. Questa tecnologia ambisce a trasformare i dispositivi elettronici da semplici strumenti di calcolo, confinati entro i limiti di uno schermo, in partner attivi capaci di interagire e comprendere lo spazio che ci circonda. A differenziarlo dalle tecnologie immersive preesistenti, come la realtà aumentata (AR), la realtà virtuale (VR) e la realtà mista (MR), è la sua capacità di estendere e integrare l’esperienza utente oltre i confini tradizionali.

La realtà aumentata (AR) arricchisce il mondo reale con sovrapposizioni digitali, la realtà virtuale (VR) sostituisce l’ambiente fisico con uno completamente digitale, mentre la realtà mista (MR) fonde i due, permettendo agli oggetti virtuali di interagire con il mondo fisico in maniera convincente. Lo Spatial Computing, tuttavia, abbraccia e supera questi concetti, facilitando interazioni con oggetti virtuali che non solo appaiono parte del nostro mondo ma possono anche essere manipolati direttamente, come se fossero fisicamente presenti.

Questa tecnologia si avvale di complessi algoritmi di intelligenza artificiale, sensori avanzati e tecniche di computer vision per creare esperienze utente immersive e intuitive. Le azioni fisiche diventano input per il mondo digitale in modi che prima si potevano solo immaginare, aprendo nuovi orizzonti in campi come l’istruzione, il lavoro e l’intrattenimento. Lo Spatial Computing promette quindi di rivoluzionare il nostro modo di interagire con le informazioni digitali, offrendo un livello di integrazione e interattività senza precedenti, e ponendo le basi per un futuro in cui le distinzioni tra fisico e digitale si sfumano sempre più.

Storia dello Spatial Computing

La storia dello Spatial Computing è costellata da visionari e innovazioni che hanno progressivamente sfumato i confini tra il mondo fisico e quello digitale. Sebbene il termine stesso sia stato coniato relativamente di recente, le sue radici affondano in decenni di ricerca e sviluppo in ambiti correlati come la realtà virtuale, la realtà aumentata e l’intelligenza artificiale.

Il concetto di Spatial Computing, come lo conosciamo oggi, trae ispirazione dai primi lavori nel campo della realtà virtuale e aumentata. Un precursore significativo fu Ivan Sutherland, che nel 1968 presentò il “Sword of Damocles”, considerato il primo sistema di realtà virtuale. Questo sistema pionieristico dimostrò come fosse possibile sovrapporre immagini generate da computer alla visione naturale, inaugurando un’era di esplorazione su come gli ambienti digitali potessero essere integrati nel mondo fisico.

Negli anni ’90, con l’avvento di tecnologie più avanzate, la visione di Sutherland cominciò a materializzarsi in forme più accessibili e pratiche. I laboratori di ricerca, come il HIT Lab fondato da Tom Furness a Washington, divennero centri nevralgici per l’innovazione nello Spatial Computing. Fu in questo contesto che il termine cominciò a essere usato per descrivere sistemi che consentivano agli utenti di interagire con dati spaziali in modi intuitivi e naturali.

Il passaggio dal concetto alla realtà ha ricevuto un notevole impulso all’inizio degli anni 2000, in particolare con il lavoro di Simon Greenwold al MIT, che esplorò nuove modalità di interazione uomo-computer basate sulla comprensione spaziale. Da allora, le evoluzioni nel campo dell’intelligenza artificiale, dei sensori, della visione artificiale e dell’Internet of Things (IoT) hanno accelerato lo sviluppo dello Spatial Computing, rendendolo una tecnologia sempre più pervasiva.

Oggi, il percorso tracciato da questi pionieri è stato ampliato da aziende come Apple, Microsoft e Meta, che hanno introdotto dispositivi e piattaforme capaci di offrire esperienze di Spatial Computing avanzate. Questi sviluppi non solo attestano il progresso tecnologico ma anche il cambiamento nella percezione e nell’aspettativa di come interagiamo con la tecnologia nel nostro quotidiano.

La storia dello Spatial Computing è quindi un viaggio dall’immaginazione alla realtà, un percorso che continua a evolversi e a espandersi, promettendo di ridefinire ulteriormente il nostro rapporto con la tecnologia digitale.

Tecnologie Abilitanti

Il cuore pulsante dello Spatial Computing è rappresentato da un insieme di tecnologie avanzate che lavorano in sinergia per creare esperienze immersive che sfumano i confini tra il mondo fisico e quello digitale. Tra queste, l’intelligenza artificiale (AI), i sensori di movimento, la computer vision, l’Internet of Things (IoT) e la realtà aumentata (AR) sono i pilastri fondamentali che rendono possibile lo Spatial Computing.

L’intelligenza artificiale gioca un ruolo cruciale, permettendo ai sistemi di interpretare e reagire agli input umani in modo naturale e intelligente. Attraverso algoritmi di apprendimento automatico e di deep learning, l’AI può comprendere comandi vocali, gesti e persino intenzioni dell’utente, facilitando un’interazione fluida e intuitiva con gli ambienti digitali.

I sensori di movimento, inclusi accelerometri, giroscopi e sensori di profondità, sono indispensabili per tracciare la posizione e i movimenti dell’utente nello spazio. Questi dati, una volta raccolti, permettono al sistema di aggiornare in tempo reale l’ambiente virtuale in base alle azioni dell’utente, rendendo l’esperienza sia dinamica che coinvolgente.

La computer vision, attraverso l’uso di telecamere e algoritmi avanzati, consente ai dispositivi di “vedere” e interpretare l’ambiente circostante. Questa capacità è fondamentale per posizionare accuratamente gli oggetti virtuali nel mondo reale, garantendo che interagiscano in modo convincente con lo spazio fisico e gli oggetti presenti.

L’Internet of Things (IoT) estende le capacità dello Spatial Computing oltre il singolo dispositivo, consentendo una rete di oggetti interconnessi che possono raccogliere, scambiare e agire su dati nel mondo fisico. Questo crea un tessuto di intelligenza distribuita che può arricchire ulteriormente l’esperienza dello Spatial Computing, offrendo nuove dimensioni di interazione e automazione.

La realtà aumentata (AR), non per ultima di importanza, fornisce il layer visivo e a volte tattile che sovrappone gli elementi digitali al mondo reale, un aspetto chiave dello Spatial Computing. Grazie all’AR, gli utenti possono vedere e interagire con informazioni e oggetti virtuali come se fossero parte del loro ambiente naturale, ampliando le possibilità di apprendimento, intrattenimento e lavoro.

Queste tecnologie, integrate in maniera coerente, non solo rendono lo Spatial Computing una realtà ma aprono anche la strada a infinite possibilità di innovazione futura, promettendo di trasformare radicalmente il modo in cui viviamo, lavoriamo e interagiamo con il mondo che ci circonda.

Applicazioni e Impatti sul Business

Lo Spatial Computing sta iniziando a rivoluzionare diversi settori, offrendo modalità innovative per interagire con informazioni e ambienti, migliorare i processi lavorativi e creare nuove esperienze per i consumatori. L’impiego di questa tecnologia nel business apre un ventaglio di opportunità, dalla produzione industriale all’istruzione, dall’architettura al retail.

Nel settore industriale, lo Spatial Computing permette di ottimizzare i processi produttivi attraverso la realtà aumentata e i digital twins, offrendo ai lavoratori la possibilità di interagire con modelli virtuali di macchinari o intere linee di produzione. Ciò consente non solo una manutenzione predittiva più efficace, ma anche una formazione immersiva per il personale, riducendo i tempi di inattività e migliorando la sicurezza sul lavoro.

Nell’educazione, lo Spatial Computing apre la strada a metodi di apprendimento esperienziale, dove studenti e insegnanti possono esplorare concetti complessi in ambienti 3D interattivi. Che si tratti di anatomia umana o di fenomeni astronomici, la capacità di visualizzare e manipolare oggetti di studio in uno spazio tridimensionale può migliorare significativamente l’assorbimento e la retention delle informazioni.

Per gli architetti e i designer, lo Spatial Computing offre strumenti senza precedenti per la visualizzazione e la modifica dei progetti in tempo reale e in scala. La possibilità di “camminare” attraverso una costruzione virtuale prima che sia costruita o di provare differenti soluzioni di design in un ambiente esistente può drammaticamente ridurre i costi e i tempi di progetto, migliorando al contempo la qualità del lavoro finale.

Nel settore retail, lo Spatial Computing può trasformare l’esperienza di shopping, permettendo ai clienti di visualizzare prodotti in AR prima dell’acquisto o navigare in negozi virtuali. Questo non solo migliora l’esperienza del cliente ma offre anche ai rivenditori strumenti potenti per personalizzare le offerte e aumentare l’engagement.

Lo Spatial Computing ha un impatto significativo sul modo in cui le aziende concepiscono il lavoro a distanza e la collaborazione. Gli ambienti di lavoro virtuali consentono team distribuiti geograficamente di collaborare come se fossero nello stesso spazio fisico, abbattendo le barriere della distanza e migliorando la comunicazione e l’efficienza del team.

Tutto questo non solo promette di migliorare l’efficienza e l’efficacia in numerosi settori ma anche di reinventare completamente l’esperienza umana, sia nel contesto lavorativo che in quello personale, con implicazioni che stiamo solo iniziando a comprendere.

Spatial Computing vs Metaverso: Differenze e Convergenze

Nel panorama tecnologico attuale, due concetti stanno catturando l’immaginario collettivo: lo Spatial Computing e il Metaverso. Sebbene entrambi promettano di ridefinire il nostro rapporto con la realtà digitale, essi si fondano su premesse e obiettivi distinti, che meritano di essere esplorati per comprendere pienamente le loro potenzialità e i punti di convergenza.

Differenze Fondamentali

Lo Spatial Computing rappresenta un insieme di tecnologie che permettono l’interazione tra utenti e ambienti digitali tridimensionali in modo intuitivo e naturale, utilizzando il movimento, la voce e lo sguardo. Questo concetto si focalizza sull’integrazione degli elementi digitali nel mondo fisico, rendendo il confine tra i due sempre meno percepibile. Lo Spatial Computing, quindi, agisce come un ponte che estende la realtà fisica, arricchendola con informazioni e oggetti virtuali interattivi.

Il Metaverso, d’altro canto, è spesso descritto come un universo digitale parallelo, un mondo virtuale persistente dove gli utenti possono incontrarsi, interagire, lavorare e giocare. A differenza dello Spatial Computing, che amplifica l’esperienza del mondo reale, il Metaverso si propone come un’alternativa a esso, offrendo un’esperienza completamente immersiva che esiste indipendentemente dalla realtà fisica.

Punti di Convergenza

Nonostante queste differenze, i percorsi di evoluzione dello Spatial Computing e del Metaverso iniziano a intrecciarsi, delineando scenari futuri in cui i due concetti potrebbero convergere. Entrambi si avvalgono di tecnologie immersive come la realtà aumentata, la realtà virtuale e la realtà mista per creare esperienze utente coinvolgenti e ricche di contenuti.

La convergenza si manifesta nella visione di un futuro in cui lo Spatial Computing potrebbe servire come interfaccia per accedere al Metaverso, fungendo da strato di integrazione che trasporta gli utenti da un’esperienza arricchita del mondo fisico a un’immersione totale in ambienti virtuali. In questo modo, lo Spatial Computing non solo amplifica la realtà circostante ma diventa anche il mezzo attraverso il quale il Metaverso si rende accessibile e navigabile, unendo le dimensioni fisiche e virtuali in un continuum esperienziale.

Entrambi i concetti pongono le basi per lo sviluppo di nuove forme di interazione sociale, economica e culturale, tracciando il percorso per la creazione di spazi in cui la distinzione tra reale e virtuale diventa sempre più sfumata. La potenziale integrazione di sistemi economici, sociali e di governance nel Metaverso potrebbe trovare nello Spatial Computing il catalizzatore per una maggiore adozione e una transizione fluida tra i due mondi.

Mentre lo Spatial Computing e il Metaverso partono da presupposti distinti, la loro evoluzione indica una crescente intersezione dei due concetti. Questa convergenza promette di aprire nuove frontiere nell’interazione digitale, portando avanti una visione in cui la realtà viene arricchita e ampliata in modi finora solo immaginati.

Casi d’Uso Emergenti

Lo Spatial Computing sta emergendo come una forza trasformativa in numerosi ambiti, promettendo di portare l’interazione uomo-computer a un nuovo livello di intuitività e immersività. Di seguito sono elencati alcuni dei casi d’uso più promettenti e innovativi che stanno iniziando a prendere forma grazie a questa tecnologia.

  • Assistenza Remota e Manutenzione Predittiva: Nell’industria manifatturiera e oltre, lo Spatial Computing consente agli esperti di fornire assistenza remota ai tecnici sul campo, sovrapponendo istruzioni e diagrammi 3D agli oggetti reali tramite visori AR. Questo non solo accelera i tempi di intervento ma riduce anche il rischio di errori. Inoltre, la capacità di monitorare lo stato delle macchine in tempo reale e in modo intuitivo attraverso digital twins spaziali facilita una manutenzione predittiva più efficace, prevenendo guasti prima che si verifichino.
  • Formazione e Istruzione: Lo Spatial Computing trasforma l’educazione, rendendo l’apprendimento più interattivo e coinvolgente. Attraverso ambienti virtuali immersivi, gli studenti possono esplorare la biologia cellulare, la meccanica quantistica o la storia antica in modi precedentemente impossibili. Questi ambienti di apprendimento potenziati offrono una comprensione più profonda dei concetti, migliorando l’efficacia dell’istruzione.
  • Progettazione e Prototipazione: Designer e ingegneri beneficiano enormemente dello Spatial Computing, che permette di visualizzare e iterare prototipi virtuali in spazi fisici. Questo riduce notevolmente i cicli di sviluppo e i costi associati alla prototipazione tradizionale, consentendo una sperimentazione più libera e creativa.
  • Turismo e Esperienze Culturali: Attraverso la realtà aumentata e mista, lo Spatial Computing può arricchire l’esperienza turistica, consentendo ai visitatori di sovrapporre informazioni storiche o contestuali direttamente nell’ambiente che li circonda. Musei e siti storici possono sfruttare questa tecnologia per offrire tour virtuali arricchiti, dove artefatti e monumenti sono animati da racconti e visualizzazioni 3D.
  • Salute e Benessere: Nel settore sanitario, lo Spatial Computing apre nuove frontiere nella chirurgia assistita, nella riabilitazione e nell’assistenza a distanza. I chirurghi possono beneficiare di visualizzazioni 3D miglioranti durante gli interventi, mentre i pazienti in riabilitazione possono utilizzare ambienti virtuali per esercizi terapeutici guidati, personalizzati secondo le loro specifiche necessità.
  • Collaborazione e Spazi di Lavoro Virtuali: In un mondo sempre più orientato verso il lavoro remoto, lo Spatial Computing offre soluzioni innovative per la collaborazione a distanza. Gli spazi di lavoro virtuali consentono ai team di interagire in ambienti 3D condivisi, dove idee e progetti possono essere esplorati e sviluppati in maniera collaborativa, superando i limiti della comunicazione a distanza tradizionale.

Questi casi d’uso emergenti dimostrano il vasto potenziale dello Spatial Computing di trasformare radicalmente non solo come lavoriamo e apprendiamo, ma anche come viviamo le nostre vite quotidiane, promettendo un futuro in cui le nostre interazioni con il mondo digitale sono più naturali, intuitive e arricchenti.

Prodotti di Punta e Innovazioni

L’evoluzione dello Spatial Computing è strettamente legata ai progressi tecnologici e all’introduzione di prodotti innovativi che hanno spianato la strada a nuove possibilità di interazione digitale. Tra i dispositivi di punta che hanno segnato importanti tappe in questo percorso troviamo l’Apple Vision Pro, il Microsoft HoloLens e il Meta Quest 3, ciascuno con le proprie peculiarità e contributi al campo.

  • Apple Vision Pro: Questo dispositivo di Apple rappresenta un significativo salto qualitativo nello Spatial Computing, offrendo un’esperienza di realtà mista di alta qualità con un’enfasi particolare sull’interazione intuitiva e naturale. Con il suo design all’avanguardia, l’Apple Vision Pro integra tecnologie avanzate di tracciamento degli occhi, controllo gestuale e audio spaziale, consentendo agli utenti di immergersi in ambienti virtuali con un livello di realismo e fluidità d’interazione senza precedenti. La sua introduzione ha segnato un punto di svolta, dimostrando il potenziale dello Spatial Computing nel mainstream e spingendo altre aziende a esplorare soluzioni innovative.
  • Microsoft HoloLens: Il HoloLens di Microsoft è stato uno dei primi dispositivi a esplorare il concetto di realtà mista, permettendo agli utenti di visualizzare e interagire con ologrammi inseriti nel loro ambiente fisico. Questo visore indipendente non richiede collegamenti a PC o altri dispositivi esterni, rendendolo una soluzione potente per applicazioni professionali e industriali. Con il suo approccio pionieristico alla realtà mista, HoloLens ha aperto la strada a nuovi utilizzi nel design, nell’istruzione, nella produzione e oltre, evidenziando il valore dello Spatial Computing nelle applicazioni pratiche.
  • Meta Quest 3: Meta (precedentemente Facebook) ha introdotto il Quest 3 con l’obiettivo di portare la realtà virtuale e la realtà mista a un pubblico più ampio. Questo dispositivo combina la potenza della VR con la flessibilità della realtà mista, offrendo agli utenti un’esperienza immersiva che non solo li isola dal mondo esterno ma li connette anche con esso in modi nuovi e sorprendenti. Il Meta Quest 3 si distingue per la sua accessibilità e per le sue ampie possibilità di applicazione, dalla formazione remota al gaming, dimostrando come lo Spatial Computing possa arricchire una varietà di esperienze quotidiane.

Oltre a questi dispositivi, numerose startup e aziende tecnologiche stanno esplorando e sviluppando nuove innovazioni che promettono di portare lo Spatial Computing a livelli sempre più avanzati. Questi progressi non solo migliorano l’esperienza utente ma aprono anche la strada a nuovi modelli di business e strategie operative, ridefinendo il modo in cui interagiamo con il mondo digitale.

L’evoluzione continua dei prodotti di punta nello Spatial Computing dimostra un impegno crescente verso la creazione di esperienze utente sempre più ricche e immersiva, sottolineando il ruolo centrale di questa tecnologia nel plasmare il futuro dell’interazione digitale.

Sfide e Limitazioni

Nonostante l’entusiasmo e le promesse che circondano lo Spatial Computing, esistono diverse sfide e limitazioni che devono essere affrontate per realizzare appieno il suo potenziale. Questi ostacoli vanno dalla tecnologia stessa alle questioni di privacy e accessibilità, influenzando sia lo sviluppo che l’adozione su larga scala di queste soluzioni innovative.

  • Accessibilità e Costo: Una delle sfide principali è rappresentata dall’accessibilità economica dei dispositivi. Prodotti come l’Apple Vision Pro e il Microsoft HoloLens presentano prezzi che possono limitarne l’acquisto a individui, aziende o istituzioni con risorse finanziarie significative. Questo aspetto può rallentare l’adozione generalizzata dello Spatial Computing, confinandolo a nicchie di mercato o a specifici ambiti professionali.
  • Comfort e Usabilità: Anche se i dispositivi di Spatial Computing hanno fatto passi da gigante in termini di design e funzionalità, questioni legate al comfort d’uso e alla facilità di interazione rimangono aperte. L’uso prolungato di visori o altri dispositivi indossabili può causare affaticamento, disagio o, in alcuni casi, motion sickness. Rendere questi dispositivi più leggeri, ergonomici e piacevoli da usare per periodi estesi è cruciale per la loro accettazione da parte del grande pubblico.
  • Interoperabilità e Standardizzazione: La frammentazione del mercato e la mancanza di standardizzazione possono complicare l’interoperabilità tra dispositivi e piattaforme differenti. Per sfruttare appieno le potenzialità dello Spatial Computing, è necessario che l’industria converga verso standard comuni che facilitino lo sviluppo di applicazioni compatibili e trasversali, migliorando l’esperienza utente e ampliando le possibilità di utilizzo.
  • Questioni di Privacy e Sicurezza: La raccolta e l’elaborazione di dati sensibili relativi all’ambiente circostante e agli utenti sollevano importanti preoccupazioni in termini di privacy e sicurezza. Garantire che queste informazioni siano protette da accessi non autorizzati e utilizzate in modo etico ed equo è fondamentale per mantenere la fiducia degli utenti e rispettare le normative sulla protezione dei dati.
  • Sfide Tecnologiche: Nonostante i progressi tecnologici, persistono limitazioni legate alla capacità di elaborazione, alla durata della batteria e alla precisione del tracciamento in tempo reale. Superare queste barriere tecnologiche è essenziale per migliorare la qualità, la reattività e l’affidabilità delle esperienze di Spatial Computing.
  • Noia ed eccesso di immersività: Malgrado i grandi vantaggi che sono potenzialmente sviluppabili in diversi ambiti, non c’è dubbio che una delle problematiche già evidenti dall’uso di smartphone e social network sia l’eccesso di utilizzo, la dipendenza da utilizzo e dopamina e la noia da contesto. A mio avviso una realtà fortememente aumentata potrebbe portare ad un ulteriore passo verso l’eccesso di noi da “normalità”. Sapremmo più divertirci senza dispositivi?

Affrontare queste sfide richiede un impegno congiunto da parte di ricercatori, sviluppatori, aziende e regolatori per promuovere innovazioni che migliorino l’accessibilità, la compatibilità, la sicurezza e l’esperienza utente. Solo attraverso un approccio collaborativo sarà possibile superare gli ostacoli attuali e sbloccare il pieno potenziale dello Spatial Computing nel plasmare il futuro dell’interazione digitale.

Il Futuro dello Spatial Computing

Il futuro dello Spatial Computing si prospetta ricco di potenzialità e sfide, delineando un orizzonte tecnologico in cui la nostra interazione con il mondo digitale sarà sempre più naturale, intuitiva e immersiva. Mentre ci avviciniamo a questo futuro, alcune tendenze emergenti e proiezioni ci offrono uno sguardo su ciò che potrebbe riservarci.

  • Integrazione Sempre Più Profonda con la Vita Quotidiana: Man mano che le barriere tecnologiche vengono superate e i dispositivi diventano più accessibili e confortevoli, lo Spatial Computing si integrerà sempre più nella nostra vita quotidiana. Dall’istruzione all’intrattenimento, dal lavoro remoto alla socializzazione, le esperienze digitali saranno arricchite da un livello di interattività e presenza spaziale senza precedenti, rendendo la tecnologia ancora più pervasiva e onnipresente.
  • Avanzamenti nell’Intelligenza Artificiale e nella Computer Vision: Lo sviluppo di algoritmi di intelligenza artificiale più sofisticati e di sistemi di computer vision più accurati giocherà un ruolo cruciale nell’evoluzione dello Spatial Computing. Queste tecnologie permetteranno ai dispositivi di comprendere e interpretare il mondo circostante con una precisione sempre maggiore, facilitando interazioni più fluide e realistiche tra utenti e ambienti digitali.
  • Espansione nel Settore della Salute e del Benessere: Lo Spatial Computing ha il potenziale di rivoluzionare il settore sanitario, offrendo nuove modalità per la diagnosi, il trattamento e la riabilitazione. La possibilità di visualizzare dati medici complessi in formati tridimensionali e di simulare procedure chirurgiche in ambienti virtuali potrebbe migliorare significativamente l’efficacia delle cure mediche e l’esperienza dei pazienti.
  • Collaborazione e Lavoro Remoto Rinnovati: La crescente adozione del lavoro remoto e delle collaborazioni a distanza beneficerà enormemente dalle innovazioni nello Spatial Computing. Ambienti di lavoro virtuali e sale riunioni olografiche consentiranno alle squadre di collaborare come se fossero fisicamente presenti nello stesso spazio, superando le limitazioni geografiche e rafforzando il senso di connessione tra colleghi.
  • Etica e Regolamentazione: Con l’aumento dell’adozione dello Spatial Computing, emergeranno questioni etiche e la necessità di regolamentazioni specifiche. Sarà fondamentale affrontare le preoccupazioni relative alla privacy, alla sicurezza dei dati e all’equità nell’accesso alle tecnologie, garantendo che i benefici dello Spatial Computing siano accessibili a tutti e utilizzati in modo responsabile.

Il futuro dello Spatial Computing è intriso di promesse e sfide. La sua evoluzione continuerà a influenzare profondamente il modo in cui interagiamo con la tecnologia, arricchendo la nostra realtà con esperienze digitali che fino a poco tempo fa potevamo solo immaginare. Affrontando proattivamente le sfide e promuovendo un’innovazione responsabile, possiamo assicurarci che lo Spatial Computing plasmi un futuro in cui la tecnologia arricchisca la vita umana in modi significativi e positivi.

L’Importanza dell’Hyper Reality nel Superare lo Spatial Computing

L’Hyper Reality rappresenta l’evoluzione naturale dello Spatial Computing, un passo oltre nell’ambizione di fondere il mondo fisico con quello digitale. Questo concetto, al cuore della missione del progetto che ho in mente da tempo sulla dimensione dell’ Hyper Reality, mira a ridefinire non solo il modo in cui interagiamo con la tecnologia, ma anche come percepiamo la realtà che ci circonda. L’Hyper Reality estende la visione dello Spatial Computing, intensificando l’integrazione tra esperienze digitali e fisiche fino a rendere indistinguibili le frontiere tra i due mondi.

Hyper Reality = Spatial Computing + IOT + AI 

In questo contesto, l’Hyper Reality non si limita a sovrapporre elementi virtuali al mondo reale o a creare ambienti digitali completamente immersivi; aspira piuttosto a creare un nuovo strato di realtà in cui informazioni digitali, oggetti virtuali e ambienti fisici si intrecciano in maniera così profonda da dare vita a un’esperienza unica e indistinta. Questo approccio apre la strada a possibilità inesplorate, dove la realtà aumentata, la realtà virtuale e la realtà mista convergono per superare i limiti attuali della percezione e dell’interazione umana.

L’Hyper Reality, subito dopo il consolidamento dello Spatial Computing, ha il potenziale di trasformare radicalmente settori come l’educazione, offrendo esperienze di apprendimento totalmente immersive che potenziano la comprensione e la memorizzazione; il retail, attraverso esperienze di shopping personalizzate e arricchite; il turismo, permettendo di vivere esperienze di viaggio virtuali estremamente realistiche; e il settore sanitario, migliorando le tecniche di diagnosi e intervento con simulazioni e visualizzazioni avanzate.

La visione che porto avanti da tempo sul concetto di Hyper Reality sottolinea l’importanza di superare la mera tecnologia per concentrarsi sull’esperienza umana, spingendo i confini di ciò che è possibile per arricchire la vita delle persone in modi prima impensabili. In questo futuro, l’Hyper Reality si propone come la chiave per sbloccare un mondo in cui le barriere tra digitale e fisico non solo si dissolvono ma danno origine a un tessuto connettivo nuovo, capace di espandere la nostra realtà in dimensioni prima inaccessibili.

Mentre lo Spatial Computing ha aperto la porta a un nuovo modo di interagire con il nostro ambiente, l’Hyper Reality promette di trasformare queste interazioni in esperienze più ricche, profonde e significative. Hyper Reality vuol esser un principio evoluto di questa trasformazione, una guida all’esplorazione di questo territorio inesplorato nel futuro dell’interazione umana con la tecnologia.

Vedersi vs Guardarsi: la vera “innovazione” visiva dei visori Vision Pro di Apple

Nel mondo dell’XR (Extended Reality) ogni uscita degli ultimi tempi – di hardware e software che sia – rappresenta un ulteriore passo avanti in un viaggio che negli ultimi anni è sembrato difficile da far partire e che apparentemente è andato a rilento, malgrado la tecnologia abbia fatto evoluzioni a ritmi vertiginosi.

Dalle prime fasi embrionali con Oculus Rift, alla realtà virtuale roomscale di HTC Vive, siamo stati testimoni (e sperimentatori) di un progresso costante che ha continuamente spostato i confini di ciò che sarebbe stato possibile fare con un occhiale sulla testa. Fino ad oggi.

L’arrivo del Quest 3.

In questi giorni ho avuto il piacere di accogliere nella mia collezione casalinga privata il Quest3 di Meta, un dispositivo che si aggiunge alla lunga lista di visori che ho avuto l’opportunità di testare nel corso degli anni e che tutt’ora “colleziono” gelosamente (permettetemi di flexare un po’ 🙂 ): Oculus Rift DK1 e DK2, Oculus Go, Quest, Quest 2 e il – non più recente – Quest Pro, oltre a diversi altri visori di altre marche.

Ogni nuovo arrivo porta con sé una serie di aspettative e potenzialità ed il Quest3 devo dire la verità non mi ha deluso affatto, mostrando sensibili (ed importanti) miglioramenti rispetto ai suoi predecessori.

La prova di Vision Pro.

Però… una delle esperienze più belle (e aggiungerei sorprendente) dell’ultimo periodo , tanto che ci ho messo qualche giorno a metabolizzare, è stata la prova del Vision Pro di Apple.

Ho avuto l’opportunità di testarlo in anteprima – aaargh non ho potuto fare foto purtroppo – con un cliente durante un workshop privato che aveva lo scopo di capire le potenzialità per lo sviluppo di progetti per quelli che saranno “i dipendenti aumentati“, un concetto introdotto da me nell’incontro per spiegare cosa, come e (da) dove collaboreranno le persone in azienda in un futuro ormai non troppo remoto.

La reazione (di tutti) alla prova del visore è stata di stupore (e credo che questo non descriva a sufficienza l’effetto provato) e non vi nascondo di avere avuto la stessa emozione e fibrillazione del mio primo passaggio da Nokia/Blackberry ad IPhone. Malgrado il suo prezzo enorme annunciato di $3.500 e la promessa di disponibilità solo per l’inizio del prossimo anno (2024), il Vision pro rappresenta a mio avviso un ulteriore salto in alto e l’ingresso col botto di Apple nell’innovazione di questo ambito.

Vedersi vs Guardarsi

L’elemento che ha colpito di più la mia attenzione e le mie riflessioni – e che da giorni mi fa riflettere di Vision Pro rispetto agli altri visori sul mercato – riguarda l’interazione occhi-utente.

Mentre la maggior parte dei dispositivi permette di “vedere” il contesto grazie all’introduzione del passthrough e al potenziamento delle telecamere interne, Vision Pro introduce la caratteristica innovativa del “pass-through bidirezionale“, permettendo ad altri di vedere una rappresentazione degli occhi dell’utente e quindi di “guardare” e di “essere guardato“, con un display micro-OLED 4K per occhio. E lo fa appunto anche grazie allo schermo OLED frontale presente sul visore rivolto verso l’esterno.

Per capirci, è come la differenza che c’è nel parlare con qualcuno che indossa occhiali scuri da sole o con qualcuno che ha invece lenti trasparenti: con il primo, c’è una barriera, mentre con il secondo, lo sguardo si fonde in un’interazione autentica e diretta, rendendo l’occhiale praticamente “invisibile” alla percezione dell’utente.

Apple con questo “dettaglio” non si è limitata a migliorare l’esperienza di Mixed Reality: l’ha reinventata. Passare dal vedersi al guardarsi è una rivoluzione apparentemente banale, ma fondamentale. Questo approccio trasforma il visore da un semplice strumento tecnologico a una vera e propria estensione dei nostri sensi, avvicinandolo al concetto di lente piuttosto che a quello di dispositivo.

Leggerezza, design e semplicità.

Ma non è tutto. Vision Pro è incredibilmente semplice. E lo fa con la stessa semplicità di quando Apple ha introdotto per la prima volta lo swipe. Il processo di calibrazione è fluido e intuitivo, come accedere a un iPhone appunto.

Il metallo leggero ed il vetro sul dispositivo – rispetto alla plastica di altri visori – lo rendono uno strumento percepibile come di maggiore qualità e pregio. La leggerezza del design, che si presenta in particolare più come “un visore con fascia” che un “casco” (sensazione che la maggior parte dei visori danno per via dell’elastico sopra al centro della testa… e che spettina capelli e ciuffo di chi si pettina come me), e l’assenza di controller esterni rendono l’esperienza incredibilmente immersiva.

Grazie a una serie di sensori e telecamere (scanner LiDAR, fotocamera TrueDepth) presenti nel visore, si può controllare il dispositivo usando solo mani, occhi e voce. L’eye tracking, in particolare, permette di interagire con l’ambiente virtuale in modo naturale e intuitivo. Il “touch” delle dita sulle icone ha una sensibilità talmente fluida che la sensazione, interagendo, è che con oggetti virtuali siano li, realmente, seppur in assenza però di feedback aptico.

Meta Quest 3 da non sottovalutare.

Nonostante le numerose qualità del Vision Pro, e per quanto non abbia ancora avuto modo di sperimentarlo più in profondità (in fondo ci ho giocato un oretta in tutto), non posso non riconoscere i passi avanti fatti anche dal Quest3, che invece in questi giorni ho potuto testare, usare, giocare e… girarci per casa, passando per pazzo agli occhi di tutta la famiglia!

La sensibilità del Quest3 è migliorata e l’efficacia nel riconoscimento dell’ambiente circostante è notevole ed efficace, e si presta molto per il mondo del gaming, dell’entertainment e dell’immersività più a tutto tondo. Non c’è dubbio che sia un dispositivo che, come ho detto e scritto più volte, può creare cultura e adozione maggiormente massiva anche per via del suo prezzo non proibitivo.

Nel futuro sicuramente c’è Extended Reality (XR)

Certo, non c’è dubbio comunque che Vision Pro abbia alzato il livello, ridefinendo le aspettative per il futuro dell’XR. Ora gli altri dovranno velocemente accelerare e probabilmente riconsiderare alcuni concetti introdotti da Apple che ha dalla sua parte anche un ecosistema unico integrato ed una community / aziende mature e pronte a migrare e sviluppare nuove app.

Tra qualche tempo, un decennio (o forse anche molto meno), ci guarderemo indietro, e la tecnologia di Mixed Reality di oggi ci sembrerà arcaica proprio come la tecnologia di 10 anni fa appare oggi obsoleta.

Una cosa è certa comunque. Quello a cui stiamo assistendo sta mettendo le basi profonde di un cambiamento dell’interazione uomo contesto, e le possibili implementazioni per il futuro sono infinite.

Entertainment, immersività e metaverso: come cambiano eventi, parchi e cinema con il virtuale

Il web3 ed il metaverso si apprestano a diventare la prossima evoluzione di Internet, e grazie all’immersività abilitata da realtà aumentata e virtuale entreremo in un nuovo mondo sempre più integrato tra fisico virtuale.

Stiamo vivendo una fase importante. L’hype mediatico, le notizie e soprattutto i nuovi casi e progetti di grandi brand stanno accelerando l’adozione di nuove piattaforme e tecnologie. La maturità dei dispositivi AR/VR è avanzata, ma il limite rimane ancora la diffusione e l’accessibilità economica.

Il metaverso sta mettendo comunque le basi per una nuova trasformazione degli eventi e dell’intrattenimento, dei concerti, dei parchi a tema e del cinema e del teatro.

Come il metaverso e le tecnologie trasformeranno il mondo dell’entertainment?

Ecco alcuni esempi che ho selezionato per dare l’idea di immersività e sviluppo potenzialmente adottabile a livello di mercato con AR/VR, e non solo:

Concerti ed eventi

  1. Travis Scott ed il concerto su Fortnite
  2. Achille Lauro e l’iniziativa su Roblox
  3. ABBA Voyage tra motion capture e AI

Parchi a tema

  1. Mario Kart AR all’interno degli Universal Studios di Hollywood
  2. Battle VR & Arcades e gli eventi immersivi in spazi di gioco dedicati
  3. Kraken Unleashed VR all’interno del SEAWORLD di Orlando
  4. DXB Play ed il VR all’interno del Dubai Mall

Cinema e teatro

  1. Disney Movies VR su Oculus e Steam
  2. Positron XR Cinema in collaborazione con Yosemite Cinema
  3. Disney+ AR e l’immersività da “salotto”

Sono tante le iniziative che stanno nascendo ed evolvendo in questo momento.

Gran parte della tecnologia che è stata sviluppata nei videogiochi viene ora utilizzata anche nella realizzazione di film e momenti di intrattenimento e spettacolo. In futuro, i registi potranno realizzeranno film in cui il contenuto viene generato utilizzando l’AI e l’utente potrà interagire con personaggi e ambientazioni in base alle sue scelte. Tutti vivranno un’esperienza completamente unica perché il contenuto del film sarà personalizzato e verrà generato al momento, determinato da diverse informazioni acquisite. Già oggi molti film (ed eventi) stanno già acquisendo contenuti dietro le quinte che sarà possibile vedere in VR, e consentire quindi di esplorare il set e vedere cosa è successo durante la realizzazione del film.

La felpa acquistabile in NFT, con Realtà Aumentata, di Nike e RTFKT

Nike ha rilasciato questa nuova felpa con cappuccio.

E fin qui sembra tutto normale, se non fosse che:

  • possono avere questa felpa solo i possessori di NFT CloneX o Cryptokicks
  • la felpa, attraverso il QR o un NFC nel cappuccio, attiva un contenuto in AR augmented reality e, a tendere, non sarà solo un arricchimento estetico del proprio avatar digitale ma un accesso costante a potenziamenti dell’avatar, contenuti e reward, drop e altro.
Per capirci, attualmente il prezzo minimo per un Clone X NFT è 9,9 Eth circa, mentre il Cryptokicks NFT è di circa 1,35 Eth, di fatto posizionando il prodotto (ed il servizio di esclusività che ne deriva) a lusso.
Un anno fa, quando Nike ha acquisito RTFKT, avevo anticipato che il disegno non sarebbe stato banalmente quello di portare lo swoosh nel metaverso, ma – anzi – portare modelli, approcci e stili di prodotto e coinvolgimento degli utenti del virtuale nel fisico e viceversa, creando un modello di lock-in esperenziale ed esclusivo unico, ed un posizionamento appunto ad un livello di prezzo decisamente superiore.
Il collegamento fisico, digitale e virtuale richiederà una progettazione ben integrata e un approccio di customer experience specifico per ogni canale.

Allenare mente e corpo con la tecnologia: la Mixed Reality cambia il modo di “vivere” lo Sport (da atleti ma anche da tifosi)

Che lo Sport sia uno degli ambiti dove la tecnologia è sempre riuscita a trovare “il suo spazio” non ha bisogno di conferme, basta vedere quanto in fretta ci siamo abituati ai braccialetti per il fitness e alle app per monitorare le nostre prestazioni, la nostra alimentazione, gli allenamenti, i progressi… e questo è ciò che vediamo solo come consumatori; da sportivo posso certamente testimoniare che il mondo degli atleti e delle squadre professionistiche corre ancora più veloce nell’uso delle tecnologie, ultimamente con un forte accelerata sulla Mixed Reality che potremmo “classificare” come quel mix di tecnologie di Virtual Reality (VR) e Augmented Reality (AR) che si intrecciano con il mondo fisico.

Gli analisti come IDC pensano che la Mixed Reality sia una delle tendenze più promettenti, tanto da stimare un giro d’affari di 165 miliardi di dollari entro il 2020, forse perché “aiutata” da una conoscenza già abbastanza buona della realtà virtuale, nel suo insieme, abbinata senz’altro ad un interesse crescente della realtà aumentata che con smartphone e mobile app sta avendo una diffusione sempre più ampia.

Se alla VR ci siamo infatti abituati da tempo (partendo dalle prime esperienze degli anni ’80 con la visione in 3D di film o pubblicità), imparando nell’ultimo decennio che è una tecnologia (soprattutto hardware) che ci permette di essere “catapultati” in un altro mondo, in un’altra stanza, in un ambiente diverso da quello in cui siamo fisicamente, la Realtà Aumentata è diventata “famosa” lo scorso anno, grazie al gioco Pokémon Go che ci ha permesso di capire quale fosse la novità e la differenza con la VR: portare contenuti digitali in modo semplice e immediato “dentro” il mondo fisico.

Per semplificare al massimo, potremmo classificare la Realtà Virtuale come un “mondo digitale” all’interno del quale una persona vive un’esperienza unica e nuova estraniandosi, per un po’, dal mondo reale. La Realtà Aumentata nasce invece con una logica completamente differente: non porta l’utente in un nuovo contesto ma amplifica digitalmente quello in cui sta già vivendo, lavorando, giocando o si sta allenando.

La Mixed Reality sta un po’ nel mezzo facendo però fare un bel salto di qualità sia alla realtà virtuale che a quella aumentata: molto più evoluta tecnologicamente rispetto alla VR (perché unisce l’utilizzo di diverse tecnologie, sensori, wearable device, ottiche molto avanzate ed una sempre maggiore potenza di calcolo per l’analisi dei dati), la Mixed Reality permette di “elevare” l’AR ad una esperienza superiore consentendo alle persone di vivere scenari realistici sempre più vasti all’interno di spazi e tempo che diventano illimitati.

È forse un orizzonte che dobbiamo ancora imparare a “capire” ma che con un po’ di fantasia può apparirci più chiaro se immaginiamo le interessanti nuove frontiere che si possono aprire nella medicina, nel wellness, nell’educazione (formazione/insegnamento), nell’intrattenimento, nella comunicazione, nella progettazione industriale o nella costruzione edilizia, nell’arte e via dicendo… fino allo Sport!

Sport: allenare la mente con la tecnologia per affrontare al meglio la realtà in campo

Il mondo dello sport è stato uno dei primi “early adopter” della VR, pensiamo ai piloti di F1 ed ai simulatori, oggi così avanzati dal punto di vista della tecnologia che non solo riproducono digitalmente un circuito fisico ma permettono agli atleti di allenare “fisico e mente” – come se stessero realmente guidando in un circuito – e agli ingegneri di acquisire nuovi dati per il design delle auto o l’ingegnerizzazione dei motori.

Altri esempi interessanti vengono dal ciclismo, dal golf, dal calcio… anche in questo caso l’inizio dell’utilizzo dei simulatori basati su Realtà Virtuale risale ormai a parecchi anni fa.

A mio avviso, quello che da qui a breve vedremo di innovativo è il modo in cui verranno impiegate le tecnologie di Mixed Reality sia per i professionisti dello sport sia per coloro che lo vivono come “intrattenimento”, pensiamo a tifosi, fan, appassionati.

La creazione di ambienti di allenamento virtuali stanno diventando così sofisticati da permettere non solo all’atleta di allenarsi come se fosse “in campo” con altri compagni ma all’intera squadra e agli allenatori di definire e testare nuove strategie di gioco, formazioni e tattiche. E se a questi sistemi aggiungessimo i dati provenienti dai sensori inseriti nelle magliette o nelle scarpe dei giocatori o le immagini delle videocamere che riprendono un allenamento o una partita? E se integrassimo contenuti digitali con la Realtà Aumentata che permettono all’atleta di “vivere” mentalmente una determinata situazione affinché possa allenarsi a “viverla” ed affrontarla fisicamente in campo?

Penso per esempio al rugby e a quanto “allenamento mentale” serva per poter affrontare una mischia con la dovuta “serenità atletica” affinché siano garantite tutte le variabili in gioco come la sicurezza delle persone, il rispetto degli avversari, la concentrazione che serve per applicare la strategia di gioco e collaborare con i compagni di squadra, e naturalmente la forma fisica adeguata.

Ecco… la direzione verso cui sta andando la Mixed Reality e che più mi affascina è proprio questa, quella di poter far vivere a pieno ad un atleta una esperienza di allenamento/gioco che non solo gli permetta di allenare il fisico ma anche (e soprattutto!) di preparare al meglio la propria mente alla sfida sul campo.

Una rivoluzione che “tocca” anche tifosi e fan

E se la Mixed Reality sta rivoluzionando la formazione e l’allenamento degli atleti, pensate a quello che potremmo vedere da qui a qualche anno come tifosi, fan, spettatori… pensate a che tipo di esperienze nuove e immersive saremo in grado di vivere con queste tecnologie.

Ve ne sarete certamente già accorti, i video a 360° hanno già introdotto un nuovo modo di vedere una partita o un evento sportivo (ma anche un concerto o uno spettacolo) permettendo alle persone di avere una visuale completa, come se fossero fisicamente presenti, anche stando comodamente sul divano davanti alla Tv o con in mano il proprio cellulare o tablet. Presto, l’esperienza sarà “live 360°” e permetterà ai tifosi non solo di avere una vista totale su stadio, spogliatoio, campo… ma addirittura di “immergersi” nell’azione di gioco con una vista simile a quella dell’atleta in campo.

Se penso all’offerta di cui possiamo godere oggi, alcune trasmissioni televisive già permettono di vedere in Tv o via mobile un evento sportivo personalizzandone la fruizione a proprio piacimento, per esempio scegliendo in modo interattivo la visuale sul campo o addirittura l’atleta da seguire durante tutto il match. A questi servizi è già oggi possibile aggiungere una serie di contenuti digitali che potrebbero amplificare ancor di più l’esperienza utente, per esempio mostrando alcune informazioni o curiosità sull’atleta che si è scelto di seguire fino addirittura a collegare l’eCommerce della società sportiva per consentire al tifoso di acquistare la maglietta che indossa in quel momento il suo giocatore preferito o di prenotare i biglietti della prossima partita (anche se a dire il vero sono ancora poche le società sportive che hanno realizzato progetti simili e, nella maggior parte dei casi, si tratta di progetti pilota partiti negli Usa).

Credo che quello del livestreaming degli eventi sia uno degli ambiti dove Augmented e Mixed Reality riusciranno ad avere il maggior successo, forse perché immagino le conseguenze dirette che tali tecnologie avranno anche su “mercati affini”, come per esempio quello delle scommesse. Se guardiamo per esempio all’America’s Cup è facile intuire come le scelte sulle scommesse da parte dei fan vengano sempre più “influenzate” dalle informazioni che ricevono in tempo-reale e con la Realtà Aumentata sulle performance delle barche (su smartphone ma anche sui Tv connessi).

Guardando a quello che già oggi riusciamo a “toccare con mano” (da tifosi o sportivi e atleti) ed immaginando cosa riusceremo a fare a breve, sono certo di poter dire che il futuro sarà sempre più una miscela di AR/VR che intrecciandosi con altre tecnologie come IoT e wearable device renderà la Mixed Reality sempre più pervasiva e ci permetterà di vivere lo sport ad un livello superiore, sia come atleti, sportivi non professionisti, tifosi o fan.