Progettare per Apple Vision Pro. Primi passi nello Spatial Computing e le prime lezioni imparate

Come scrivo da giorni, son circa 3 mesi che studio e sperimento in ambiente di sviluppo e test per Apple Vision Pro (nelle prossime ore mi arriverà il mio primo visore, di due, che ne ho acquistato). Non c’è dubbio che fin dall’ambiente di sviluppo, e senza ancora aver avuto modo di fare lunga sperimentazione con l’oggetto fisico – a parte un test di 15 min a Dicembre – il nuovo dispositivo presenta una serie di nuove sfide progettuali, rispetto ad altri visori e rispetto al mondo IOS, da considerare, e che non sono del tutto scontate.

Partiamo da un punto a mio avviso fondamentale:

La forza di Vision Pro non è l’hardware ( o meglio non solo e non soprattutto ), ma bensì la visione e la concezione che porta con se a livello di sistema e approccio.

Proprio come ho scritto qui . Detto questo qui di seguito riporto alcuni appunti che in questi mesi ho preso durante la progettazione from scratch per Apple Vision Pro.

Vision Pro non è un comune visore AR/VR

L’arrivo di Apple nel mercato dell’AR è un tema di discussione, e attesa, di lungo termine e fino a poco tempo fa non c’erano informazioni specifiche per poter iniziare a ragionare su cosa volesse dire progettare per questo device. Per esperienza il processo di migrazione di un applicativo tra diversi visori, cosi come succede tra diversi device smartphone con OS differenti, implica l’adattamento di più parti del progetto, dalla UX alle scelte tecniche di sviluppo, nonché in alcuni casi anche servizi per gestire correttamente le dinamiche dell’OS / ambiente di riferimento. Sono pochi i casi che permettono di lasciare il design pressoché inalterato, ma nel caso del VR invece è prassi.

Nel caso di Apple, rientriamo assolutamente nel secondo caso, ossia è un nuovo approccio, ergo è un contesto del tutto nuovo in cui sviluppare applicativi immersivi “per Vision pro“, e non “anche per Vision Pro“.

Da documentazione Apple è palese fin da subito che non si parla di AR / VR, ma di Spatial Computing. Di questo in questi giorni ne ho già ampiamente parlato e scritto,  e anche se per molti può sembrare solo marketing, a mio avviso ci sono alcune differenze reali nel modo in cui questo visore è progettato rispetto a Quest 3 e altri visori provati negli ultimi due anni.

Un ambiente di sviluppo, per diverse modalità

Per prima cosa in questo contesto è importante definire le tipologie di applicazioni sviluppabili. In particolare in Vision Pro ci sono tre tipi di app che si possono sviluppare: windowed, bounded e unbounded (sono termini ereditati da Unity). Nel contesto dell’Apple Vision Pro, i tre approcci alla progettazione di applicazioni rappresentano modi differenti di sfruttare le capacità di spatial computing del dispositivo. Questi approcci definiscono come l’applicazione interagisce con lo spazio dell’utente e il grado di immersività. 

  • Windowed: le applicazioni “windowed” sono quelle che appaiono agli utenti come finestre fluttuanti nello spazio davanti a loro, in modalità Passthrough, simili a come le finestre appaiono su un computer desktop tradizionale. Questo approccio consente agli utenti di interagire con l’applicazione in un formato rettangolare 2D, mantenendo contemporaneamente la consapevolezza dell’ambiente fisico. È l’opzione meno immersiva tra le tre, ma offre grande flessibilità e può essere particolarmente utile per applicazioni che non richiedono un’esperienza completamente immersiva o per quelle che devono essere eseguite in parallelo ad altre attività, in multi tasking praticamente.
  • Bounded: le applicazioni “bounded” sono progettate per operare all’interno di un volume definito, o “bounded space”, nello spazio fisico dell’utente. Questo significa che l’app crea un’esperienza 3D immersiva che gli utenti possono esplorare o interagire entro i limiti di uno spazio virtuale delimitato. Il volume può essere visualizzato come una porzione di spazio virtuale che coesiste con il mondo reale, permettendo agli utenti di muoversi e guardarsi intorno all’interno dei confini definiti. Questo approccio è più immersivo rispetto alle applicazioni windowed, offrendo un’esperienza che sfrutta la percezione dello spazio 3D pur essendo ancorata a un’area specifica del mondo reale.
  • Unbounded: le applicazioni “unbounded” rappresentano il livello più elevato di immersione, in cui l’esperienza virtuale non è confinata da limiti spaziali definiti. In questo scenario, l’app può trasformare l’intero ambiente circostante dell’utente in uno spazio di gioco o di lavoro virtuale, permettendo interazioni e movimenti virtuali senza restrizioni spaziali. Questo approccio è ideale per esperienze di realtà aumentata o virtuale che intendono sostituire o trasformare completamente la percezione dell’ambiente fisico dell’utente, offrendo la massima libertà nell’esplorazione di mondi virtuali.

Ogni approccio ha i suoi vantaggi specifici e la scelta tra windowed, bounded e unbounded dipende dagli obiettivi dell’applicazione, dalle esigenze degli utenti e dal tipo di esperienza che si desidera creare. L’Apple Vision Pro, in questo modo offre agli sviluppatori la flessibilità di esplorare questi diversi approcci per progettare esperienze utente innovative e coinvolgenti.

Un approccio flessibile e unico (per adesso)

Tecnicamente non c’è una netta divisione in questo contesto di sviluppo. Da parte di Apple, ci sono finestre o volumi (oggetti ed entità) che possono apparire in modalità Shared Space o Full Space, in Passthrough o in un ambiente VR completamente immersivo. Un’app nel caso di Vision pro può combinarli tutti insieme, in vari modi.

Faccio degli esempi per rendere meglio l’idea. Nel caso di Apple è possibile per esempio sviluppare un gruppo di finestre, che si combinano con un gruppo di volumi, in uno spazio Full o Shared. In questo caso si può passare da uno all’altro, a seconda delle esigenze dell’utente, e si possono creare dinamiche di interazione e spostamento particolari: la vera distinzione da è tra il come il contenuto è rappresentato ( finestra 2D o volume 3D) e in quale spazio si trova (condiviso con altre app o non condiviso), e soprattutto se è in Passthrough o in VR completo. Molte applicazioni per necessità o precedenti sviluppi in altri ambienti e device nascono con modelli vincolati, mentre nel caso di Apple, se si vuole mantenere una completa flessibilità la soluzione più semplice (e probabilmente corretta) è utilizzare in modalità Full Space. L’unico caso che diventa veramente vincolate e inibisce alle applicazioni di poter esser gestite contemporaneamente ad altre è lo sviluppo Unbounded/Full Space, che ha di per se molti vantaggi, ma ha lo svantaggio principale che l’utente appunto non può aprire applicazioni una a fianco all’altra.

In pratica se vogliamo realizzare applicazioni che permettano all’utente in contemporanea di leggere la posta, navigare in internet, ascoltare musica, guardare un video, giocare e fare qualsiasi altra cosa dobbiamo realizzare app bounded e in uno spazio condiviso. Questo tipo di soluzione di sviluppo, che dal possibilità di utilizzo senza soluzione di continuità, da la sensazione di essere magica. E questa cosa per adesso la si può fare solo in Apple Vision Pro.

Quando Apple menziona lo Spatial Computing in pratica non parla di AR o VR, ma si riferisce esattamente a questo.

Apple Vision pro è “un computer indossabile”. E non lo dico solo per un tema di hardware o caratteristiche tecniche, ma per via dell’ecosistema che Apple vuole integrare e lo scopo che vuole raggiungere: un dispositivo, come un computer personale, indossato sulla testa, con cui puoi fare tutto, ovunque.

Scegliere quindi in quale spazio si trova l’app, a mio avviso è la prima fase della progettazione dell’esperienza dell’applicativo che si vuole sviluppare e che consentirà al progetto di poter sfruttare a pieno le potenzialità del visore. Non c’è dubbio che allinearsi alla visione di Apple, come successo negli anni con le linee progettuali dettate da Apple stessa per IOS, possa accelerare lo sviluppo e trovarsi esattamente a progettare nel corretto paradigma – approvato da Apple appunto – e su cui il visore di fatto nasce.

La differenza dei controlli tra Apple Vision Pro e gli altri sistemi

Una delle cose che mi ha sorpreso negli ultimi anni è quanto i giochi VR possano essere accessibili ai non giocatori, per quanto il numero di visori e la diffusione dei giochi VR non sia ancora così estesa. Uno dei motivi della semplicità d’uso a primo impatto è senza dubbio il controllo all’interno del gioco, ossia per la VR è viene chiamato controllo diretto. Questo è un modo elegante per dire che giochi attraverso l’incarnazione diretta e questa forma di controllo è estremamente intuitiva, perché tutti sanno come usare il proprio corpo.

All’interno del Vision Pro, il paradigma di controllo è differente. In Vision pro le cose con cui puoi interagire le guardi e poi le pizzichi. In pratica è come se gli occhi fossero il puntatore del mouse e al tuo pizzico delle dita il clic sul tasto sinistro. Questo è quello che Apple chiama il controllo indiretto. Se il controllo diretto è intuitivo, il controllo indiretto all’inizio lo è un po’ meno.

I concetti di controllo diretto e controllo indiretto si riferiscono quindi a due diversi modi in cui gli utenti possono interagire con le interfacce digitali, in particolare nel contesto di dispositivi come l’Apple Vision Pro e altri sistemi di realtà aumentata o virtuale.

  • Controllo Diretto: il controllo diretto si basa sull’interazione fisica e intuitiva con l’ambiente virtuale. In pratica, significa che le azioni dell’utente nel mondo reale vengono mappate direttamente nel mondo virtuale in modo uno a uno. Ad esempio, se in un gioco VR l’utente vuole afferrare un oggetto, estenderà la mano e lo prenderà proprio come farebbe nella vita reale. Questo approccio è definito “diretto” perché l’azione compiuta ha un corrispettivo immediato e intuitivo nell’ambiente virtuale, rendendo l’esperienza di gioco o l’interazione estremamente naturale e accessibile anche per chi non è abituato ai videogiochi. La tecnologia di tracking di movimento, come il tracciamento delle mani e dei movimenti del corpo, è cruciale per questo tipo di controllo.
  • Controllo Indiretto: il controllo indiretto richiede invece un’azione che non corrisponde fisicamente all’azione che si verifica nel mondo virtuale. Utilizzando l’esempio dell’Apple Vision Pro, gli utenti interagiscono con l’ambiente virtuale guardando gli oggetti e compiendo un gesto specifico, come un pizzicotto, per selezionarli o interagire con essi. In questo caso, lo sguardo dell’utente funziona, come detto, come un cursore del mouse, e il “clic” delle dita sostituisce il mouse. Questo metodo è considerato “indiretto” perché c’è una disconnessione tra l’azione fisica e il risultato nell’ambiente virtuale; l’utente non tocca o afferra fisicamente l’oggetto, ma usa un’interazione basata su gesti per controllarlo.

Scegliere tra un controllo diretto o indiretto

Non c’è dubbio che la modalità in controllo indiretto debba esser appreso dall’utente poiché, almeno nella fase iniziale, non risulta naturale, soprattutto se paragonata ad altre esperienze di altri visori per gli utenti che hanno già avuto altre esperienze.

Ma questa fase di apprendimento, l’abbiamo già vissuta più volte e non è stato un disastro, anzi:

  • le levette analogiche introdotte per la prima volta nei videogiochi
  • il cursore del mouse e la sua interazione con il sistema operativo
  • lo swipe di apple per lo sblocco del cellulare per per le diverse interazioni

Ogni nuova interazione porta con se una nuova fase ed una nuova curva di apprendimento. E non necessariamente è un male.

Ora, rispetto il punto è “scegliere tra un controllo diretto o indiretto”. Ovviamente la prima riflessione è che a seconda del tipo di sviluppo che si affronta è corretto pensare di sviluppare differenti tipologie di interazione, o eventualmente supportare sia il controllo diretto che quello indiretto.

I sistemi di interazione indiretta a mio avviso prenderanno popolarità per la loro versatilità e capacità di adattarsi soprattutto alla pigrizia umana, offrendo un’interfaccia concettualmente trasparente che permette di compiere molteplici azioni con minimi spostamenti nel mondo reale. Questo tipo di controllo diventa essenziale in ambienti con spazi limitati, dove l’interazione diretta fisica è impraticabile, e aggiungo in contesti in cui l’utilizzo del visore è in condizioni di lavoro “stabili” ed il visore è il sostituto di un equipaggiamento fatto di pc, device mobile e monitor. In tali contesti, gli utenti interagiscono con il sistema da una certa distanza, rendendo le azioni simili all’uso di un mouse in un ambiente 2D, ma con la tecnologia che interpreta automaticamente la profondità e l’orientamento desiderato. Questo approccio consente una partecipazione efficace e comoda in progetti complessi senza la necessità di movimenti ampi o fisici, adattandosi perfettamente a situazioni dove lo spazio è un vincolo.

In pratica progettare per il controllo indiretto significa tornare a progettare nel modo in cui si farebbe per un mouse o un controller. Invece di mappare il movimento fisico del giocatore uno a uno nel mondo virtuale, va ripensato in modo che una piccola quantità di movimento abiliti un ampio spazio di possibilità nello spazio di interazione. Questo schema di controllo si basa molto sul tracciamento degli occhi.

Tracciamento Oculare, tra punti di forza e debolezze

Il tracciamento oculare del Vision Pro è sicuramente molto efficace e preciso, seppur tecnicamente non sbagli mai su punto in cui gli occhi sono puntati, il modo in cui deve esser implementato e utilizzato ha ancora delle debolezze (che non ho dubbi verranno migliorate).

Prima di tutto il tracciamento oculare come metodo di input presenta un potenziale limite legato alla necessità di eseguire azioni in modo sequenziale, a causa della limitazione naturale di poter focalizzare visivamente un solo elemento alla volta. Questo implica che, nonostante la potenziale rapidità e intuitività dell’interazione visiva, gli utenti sono vincolati a comunicare le loro intenzioni al sistema in una sequenza temporale definita. Questo vincolo può limitare la capacità di multitasking, in particolare in contesti dove l’efficienza e la simultaneità delle azioni sono cruciali. È possibile organizzare le interazioni in modo che consentano una forma di multitasking sequenziale, ad esempio attraverso l’uso combinato di input visivi e gestuali che permettono di gestire diversi elementi quasi contemporaneamente.

Secondo tema è relativo alla percezione visiva umana, caratterizzata da rapidi e brevi movimenti degli occhi che spostano il punto di focalizzazione, introduce ulteriori complicazioni nel tracciamento oculare. Questi aspetti biologici possono distorcere la corrispondenza tra l’intenzione dell’utente e il punto effettivo di focalizzazione, portando a discrepanze tra dove l’utente crede di aver guardato e dove i suoi occhi si sono effettivamente mossi. Questo fenomeno può causare interazioni imprecise o non intenzionali, sottolineando l’importanza di considerare le peculiarità della visione umana nella progettazione di interfacce basate sul tracciamento oculare. La sfida che vedo è quella di progettare sistemi che tengano conto di queste limitazioni, minimizzando gli errori e migliorando l’esperienza utente attraverso un’interpretazione accurata delle intenzioni visive.

Da considerare infine è l’ottimizzazione delle interfacce di tracciamento oculare ed in particolare va fatta molta attenzione al tempo di reazione richiesto nell’interazione, alla disposizione spaziale degli elementi interattivi e ai falsi positivi. Minimizzare la possibilità di azioni non intenzionali e ridurre l’impatto degli errori diventa fondamentale per mantenere un’esperienza utente positiva, fluida e che non generi frustrazione. Strategie come la distanza minima tra gli elementi interattivi e la conferma delle azioni critiche possono mitigare le conseguenze degli errori e migliorare significativamente l’usabilità. La progettazione di interfacce , soprattutto in un contesto immersivo / sensoriale deve quindi bilanciare l’introduzione di esigenze tecnologica e comportamento umano, al fine di creare sistemi di interazione che siano sia avanzati che intuitivi.

Personalizzazione dell’esperienza utente su Apple Vision Pro

Un aspetto fondamentale nella progettazione di applicazioni per Vision Pro è l’importanza di offrire esperienze altamente personalizzabili. Nell’era del computing spaziale e dell’iperpersonalizzazione, la UX si trasforma richiedendo un approccio che vada oltre la “semplice” navigazione tradizionale. Lo sviluppo deve pertanto considerare che il design possano adattarsi non solo alle diverse modalità di interazione (diretta e indiretta), ma anche alle preferenze individuali degli utenti. La capacità di modificare impostazioni quali la scala di visualizzazione, la sensibilità dei controlli o gli schemi di colore diventa cruciale per accogliere un pubblico ampio e diversificato. Questo livello di personalizzazione non solo migliora il comfort e l’usabilità, ma incoraggia anche un maggior grado di immersione e soddisfazione dell’utente, ed accessibilità.

Game Design per l’Immersività Spaziale

Nel contesto di Vision Pro, il game design assume nuove dimensioni, spingendo lo sviluppo a forme di esplorazione innovative e meccaniche di gioco che sfruttino appieno le capacità dello spatial computing. La progettazione di giochi in ambienti windowed, bounded e unbounded offre opportunità senza precedenti per creare esperienze ludiche che si intrecciano con l’ambiente fisico dell’utente. Questo richiede una riflessione approfondita su come gli elementi di stimolo possano esser applicati per far emergere ed attivare comportamenti ed interazioni all’interno di spazi reali e virtuali, in un continuo di esperienza. Elementi come la realtà aumentata dinamica, gli oggetti interattivi che reagiscono alla presenza fisica e ai movimenti dell’utente, l’interazione con oggetti fisici, sensori e la narrazione che si adatta all’ambiente circostante, pongono le basi per una nuova era del game design, dove l’ambiente stesso diventa un componente chiave del gameplay.

Lo spazio condiviso: ottimizzazione e integrazione

Nella progettazione di applicazioni che utilizzano lo “spazio condiviso” diventa importante e fondamentale considerare l’impatto sulla potenza di calcolo del dispositivo e sul carico cognitivo degli utenti. Le applicazioni in questi contesti non operano in isolamento (ossia in modalità unica) ma coesistono con altre applicazioni, condividendo di conseguenza le risorse limitate come la potenza di elaborazione. Questo implica la necessità di ottimizzare le prestazioni senza presupporre l’accesso esclusivo alle risorse del sistema. Allo stesso tempo, è essenziale progettare esperienze che non sovraccarichino l’utente, lasciando spazio cognitivo (in modo fagocitante) per altre attività parallele, sottolineando l’importanza di un design che sia efficiente e non invadente.

Il concetto di spazio condiviso estende la sua rilevanza ed importanza progettuale anche al tema sonoro delle applicazioni. Nello sviluppo di un applicativo devono esser bilanciate la creazione di un contesto ambientale sonoro coinvolgente e la consapevolezza che esisteranno altri suoni nell’ambiente dell’utente fisico circostante. Questo richiede un attento lavoro di design del suono che consideri la coesistenza di fonti sonore multiple, garantendo che l’audio dell’applicazione non sia invasivo ma piuttosto si integri armoniosamente con il contesto di utilizzo. Son parecchi i giochi e applicazioni già presenti in altri store VR che non hanno una corretta attenzione progettuale a queste dinamiche.

Sfide e Strategie nello Sviluppo per Piattaforme Avanzate

Ultimo tema da affrontare è relativo alla scelta della piattaforma di sviluppo per un progetto, e qui le opzioni spaziano da ambienti nativi, come Swift per dispositivi Apple, a motori di terze parti come Unity. La decisione dipende spesso dalla familiarità con l’ecosistema e dalla valutazione dei rischi e delle tempistiche di sviluppo del singolo progetto.

Sviluppare nativamente può offrire un accesso diretto alle ultime funzionalità e ottimizzazioni e caratteristiche tecniche del dispostivo stesso e dell’OS (come succede dopo tutto con swift su IOS), ma richiede una conoscenza approfondita della piattaforma. Al contrario, l’uso di motori di terze parti può accelerare lo sviluppo grazie alla loro flessibilità e alla vasta gamma di funzionalità, anche se potrebbe comportare limitazioni in termini di accesso alle funzionalità più recenti e specifiche del dispositivo ed una maggiore dipendenza da aggiornamenti di terze parti.

Le differenze architetturali tra le piattaforme di sviluppo possono presentare complessità differenti: un esempio, in particolare, riguarda lo sviluppo in Unity (e prossimamente anche Unreal) nell’interazione con l’hardware di ogni specifica piattaforma (VisionPro, Quest3, altri) e creare delle discrepanze nella gestione del rendering, conversioni di materiali e shader, e differenze nel modo in cui di conseguenza la logica dell’applicativo interagisce con le API native.

Nello specifico questa fase di approccio alla scelta necessità di una comprensione dettagliata degli ambienti e delle loro peculiarità al fine di ottimizzare le prestazioni e garantire che il progetto funzioni come previsto. Se ci pensate non è diverso da quanto accade quando scegliamo di sviluppare app mobile in nativo o con framework come Flutter o altro.

Le questioni di rendering, in particolare, possono essere complesse, con considerazioni da valutare sull’efficacia in termini di risoluzione, framerate, latenza e come queste influenzano di conseguenza l’esperienza utente.

Last, but not Least… i dati e la privacy

La progettazione di applicazioni più complesse ci mette davanti anche temi da trattare come privacy e l’accesso ai dati, soprattutto in contesti di spazio condiviso. L’accesso a dati ed informazioni sensibili come la posizione dell’utente o il movimento degli occhi può essere limitata per motivi di sicurezza.

Nella fase di analisi di un progetto è importante comprendere fin da subito quali restrizioni dover affrontare bilanciando le necessità funzionali dell’applicativo con il rispetto della privacy dell’utente, cercando soluzioni creative per migliorare l’interazione senza compromettere la sicurezza e quindi danneggiare l’adozione.

Insomma, in questo viaggio appena iniziato vedo una potenzialità enorme, ma soprattutto uno spazio tutto nuovo di possibili progettualità che, ad oggi, nemmeno immaginiamo. Esattamente come quando per la prima volta iniziammo a pensare alla prossima app per iPhone.

Il VisionPro è il secondo device dopo l’Iphone ad avermi stupito

La penso così, come Altman. Lo dico da Dicembre quando ho avuto modo di provarlo la prima volta: il #VisionPro è il secondo device dopo l’Iphone ad avermi stupito per l’impatto potenziale che avrà. Non c’è dubbio secondo me che questo dispositivo segnerà una evoluzione in tutta l’industria e aggiungo in tutte le industrie che lo adotteranno mettendo in discussione nuovi modelli di servizio.

Ci sono diverse cose sottovalutate rispetto a questo device:

  • fa parte di un ecosistema di dispositivi e servizi integrati
  • ha una esperienza d’uso lato ux già nota agli utenti
  • ha una community di sviluppatori enorme e consolidata
  • è di proprietà di un brand in grado di influenzare cambiamenti

Il prezzo e la vendita solo usa non sono un problema come ho già scritto. Anzi sono parte integrante della strategia di barriera all’ingresso, messa appositamente per:

  • avere il tempo di popolare lo store di applicazioni e servizi per non far sembrare il device noiso (come altri e come già successo ad alcuni ecosistemi smartphone)
  • amplificare l’effetto mediatico e creare senso di esclusività
  • trasformare una aspettativa nerd in un desiderio di life style

È il prodotto definitivo? Ovviamente no. Questo non è non sarà l’unico dispositivo, è il primo di un viaggio in una industria dove Apple ha atteso di entrare, pur studiando da anni.

Sarà un prodotto di massa nell’immediato? Sicuramente no. Per adesso. Ci vorrà tempo e maggiore maturità, tecnologica, e di mercato.

Vedremo app e servizi stupidi e futuli? Ovviamente si, come successo anche alle app dell’Iphone e servizi inutili dei primi anni, fallimenti e progetti morti, che però hanno permesso di capire, migliorare e raggiungere il modo in cui utilizziamo oggi il device, come hub.

Avrà altre potenzialità oltre quello che vediamo adesso? Ne sono certo, perché gradualmente capiremo in che modo potremo accedere una realtà sempre più estesa.

Da Lunedì, con l’arrivo del primo dei 2 device che ho preso (si lo so, sembra una follia ma ha un senso, ve lo racconterò) sarò al lavoro proprio su progetti che mettono insieme #SpatialComputing #AI e #Gamification.

Sono elettrizzato come quando mi stava arrivando il primo iphone.

Direzione Hyper Reality: ma qual’è la differenza tra AR, MR, VR e XR?

Negli ultimi anni la nostra realtà quotidiana è stata intrisa di tecnologia che ha tessuto una trama complessa e multiforme che sta sfidando continuamente le nostre percezioni tradizionali di spazio, tempo e interazione. In questo contesto emergente, concetti come realtà virtuale (VR), realtà aumentata (AR), realtà mista (MR), realtà estesa (XR) e, più recentemente, Hyper Reality, non sono solo diventati argomenti di fervente discussione tra tecnologi, sociologi, filosofi, ma hanno anche aperto nuove frontiere di esperienza e possibilità per l’utente medio che sta iniziando a vedere questi temi come più comuni, per quanto ancora non pervasivi e di massa.

Nonostante la loro crescente prevalenza nella nostra cultura digitale, la comprensione di questi termini e la distinzione tra le loro applicazioni e potenzialità rimangono avvolte in una nebbia di ambiguità e malintesi.

Scrivo questo articolo in risposta alle domande che spesso ricevo in aula, o da clienti, e metto un po’ più a focus questi concetti, delineando non solo le loro definizioni ma anche esplorando il loro impatto sul tessuto della società moderna e sul potenziale futuro che ci attende. Mentre il mercato delle tecnologie XR è previsto crescere esponenzialmente, raggiungendo valori astronomici nei prossimi anni, diventa imperativo per designer, sviluppatori, educatori e curiosi di ogni sorta comprendere a fondo queste tecnologie, per poter navigare e plasmare il futuro digitale che ci aspetta.

Parto da qui: “Ma che differenza c’è tra Augmented Reality, Virtual Reality e Mixed Reality?” e per rispondere è corretto approfondire ognuno di queste classificazioni, partendo però da un concetto di base.

Cosa è la Realtà?

La realtà, come la conosciamo, è un concetto profondamente personale e soggettivo, modellato dalle nostre esperienze, percezioni e interpretazioni del mondo che ci circonda. Questo concetto di realtà è stato ulteriormente complicato e arricchito dall’avvento delle tecnologie digitali, che hanno introdotto nuovi strati di esperienza e percezione. La realtà virtuale, la realtà aumentata, la realtà mista e la realtà estesa sono tutte espressioni di come la tecnologia stia sfidando e riscrivendo le regole della percezione umana, offrendo nuove finestre attraverso le quali osservare e interagire con il mondo.

La distinzione tra il mondo fisico e quello digitale sta diventando sempre più sfumata, con tecnologie che ci permettono di immergerci in ambienti virtuali indistinguibili dalla realtà, arricchire il nostro ambiente fisico con informazioni e oggetti digitali, o persino creare spazi in cui il fisico e il digitale coesistono e interagiscono in modi precedentemente inimmaginabili. La comprensione moderna della realtà non può prescindere dall’influenza delle tecnologie immersive che, giorno dopo giorno, riscrivono le nostre esperienze sensoriali e cognitive.

Approfondendo il concetto di Continuum della virtualità 

Il concetto di continuum della virtualità fornisce un quadro teorico fondamentale per comprendere il vasto panorama delle tecnologie immersive. Originariamente proposto da Paul Milgram e Fumio Kishino nel 1994, il continuum della virtualità esplora l’intero spettro delle esperienze che si estendono dal mondo reale, completamente fisico, fino a quello totalmente virtuale, offrendo una mappa per navigare tra le varie gradazioni di realtà mista. Questo spettro non è statico, ma dinamico, riflettendo l’evoluzione continua della tecnologia e delle sue applicazioni nel mescolare elementi digitali e fisici.

All’estremità del continuum, troviamo la realtà pura, non mediata da alcuna tecnologia digitale. Man mano che ci spostiamo lungo il continuum, incontriamo la realtà aumentata, che sovrappone elementi digitali al mondo fisico, e la realtà mista, che permette un’interazione più profonda tra questi elementi. Proseguendo, raggiungiamo l’ambiente completamente immersivo della realtà virtuale, dove il mondo fisico è sostituito da uno digitale. Questo modello ci aiuta a capire che le esperienze offerte da AR, MR e VR non sono entità isolate, ma parti di un continuum fluido di realtà, ognuna con il proprio potenziale unico di trasformare la nostra interazione con il mondo.

Cosa è la Realtà Aumentata (AR)?

La realtà aumentata (AR) rappresenta la tecnologia che sovrappone contenuti digitali – come immagini, video, o dati – al mondo reale, arricchendo così l’esperienza visiva naturale con informazioni aggiuntive percepite attraverso dispositivi come smartphone, tablet, o visori specifici. A differenza della realtà virtuale, che crea un ambiente completamente artificiale, l’AR migliora l’ambiente esistente senza sostituirlo, mantenendo l’utente ancorato al suo contesto fisico mentre interagisce con elementi digitali.

L’applicazione dell’AR è vasta e variegata, spaziando dall’intrattenimento all’istruzione, dalla manutenzione industriale al marketing. Nelle applicazioni educative, per esempio, l’AR può trasformare un libro di testo tradizionale in un’esperienza interattiva, con immagini che prendono vita o con modelli 3D che gli studenti possono esplorare da diverse angolazioni. Nel commercio, l’AR offre ai consumatori la possibilità di visualizzare prodotti in 3D nel proprio ambiente prima di effettuare un acquisto, migliorando l’esperienza d’acquisto online con un livello di interazione e personalizzazione precedentemente inaccessibile.

Cosa è la Realtà Virtuale (VR)?

La realtà virtuale (VR) trasporta l’utente in un mondo completamente generato / renderizzato, creando un’esperienza immersiva totalizzante che può simulare la realtà o trasportare in ambienti fantastici o ambienti reali riprodotti o registrati con foto/video a 360. A differenza dell’AR, che integra e arricchisce l’ambiente fisico con elementi digitali, la VR sostituisce il mondo reale con uno spazio virtuale, isolando l’utente dall’esterno e impegno tutti i sensi per produrre un’esperienza completamente immersiva. Gli utenti interagiscono con il mondo virtuale tramite dispositivi come visori VR, guanti tattili e sistemi di tracciamento del movimento, o altri sistemi in grado di abilitare ulteriori dinamiche (esempio il nuovo tappeto di Disney Holotile) e che insieme creano la sensazione di essere fisicamente presenti nell’ambiente digitale.

L’impiego della VR spazia dall’intrattenimento e dai giochi, dove offre esperienze coinvolgenti e spettacolari, all’istruzione e alla formazione, dove può simulare situazioni complesse o pericolose in un contesto sicuro. Per esempio, i piloti utilizzano simulatori VR per l’addestramento al volo o automobilistico, permettendo loro di esercitarsi in varie condizioni meteorologiche e situazioni di emergenza senza i rischi associati alla dinamica reale. In campo medico, la VR viene impiegata per la formazione chirurgica, la riabilitazione e perfino per il trattamento di disturbi psicologici, come la fobia e il disturbo da stress post-traumatico, offrendo un ambiente controllato in cui i pazienti possono affrontare e lavorare sulle loro paure.

Cosa è la Realtà Mista (MR)?

La realtà mista (MR) va oltre la realtà aumentata ed aggiunge alcune potenzialità del VR, integrando e sovrapponendo elementi virtuali al mondo reale in modo che interagiscano dinamicamente con l’ambiente fisico. Questo significa che gli oggetti digitali inseriti in uno spazio MR possono essere manipolati e possono rispondere alle modifiche dell’ambiente reale, creando un’esperienza che unisce il meglio di entrambi i mondi. La MR rappresenta quindi un avanzamento significativo nell’interazione uomo-macchina, poiché richiede una comprensione più profonda e un’integrazione più sofisticata di realtà fisica e digitale.

Le applicazioni della MR sono particolarmente promettenti in campi come la progettazione e l’ingegneria, dove i professionisti possono collaborare su modelli 3D virtuali sovrapposti all’ambiente di lavoro reale, consentendo una visualizzazione e una manipolazione senza precedenti dei progetti in fase di sviluppo. In ambito educativo, la MR può immergere gli studenti in ambienti di apprendimento interattivi che stimolano sia il coinvolgimento che la comprensione, offrendo esperienze pratiche in contesti altrimenti inaccessibili o pericolosi nella realtà.

Cosa è la Realtà Estesa (XR)?

La realtà estesa (XR) rappresenta il concetto che incorpora tutte le forme di realtà combinata, dalla realtà aumentata (AR) e la realtà mista (MR) fino alla realtà virtuale (VR), e qualsiasi altra tecnologia futura che sfuma i confini tra il mondo fisico e quello digitale. L’XR non si limita a un singolo tipo di interazione o esperienza; piuttosto, abbraccia l’intero spettro di ambienti che si estendono, arricchiscono o sostituiscono completamente la realtà fisica con una digitale. Questo termine è diventato sempre più prevalente man mano che le tecnologie immersive si sono sviluppate, riflettendo il loro potenziale collettivo di creare esperienze senza precedenti che possono rivoluzionare settori come l’educazione, l’intrattenimento, la medicina e il commercio.

L’importanza dell’XR risiede nella sua capacità di integrare senza soluzione di continuità le informazioni digitali con il mondo fisico, migliorando così la nostra comprensione e interazione con la realtà circostante. In particolare stanno convergendo verso l’XR tecnologie come Connettività in mobilità, Intelligenza Artificiale, IOT e Wearable Techgnology.

Nell’ambito dell’istruzione, gli studenti possono esplorare ambienti virtuali che riproducono eventi storici o simulano fenomeni scientifici complessi, offrendo un livello di immersione e interattività che i metodi didattici tradizionali faticano a raggiungere. In ambito sanitario, l’XR può assistere i chirurghi visualizzando in 3D l’anatomia del paziente durante gli interventi, riducendo il rischio di errori e migliorando gli esiti delle operazioni.

Spatial Computing: alla base di AR, VR, MR e XR

Per comprendere le potenzialità delle varie realtà AR, MR, VR e XR, è fondamentale riconoscere il ruolo cruciale dello Spatial Computing come colonna portante di queste tecnologie immersive. Lo Spatial Computing, o computazione spaziale, è una tecnologia all’avanguardia che consente ai dispositivi di percepire, analizzare e interagire con il mondo fisico in tre dimensioni. Attraverso l’uso di sensori avanzati, realtà aumentata, e l’intelligenza artificiale, lo Spatial Computing permette agli ambienti digitali di integrarsi perfettamente con lo spazio fisico, creando esperienze utente dinamiche e interattive che vanno oltre i confini dello schermo.

Questa tecnologia non solo rende possibile la sovrapposizione visiva di oggetti virtuali nel mondo reale, come nella AR, ma abilita anche interazioni complesse nel contesto della MR, dove utenti e oggetti virtuali possono interagire in tempo reale con l’ambiente circostante. Nel dominio della VR, lo Spatial Computing facilita la creazione di spazi completamente immersivi che possono replicare o superare le leggi fisiche, offrendo esperienze che erano precedentemente inimmaginabili. Non per ultimo nell’ambito della XR, questa tecnologia è indispensabile per fondere fluidamente realtà fisica e digitale, spianando la strada verso un futuro di Hyper Reality dove la distinzione tra reale e virtuale diventa sempre più sfumata.

Lo Spatial Computing non è solo una componente aggiuntiva delle esperienze AR, MR, VR e XR; è il motore che permette a queste tecnologie di trasformare radicalmente il modo in cui interagiamo con il mondo che ci circonda, aprendo nuove frontiere nell’istruzione, nel lavoro, nell’intrattenimento e oltre.

Perchè si parla di Hyper Reality?

La Hyper Reality rappresenta l’evoluzione ultima delle tecnologie immersive, in cui la distinzione tra fisico e digitale non solo si sfuma ma diventa indistinguibile. In questo scenario, gli elementi della realtà virtuale, aumentata e mista convergono in un’esperienza unificata che integra in modo così fluido il reale e il virtuale da rendere la transizione tra i due impercettibile. La Hyper Reality potrebbe permettere agli utenti di vivere in un mondo in cui informazioni digitali, oggetti virtuali e ambienti fisici si fondono in un unico tessuto esperienziale, creando possibilità illimitate per l’apprendimento, l’intrattenimento, il lavoro e le interazioni sociali.

La visione della Hyper Reality solleva questioni significative riguardanti l’identità, la privacy e la percezione della realtà. Mentre offre opportunità straordinarie per arricchire l’esperienza umana, pone anche sfide etiche e filosofiche sul ruolo della tecnologia nella nostra vita e su come mantenere un senso di autenticità e connessione umana in un mondo sempre più mediato digitalmente. La progettazione e lo sviluppo responsabile di queste tecnologie saranno cruciali per garantire che arricchiscano piuttosto che erodere la qualità della nostra esperienza di vita.

Potenziali Impatti e Considerazioni Etiche, Inclusa la Noia dalla Realtà

La promessa di un arricchimento dell’esperienza umana è tangibile: l’istruzione si avvale di metodi sempre più immersivi, i luoghi di lavoro si trasformano in spazi ibridi tra fisico e virtuale, l’intrattenimento e il turismo sperimentano frontiere inesplorate, e la medicina e la terapia psicologica beneficiano di nuovi strumenti per il trattamento e la riabilitazione.

Al di là dei vantaggi evidenti, l’integrazione di queste realtà estese porta con sé una serie di questioni etiche e problematiche non trascurabili. Tra queste, la noia dalla realtà, uno dei problemi che come padre con figli piccoli e già fortemente fagocitati dal digitale, vedo e vivo come una vera, complessa, e difficile sfida: l’abitudine a stimoli digitali costanti e sempre più coinvolgenti potrebbe rendere la realtà quotidiana meno appetibile, incidendo sul nostro livello di engagement e soddisfazione nelle attività del mondo reale. Ciò potrebbe condurre a una crescente disaffezione o a una ricerca ininterrotta di esperienze virtuali come fuga dalla realtà.

Si aggiungono a questo preoccupazioni relative alla privacy e alla sicurezza dei dati, visto che queste tecnologie raccolgono e elaborano enormi quantità di informazioni personali, dirette della persona e del comportamento (dallo sguardo ai movimenti), fino al contesto in cui si trovano. La riflessione sull’uso etico della tecnologia diventa una necessità sempre di più forte, così come il dibattito su come queste tecnologie possano influenzare la nostra percezione della realtà e le relazioni con gli altri. La sfida secondo me sarà quella di bilanciare i benefici di queste realtà estese con un uso consapevole e responsabile, assicurando che il progresso tecnologico non pregiudichi la nostra capacità di apprezzare e valorizzare la vita al di fuori dello schermo.

Sicuramente non mi auguro di vedere gente che gesticola camminando in mezza alla strada…

Spatial Computing: Un Altro Passo Verso l’Hyper Reality

Lo Spatial Computing segna un’evoluzione cruciale nell’interazione tra umani e computer, superando le tradizionali barriere tra il mondo fisico e quello digitale per creare un ambiente coesivo e interattivo. Questa tecnologia ambisce a trasformare i dispositivi elettronici da semplici strumenti di calcolo, confinati entro i limiti di uno schermo, in partner attivi capaci di interagire e comprendere lo spazio che ci circonda. A differenziarlo dalle tecnologie immersive preesistenti, come la realtà aumentata (AR), la realtà virtuale (VR) e la realtà mista (MR), è la sua capacità di estendere e integrare l’esperienza utente oltre i confini tradizionali.

La realtà aumentata (AR) arricchisce il mondo reale con sovrapposizioni digitali, la realtà virtuale (VR) sostituisce l’ambiente fisico con uno completamente digitale, mentre la realtà mista (MR) fonde i due, permettendo agli oggetti virtuali di interagire con il mondo fisico in maniera convincente. Lo Spatial Computing, tuttavia, abbraccia e supera questi concetti, facilitando interazioni con oggetti virtuali che non solo appaiono parte del nostro mondo ma possono anche essere manipolati direttamente, come se fossero fisicamente presenti.

Questa tecnologia si avvale di complessi algoritmi di intelligenza artificiale, sensori avanzati e tecniche di computer vision per creare esperienze utente immersive e intuitive. Le azioni fisiche diventano input per il mondo digitale in modi che prima si potevano solo immaginare, aprendo nuovi orizzonti in campi come l’istruzione, il lavoro e l’intrattenimento. Lo Spatial Computing promette quindi di rivoluzionare il nostro modo di interagire con le informazioni digitali, offrendo un livello di integrazione e interattività senza precedenti, e ponendo le basi per un futuro in cui le distinzioni tra fisico e digitale si sfumano sempre più.

Storia dello Spatial Computing

La storia dello Spatial Computing è costellata da visionari e innovazioni che hanno progressivamente sfumato i confini tra il mondo fisico e quello digitale. Sebbene il termine stesso sia stato coniato relativamente di recente, le sue radici affondano in decenni di ricerca e sviluppo in ambiti correlati come la realtà virtuale, la realtà aumentata e l’intelligenza artificiale.

Il concetto di Spatial Computing, come lo conosciamo oggi, trae ispirazione dai primi lavori nel campo della realtà virtuale e aumentata. Un precursore significativo fu Ivan Sutherland, che nel 1968 presentò il “Sword of Damocles”, considerato il primo sistema di realtà virtuale. Questo sistema pionieristico dimostrò come fosse possibile sovrapporre immagini generate da computer alla visione naturale, inaugurando un’era di esplorazione su come gli ambienti digitali potessero essere integrati nel mondo fisico.

Negli anni ’90, con l’avvento di tecnologie più avanzate, la visione di Sutherland cominciò a materializzarsi in forme più accessibili e pratiche. I laboratori di ricerca, come il HIT Lab fondato da Tom Furness a Washington, divennero centri nevralgici per l’innovazione nello Spatial Computing. Fu in questo contesto che il termine cominciò a essere usato per descrivere sistemi che consentivano agli utenti di interagire con dati spaziali in modi intuitivi e naturali.

Il passaggio dal concetto alla realtà ha ricevuto un notevole impulso all’inizio degli anni 2000, in particolare con il lavoro di Simon Greenwold al MIT, che esplorò nuove modalità di interazione uomo-computer basate sulla comprensione spaziale. Da allora, le evoluzioni nel campo dell’intelligenza artificiale, dei sensori, della visione artificiale e dell’Internet of Things (IoT) hanno accelerato lo sviluppo dello Spatial Computing, rendendolo una tecnologia sempre più pervasiva.

Oggi, il percorso tracciato da questi pionieri è stato ampliato da aziende come Apple, Microsoft e Meta, che hanno introdotto dispositivi e piattaforme capaci di offrire esperienze di Spatial Computing avanzate. Questi sviluppi non solo attestano il progresso tecnologico ma anche il cambiamento nella percezione e nell’aspettativa di come interagiamo con la tecnologia nel nostro quotidiano.

La storia dello Spatial Computing è quindi un viaggio dall’immaginazione alla realtà, un percorso che continua a evolversi e a espandersi, promettendo di ridefinire ulteriormente il nostro rapporto con la tecnologia digitale.

Tecnologie Abilitanti

Il cuore pulsante dello Spatial Computing è rappresentato da un insieme di tecnologie avanzate che lavorano in sinergia per creare esperienze immersive che sfumano i confini tra il mondo fisico e quello digitale. Tra queste, l’intelligenza artificiale (AI), i sensori di movimento, la computer vision, l’Internet of Things (IoT) e la realtà aumentata (AR) sono i pilastri fondamentali che rendono possibile lo Spatial Computing.

L’intelligenza artificiale gioca un ruolo cruciale, permettendo ai sistemi di interpretare e reagire agli input umani in modo naturale e intelligente. Attraverso algoritmi di apprendimento automatico e di deep learning, l’AI può comprendere comandi vocali, gesti e persino intenzioni dell’utente, facilitando un’interazione fluida e intuitiva con gli ambienti digitali.

I sensori di movimento, inclusi accelerometri, giroscopi e sensori di profondità, sono indispensabili per tracciare la posizione e i movimenti dell’utente nello spazio. Questi dati, una volta raccolti, permettono al sistema di aggiornare in tempo reale l’ambiente virtuale in base alle azioni dell’utente, rendendo l’esperienza sia dinamica che coinvolgente.

La computer vision, attraverso l’uso di telecamere e algoritmi avanzati, consente ai dispositivi di “vedere” e interpretare l’ambiente circostante. Questa capacità è fondamentale per posizionare accuratamente gli oggetti virtuali nel mondo reale, garantendo che interagiscano in modo convincente con lo spazio fisico e gli oggetti presenti.

L’Internet of Things (IoT) estende le capacità dello Spatial Computing oltre il singolo dispositivo, consentendo una rete di oggetti interconnessi che possono raccogliere, scambiare e agire su dati nel mondo fisico. Questo crea un tessuto di intelligenza distribuita che può arricchire ulteriormente l’esperienza dello Spatial Computing, offrendo nuove dimensioni di interazione e automazione.

La realtà aumentata (AR), non per ultima di importanza, fornisce il layer visivo e a volte tattile che sovrappone gli elementi digitali al mondo reale, un aspetto chiave dello Spatial Computing. Grazie all’AR, gli utenti possono vedere e interagire con informazioni e oggetti virtuali come se fossero parte del loro ambiente naturale, ampliando le possibilità di apprendimento, intrattenimento e lavoro.

Queste tecnologie, integrate in maniera coerente, non solo rendono lo Spatial Computing una realtà ma aprono anche la strada a infinite possibilità di innovazione futura, promettendo di trasformare radicalmente il modo in cui viviamo, lavoriamo e interagiamo con il mondo che ci circonda.

Applicazioni e Impatti sul Business

Lo Spatial Computing sta iniziando a rivoluzionare diversi settori, offrendo modalità innovative per interagire con informazioni e ambienti, migliorare i processi lavorativi e creare nuove esperienze per i consumatori. L’impiego di questa tecnologia nel business apre un ventaglio di opportunità, dalla produzione industriale all’istruzione, dall’architettura al retail.

Nel settore industriale, lo Spatial Computing permette di ottimizzare i processi produttivi attraverso la realtà aumentata e i digital twins, offrendo ai lavoratori la possibilità di interagire con modelli virtuali di macchinari o intere linee di produzione. Ciò consente non solo una manutenzione predittiva più efficace, ma anche una formazione immersiva per il personale, riducendo i tempi di inattività e migliorando la sicurezza sul lavoro.

Nell’educazione, lo Spatial Computing apre la strada a metodi di apprendimento esperienziale, dove studenti e insegnanti possono esplorare concetti complessi in ambienti 3D interattivi. Che si tratti di anatomia umana o di fenomeni astronomici, la capacità di visualizzare e manipolare oggetti di studio in uno spazio tridimensionale può migliorare significativamente l’assorbimento e la retention delle informazioni.

Per gli architetti e i designer, lo Spatial Computing offre strumenti senza precedenti per la visualizzazione e la modifica dei progetti in tempo reale e in scala. La possibilità di “camminare” attraverso una costruzione virtuale prima che sia costruita o di provare differenti soluzioni di design in un ambiente esistente può drammaticamente ridurre i costi e i tempi di progetto, migliorando al contempo la qualità del lavoro finale.

Nel settore retail, lo Spatial Computing può trasformare l’esperienza di shopping, permettendo ai clienti di visualizzare prodotti in AR prima dell’acquisto o navigare in negozi virtuali. Questo non solo migliora l’esperienza del cliente ma offre anche ai rivenditori strumenti potenti per personalizzare le offerte e aumentare l’engagement.

Lo Spatial Computing ha un impatto significativo sul modo in cui le aziende concepiscono il lavoro a distanza e la collaborazione. Gli ambienti di lavoro virtuali consentono team distribuiti geograficamente di collaborare come se fossero nello stesso spazio fisico, abbattendo le barriere della distanza e migliorando la comunicazione e l’efficienza del team.

Tutto questo non solo promette di migliorare l’efficienza e l’efficacia in numerosi settori ma anche di reinventare completamente l’esperienza umana, sia nel contesto lavorativo che in quello personale, con implicazioni che stiamo solo iniziando a comprendere.

Spatial Computing vs Metaverso: Differenze e Convergenze

Nel panorama tecnologico attuale, due concetti stanno catturando l’immaginario collettivo: lo Spatial Computing e il Metaverso. Sebbene entrambi promettano di ridefinire il nostro rapporto con la realtà digitale, essi si fondano su premesse e obiettivi distinti, che meritano di essere esplorati per comprendere pienamente le loro potenzialità e i punti di convergenza.

Differenze Fondamentali

Lo Spatial Computing rappresenta un insieme di tecnologie che permettono l’interazione tra utenti e ambienti digitali tridimensionali in modo intuitivo e naturale, utilizzando il movimento, la voce e lo sguardo. Questo concetto si focalizza sull’integrazione degli elementi digitali nel mondo fisico, rendendo il confine tra i due sempre meno percepibile. Lo Spatial Computing, quindi, agisce come un ponte che estende la realtà fisica, arricchendola con informazioni e oggetti virtuali interattivi.

Il Metaverso, d’altro canto, è spesso descritto come un universo digitale parallelo, un mondo virtuale persistente dove gli utenti possono incontrarsi, interagire, lavorare e giocare. A differenza dello Spatial Computing, che amplifica l’esperienza del mondo reale, il Metaverso si propone come un’alternativa a esso, offrendo un’esperienza completamente immersiva che esiste indipendentemente dalla realtà fisica.

Punti di Convergenza

Nonostante queste differenze, i percorsi di evoluzione dello Spatial Computing e del Metaverso iniziano a intrecciarsi, delineando scenari futuri in cui i due concetti potrebbero convergere. Entrambi si avvalgono di tecnologie immersive come la realtà aumentata, la realtà virtuale e la realtà mista per creare esperienze utente coinvolgenti e ricche di contenuti.

La convergenza si manifesta nella visione di un futuro in cui lo Spatial Computing potrebbe servire come interfaccia per accedere al Metaverso, fungendo da strato di integrazione che trasporta gli utenti da un’esperienza arricchita del mondo fisico a un’immersione totale in ambienti virtuali. In questo modo, lo Spatial Computing non solo amplifica la realtà circostante ma diventa anche il mezzo attraverso il quale il Metaverso si rende accessibile e navigabile, unendo le dimensioni fisiche e virtuali in un continuum esperienziale.

Entrambi i concetti pongono le basi per lo sviluppo di nuove forme di interazione sociale, economica e culturale, tracciando il percorso per la creazione di spazi in cui la distinzione tra reale e virtuale diventa sempre più sfumata. La potenziale integrazione di sistemi economici, sociali e di governance nel Metaverso potrebbe trovare nello Spatial Computing il catalizzatore per una maggiore adozione e una transizione fluida tra i due mondi.

Mentre lo Spatial Computing e il Metaverso partono da presupposti distinti, la loro evoluzione indica una crescente intersezione dei due concetti. Questa convergenza promette di aprire nuove frontiere nell’interazione digitale, portando avanti una visione in cui la realtà viene arricchita e ampliata in modi finora solo immaginati.

Casi d’Uso Emergenti

Lo Spatial Computing sta emergendo come una forza trasformativa in numerosi ambiti, promettendo di portare l’interazione uomo-computer a un nuovo livello di intuitività e immersività. Di seguito sono elencati alcuni dei casi d’uso più promettenti e innovativi che stanno iniziando a prendere forma grazie a questa tecnologia.

  • Assistenza Remota e Manutenzione Predittiva: Nell’industria manifatturiera e oltre, lo Spatial Computing consente agli esperti di fornire assistenza remota ai tecnici sul campo, sovrapponendo istruzioni e diagrammi 3D agli oggetti reali tramite visori AR. Questo non solo accelera i tempi di intervento ma riduce anche il rischio di errori. Inoltre, la capacità di monitorare lo stato delle macchine in tempo reale e in modo intuitivo attraverso digital twins spaziali facilita una manutenzione predittiva più efficace, prevenendo guasti prima che si verifichino.
  • Formazione e Istruzione: Lo Spatial Computing trasforma l’educazione, rendendo l’apprendimento più interattivo e coinvolgente. Attraverso ambienti virtuali immersivi, gli studenti possono esplorare la biologia cellulare, la meccanica quantistica o la storia antica in modi precedentemente impossibili. Questi ambienti di apprendimento potenziati offrono una comprensione più profonda dei concetti, migliorando l’efficacia dell’istruzione.
  • Progettazione e Prototipazione: Designer e ingegneri beneficiano enormemente dello Spatial Computing, che permette di visualizzare e iterare prototipi virtuali in spazi fisici. Questo riduce notevolmente i cicli di sviluppo e i costi associati alla prototipazione tradizionale, consentendo una sperimentazione più libera e creativa.
  • Turismo e Esperienze Culturali: Attraverso la realtà aumentata e mista, lo Spatial Computing può arricchire l’esperienza turistica, consentendo ai visitatori di sovrapporre informazioni storiche o contestuali direttamente nell’ambiente che li circonda. Musei e siti storici possono sfruttare questa tecnologia per offrire tour virtuali arricchiti, dove artefatti e monumenti sono animati da racconti e visualizzazioni 3D.
  • Salute e Benessere: Nel settore sanitario, lo Spatial Computing apre nuove frontiere nella chirurgia assistita, nella riabilitazione e nell’assistenza a distanza. I chirurghi possono beneficiare di visualizzazioni 3D miglioranti durante gli interventi, mentre i pazienti in riabilitazione possono utilizzare ambienti virtuali per esercizi terapeutici guidati, personalizzati secondo le loro specifiche necessità.
  • Collaborazione e Spazi di Lavoro Virtuali: In un mondo sempre più orientato verso il lavoro remoto, lo Spatial Computing offre soluzioni innovative per la collaborazione a distanza. Gli spazi di lavoro virtuali consentono ai team di interagire in ambienti 3D condivisi, dove idee e progetti possono essere esplorati e sviluppati in maniera collaborativa, superando i limiti della comunicazione a distanza tradizionale.

Questi casi d’uso emergenti dimostrano il vasto potenziale dello Spatial Computing di trasformare radicalmente non solo come lavoriamo e apprendiamo, ma anche come viviamo le nostre vite quotidiane, promettendo un futuro in cui le nostre interazioni con il mondo digitale sono più naturali, intuitive e arricchenti.

Prodotti di Punta e Innovazioni

L’evoluzione dello Spatial Computing è strettamente legata ai progressi tecnologici e all’introduzione di prodotti innovativi che hanno spianato la strada a nuove possibilità di interazione digitale. Tra i dispositivi di punta che hanno segnato importanti tappe in questo percorso troviamo l’Apple Vision Pro, il Microsoft HoloLens e il Meta Quest 3, ciascuno con le proprie peculiarità e contributi al campo.

  • Apple Vision Pro: Questo dispositivo di Apple rappresenta un significativo salto qualitativo nello Spatial Computing, offrendo un’esperienza di realtà mista di alta qualità con un’enfasi particolare sull’interazione intuitiva e naturale. Con il suo design all’avanguardia, l’Apple Vision Pro integra tecnologie avanzate di tracciamento degli occhi, controllo gestuale e audio spaziale, consentendo agli utenti di immergersi in ambienti virtuali con un livello di realismo e fluidità d’interazione senza precedenti. La sua introduzione ha segnato un punto di svolta, dimostrando il potenziale dello Spatial Computing nel mainstream e spingendo altre aziende a esplorare soluzioni innovative.
  • Microsoft HoloLens: Il HoloLens di Microsoft è stato uno dei primi dispositivi a esplorare il concetto di realtà mista, permettendo agli utenti di visualizzare e interagire con ologrammi inseriti nel loro ambiente fisico. Questo visore indipendente non richiede collegamenti a PC o altri dispositivi esterni, rendendolo una soluzione potente per applicazioni professionali e industriali. Con il suo approccio pionieristico alla realtà mista, HoloLens ha aperto la strada a nuovi utilizzi nel design, nell’istruzione, nella produzione e oltre, evidenziando il valore dello Spatial Computing nelle applicazioni pratiche.
  • Meta Quest 3: Meta (precedentemente Facebook) ha introdotto il Quest 3 con l’obiettivo di portare la realtà virtuale e la realtà mista a un pubblico più ampio. Questo dispositivo combina la potenza della VR con la flessibilità della realtà mista, offrendo agli utenti un’esperienza immersiva che non solo li isola dal mondo esterno ma li connette anche con esso in modi nuovi e sorprendenti. Il Meta Quest 3 si distingue per la sua accessibilità e per le sue ampie possibilità di applicazione, dalla formazione remota al gaming, dimostrando come lo Spatial Computing possa arricchire una varietà di esperienze quotidiane.

Oltre a questi dispositivi, numerose startup e aziende tecnologiche stanno esplorando e sviluppando nuove innovazioni che promettono di portare lo Spatial Computing a livelli sempre più avanzati. Questi progressi non solo migliorano l’esperienza utente ma aprono anche la strada a nuovi modelli di business e strategie operative, ridefinendo il modo in cui interagiamo con il mondo digitale.

L’evoluzione continua dei prodotti di punta nello Spatial Computing dimostra un impegno crescente verso la creazione di esperienze utente sempre più ricche e immersiva, sottolineando il ruolo centrale di questa tecnologia nel plasmare il futuro dell’interazione digitale.

Sfide e Limitazioni

Nonostante l’entusiasmo e le promesse che circondano lo Spatial Computing, esistono diverse sfide e limitazioni che devono essere affrontate per realizzare appieno il suo potenziale. Questi ostacoli vanno dalla tecnologia stessa alle questioni di privacy e accessibilità, influenzando sia lo sviluppo che l’adozione su larga scala di queste soluzioni innovative.

  • Accessibilità e Costo: Una delle sfide principali è rappresentata dall’accessibilità economica dei dispositivi. Prodotti come l’Apple Vision Pro e il Microsoft HoloLens presentano prezzi che possono limitarne l’acquisto a individui, aziende o istituzioni con risorse finanziarie significative. Questo aspetto può rallentare l’adozione generalizzata dello Spatial Computing, confinandolo a nicchie di mercato o a specifici ambiti professionali.
  • Comfort e Usabilità: Anche se i dispositivi di Spatial Computing hanno fatto passi da gigante in termini di design e funzionalità, questioni legate al comfort d’uso e alla facilità di interazione rimangono aperte. L’uso prolungato di visori o altri dispositivi indossabili può causare affaticamento, disagio o, in alcuni casi, motion sickness. Rendere questi dispositivi più leggeri, ergonomici e piacevoli da usare per periodi estesi è cruciale per la loro accettazione da parte del grande pubblico.
  • Interoperabilità e Standardizzazione: La frammentazione del mercato e la mancanza di standardizzazione possono complicare l’interoperabilità tra dispositivi e piattaforme differenti. Per sfruttare appieno le potenzialità dello Spatial Computing, è necessario che l’industria converga verso standard comuni che facilitino lo sviluppo di applicazioni compatibili e trasversali, migliorando l’esperienza utente e ampliando le possibilità di utilizzo.
  • Questioni di Privacy e Sicurezza: La raccolta e l’elaborazione di dati sensibili relativi all’ambiente circostante e agli utenti sollevano importanti preoccupazioni in termini di privacy e sicurezza. Garantire che queste informazioni siano protette da accessi non autorizzati e utilizzate in modo etico ed equo è fondamentale per mantenere la fiducia degli utenti e rispettare le normative sulla protezione dei dati.
  • Sfide Tecnologiche: Nonostante i progressi tecnologici, persistono limitazioni legate alla capacità di elaborazione, alla durata della batteria e alla precisione del tracciamento in tempo reale. Superare queste barriere tecnologiche è essenziale per migliorare la qualità, la reattività e l’affidabilità delle esperienze di Spatial Computing.
  • Noia ed eccesso di immersività: Malgrado i grandi vantaggi che sono potenzialmente sviluppabili in diversi ambiti, non c’è dubbio che una delle problematiche già evidenti dall’uso di smartphone e social network sia l’eccesso di utilizzo, la dipendenza da utilizzo e dopamina e la noia da contesto. A mio avviso una realtà fortememente aumentata potrebbe portare ad un ulteriore passo verso l’eccesso di noi da “normalità”. Sapremmo più divertirci senza dispositivi?

Affrontare queste sfide richiede un impegno congiunto da parte di ricercatori, sviluppatori, aziende e regolatori per promuovere innovazioni che migliorino l’accessibilità, la compatibilità, la sicurezza e l’esperienza utente. Solo attraverso un approccio collaborativo sarà possibile superare gli ostacoli attuali e sbloccare il pieno potenziale dello Spatial Computing nel plasmare il futuro dell’interazione digitale.

Il Futuro dello Spatial Computing

Il futuro dello Spatial Computing si prospetta ricco di potenzialità e sfide, delineando un orizzonte tecnologico in cui la nostra interazione con il mondo digitale sarà sempre più naturale, intuitiva e immersiva. Mentre ci avviciniamo a questo futuro, alcune tendenze emergenti e proiezioni ci offrono uno sguardo su ciò che potrebbe riservarci.

  • Integrazione Sempre Più Profonda con la Vita Quotidiana: Man mano che le barriere tecnologiche vengono superate e i dispositivi diventano più accessibili e confortevoli, lo Spatial Computing si integrerà sempre più nella nostra vita quotidiana. Dall’istruzione all’intrattenimento, dal lavoro remoto alla socializzazione, le esperienze digitali saranno arricchite da un livello di interattività e presenza spaziale senza precedenti, rendendo la tecnologia ancora più pervasiva e onnipresente.
  • Avanzamenti nell’Intelligenza Artificiale e nella Computer Vision: Lo sviluppo di algoritmi di intelligenza artificiale più sofisticati e di sistemi di computer vision più accurati giocherà un ruolo cruciale nell’evoluzione dello Spatial Computing. Queste tecnologie permetteranno ai dispositivi di comprendere e interpretare il mondo circostante con una precisione sempre maggiore, facilitando interazioni più fluide e realistiche tra utenti e ambienti digitali.
  • Espansione nel Settore della Salute e del Benessere: Lo Spatial Computing ha il potenziale di rivoluzionare il settore sanitario, offrendo nuove modalità per la diagnosi, il trattamento e la riabilitazione. La possibilità di visualizzare dati medici complessi in formati tridimensionali e di simulare procedure chirurgiche in ambienti virtuali potrebbe migliorare significativamente l’efficacia delle cure mediche e l’esperienza dei pazienti.
  • Collaborazione e Lavoro Remoto Rinnovati: La crescente adozione del lavoro remoto e delle collaborazioni a distanza beneficerà enormemente dalle innovazioni nello Spatial Computing. Ambienti di lavoro virtuali e sale riunioni olografiche consentiranno alle squadre di collaborare come se fossero fisicamente presenti nello stesso spazio, superando le limitazioni geografiche e rafforzando il senso di connessione tra colleghi.
  • Etica e Regolamentazione: Con l’aumento dell’adozione dello Spatial Computing, emergeranno questioni etiche e la necessità di regolamentazioni specifiche. Sarà fondamentale affrontare le preoccupazioni relative alla privacy, alla sicurezza dei dati e all’equità nell’accesso alle tecnologie, garantendo che i benefici dello Spatial Computing siano accessibili a tutti e utilizzati in modo responsabile.

Il futuro dello Spatial Computing è intriso di promesse e sfide. La sua evoluzione continuerà a influenzare profondamente il modo in cui interagiamo con la tecnologia, arricchendo la nostra realtà con esperienze digitali che fino a poco tempo fa potevamo solo immaginare. Affrontando proattivamente le sfide e promuovendo un’innovazione responsabile, possiamo assicurarci che lo Spatial Computing plasmi un futuro in cui la tecnologia arricchisca la vita umana in modi significativi e positivi.

L’Importanza dell’Hyper Reality nel Superare lo Spatial Computing

L’Hyper Reality rappresenta l’evoluzione naturale dello Spatial Computing, un passo oltre nell’ambizione di fondere il mondo fisico con quello digitale. Questo concetto, al cuore della missione del progetto che ho in mente da tempo sulla dimensione dell’ Hyper Reality, mira a ridefinire non solo il modo in cui interagiamo con la tecnologia, ma anche come percepiamo la realtà che ci circonda. L’Hyper Reality estende la visione dello Spatial Computing, intensificando l’integrazione tra esperienze digitali e fisiche fino a rendere indistinguibili le frontiere tra i due mondi.

Hyper Reality = Spatial Computing + IOT + AI 

In questo contesto, l’Hyper Reality non si limita a sovrapporre elementi virtuali al mondo reale o a creare ambienti digitali completamente immersivi; aspira piuttosto a creare un nuovo strato di realtà in cui informazioni digitali, oggetti virtuali e ambienti fisici si intrecciano in maniera così profonda da dare vita a un’esperienza unica e indistinta. Questo approccio apre la strada a possibilità inesplorate, dove la realtà aumentata, la realtà virtuale e la realtà mista convergono per superare i limiti attuali della percezione e dell’interazione umana.

L’Hyper Reality, subito dopo il consolidamento dello Spatial Computing, ha il potenziale di trasformare radicalmente settori come l’educazione, offrendo esperienze di apprendimento totalmente immersive che potenziano la comprensione e la memorizzazione; il retail, attraverso esperienze di shopping personalizzate e arricchite; il turismo, permettendo di vivere esperienze di viaggio virtuali estremamente realistiche; e il settore sanitario, migliorando le tecniche di diagnosi e intervento con simulazioni e visualizzazioni avanzate.

La visione che porto avanti da tempo sul concetto di Hyper Reality sottolinea l’importanza di superare la mera tecnologia per concentrarsi sull’esperienza umana, spingendo i confini di ciò che è possibile per arricchire la vita delle persone in modi prima impensabili. In questo futuro, l’Hyper Reality si propone come la chiave per sbloccare un mondo in cui le barriere tra digitale e fisico non solo si dissolvono ma danno origine a un tessuto connettivo nuovo, capace di espandere la nostra realtà in dimensioni prima inaccessibili.

Mentre lo Spatial Computing ha aperto la porta a un nuovo modo di interagire con il nostro ambiente, l’Hyper Reality promette di trasformare queste interazioni in esperienze più ricche, profonde e significative. Hyper Reality vuol esser un principio evoluto di questa trasformazione, una guida all’esplorazione di questo territorio inesplorato nel futuro dell’interazione umana con la tecnologia.

Vision Pro. Non è una questione di prezzo, ma di viaggio, esperienza ed ecosistema.

Ho preso il Vision Pro.

L’ho pagato tanto? Dipende dal punto di vista.

Se la risposta devo darla come early adopter, no assolutamente, come ogni tecnologia nuova in ogni ambito. Se la guardo come un device alla prima uscita che vuole un posizionamento alto, forse. Se lo confronto con altri device, potrei dire di si, ma dipende con quali device lo volete mettere a confronto.

Saranno mesi, da quando è stato annunciato, che leggo un lamento continuo di blogger, youtuber e commentatori vari riguardo al prezzo dell’Apple Vision Pro. Di cosa stiamo parlando?

L’approccio di Apple nel lanciare i suoi prodotti più iconici è sempre stato evidente. Il Macintosh, l’iPod, l’iPhone e l’Apple Watch hanno seguito tutti una formula introduttiva simile.

È davvero così inaspettato il prezzo di lancio dell’Apple Vision Pro? Il Meta Quest 3 costa $499, mentre l’Apple Vision Pro costa $3499 (più accessori, tipico apple). Ma questo che importanza ha?

Provo a condividervi una provocazione, non troppo lontana dalla realtà, per far capire perché in fondo il confronto è sbagliato, soprattutto sul prezzo e sulla visione. Una bicicletta elettrica ben carrozzata costa circa 2000 euro, mentre una Tesla Model Y ha un prezzo di 45000 euro. Entrambe sono veicoli elettrici che possono portare una persona da un punto A a un punto B.

Nessuno sembra lamentarsi (almeno che io sappia) della differenza di prezzo tra questi due prodotti, perché è ovvio che, nonostante realizzino casi d’uso simili, ogni prodotto è progettato per un tipo di acquirente diverso. Ma soprattutto una esperienza diversa di viaggio.

Il Quest 3 di Meta, grandissimo prodotto e ancora poco utilizzato per le sue potenzialità, è stato progettato per mostrare al mercato e ai consumatori la visione del Metaverso di Mark Zuckerberg. Questo device ha radici progettuali che risalgono all’Oculus Rift, inizialmente rilasciato nel 2016 per i gamer. Anche quando è stato lanciato il primo Oculus Quest nel maggio 2019, il suo principale punto di forza era ancora il gaming.

Il Quest 2, rilasciato nel settembre 2020, ha aggiunto più capacità di calcolo ed elaborazione, ottiche migliori e meno peso, promuovendo l’interazione sociale per migliorare l’esperienza di gioco.

Il Quest Pro, e poi il Quest 3, uscito nell’ottobre 2023, hanno migliorato leggermente il processore, le ottiche e soprattutto le telecamere esterne per offrire un’esperienza di Mixed Reality più efficace, con l’obiettivo di migliorare ancora di più l’esperienza di gioco e stimolare ulteriori interazioni sociali.

L’approccio di Meta per realizzare la visione di Mark è stato quello di offrire ai consumatori un’esperienza simile a Ready Player One e lanciare Meta Horizon Worlds, nella speranza che gli utenti potessero fare il salto nel virtuale. Meta vuole connettere gli utenti.

L’Apple Vision Pro ha un obiettivo diverso, ossia dimostrare la visione di Apple per il futuro dell’ “informatica personale” a chi entra per la prima volta in questo modo. Questo dispositivo non è pensato per il gioco, le interazioni sociali o il Metaverso, ma piuttosto per lo Spatial Computingdi cui si parla tanto ultimamente.

Questo termine si riferisce ad un’interazione avanzata di fatto tra essere umano e device, facendo in modo che l’interazione e l’utilizzo del software venga percepito completamente inglobato e integrato nel mondo reale, intorno al corpo della persona, invece di esser confinato dietro allo schermo di un computer o di un tablet/telefono.

L’Apple Vision Pro è un’estensione dell’ecosistema Apple e offre un’esperienza utente che può essere facilmente trasferita tra un desktop, un laptop, un iPad e un iPhone. Questo dispositivo consente agli utenti di passare senza soluzione di continuità dall’interazione con uno schermo piatto (2D) a un’esperienza spaziale immersiva in 3D. Apple vuole permettere agli utenti di vedere l’integrazione tra fisico e digitale in modo differente.

Il suo pubblico target non sono i giocatori o coloro che cercano il Metaverso (seppur a mio avviso questa è la direzione più prossima al concetto), ma piuttosto gli early adopter, gli appassionati che vivono all’interno dell’ecosistema Apple e desiderano sperimentare la visione di Apple su come gli utenti interagiranno con la tecnologia in futuro.

È il prodotto definitivo? No.

È il prodotto con l’esperienza perfetta? Forse, ancora, no.

È il prodotto con contenuto già adatto all’aspettativa dell’utente? Sicuramente no.

È meglio di Quest 3? Lo potrò valutare tra qualche giorno, dopo aver valutato se sono confrontabili.

Come disse Palmer Luckey, imprenditore di OculusVR, nel 2015 “La realtà virtuale diventerà qualcosa che tutti desiderano prima di diventare qualcosa che tutti possono permettersi“. Palmer ha ribadito questo concetto anche nel 2023 in un’intervista, sottolineando che il prezzo non è importante per i primi utilizzatori.

Il prezzo è il frutto del desiderio ed inoltre una scelta di posizionamento di Apple puntuale di non uscire con un prodotto per tutti, ma per una nicchia, con l’obiettivo inoltre di alimentare l’app store di servizi ed app prima di far accedere la grande massa rischiando altrimenti di creare l'”effetto WindowsPhone” ossia un contenitore senza contenuto ed il conseguente fallimento ed abbandono.

In sostanza, Apple non sta competendo con il Meta Quest 3 o altri visori AR/VR. Per ora.

Apple sta vendendo ciò che ha sempre venduto: innovazione nell’esperienza utente. Proprio come il Macintosh ha introdotto l’esperienza utente grafica alle masse, l’iPod ha portato con sé 1000 canzoni in tasca, l’iPhone ha rivoluzionato l’interfaccia touch e presto l’Apple Vision Pro introdurrà l’informatica spaziale al pubblico.

Ma prima, Apple deve abilitare il desiderio e dimostrare ai suoi early adopter che sarà qualcosa che di diverso prima di concentrarsi sulla sua diffusione al resto degli utenti.

E appena lo avrò tra qualche giorno, vi dirò molto di più.