Designed to Be Lived : quando l’interazione smette di essere visiva e diventa spaziale.

Dallo schermo allo spazio digitale da abitare

The Shift In Focus

Apple ha appena reso il testo più difficile da leggere. E no, non è un errore: è un cambio di prospettiva. Con l’introduzione dell’interfaccia “Liquid Glass” su visionOS 2 per il visore Vision Pro, molti utenti si sono sentiti spaesati e hanno reagito con perplessità (e le solite polemiche) prima ancora di comprenderne il senso. Caratteri meno leggibili, trasparenze ovunque, elementi dell’interfaccia sospesi nell’aria: non è solo una scelta estetica ardita, ma una fase di training invisibile con cui Apple prepara il terreno. L’azienda sta addestrando il nostro sguardo a una nuova grammatica del vedere: un’interfaccia che non blocca più la realtà ma la lascia filtrare, uno spazio digitale che non compete col mondo fisico ma vi convive. In altre parole, l’interfaccia non è più qualcosa da osservare su uno schermo piatto – diventa qualcosa da abitare intorno a noi.

Questa transizione rappresenta uno shift percettivo profondo: si passa dalle interazioni bidimensionali su display, mediate da tocchi e swipe, a interazioni immersive in un ambiente che integra reale e virtuale. Il design dello spazio diventa esso stesso interfaccia. Non a caso, il tema centrale di questa edizione è proprio il Spatial Shift: il passaggio dai tradizionali schermi 2D alle interfacce immersive, percettive e ambientali che ci circondano. Apple, con Vision Pro e la nuova interfaccia “Liquid Glass”, sta inaugurando quella che potremmo chiamare una fase di allenamento cognitivo degli utenti verso questo futuro di interazioni spaziali. Il focus si sposta dall’esperienza utente su schermo (UX) a una esperienza spaziale (“SX”) pervasiva. È uno spostamento che coinvolge tecnologia, design e comportamenti umani – uno shift da tenere bene a fuoco.

Educare l’utente a un nuovo paradigma percettivo

Understanding the Shift

Per capire la portata di questo cambiamento, conviene osservare la strategia ricorrente di Apple nell’introdurre nuove interfacce. In passato è già successo: la rimozione del tasto Home dall’iPhone fu inizialmente vissuta come un fastidio; i nuovi gesti parevano poco intuitivi e la curva di apprendimento era scoraggiante. Eppure in breve tempo quei gesti sono diventati la norma, tanto che oggi un iPhone col tasto fisico ci sembra archeologia tecnologica. Lo stesso copione si è visto con l’eliminazione improvvisa del jack audio per le cuffie (accolta da proteste feroci) che ha però spianato la strada al paradigma wireless-first, e ancor prima con l’addio alla tastiera fisica sui telefoni, spazzata via in favore del touchscreen. Ogni cambiamento ha seguito lo stesso iter: disorientamento iniziale, adattamento rapido, standardizzazione definitiva. Prima ci lamentiamo, poi ci abituiamo, infine non vogliamo più tornare indietro.

Questa ripetuta trasformazione non è solo una questione tecnica, ma di psicologia dell’utente. Apple da sempre progetta non solo prodotti, ma comportamenti: esercita una sottile pedagogia tecnologica abituando gradualmente le persone a nuovi paradigmi. Anche stavolta, con Vision Pro e visionOS, la scelta di un’interfaccia semi-trasparente e “difficile” è una leva gentile che spinge a guardare in modo diverso. L’utente è costretto a non fissare più elementi grafici netti su uno schermo, bensì a prestare attenzione a contenuti digitali che si fondono con l’ambiente. Apple sta di fatto educando il nostro modo di vedere: prepara un futuro in cui interagiremo attraverso occhiali AR, o magari lenti a contatto intelligenti e micro-proiettori ambientali, dove sarà la realtà stessa il canvas di informazioni. Per arrivarci, l’interfaccia deve cominciare già oggi a perdere opacità e a uscire dai suoi confini tradizionali. Nel silenzio, Apple sta già dicendo addio al concetto stesso di “display” come lo conosciamo, inaugurando un paradigma in cui lo schermo non c’è più – perché l’interazione avviene tutto intorno a noi.

In questo contesto, Vision Pro non va visto solo come un nuovo gadget, ma come un vero punto di rottura cognitivo. Indossare un computer spaziale modifica la nostra postura e la nostra attenzione, cambia perfino la nozione di “app” e di notifica: in un ambiente tridimensionale, una notifica non è più un semplice alert, ma una presenza accanto a noi; un gesto nell’aria diventa linguaggio espressivo, mentre lo sguardo funge da puntatore e focus semantico. Insomma, Apple sta ribaltando assunti decennali di interazione uomo-computer. E lo fa con la consueta determinazione: non chiederà il permesso di cambiare, ma cambierà – con pazienza e precisione, forte di una visione che spesso è chiara solo col senno di poi. Noi utenti, come sempre, inizialmente ci lamenteremo; poi ci adatteremo; infine chiameremo tutto ciò progresso. Capire questo processo è fondamentale per comprendere lo shift in atto: Apple sta allenando la nostra percezione oggi per prepararci alle interfacce di domani.

Interfacce percettive e la fine del display tradizionale

The Core

Al centro di questa evoluzione c’è un’idea dirompente: l’interfaccia del futuro non sarà progettata per essere guardata, ma per essere vissuta. Non più una Graphical User Interface confinata in una finestra luminosa, bensì una “interfaccia percettiva” diffusa nello spazio attorno a noi. È un cambiamento radicale di paradigma. Per decenni abbiamo misurato il progresso in pollici di schermo, densità di pixel e brillantezza dei display. Ora il display è destinato a dissolversi nell’ambiente: il futuro non è un nuovo schermo, è l’assenza di schermo. I contenuti e le funzioni digitali verranno distribuiti tra diversi elementi: forse un bracciale smart per il controllo interattivo, un device in tasca per la potenza di calcolo, un paio di occhiali (o lenti a contatto) per la visualizzazione. Il dispositivo non starà più “di fronte” a noi, ma su di noi e intorno a noi. In breve, l’esperienza sarà ambientale, invisibile, continua.

Questa prospettiva richiama un principio noto nel design: il buon design tende a diventare invisibile. Come osserva Don Norman (guru dell’usabilità), un prodotto ben progettato si adatta talmente bene ai nostri bisogni da risultare quasi impercettibile nella sua funzione. Un’interfaccia perfetta non attira attenzione su di sé, ma ci permette di svolgere compiti e vivere esperienze in modo naturale. È ciò a cui mira il paradigma spaziale: tecnologie così integrate nel contesto da non sembrare neppure “tecnologia” nel senso tradizionale. Del resto, già nel 1991 il visionario Mark Weiser scriveva che “le tecnologie più profonde sono quelle che scompaiono. Si intrecciano nel tessuto della vita quotidiana fino a diventare indistinguibili da essa”. Oggi quella profezia sembra realizzarsi: l’interfaccia si dissolve nell’ambiente, lo spazio stesso diventa l’interfaccia.

Pensiamo alle implicazioni di questa dissoluzione del display. Per gli utenti significa meno barriere tra mondo digitale e fisico: le informazioni ci “vengono incontro” negli spazi che abitiamo, anziché costringerci a piegare la testa su uno schermo. Ciò potrebbe rendere la tecnologia più umana e a misura dei nostri sensi, restituendo centralità al nostro modo naturale di percepire lo spazio. Non a caso si parla di “spatial computing”: un calcolo computazionale che non vive più dentro uno scatolo luminoso, ma si espande nell’ambiente. In termini di progettazione, questo richiede un cambio di mentalità: dal design di interfacce 2D si passa al design di esperienze tridimensionali, dove entrano in gioco la prospettiva, la distanza, il tatto, il sonoro e persino la cinestetica del corpo. Si passa dalla classica UX alla SX (Spatial Experience), una disciplina ancora in definizione che combina principi di UX design con architettura, psicologia ambientale e design sensoriale.

In sintesi, il cuore dello shift in atto è la trasformazione dell’interfaccia da elemento visibile e separato, a ambiente invisibile e incorporato nella nostra realtà. È una nuova era in cui “lo spazio è il nuovo schermo”. Chi progetta tecnologie dovrà pensare meno a pixel e pannelli, più a esperienze situate nello spazio dell’utente. E l’utente, da parte sua, dovrà sviluppare nuovi alfabeti percettivi per interagire con informazioni che si presentano nel mondo reale invece che su un vetro. È un cambio di core paradigm paragonabile a quello introdotto dallo smartphone, se non più grande: allora il telefono divenne una finestra universale sul digitale; ora quella finestra si spalanca e scompare, perché il digitale permea direttamente la stanza in cui siamo.

Oltre Apple: tentativi, fallimenti e visioni ambientali

The Broader Shift

Sebbene Apple stia guidando con Vision Pro questa transizione, il paradigma delle interfacce ambientali è nell’aria da tempo e coinvolge l’intero settore tecnologico. Da anni si parla di ambient computing, cioè di un computing ubiquo che ci assiste ovunque in modo naturale, senza dover fissare uno schermo. Google, per esempio, descrive la sua missione hardware proprio in termini di ambient computing: tecnologie sempre presenti nella vita quotidiana, pronte all’uso “in qualsiasi momento, in modo che sembri naturale”. L’idea è di interagire con l’ambiente e avere i servizi digitali che rispondono ai nostri gesti, voce e bisogni, invece di farci concentrare su un dispositivo specifico.

Tuttavia, realizzare davvero questa visione si sta rivelando complesso. Alcuni prodotti recenti che provavano ad anticipare il futuro post-schermo hanno incontrato difficoltà e fallimenti, dimostrando che il timing e l’UX devono essere maturi. Ad esempio, il Rabbit R1 (nella foto, a sinistra) e il Humane AI Pin (a destra) sono due dispositivi lanciati con l’obiettivo di superare lo smartphone tradizionale. Il Rabbit R1, presentato nel 2024, è un piccolo gadget tascabile con schermo da 2,9 pollici e un assistente AI integrato, concepito per svolgere in autonomia molte funzioni oggi legate al telefono. Il suo fondatore lo ha descritto come un dispositivo AI-native talmente ambizioso da poter sostituire lo smartphone (prima o poi) – “solo non subito”, ammise realisticamente. Nelle intenzioni, il R1 avrebbe dovuto essere un tuttofare intelligente, un coltellino svizzero digitale capace di usare le nostre app per noi attraverso un modello di AI chiamato “Large Action Model”. In pratica però, già dai primi test è parso chiaro che l’idea superava le capacità concrete del prodotto: l’R1 non è abbastanza potente per rimpiazzare un telefono e finisce per sembrare più che altro un assistente vocale evoluto con un piccolo schermo aggiunto. La visione di Rabbit – per quanto intrigante – è risultata poco definita e prematura rispetto alla tecnologia attuale. Non a caso, di recente Jony Ive (storico designer di Apple) ha liquidato sia il Rabbit R1 che l’AI Pin come “prodotti molto scadenti”, criticando la mancanza di reale innovazione in quelle proposte.

Ancora più emblematica è la parabola del Humane AI Pin, una sorta di spilla intelligente progettata da ex-dirigenti Apple per offrire un’esperienza computing senza schermo. Humane presentava il Pin come l’inizio di un futuro post-smartphone, in cui passeremo meno tempo con la testa chinata sugli schermi e più tempo di nuovo nel mondo reale. L’AI Pin, lanciato a fine 2023, si agganciava agli abiti e combinava fotocamera, micro-proiettore laser e un’assistente AI (sistema operativo CosmOS) per rispondere a comandi vocali ed eseguire varie operazioni al volo. Nelle promesse, doveva fare da filtrato intelligente tra noi e il mondo digitale: niente app da aprire, niente display da toccare – bastava chiedere all’assistente per telefonare, mandare messaggi, tradurre conversazioni o ottenere informazioni sugli oggetti intorno a noi. In teoria, un computer indossabile che “non è un telefono, ma neanche non lo è”, completamente basato sull’intelligenza ambientale.

Purtroppo, tra la visione e la realtà si è aperto un divario. Al debutto, il Pin si è rivelato acerbo e malfunzionante su molti fronti: dalla batteria misera (2-3 ore di autonomia) ai ritardi nelle risposte vocali, dall’interazione tramite proiezione sul palmo (affascinante ma problematica in ambienti luminosi e scomoda nei gesti) fino a funzioni base mancanti. Il verdetto dei recensori è stato impietoso – “promette di liberarti dallo smartphone, ma c’è un problema: semplicemente non funziona titolava The Verge. Dopo un debutto costellato di bug e limiti, Humane ha visto sfumare rapidamente l’entusiasmo: nel giro di pochi mesi l’azienda ha cercato acquirenti e infine è stata venduta a HP, che ha spento il progetto e ritirato dal mercato tutti gli AI Pin già venduti. Un epilogo amaro per un dispositivo lanciato a $699 più abbonamento mensile, che avrebbe dovuto mostrare la via di una “ambient intelligence” indossabile ma si è scontrato con la realtà di un’esperienza utente frustrante e tecnologie non all’altezza.

Casi come Rabbit R1 e Humane AI Pin evidenziano quanto sia difficile anticipare il paradigma giusto al momento giusto. Spesso l’idea può essere valida (meno schermi, più presenza nel mondo reale) ma la maturità dell’ecosistema e dell’UX risulta ancora insufficiente. Queste sperimentazioni però non sono vane: indicano una direzione. Come scriveva un commentatore, il Pin di Humane prometteva un futuro oltre lo smartphone “di gran lunga oltre ciò che la sua tecnologia può fare nel presente” – un po’ come accadde negli anni ’90 a General Magic con il suo Magic Link (un antesignano PDA creato da ex Apple, rivelatosi troppo avanti per l’epoca). I fallimenti insegnano che serve tempo per colmare il gap fra visione e realtà. E insegnano anche che certe idee richiedono un ecosistema integrato per prosperare: proprio ciò in cui Apple tradizionalmente eccelle. Infatti, come notava Fast Company, spesso i prodotti Apple hanno successo perché possono contare su reti di sviluppatori e contenuti che li rendono utili e appetibili, mentre startup come Humane hanno tentato di imporre hardware radicalmente nuovo senza un adeguato parco di applicazioni e servizi di terze parti pronti all’uso.

Dal punto di vista culturale, questa transizione porta con sé anche riflessioni profonde. Il filosofo Byung-Chul Han osserva come la nostra società digitale abbia trasformato gli oggetti in “non-cose”, sostituendo la tangibilità degli oggetti cari con esperienze fugaci e swipe effimeri su schermi. In altre parole, molta della “magia” degli oggetti fisici si è persa in favore di interazioni digitali disincarnate. L’idea di un’interfaccia percettiva ambientale potrebbe rappresentare un tentativo di ricucire lo strappo: riportare il digitale dal regno disincarnato dello schermo a una presenza più concreta nel nostro spazio, ridando corpo e contesto alle informazioni. Anche Don Norman, con la sua enfasi sul design umano-centrico, indirettamente ci ricorda che la tecnologia dovrebbe adattarsi ai comportamenti naturali delle persone e non viceversa – e un computing ubiquitario, integrato nell’ambiente, promette proprio di rispettare maggiormente le nostre abitudini sensoriali e sociali. L’obiettivo ultimo, condiviso da molti innovatori, è un futuro in cui l’informatica sia pervasiva ma discreta, potente ma invisibile, costantemente disponibile ma quasi impercettibile nella routine quotidiana. Arrivarci richiede conquiste sia tecniche (miniaturizzazione, AI sempre più intelligente, nuove interfacce neuronali magari) sia di design ed ergonomia (nuovi linguaggi d’interazione intuitivi, rispetto per l’attenzione e i limiti cognitivi umani). Siamo, in definitiva, di fronte a uno shift non solo tecnologico ma anche di mindset collettivo: reimmaginare il rapporto uomo-macchina in termini più simbiotici e meno mediati da artefatti visibili.

Scenari futuri e opportunità all’orizzonte

What’s Next

Guardando avanti, la domanda non è più se questo spatial shift accadrà, ma quando e come si compirà. Apple sembra seguire un piano ben preciso. Il Vision Pro in uscita (per ora un dispositivo costoso rivolto a sviluppatori e early adopter) è probabilmente solo il primo passo: una sorta di fondamenta su cui costruire un ecosistema di applicazioni spaziali e abituare gli sviluppatori al nuovo paradigma. Già l’anno prossimo o entro un paio d’anni, possiamo aspettarci un’evoluzione verso hardware più compatto – magari un Apple Glass leggero, occhiali AR pensati per il grande pubblico – una volta superate le attuali sfide di produzione e autonomia. Nel frattempo Apple ha iniziato a seminare concetti e interfacce (come il Liquid Glass di visionOS 2) che fungono da ponte cognitivo: ci abitua a testi semi-trasparenti oggi, così domani saremo pronti a indossare un display sugli occhi senza trovare strano vedere il mondo attraverso l’informazione digitale.

In parallelo, l’intero settore tech si muove verso l’immersivo e il percettivo. Meta sta investendo nella sua visione di realtà mista (gli ultimi Quest e prototipi di occhiali AR), Google continua la ricerca su occhiali e sensori ambientali (puntando a realizzare la promessa dell’ambient computing integrato nei suoi servizi cloud), e persino nuove collaborazioni emergono: ad esempio Jony Ive e Sam Altman (OpenAI) hanno annunciato di lavorare insieme a un dispositivo AI innovativo per il 2026 – segno che l’idea di un gadget personale potenziato dall’AI e privo di interfaccia tradizionale è tutt’altro che tramontata, anzi alletta i protagonisti della scena tecnologica. Possiamo aspettarci quindi una proliferazione di esperimenti nei prossimi anni: dagli assistenti personali ambientali (in auto, in casa, integrati nell’IoT) a interfacce neuronali più dirette (Neuralink e affini), fino a piattaforme software che ridefiniscono il concetto di “app” in chiave spaziale e contestuale.

Dal punto di vista del business, si apre una nuova frontiera di opportunità. Chi saprà definire gli standard delle interfacce spaziali – linguaggi gestuali, formati per contenuti AR, protocolli per oggetti intelligenti – potrebbe dominare il prossimo ecosistema come Apple e Google hanno dominato l’era smartphone con iOS e Android. Immaginiamo nuovi servizi: mappe che non si guardano sul telefono ma compaiono direttamente lungo il nostro percorso in strada, e-commerce che materializza schede prodotto in forma di ologrammi nel salotto prima dell’acquisto, assistenti AI che ci sussurrano consigli nell’orecchio contestualmente a ciò che stiamo guardando. Interi settori (dal retail all’education, dalla sanità all’intrattenimento) verranno ripensati in chiave di esperienze miste fisico-digitali. Aziende di design dovranno unire competenze di UX, realtà aumentata e persino architettura d’interni per progettare spazi interattivi. E sul piano culturale e sociale, dovremo monitorare attentamente l’impatto: queste tecnologie potrebbero renderci più liberi dagli schermi, più presenti nella vita reale – o, se mal gestite, creare una nuova ondata di sovrastimolazione e dipendenza, stavolta distribuita ovunque andiamo. La differenza la farà un approccio etico e human-centric: come garantire che l’AR non diventi una continua distrazione invasiva? Come proteggere la privacy in un mondo di sensori ambientali? Come mantenere un controllo consapevole sui flussi informativi che ci raggiungono in realtà aumentata? Queste sono sfide aperte, di design, di regolamentazione e di educazione all’uso.

Quel che è certo, riprendendo le parole del mio libro “Spatial Shift”, è che siamo all’alba di un cambiamento epocale nel nostro modo di vivere, pensare e relazionarci. Un cambiamento paragonabile a ciò che fu l’introduzione dell’iPhone, ma amplificato dalla convergenza simultanea di più tecnologie mature: intelligenza artificiale sempre più avanzata, sensori ambientali diffusi, realtà mista e 3D, connettività pervasiva. Questa convergenza sta preparando il terreno per riscrivere radicalmente le regole dell’interazione uomo-macchina e, di conseguenza, tanti modelli di business e di uso quotidiano. Siamo in un momento di rara energia innovativa, in cui device come Vision Pro o esperimenti come l’AI Pin fanno parlare di una nuova entusiasmante fase del tech come non succedeva da anni. Ma – come sempre accade nelle grandi transizioni – l’hype iniziale dovrà tradursi in adozione reale e valore pratico. La strada dei prossimi anni vedrà iterazioni continue: prototipi, versioni beta, successi sorprendenti e flop clamorosi. È un processo di learning by doing collettivo, dove ogni tentativo (anche fallito) contribuisce ad avvicinarci all’obiettivo finale: un computing realmente invisibile, naturale e potenziante.

Dentro lo shift, verso un futuro da abitare

The Shift Continues

In conclusione, lo shift continua. Siamo solo alle prime pagine di questa nuova storia tecnologica: come hanno ammesso i fondatori di Humane, “oggi non siamo nemmeno al primo capitolo, ma alla prima pagina” di un futuro in cui l’AI ambientale e le interfacce spaziali ridisegneranno la nostra relazione con la tecnologia. Ogni giorno che passa aggiungiamo un tassello – una riga di codice in visionOS, un nuovo sensore indossabile, un gesto che diventa standard – e ci spingiamo un po’ più in là verso l’era dell’interfaccia diffusa. All’inizio potrà sembrare strano, scomodo o prematuro (come tutte le grandi rivoluzioni all’inizio sembrano). Ma se la storia recente ci insegna qualcosa è che ci abituiamo in fretta ai nuovi paradigmi, quando questi risolvono problemi reali o migliorano la qualità della vita. E a quel punto, voltandoci indietro, ci chiederemo come potevamo vivere chiusi dentro gli schermi senza abitare anche il lato digitale del nostro spazio.

Questo numero di InsideTheShift ha voluto esplorare il passaggio dalle interfacce da osservare a quelle da vivere, dai pixel ai luoghi aumentati, dagli oggetti alle esperienze. È uno shift che coinvolge tecnologia, business, cultura e design in egual misura. Continueremo a seguirne gli sviluppi nelle prossime edizioni, analizzando come evolvono i dispositivi, le piattaforme e – soprattutto – le abitudini delle persone. Come sempre, restiamo dentro lo shift per coglierne per tempo le opportunità e le sfide. Ci aspetta un futuro in cui l’interazione uomo-macchina sarà tanto pervasiva quanto trasparente, un futuro da costruire con visione ma anche con responsabilità. Il viaggio continua: la spatial shift è iniziata, e saremo qui a raccontarla passo dopo passo.

Stay Inside the Shift.

Il resto dei Toolbox, delle risorse linkate e dei takeaway lo trovate qui su Substack InsideTheShift in inglese.

Ho tolto il visore, ma l’ombra è rimasta. Afterimage Mentale.

Ci sono esperienze che non ti accorgi di vivere fino a quando finiscono. Ti restano dentro come un riflesso, come un gesto che fai senza pensare. Ed in questo caso, il mio è stato semplice: alzare lo sguardo verso la parete del soggiorno alla mia destra, cercando il widget con le informazioni dei timer “pomodoro” che avevo messo li. Ma lì non c’era niente. E non perché fosse scomparso dal sistema. Semplicemente, non indossavo più il visore.

Uso Vision Pro da mesi, in realtà ne ho due, come ho raccontato più volte. È parte del mio quotidiano ormai. Non più solo per test o demo, ma per lavorare: scrivere, fare call, rivedere documenti, organizzare task, rispondere a mail, senza necessità di portare il mac, ma avendo la potenzialità di schermi, tutto intorno a me.

In questi ultimi giorni, con l’aggiornamento a visionOS 26, ho voluto spingere l’esperimento oltre. Ho “arredato” il mio spazio domestico, nello specifico il mio studio, il soggiorno e lo spazio in veranda, con widget persistenti: elementi informativi digitali ancorati nello spazio reale. Orologi, cruscotti, alert di borsa, piccoli moduli API che si aggiornano in tempo reale che sto implementando per sperimentazioni. E soprattutto: posizionati con cura, in funzione della loro utilità (le note della spesa e della dieta, sul frigorifero sono una bomba atomica).

Integrazione di luci, ombre, materiali. Nessuna sensazione di intrusione. Solo presenza.

Poi, dopo due ore abbondanti (per adesso è il tempo che mi sono dato), ho tolto il visore. Ed è lì che è successo qualcosa.

Quel gesto dello sguardo, istintivo, naturale, mi ha fatto capire che quei widget non erano solo overlay digitali. Non erano semplici “finestrine fluttuanti”. Erano diventati oggetti cognitivi. Parte del mio ambiente. Ancorati non solo al muro, ma alla mia memoria spaziale.

Il nostro cervello funziona così: lega informazioni allo spazio. Ricordi dov’è la chiave di casa, anche se non ci pensi. Ti muovi in un ambiente buio perché ne conosci la struttura. Allo stesso modo, inizi a sapere che quell’informazione specifica, la prossima riunione, l’andamento di un titolo, una nota lasciata a metà sta lì, in quel punto preciso dello spazio aumentato. E anche quando togli il visore, il cervello si aspetta che sia ancora lì.

Quel momento non è stato un momento di confusione. È stato un afterimage mentale.

Ci sono oggetti fisici che cerchiamo per abitudine. Il telecomando. Il telefono. Le chiavi. Ma quando non trovi un oggetto virtuale, la sensazione è diversa: non è perso, è stato rimosso. E se era ancorato al tuo spazio, è come se qualcuno lo avesse cancellato dalla realtà, ma ai la sensazione che sia rimasto un alone in quel punto.

Il paradosso è che più queste informazioni diventano persistenti, più diventano “reali”. E quando non ci sono più, non le percepisci come assenti. Le percepisci come mancanti. Come una lacuna nel mondo. Un’assenza che ti destabilizza, anche solo per un attimo.

E allora ti accorgi che quello che chiamavamo “digitale” ha iniziato a lasciare ombre nel reale. Letteralmente.

In un contesto lavorativo, questi widget aumentano efficienza, chiarezza, focus. Ti danno un ambiente organizzato, dinamico, su misura e iperpersonalizzato. Nessuna interfaccia da aprire o chiudere: tutto è lì, dove serve, quando serve. Una forma nuova di “ambient computing”, visiva e contestuale.

Ma c’è un’altra faccia della medaglia.

L’aumento continuo, se costante, se invisibile, rischia di diventare il nuovo default. E quando viene meno, il mondo torna nudo. Scarico. L’ambiente non è più neutro: è deprivato. Un po’ come accendere una stanza con luce naturale e poi spegnere di colpo. Non è solo buio: è impoverimento percettivo.

E allora ti chiedi: quanto il reale è ancora sufficiente, se non è aumentato?

Per anni abbiamo parlato di disconnessione come antidoto alla sovraesposizione da schermo. Di detox digitale, di staccare. Ma ora il problema si sposta. Il vero tema non sarà più “staccarsi dallo smartphone”, ma dal layer.

Disconnettersi significherà rinunciare a qualcosa che è dentro il nostro spazio. Che è diventato parte del nostro orientamento, della nostra organizzazione. Del nostro pensiero. E farlo non sarà solo difficile. Sarà controintuitivo.

Come spegnere la luce artificiale e scegliere di restare al buio. Sapendo che puoi riaccenderla in ogni momento.

Ecco perché il gesto che ho fatto, alzare lo sguardo verso un widget che non c’era più, mi è rimasto addosso. Perché quel vuoto non era virtuale. Era reale. Era mio.

Stiamo vivendo un momento in cui l’informazione non è più una cosa che andiamo a cercare. È qualcosa che ci sta accanto. Che si materializza con noi, e per noi. E che in molti casi ci cerca e ci raggiunge. Ma quando ci abitueremo a un mondo così aumentato, quanto sarà difficile non aumentarlo?

E se il vero problema non sarà più “avere accesso” alle informazioni, visto che saremo immersi e interagiremo con le informazioni anche senza volerlo, forse il punto vero di riflessione sarà capire come saperle lasciare andare?

Il prossimo confine non sarà la realtà virtuale, ma la realtà vuota. E dovremo imparare ad abitarla di nuovo. Anche solo per ricordarci com’era, prima di essere aumentata.

Spatial Intelligence: l’immersività-tangibile tra AI e Robotica

La robotica sta vivendo una trasformazione radicale. E di questo forse ne abbiamo già preso coscienza ultimamente guardando diversi video di Boston Dynamics e similari, in cui robot quadrupedi o androidi bipedi fanno cose incredibili.

Nell’era della convergenza di diverse tecnologie, tema che ho raccontato nel libro Spatial Shift, ognuna delle evoluzioni tecnico-tecnologiche che stiamo vivendo influenza e potenzia altre tecnologie, abilitandole di nuove possibilità. La convergenza dell’Intelligenza artificiale e della robotica, che prende il nome di “Spatial Intelligence” è forse quello che potenzialmente più spaventa e allo stesso tempo affascina per gli impatti che potrebbe avere sull’umanità.

Investitori come Khosla Ventures, Andreessen Horowitz, e General Catalyst stanno supportando una serie di startup che sviluppano robot capaci di ragionamento avanzato e elaborazione dei dati visivi, a dimostrazione che l’interesse sul tema è già piuttosto avanzato e soprattutto di progetti in fase di sviluppo con risultati già validati ce ne sono.

La spatial intelligence permette ai robot di navigare e interagire con l’ambiente in modo più efficiente, migliorando la precisione e l’adattabilità nei compiti complessi, migliorare efficacia ed efficienza e soprattutto come questo segmento possa potenziare l’uomo veramente.

Evoluzione della robotica e della Spatial Intelligence

Fin dagli anni ’60, i robot sono stati utilizzati principalmente per compiti ripetitivi in ambienti controllati, dove la variabilità era minima. La mancanza di “intelligenza” limitava la capacità dei robot di adattarsi a situazioni inaspettate. Con l’avvento della spatial intelligence, la robotica sta passando ad una nuova generazione di macchine che possono percepire, vedere, prendere decisioni e agire in base agli obiettivi e all’ambiente circostante.

Questa evoluzione è paragonabile alla rivoluzione portata dagli smartphone, trasformando dispositivi semplici in strumenti potenti e versatili che hanno negli anni di fatto esteso le potenzialità del singolo utente.

Applicazioni della Spatial Intelligence

La spatial intelligence sta trovando già applicazione in numerosi ambiti e settori, nei quali, in modo più o meno impattante sta già ridefinendo il modo in cui i robot vengono utilizzati. Tra le aree più promettenti e nelle quali stanno già entrando capitali e investimenti ci sono:

  • logistica e automazione industriale: i robot dotati di spatial intelligence possono navigare autonomamente nei magazzini, identificare e raccogliere oggetti, e consegnare pacchi con una precisione incredibile. Startup come Waabi stanno sviluppando camion autonomi, mentre Vayu sta creando robot per la consegna dell’ultimo miglio che utilizzano piste ciclabili.
  • sanità: in campo medico, i robot dotati di intelligenza spaziale possono assistere nelle procedure chirurgiche, fornendo supporto preciso e adattabile in tempo reale. Questo non solo migliora l’efficienza, ma riduce anche il rischio di errori umani e supporta il processo decisionale in determinati momenti, fortemente time critical. Un esempio innovativo è l’uso di robot che eseguono compiti come la sutura di ferite con precisione millimetrica.
  • agricoltura: Carbon Robotics utilizza laser intelligenti per eliminare le erbacce e piante infestanti nei campi, migliorando l’efficienza, riducendo l’uso di erbicidi, e mitigando l’impatto di utilizzo di componenti chimiche eccessive . Questa tecnologia già da tempo sta accelerando la gestione agricola, rendendola più sostenibile e produttiva
  • servizi di consegna: robot autonomi possono essere utilizzati per consegnare pacchi e cibo in ambienti urbani, adattandosi alle condizioni stradali e alle esigenze dei clienti in tempo reale Ovviamente sono solo primi esempi di ambiti in cui questa adozione è già avanzata ed i primi impatti sono già visibili.
  • superhuman: il potenziamento delle persone con gap, e non solo. La spatial intelligence ha il potenziale inoltre a mio avviso per supportare significativamente il potenziamento delle persone, specialmente quelle con handicap, malformazioni o menomazioni: protesi intelligenti: AI, robotica e sensoristica possono essere integrate in protesi avanzate che possono dotare la persona di una gamma di movimenti e funzioni molto più ampia rispetto alle protesi tradizionali e normali capacità. Queste protesi, in grado di adattarsi dinamicamente all’ambiente, possono non solo migliorare l’autonomia e la qualità della vita delle persone, ma possono aumentarne le capacità.
  • supporto alla mobilità: esoscheletri e dispositivi di supporto alla mobilità dotati di spatial intelligence possono aiutare le persone con difficoltà motorie a camminare e muoversi con maggiore sicurezza e autonomia. In questo caso dispositivi di questo tipo possono esser utilizzati per rilevare dinamicamente il contesto e adattarsi al terreno e alle superfici, prevenendo cadute e riducendo il rischio di incidenti interazione migliorata: La capacità dei robot di percepire e comprendere l’ambiente può essere utilizzata per sviluppare assistenti domestici intelligenti che aiutano le persone con disabilità a svolgere compiti quotidiani. Un esempio che gira in rete già da qualche mese è un assistente robotico che può aiutare preparare pasti, pulire la casa o ricordare appuntamenti importanti, erogare medicinali e supportare l’assistito nella gestione e pianificazione
  • riabilitazione e terapia: automi con spatial intelligence possono essere utilizzati in programmi di riabilitazione personalizzati, garantendo precisione e specificità di esercizi ed il monitoraggio dell’esecuzione e dei progressi in tempo reale. Questi sistemi possono adattare i programmi di riabilitazione in base alle esigenze individuali, modellare il piano in funzione del miglioramento del singolo utente, e accelerando il recupero e migliorando i risultati complessivi. Oltre al fatto che l’analisi del comportamento dei singoli può gradualmente creare la condizione di apprendimento progressivo dell’intelligenza stessa.
  • interfacciamento con mondo esterno: con l’avvento di dispositivi come i Vision Pro, dotati di telecamere avanzate, intelligenza artificiale e interfacce conversazionali, possiamo già immaginare un futuro (attuale) in cui le persone saranno dotate “vista aumentata”. Questi visori, in grado di interpretare ed interagire con informazioni in tempo reale, possono abilitare persone non vedenti o ipovedenti, a nuove possibilità di mobilità, movimento nello spazio, assistenza e supporto.

Verso una Immersività-Tangibile

Nello shift spaziale, la Spatial Intelligence sta iniziando il processo di ridefinizione di quella che io chiamo la fase dell’Immersività-Tangibile. Questa integrazione perfetta tra i mondi fisico e digitale permette ai robot non solo di eseguire compiti complessi con precisione, ma anche di interagire con l’ambiente e le persone in modo intuitivo e naturale. Allo stesso tempo, le persone, potenziate da nuove tecnologie e immerse in un contesto aumentato grazie all’uso di sensori avanzati, AI ed estensioni robotiche, possono non solo connettersi a un livello di realtà aumentata ma anche toccarla, sentirla e percepirla come reale. L’immersività-tangibile implica una trasformazione delle esperienze visive, cognitive e sensoriali.

Da un lato, l’esperienza visiva e cognitiva viene potenziata, permettendo alle persone di vedere dati e informazioni sovrapposte al mondo reale, facilitando una comprensione immediata e approfondita di ciò che le circonda. Un esempio, già attuale, è quello di un chirurgo che può vedere proiezioni tridimensionali di immagini mediche direttamente sul paziente, migliorando la precisione e la sicurezza delle operazioni.

Dall’altro lato, l’aspetto tangibile e sensoriale rende questa immersione ancora più profonda. Grazie a tecnologie aptiche e feedback sensoriali avanzati, le persone possono percepire fisicamente la presenza e le caratteristiche degli oggetti virtuali. Immaginiamo di poter “toccare” un modello virtuale di un oggetto in fase di progettazione, sentire la sua superficie e consistenza. Questa combinazione di immersione visiva, cognitiva e sensoriale crea un’esperienza totale, dove il confine tra reale e virtuale si dissolve.

La tecnologia non è più solo uno strumento, ma diventa un’estensione del corpo e della mente umana, migliorando la capacità di percepire, creare, interagire e comprendere il mondo in modi che prima erano inimmaginabili. L’immersività-tangibile rappresenta quindi non solo un avanzamento tecnologico, ma una vera e propria evoluzione del modo in cui viviamo e percepiamo la realtà.

Futuro della Spatial Intelligence

Nei prossimi anni, considerata la velocità a cui stiamo viaggiando, mi aspetto di vedere una diffusione più ampia della Spatial Intelligence in molti settori. Innovazioni come l’integrazione con la realtà aumentata e virtuale, nonché l’uso di reti neurali avanzate, guideranno ulteriormente questa evoluzione.

La combinazione di intelligenza artificiale, computing edge e 5G permetterà ai robot di operare con maggiore efficienza e reattività, trasformando radicalmente il nostro modo di vivere e lavorare e per quanto brutto il pensiero possa sembrare, farci compagnia.

La spatial intelligence, oggi ancora tema poco noto, rappresenta senza dubbio in questa convergenza ed evoluzione un ulteriore frontiera evolutiva dell’uomo, e grazie alla sua capacità di combinare il mondo fisico, digitale e virtuale, si rivelerà sempre più un elemento chiave per il futuro della robotica e delle tecnologie immersive.

Disney + Epic Games: Un Universo Magico per il Futuro dell’Intrattenimento Digitale

L’annuncio dell’investimento da 1,5 miliardi di dollari della Walt Disney Company in Epic Games è sicuramente una di quelle notizie da far spalancare gli occhi, sia per l’operazione, sia per i brand (e le loro competenze specifiche) che hanno deciso di unire le forze, ma soprattutto per la direzione che questo accordo segna.

Senza dubbio un punto di svolta significativo non solo per le due aziende coinvolte ma per l’intero panorama dell’intrattenimento digitale. Questa mossa, come dicevo, (almeno per me) lungi dall’essere una sorpresa: riflette una tendenza in atto da tempo nel settore, dove le sinergie tra la narrativa tradizionale e le piattaforme di gaming diventano sempre più strette e reciprocamente vantaggiose.

Disney, con la sua incomparabile eredità nella creazione di storie che hanno incantato generazioni, e Epic Games, con il suo ecosistema Fortnite in rapida evoluzione, stanno ponendo le basi di un futuro in cui le esperienze di gioco non sono confinate a semplici sessioni di intrattenimento, ma si espandono in nuovi universi narrativi che offrono modalità per giocare, guardare, fare acquisti e interagire con contenuti, personaggi e storie.

L’integrazione tra i mondi di Disney e Fortnite, supportata dalla potenza di Unreal Engine, di fatto abilita la creazione di un ambiente digitale persistentemente aperto e (potenzialmente) interoperabile. Questo non solo allarga le possibilità di narrazione per Disney a nuovi spazi, ma apre anche la strada ad esperienze virtuali ed immersive di gioco nuove per gli utenti (non solo da consolle e tv).

Questa collaborazione è una risposta diretta alle mutevoli abitudini dei consumatori, in particolare delle generazioni più giovani, che sono costantemente alla ricerca di esperienze di intrattenimento più immersive e interattive. L’integrazione della Vision Pro di Apple nella strategia di Disney, con lo sviluppo recente dell’app per il nuovo store, e in particolare nella sua recente alleanza con Epic Games, è esattamente la chiusura del cerchio nella visione futura dell’azienda, ossia di offrire esperienze di intrattenimento sempre più immersive e coinvolgenti.

Con l’annuncio che Disney+ sarà disponibile sulla Vision Pro di Apple, Disney sottolinea non solo il suo impegno nell’abbracciare le ultime tecnologie ma anche la sua capacità di integrare queste innovazioni per arricchire le sue narrazioni e universi narrativi in modi precedentemente inimmaginabili. Che si tratti di trovarsi al fianco di Tony Stark nel suo laboratorio o di assistere a un tramonto su Tatooine, la tecnologia Vision Pro consente di sfumare i confini tra realtà e fantasia, portando le storie di Disney a un livello di immersione senza precedenti.

La popolarità di piattaforme come Fortnite e Roblox, che stanno già esplorando la trasformazione in hub di intrattenimento, dimostra inoltre un evidente desiderio del pubblico di esperienze che si accavallano tra i confini tra il gioco, la socializzazione e la narrazione.

L’importanza della proprietà intellettuale (IP) in questo contesto è l’elemento ulteriore di strategia da sottolineare. La capacità di sfruttare personaggi e storie familiari in nuovi formati è un fattore chiave per il successo in un mercato dell’intrattenimento sempre più affollato e competitivo, soprattutto in vista del crescente trend dei virtual influencer e la possibilità di governare totalmente il personaggio e la sua immagine come un asset di valore.

La sfida che vedo all’orizzonte per le altre piattaforme e creatori di contenuti è significativa. La domanda di quale tra Fortnite e Roblox (o qualsiasi altro concorrente che possa emergere) diventerà l’hub di intrattenimento dominante potrebbe essere meno rilevante di quanto si pensi. Invece, la vera questione potrebbe diventare come le diverse piattaforme possono coesistere e collaborare per arricchire l’ecosistema dell’intrattenimento digitale nel suo complesso, permettendo ad un utente di “trasferirsi” da un mondo dall’altro senza perdere il valore costruito sul proprio avatar e sulla propria identità digitale.

Non c’è dubbio che questa alleanza Disney & Epic Games non sia solo un affare finanziario di grande impatto, ma un segnale della direzione verso cui si sta muovendo il mondo dell’intrattenimento: un futuro in cui le storie ci circondano in modi sempre più interattivi e immersivi, trasformando il modo in cui viviamo, giochiamo e interagiamo con media e brand.

Possiamo solo aspettarci Universi Magici, immersivi. Siamo di fronte al futuro dell’intrattenimento.

Discover a place where the MAGIC is EPIC.

Vision Pro. Non è una questione di prezzo, ma di viaggio, esperienza ed ecosistema.

Ho preso il Vision Pro.

L’ho pagato tanto? Dipende dal punto di vista.

Se la risposta devo darla come early adopter, no assolutamente, come ogni tecnologia nuova in ogni ambito. Se la guardo come un device alla prima uscita che vuole un posizionamento alto, forse. Se lo confronto con altri device, potrei dire di si, ma dipende con quali device lo volete mettere a confronto.

Saranno mesi, da quando è stato annunciato, che leggo un lamento continuo di blogger, youtuber e commentatori vari riguardo al prezzo dell’Apple Vision Pro. Di cosa stiamo parlando?

L’approccio di Apple nel lanciare i suoi prodotti più iconici è sempre stato evidente. Il Macintosh, l’iPod, l’iPhone e l’Apple Watch hanno seguito tutti una formula introduttiva simile.

È davvero così inaspettato il prezzo di lancio dell’Apple Vision Pro? Il Meta Quest 3 costa $499, mentre l’Apple Vision Pro costa $3499 (più accessori, tipico apple). Ma questo che importanza ha?

Provo a condividervi una provocazione, non troppo lontana dalla realtà, per far capire perché in fondo il confronto è sbagliato, soprattutto sul prezzo e sulla visione. Una bicicletta elettrica ben carrozzata costa circa 2000 euro, mentre una Tesla Model Y ha un prezzo di 45000 euro. Entrambe sono veicoli elettrici che possono portare una persona da un punto A a un punto B.

Nessuno sembra lamentarsi (almeno che io sappia) della differenza di prezzo tra questi due prodotti, perché è ovvio che, nonostante realizzino casi d’uso simili, ogni prodotto è progettato per un tipo di acquirente diverso. Ma soprattutto una esperienza diversa di viaggio.

Il Quest 3 di Meta, grandissimo prodotto e ancora poco utilizzato per le sue potenzialità, è stato progettato per mostrare al mercato e ai consumatori la visione del Metaverso di Mark Zuckerberg. Questo device ha radici progettuali che risalgono all’Oculus Rift, inizialmente rilasciato nel 2016 per i gamer. Anche quando è stato lanciato il primo Oculus Quest nel maggio 2019, il suo principale punto di forza era ancora il gaming.

Il Quest 2, rilasciato nel settembre 2020, ha aggiunto più capacità di calcolo ed elaborazione, ottiche migliori e meno peso, promuovendo l’interazione sociale per migliorare l’esperienza di gioco.

Il Quest Pro, e poi il Quest 3, uscito nell’ottobre 2023, hanno migliorato leggermente il processore, le ottiche e soprattutto le telecamere esterne per offrire un’esperienza di Mixed Reality più efficace, con l’obiettivo di migliorare ancora di più l’esperienza di gioco e stimolare ulteriori interazioni sociali.

L’approccio di Meta per realizzare la visione di Mark è stato quello di offrire ai consumatori un’esperienza simile a Ready Player One e lanciare Meta Horizon Worlds, nella speranza che gli utenti potessero fare il salto nel virtuale. Meta vuole connettere gli utenti.

L’Apple Vision Pro ha un obiettivo diverso, ossia dimostrare la visione di Apple per il futuro dell’ “informatica personale” a chi entra per la prima volta in questo modo. Questo dispositivo non è pensato per il gioco, le interazioni sociali o il Metaverso, ma piuttosto per lo Spatial Computingdi cui si parla tanto ultimamente.

Questo termine si riferisce ad un’interazione avanzata di fatto tra essere umano e device, facendo in modo che l’interazione e l’utilizzo del software venga percepito completamente inglobato e integrato nel mondo reale, intorno al corpo della persona, invece di esser confinato dietro allo schermo di un computer o di un tablet/telefono.

L’Apple Vision Pro è un’estensione dell’ecosistema Apple e offre un’esperienza utente che può essere facilmente trasferita tra un desktop, un laptop, un iPad e un iPhone. Questo dispositivo consente agli utenti di passare senza soluzione di continuità dall’interazione con uno schermo piatto (2D) a un’esperienza spaziale immersiva in 3D. Apple vuole permettere agli utenti di vedere l’integrazione tra fisico e digitale in modo differente.

Il suo pubblico target non sono i giocatori o coloro che cercano il Metaverso (seppur a mio avviso questa è la direzione più prossima al concetto), ma piuttosto gli early adopter, gli appassionati che vivono all’interno dell’ecosistema Apple e desiderano sperimentare la visione di Apple su come gli utenti interagiranno con la tecnologia in futuro.

È il prodotto definitivo? No.

È il prodotto con l’esperienza perfetta? Forse, ancora, no.

È il prodotto con contenuto già adatto all’aspettativa dell’utente? Sicuramente no.

È meglio di Quest 3? Lo potrò valutare tra qualche giorno, dopo aver valutato se sono confrontabili.

Come disse Palmer Luckey, imprenditore di OculusVR, nel 2015 “La realtà virtuale diventerà qualcosa che tutti desiderano prima di diventare qualcosa che tutti possono permettersi“. Palmer ha ribadito questo concetto anche nel 2023 in un’intervista, sottolineando che il prezzo non è importante per i primi utilizzatori.

Il prezzo è il frutto del desiderio ed inoltre una scelta di posizionamento di Apple puntuale di non uscire con un prodotto per tutti, ma per una nicchia, con l’obiettivo inoltre di alimentare l’app store di servizi ed app prima di far accedere la grande massa rischiando altrimenti di creare l'”effetto WindowsPhone” ossia un contenitore senza contenuto ed il conseguente fallimento ed abbandono.

In sostanza, Apple non sta competendo con il Meta Quest 3 o altri visori AR/VR. Per ora.

Apple sta vendendo ciò che ha sempre venduto: innovazione nell’esperienza utente. Proprio come il Macintosh ha introdotto l’esperienza utente grafica alle masse, l’iPod ha portato con sé 1000 canzoni in tasca, l’iPhone ha rivoluzionato l’interfaccia touch e presto l’Apple Vision Pro introdurrà l’informatica spaziale al pubblico.

Ma prima, Apple deve abilitare il desiderio e dimostrare ai suoi early adopter che sarà qualcosa che di diverso prima di concentrarsi sulla sua diffusione al resto degli utenti.

E appena lo avrò tra qualche giorno, vi dirò molto di più.