Dallo schermo allo spazio digitale da abitare

The Shift In Focus

Apple ha appena reso il testo più difficile da leggere. E no, non è un errore: è un cambio di prospettiva. Con l’introduzione dell’interfaccia “Liquid Glass” su visionOS 2 per il visore Vision Pro, molti utenti si sono sentiti spaesati e hanno reagito con perplessità (e le solite polemiche) prima ancora di comprenderne il senso. Caratteri meno leggibili, trasparenze ovunque, elementi dell’interfaccia sospesi nell’aria: non è solo una scelta estetica ardita, ma una fase di training invisibile con cui Apple prepara il terreno. L’azienda sta addestrando il nostro sguardo a una nuova grammatica del vedere: un’interfaccia che non blocca più la realtà ma la lascia filtrare, uno spazio digitale che non compete col mondo fisico ma vi convive. In altre parole, l’interfaccia non è più qualcosa da osservare su uno schermo piatto – diventa qualcosa da abitare intorno a noi.

Questa transizione rappresenta uno shift percettivo profondo: si passa dalle interazioni bidimensionali su display, mediate da tocchi e swipe, a interazioni immersive in un ambiente che integra reale e virtuale. Il design dello spazio diventa esso stesso interfaccia. Non a caso, il tema centrale di questa edizione è proprio il Spatial Shift: il passaggio dai tradizionali schermi 2D alle interfacce immersive, percettive e ambientali che ci circondano. Apple, con Vision Pro e la nuova interfaccia “Liquid Glass”, sta inaugurando quella che potremmo chiamare una fase di allenamento cognitivo degli utenti verso questo futuro di interazioni spaziali. Il focus si sposta dall’esperienza utente su schermo (UX) a una esperienza spaziale (“SX”) pervasiva. È uno spostamento che coinvolge tecnologia, design e comportamenti umani – uno shift da tenere bene a fuoco.

Educare l’utente a un nuovo paradigma percettivo

Understanding the Shift

Per capire la portata di questo cambiamento, conviene osservare la strategia ricorrente di Apple nell’introdurre nuove interfacce. In passato è già successo: la rimozione del tasto Home dall’iPhone fu inizialmente vissuta come un fastidio; i nuovi gesti parevano poco intuitivi e la curva di apprendimento era scoraggiante. Eppure in breve tempo quei gesti sono diventati la norma, tanto che oggi un iPhone col tasto fisico ci sembra archeologia tecnologica. Lo stesso copione si è visto con l’eliminazione improvvisa del jack audio per le cuffie (accolta da proteste feroci) che ha però spianato la strada al paradigma wireless-first, e ancor prima con l’addio alla tastiera fisica sui telefoni, spazzata via in favore del touchscreen. Ogni cambiamento ha seguito lo stesso iter: disorientamento iniziale, adattamento rapido, standardizzazione definitiva. Prima ci lamentiamo, poi ci abituiamo, infine non vogliamo più tornare indietro.

Questa ripetuta trasformazione non è solo una questione tecnica, ma di psicologia dell’utente. Apple da sempre progetta non solo prodotti, ma comportamenti: esercita una sottile pedagogia tecnologica abituando gradualmente le persone a nuovi paradigmi. Anche stavolta, con Vision Pro e visionOS, la scelta di un’interfaccia semi-trasparente e “difficile” è una leva gentile che spinge a guardare in modo diverso. L’utente è costretto a non fissare più elementi grafici netti su uno schermo, bensì a prestare attenzione a contenuti digitali che si fondono con l’ambiente. Apple sta di fatto educando il nostro modo di vedere: prepara un futuro in cui interagiremo attraverso occhiali AR, o magari lenti a contatto intelligenti e micro-proiettori ambientali, dove sarà la realtà stessa il canvas di informazioni. Per arrivarci, l’interfaccia deve cominciare già oggi a perdere opacità e a uscire dai suoi confini tradizionali. Nel silenzio, Apple sta già dicendo addio al concetto stesso di “display” come lo conosciamo, inaugurando un paradigma in cui lo schermo non c’è più – perché l’interazione avviene tutto intorno a noi.

In questo contesto, Vision Pro non va visto solo come un nuovo gadget, ma come un vero punto di rottura cognitivo. Indossare un computer spaziale modifica la nostra postura e la nostra attenzione, cambia perfino la nozione di “app” e di notifica: in un ambiente tridimensionale, una notifica non è più un semplice alert, ma una presenza accanto a noi; un gesto nell’aria diventa linguaggio espressivo, mentre lo sguardo funge da puntatore e focus semantico. Insomma, Apple sta ribaltando assunti decennali di interazione uomo-computer. E lo fa con la consueta determinazione: non chiederà il permesso di cambiare, ma cambierà – con pazienza e precisione, forte di una visione che spesso è chiara solo col senno di poi. Noi utenti, come sempre, inizialmente ci lamenteremo; poi ci adatteremo; infine chiameremo tutto ciò progresso. Capire questo processo è fondamentale per comprendere lo shift in atto: Apple sta allenando la nostra percezione oggi per prepararci alle interfacce di domani.

Interfacce percettive e la fine del display tradizionale

The Core

Al centro di questa evoluzione c’è un’idea dirompente: l’interfaccia del futuro non sarà progettata per essere guardata, ma per essere vissuta. Non più una Graphical User Interface confinata in una finestra luminosa, bensì una “interfaccia percettiva” diffusa nello spazio attorno a noi. È un cambiamento radicale di paradigma. Per decenni abbiamo misurato il progresso in pollici di schermo, densità di pixel e brillantezza dei display. Ora il display è destinato a dissolversi nell’ambiente: il futuro non è un nuovo schermo, è l’assenza di schermo. I contenuti e le funzioni digitali verranno distribuiti tra diversi elementi: forse un bracciale smart per il controllo interattivo, un device in tasca per la potenza di calcolo, un paio di occhiali (o lenti a contatto) per la visualizzazione. Il dispositivo non starà più “di fronte” a noi, ma su di noi e intorno a noi. In breve, l’esperienza sarà ambientale, invisibile, continua.

Questa prospettiva richiama un principio noto nel design: il buon design tende a diventare invisibile. Come osserva Don Norman (guru dell’usabilità), un prodotto ben progettato si adatta talmente bene ai nostri bisogni da risultare quasi impercettibile nella sua funzione. Un’interfaccia perfetta non attira attenzione su di sé, ma ci permette di svolgere compiti e vivere esperienze in modo naturale. È ciò a cui mira il paradigma spaziale: tecnologie così integrate nel contesto da non sembrare neppure “tecnologia” nel senso tradizionale. Del resto, già nel 1991 il visionario Mark Weiser scriveva che “le tecnologie più profonde sono quelle che scompaiono. Si intrecciano nel tessuto della vita quotidiana fino a diventare indistinguibili da essa”. Oggi quella profezia sembra realizzarsi: l’interfaccia si dissolve nell’ambiente, lo spazio stesso diventa l’interfaccia.

Pensiamo alle implicazioni di questa dissoluzione del display. Per gli utenti significa meno barriere tra mondo digitale e fisico: le informazioni ci “vengono incontro” negli spazi che abitiamo, anziché costringerci a piegare la testa su uno schermo. Ciò potrebbe rendere la tecnologia più umana e a misura dei nostri sensi, restituendo centralità al nostro modo naturale di percepire lo spazio. Non a caso si parla di “spatial computing”: un calcolo computazionale che non vive più dentro uno scatolo luminoso, ma si espande nell’ambiente. In termini di progettazione, questo richiede un cambio di mentalità: dal design di interfacce 2D si passa al design di esperienze tridimensionali, dove entrano in gioco la prospettiva, la distanza, il tatto, il sonoro e persino la cinestetica del corpo. Si passa dalla classica UX alla SX (Spatial Experience), una disciplina ancora in definizione che combina principi di UX design con architettura, psicologia ambientale e design sensoriale.

In sintesi, il cuore dello shift in atto è la trasformazione dell’interfaccia da elemento visibile e separato, a ambiente invisibile e incorporato nella nostra realtà. È una nuova era in cui “lo spazio è il nuovo schermo”. Chi progetta tecnologie dovrà pensare meno a pixel e pannelli, più a esperienze situate nello spazio dell’utente. E l’utente, da parte sua, dovrà sviluppare nuovi alfabeti percettivi per interagire con informazioni che si presentano nel mondo reale invece che su un vetro. È un cambio di core paradigm paragonabile a quello introdotto dallo smartphone, se non più grande: allora il telefono divenne una finestra universale sul digitale; ora quella finestra si spalanca e scompare, perché il digitale permea direttamente la stanza in cui siamo.

Oltre Apple: tentativi, fallimenti e visioni ambientali

The Broader Shift

Sebbene Apple stia guidando con Vision Pro questa transizione, il paradigma delle interfacce ambientali è nell’aria da tempo e coinvolge l’intero settore tecnologico. Da anni si parla di ambient computing, cioè di un computing ubiquo che ci assiste ovunque in modo naturale, senza dover fissare uno schermo. Google, per esempio, descrive la sua missione hardware proprio in termini di ambient computing: tecnologie sempre presenti nella vita quotidiana, pronte all’uso “in qualsiasi momento, in modo che sembri naturale”. L’idea è di interagire con l’ambiente e avere i servizi digitali che rispondono ai nostri gesti, voce e bisogni, invece di farci concentrare su un dispositivo specifico.

Tuttavia, realizzare davvero questa visione si sta rivelando complesso. Alcuni prodotti recenti che provavano ad anticipare il futuro post-schermo hanno incontrato difficoltà e fallimenti, dimostrando che il timing e l’UX devono essere maturi. Ad esempio, il Rabbit R1 (nella foto, a sinistra) e il Humane AI Pin (a destra) sono due dispositivi lanciati con l’obiettivo di superare lo smartphone tradizionale. Il Rabbit R1, presentato nel 2024, è un piccolo gadget tascabile con schermo da 2,9 pollici e un assistente AI integrato, concepito per svolgere in autonomia molte funzioni oggi legate al telefono. Il suo fondatore lo ha descritto come un dispositivo AI-native talmente ambizioso da poter sostituire lo smartphone (prima o poi) – “solo non subito”, ammise realisticamente. Nelle intenzioni, il R1 avrebbe dovuto essere un tuttofare intelligente, un coltellino svizzero digitale capace di usare le nostre app per noi attraverso un modello di AI chiamato “Large Action Model”. In pratica però, già dai primi test è parso chiaro che l’idea superava le capacità concrete del prodotto: l’R1 non è abbastanza potente per rimpiazzare un telefono e finisce per sembrare più che altro un assistente vocale evoluto con un piccolo schermo aggiunto. La visione di Rabbit – per quanto intrigante – è risultata poco definita e prematura rispetto alla tecnologia attuale. Non a caso, di recente Jony Ive (storico designer di Apple) ha liquidato sia il Rabbit R1 che l’AI Pin come “prodotti molto scadenti”, criticando la mancanza di reale innovazione in quelle proposte.

Ancora più emblematica è la parabola del Humane AI Pin, una sorta di spilla intelligente progettata da ex-dirigenti Apple per offrire un’esperienza computing senza schermo. Humane presentava il Pin come l’inizio di un futuro post-smartphone, in cui passeremo meno tempo con la testa chinata sugli schermi e più tempo di nuovo nel mondo reale. L’AI Pin, lanciato a fine 2023, si agganciava agli abiti e combinava fotocamera, micro-proiettore laser e un’assistente AI (sistema operativo CosmOS) per rispondere a comandi vocali ed eseguire varie operazioni al volo. Nelle promesse, doveva fare da filtrato intelligente tra noi e il mondo digitale: niente app da aprire, niente display da toccare – bastava chiedere all’assistente per telefonare, mandare messaggi, tradurre conversazioni o ottenere informazioni sugli oggetti intorno a noi. In teoria, un computer indossabile che “non è un telefono, ma neanche non lo è”, completamente basato sull’intelligenza ambientale.

Purtroppo, tra la visione e la realtà si è aperto un divario. Al debutto, il Pin si è rivelato acerbo e malfunzionante su molti fronti: dalla batteria misera (2-3 ore di autonomia) ai ritardi nelle risposte vocali, dall’interazione tramite proiezione sul palmo (affascinante ma problematica in ambienti luminosi e scomoda nei gesti) fino a funzioni base mancanti. Il verdetto dei recensori è stato impietoso – “promette di liberarti dallo smartphone, ma c’è un problema: semplicemente non funziona titolava The Verge. Dopo un debutto costellato di bug e limiti, Humane ha visto sfumare rapidamente l’entusiasmo: nel giro di pochi mesi l’azienda ha cercato acquirenti e infine è stata venduta a HP, che ha spento il progetto e ritirato dal mercato tutti gli AI Pin già venduti. Un epilogo amaro per un dispositivo lanciato a $699 più abbonamento mensile, che avrebbe dovuto mostrare la via di una “ambient intelligence” indossabile ma si è scontrato con la realtà di un’esperienza utente frustrante e tecnologie non all’altezza.

Casi come Rabbit R1 e Humane AI Pin evidenziano quanto sia difficile anticipare il paradigma giusto al momento giusto. Spesso l’idea può essere valida (meno schermi, più presenza nel mondo reale) ma la maturità dell’ecosistema e dell’UX risulta ancora insufficiente. Queste sperimentazioni però non sono vane: indicano una direzione. Come scriveva un commentatore, il Pin di Humane prometteva un futuro oltre lo smartphone “di gran lunga oltre ciò che la sua tecnologia può fare nel presente” – un po’ come accadde negli anni ’90 a General Magic con il suo Magic Link (un antesignano PDA creato da ex Apple, rivelatosi troppo avanti per l’epoca). I fallimenti insegnano che serve tempo per colmare il gap fra visione e realtà. E insegnano anche che certe idee richiedono un ecosistema integrato per prosperare: proprio ciò in cui Apple tradizionalmente eccelle. Infatti, come notava Fast Company, spesso i prodotti Apple hanno successo perché possono contare su reti di sviluppatori e contenuti che li rendono utili e appetibili, mentre startup come Humane hanno tentato di imporre hardware radicalmente nuovo senza un adeguato parco di applicazioni e servizi di terze parti pronti all’uso.

Dal punto di vista culturale, questa transizione porta con sé anche riflessioni profonde. Il filosofo Byung-Chul Han osserva come la nostra società digitale abbia trasformato gli oggetti in “non-cose”, sostituendo la tangibilità degli oggetti cari con esperienze fugaci e swipe effimeri su schermi. In altre parole, molta della “magia” degli oggetti fisici si è persa in favore di interazioni digitali disincarnate. L’idea di un’interfaccia percettiva ambientale potrebbe rappresentare un tentativo di ricucire lo strappo: riportare il digitale dal regno disincarnato dello schermo a una presenza più concreta nel nostro spazio, ridando corpo e contesto alle informazioni. Anche Don Norman, con la sua enfasi sul design umano-centrico, indirettamente ci ricorda che la tecnologia dovrebbe adattarsi ai comportamenti naturali delle persone e non viceversa – e un computing ubiquitario, integrato nell’ambiente, promette proprio di rispettare maggiormente le nostre abitudini sensoriali e sociali. L’obiettivo ultimo, condiviso da molti innovatori, è un futuro in cui l’informatica sia pervasiva ma discreta, potente ma invisibile, costantemente disponibile ma quasi impercettibile nella routine quotidiana. Arrivarci richiede conquiste sia tecniche (miniaturizzazione, AI sempre più intelligente, nuove interfacce neuronali magari) sia di design ed ergonomia (nuovi linguaggi d’interazione intuitivi, rispetto per l’attenzione e i limiti cognitivi umani). Siamo, in definitiva, di fronte a uno shift non solo tecnologico ma anche di mindset collettivo: reimmaginare il rapporto uomo-macchina in termini più simbiotici e meno mediati da artefatti visibili.

Scenari futuri e opportunità all’orizzonte

What’s Next

Guardando avanti, la domanda non è più se questo spatial shift accadrà, ma quando e come si compirà. Apple sembra seguire un piano ben preciso. Il Vision Pro in uscita (per ora un dispositivo costoso rivolto a sviluppatori e early adopter) è probabilmente solo il primo passo: una sorta di fondamenta su cui costruire un ecosistema di applicazioni spaziali e abituare gli sviluppatori al nuovo paradigma. Già l’anno prossimo o entro un paio d’anni, possiamo aspettarci un’evoluzione verso hardware più compatto – magari un Apple Glass leggero, occhiali AR pensati per il grande pubblico – una volta superate le attuali sfide di produzione e autonomia. Nel frattempo Apple ha iniziato a seminare concetti e interfacce (come il Liquid Glass di visionOS 2) che fungono da ponte cognitivo: ci abitua a testi semi-trasparenti oggi, così domani saremo pronti a indossare un display sugli occhi senza trovare strano vedere il mondo attraverso l’informazione digitale.

In parallelo, l’intero settore tech si muove verso l’immersivo e il percettivo. Meta sta investendo nella sua visione di realtà mista (gli ultimi Quest e prototipi di occhiali AR), Google continua la ricerca su occhiali e sensori ambientali (puntando a realizzare la promessa dell’ambient computing integrato nei suoi servizi cloud), e persino nuove collaborazioni emergono: ad esempio Jony Ive e Sam Altman (OpenAI) hanno annunciato di lavorare insieme a un dispositivo AI innovativo per il 2026 – segno che l’idea di un gadget personale potenziato dall’AI e privo di interfaccia tradizionale è tutt’altro che tramontata, anzi alletta i protagonisti della scena tecnologica. Possiamo aspettarci quindi una proliferazione di esperimenti nei prossimi anni: dagli assistenti personali ambientali (in auto, in casa, integrati nell’IoT) a interfacce neuronali più dirette (Neuralink e affini), fino a piattaforme software che ridefiniscono il concetto di “app” in chiave spaziale e contestuale.

Dal punto di vista del business, si apre una nuova frontiera di opportunità. Chi saprà definire gli standard delle interfacce spaziali – linguaggi gestuali, formati per contenuti AR, protocolli per oggetti intelligenti – potrebbe dominare il prossimo ecosistema come Apple e Google hanno dominato l’era smartphone con iOS e Android. Immaginiamo nuovi servizi: mappe che non si guardano sul telefono ma compaiono direttamente lungo il nostro percorso in strada, e-commerce che materializza schede prodotto in forma di ologrammi nel salotto prima dell’acquisto, assistenti AI che ci sussurrano consigli nell’orecchio contestualmente a ciò che stiamo guardando. Interi settori (dal retail all’education, dalla sanità all’intrattenimento) verranno ripensati in chiave di esperienze miste fisico-digitali. Aziende di design dovranno unire competenze di UX, realtà aumentata e persino architettura d’interni per progettare spazi interattivi. E sul piano culturale e sociale, dovremo monitorare attentamente l’impatto: queste tecnologie potrebbero renderci più liberi dagli schermi, più presenti nella vita reale – o, se mal gestite, creare una nuova ondata di sovrastimolazione e dipendenza, stavolta distribuita ovunque andiamo. La differenza la farà un approccio etico e human-centric: come garantire che l’AR non diventi una continua distrazione invasiva? Come proteggere la privacy in un mondo di sensori ambientali? Come mantenere un controllo consapevole sui flussi informativi che ci raggiungono in realtà aumentata? Queste sono sfide aperte, di design, di regolamentazione e di educazione all’uso.

Quel che è certo, riprendendo le parole del mio libro “Spatial Shift”, è che siamo all’alba di un cambiamento epocale nel nostro modo di vivere, pensare e relazionarci. Un cambiamento paragonabile a ciò che fu l’introduzione dell’iPhone, ma amplificato dalla convergenza simultanea di più tecnologie mature: intelligenza artificiale sempre più avanzata, sensori ambientali diffusi, realtà mista e 3D, connettività pervasiva. Questa convergenza sta preparando il terreno per riscrivere radicalmente le regole dell’interazione uomo-macchina e, di conseguenza, tanti modelli di business e di uso quotidiano. Siamo in un momento di rara energia innovativa, in cui device come Vision Pro o esperimenti come l’AI Pin fanno parlare di una nuova entusiasmante fase del tech come non succedeva da anni. Ma – come sempre accade nelle grandi transizioni – l’hype iniziale dovrà tradursi in adozione reale e valore pratico. La strada dei prossimi anni vedrà iterazioni continue: prototipi, versioni beta, successi sorprendenti e flop clamorosi. È un processo di learning by doing collettivo, dove ogni tentativo (anche fallito) contribuisce ad avvicinarci all’obiettivo finale: un computing realmente invisibile, naturale e potenziante.

Dentro lo shift, verso un futuro da abitare

The Shift Continues

In conclusione, lo shift continua. Siamo solo alle prime pagine di questa nuova storia tecnologica: come hanno ammesso i fondatori di Humane, “oggi non siamo nemmeno al primo capitolo, ma alla prima pagina” di un futuro in cui l’AI ambientale e le interfacce spaziali ridisegneranno la nostra relazione con la tecnologia. Ogni giorno che passa aggiungiamo un tassello – una riga di codice in visionOS, un nuovo sensore indossabile, un gesto che diventa standard – e ci spingiamo un po’ più in là verso l’era dell’interfaccia diffusa. All’inizio potrà sembrare strano, scomodo o prematuro (come tutte le grandi rivoluzioni all’inizio sembrano). Ma se la storia recente ci insegna qualcosa è che ci abituiamo in fretta ai nuovi paradigmi, quando questi risolvono problemi reali o migliorano la qualità della vita. E a quel punto, voltandoci indietro, ci chiederemo come potevamo vivere chiusi dentro gli schermi senza abitare anche il lato digitale del nostro spazio.

Questo numero di InsideTheShift ha voluto esplorare il passaggio dalle interfacce da osservare a quelle da vivere, dai pixel ai luoghi aumentati, dagli oggetti alle esperienze. È uno shift che coinvolge tecnologia, business, cultura e design in egual misura. Continueremo a seguirne gli sviluppi nelle prossime edizioni, analizzando come evolvono i dispositivi, le piattaforme e – soprattutto – le abitudini delle persone. Come sempre, restiamo dentro lo shift per coglierne per tempo le opportunità e le sfide. Ci aspetta un futuro in cui l’interazione uomo-macchina sarà tanto pervasiva quanto trasparente, un futuro da costruire con visione ma anche con responsabilità. Il viaggio continua: la spatial shift è iniziata, e saremo qui a raccontarla passo dopo passo.

Stay Inside the Shift.

Il resto dei Toolbox, delle risorse linkate e dei takeaway lo trovate qui su Substack InsideTheShift in inglese.

Comments are closed