Beyond Virtual: come lo Spatial Computing sta ridisegnando il futuro del gaming

Ieri ho partecipato all’Italian Gaming Expo a Roma con uno speech dal titolo “Beyond Virtual: Spatial Computing and XR for the Future of Gaming”. Un’occasione utile per mettere a fuoco un tema che seguo da tempo con passione e studio, e che ho affrontato anche nel mio libro Spatial Shift: la convergenza tra intelligenza artificiale, tecnologie immersive e nuovi ambienti digitali.

Questa volta ho voluto declinare quei concetti sul settore del gaming, che forse più di altri sta già vivendo una trasformazione profonda, non tanto nel linguaggio estetico o nella logica del gameplay, ma nel modo in cui esperienze, ambienti e contenuti si relazionano allo spazio fisico e alla nostra presenza nel mondo reale.

Il punto di partenza è semplice quanto radicale: stiamo entrando in una nuova fase del computing. Dopo l’epoca desktop, quella mobile e quella cloud, oggi siamo nell’alba di un’era spatial, dove l’interazione con i contenuti digitali si libera dallo schermo e si distribuisce nell’ambiente che ci circonda. Lo chiamiamo spatial computing, ed è molto più di un’estensione dell’AR o della VR. È un cambio di paradigma nel modo in cui il digitale “vive” nello spazio.

Spatial computing: dal dispositivo all’ambiente

In questa nuova fase non interagiamo più con il contenuto “guardando dentro” un device. Il contenuto si proietta fuori. Lo spazio intorno a noi diventa un canvas digitale su cui appaiono elementi immersivi, persistenti, personalizzati. Non è solo una questione di effetto wow: è una trasformazione sistemica del nostro rapporto con l’informazione, la narrazione e il gioco.

Come sottolinea Cathy Hackl, una delle voci più lucide su questi temi, “spatial computing isn’t about devices, it’s about context”. È il contesto che conta. È lì che si gioca la sfida: capire come, dove e quando interagiamo. E soprattutto: chi costruisce questi contesti?

Nel gaming questa transizione è già visibile. Giochi come Pokémon GO hanno mostrato per primi la possibilità di costruire esperienze ludiche sovrapposte al mondo reale. Ma oggi siamo ben oltre: visori come Meta Quest 3 o Apple Vision Pro ci permettono di trasformare il salotto in uno spazio ibrido dove avatar, elementi digitali e oggetti fisici convivono. Il gioco non si svolge più in una finestra digitale, ma intorno a noi, in tempo reale, connesso a ciò che facciamo, vediamo e sentiamo.

Il gioco entra nel mondo reale

Questo shift ha due implicazioni molto forti per chi progetta e costruisce contenuti ludici.

La prima è che l’ambiente stesso diventa parte integrante dell’esperienza. Non parliamo più di livelli predefiniti da navigare con un controller, ma di spazi reali in cui ci si muove fisicamente e in cui ogni elemento – un muro, una sedia, una finestra – può diventare parte attiva della narrazione. L’ambiente non è più lo sfondo, è il gameplay.

La seconda è che il corpo torna ad essere centrale. Il corpo non come ostacolo, ma come interfaccia. Con la computer vision, l’eye tracking, il motion sensing e il feedback aptico, il giocatore non è più “fuori dal gioco” ma dentro, presente, immerso e co-autore dell’esperienza.

In questo scenario, il design cambia pelle. Non si tratta più di scrivere regole per un mondo chiuso, ma di orchestrare esperienze in ambienti aperti, dinamici, interattivi e spesso condivisi. Il confine tra gaming, fitness, socialità, formazione o comunicazione diventa sempre più sottile.

AI, generazione procedurale e ambienti intelligenti

Un’altra variabile che sta accelerando tutto questo è l’intelligenza artificiale.

Non è un’esagerazione dire che la convergenza tra AI e spatial computing sta ridisegnando le fondamenta stesse dell’intrattenimento.

L’AI generativa consente oggi di creare NPC autonomi e realistici, mondi generati dinamicamente, missioni che si adattano in tempo reale al comportamento del giocatore. Ma soprattutto, permette a ogni esperienza di essere personalizzata e situata. Un gioco spatial può cambiare non solo in base al tuo livello o alle tue scelte, ma in base al luogo in cui sei, all’ora del giorno, a chi hai intorno.

Stiamo passando da ambienti digitali “chiusi” a ecosistemi intelligenti in grado di leggere, interpretare e rispondere. La logica stessa della progettazione cambia: da una narrativa predefinita a una co-costruita, dove il giocatore entra in relazione attiva con il contesto. È un salto concettuale e tecnico, ma è anche una grande opportunità per re-immaginare il concetto stesso di gioco.

Il gaming come infrastruttura esperienziale

Molti considerano il gaming un sottoinsieme dell’intrattenimento. In realtà, oggi sta diventando sempre più una piattaforma culturale, un’infrastruttura esperienziale. Lo vediamo nei mondi persistenti di Fortnite o Roblox, dove i confini tra gioco, socialità, evento e commercio si fondono. Lo vediamo nella logica dei digital twin, nei training simulator in XR, nei giochi educativi in MR. Il linguaggio ludico sta diventando la grammatica con cui interpreteremo una parte crescente della realtà aumentata che abiteremo nei prossimi anni.

Il gioco non è più uno spazio-tempo separato. È un layer aggiuntivo che si sovrappone alla vita. Può accendersi durante una camminata in città, durante una sessione di allenamento, o mentre esploriamo un museo. Diventa strumento di coinvolgimento, apprendimento, relazione.

Opportunità e nuove domande

Tutto questo apre scenari enormi per chi sviluppa prodotti, contenuti e strategie in ambito gaming e tech. Si apre un nuovo mercato, con nuovi modelli di business e nuove filiere. Ma emergono anche domande nuove, profonde, che non possiamo ignorare.

Chi possiede lo spazio virtuale sovrapposto a quello fisico? Come si tutelano la privacy, i dati ambientali, i comportamenti biometrici raccolti dai dispositivi XR? Come si regolamenta l’accesso, la moderazione, la sicurezza in un gioco che si svolge nel mondo reale, tra persone vere?

Sono le domande che iniziano ad affiorare oggi, ma che saranno centrali domani, quando milioni di persone inizieranno ad abitare queste esperienze spatial ogni giorno.

Oltre il virtuale

Lo spatial computing non è una moda passeggera. È un cambio di fase.

E il gaming non è semplicemente uno dei primi settori a esserne toccato: è il motore culturale che può guidarne l’evoluzione.

Come ha detto Tim Sweeney, CEO di Epic Games:

“AR glasses will become the entertainment platform of the future, replacing smartphones, tablets, and maybe even TVs.”

Non è più questione di se, ma di quando.

E soprattutto, di come costruire esperienze che non si limitino a stupire, ma che abbiano valore, coerenza e impatto.

Per questo credo che oggi più che mai sia il momento di pensare oltre il virtuale – e iniziare a progettare quello che viene dopo.

Progettare per Apple Vision Pro. Primi passi nello Spatial Computing e le prime lezioni imparate

Come scrivo da giorni, son circa 3 mesi che studio e sperimento in ambiente di sviluppo e test per Apple Vision Pro (nelle prossime ore mi arriverà il mio primo visore, di due, che ne ho acquistato). Non c’è dubbio che fin dall’ambiente di sviluppo, e senza ancora aver avuto modo di fare lunga sperimentazione con l’oggetto fisico – a parte un test di 15 min a Dicembre – il nuovo dispositivo presenta una serie di nuove sfide progettuali, rispetto ad altri visori e rispetto al mondo IOS, da considerare, e che non sono del tutto scontate.

Partiamo da un punto a mio avviso fondamentale:

La forza di Vision Pro non è l’hardware ( o meglio non solo e non soprattutto ), ma bensì la visione e la concezione che porta con se a livello di sistema e approccio.

Proprio come ho scritto qui . Detto questo qui di seguito riporto alcuni appunti che in questi mesi ho preso durante la progettazione from scratch per Apple Vision Pro.

Vision Pro non è un comune visore AR/VR

L’arrivo di Apple nel mercato dell’AR è un tema di discussione, e attesa, di lungo termine e fino a poco tempo fa non c’erano informazioni specifiche per poter iniziare a ragionare su cosa volesse dire progettare per questo device. Per esperienza il processo di migrazione di un applicativo tra diversi visori, cosi come succede tra diversi device smartphone con OS differenti, implica l’adattamento di più parti del progetto, dalla UX alle scelte tecniche di sviluppo, nonché in alcuni casi anche servizi per gestire correttamente le dinamiche dell’OS / ambiente di riferimento. Sono pochi i casi che permettono di lasciare il design pressoché inalterato, ma nel caso del VR invece è prassi.

Nel caso di Apple, rientriamo assolutamente nel secondo caso, ossia è un nuovo approccio, ergo è un contesto del tutto nuovo in cui sviluppare applicativi immersivi “per Vision pro“, e non “anche per Vision Pro“.

Da documentazione Apple è palese fin da subito che non si parla di AR / VR, ma di Spatial Computing. Di questo in questi giorni ne ho già ampiamente parlato e scritto,  e anche se per molti può sembrare solo marketing, a mio avviso ci sono alcune differenze reali nel modo in cui questo visore è progettato rispetto a Quest 3 e altri visori provati negli ultimi due anni.

Un ambiente di sviluppo, per diverse modalità

Per prima cosa in questo contesto è importante definire le tipologie di applicazioni sviluppabili. In particolare in Vision Pro ci sono tre tipi di app che si possono sviluppare: windowed, bounded e unbounded (sono termini ereditati da Unity). Nel contesto dell’Apple Vision Pro, i tre approcci alla progettazione di applicazioni rappresentano modi differenti di sfruttare le capacità di spatial computing del dispositivo. Questi approcci definiscono come l’applicazione interagisce con lo spazio dell’utente e il grado di immersività. 

  • Windowed: le applicazioni “windowed” sono quelle che appaiono agli utenti come finestre fluttuanti nello spazio davanti a loro, in modalità Passthrough, simili a come le finestre appaiono su un computer desktop tradizionale. Questo approccio consente agli utenti di interagire con l’applicazione in un formato rettangolare 2D, mantenendo contemporaneamente la consapevolezza dell’ambiente fisico. È l’opzione meno immersiva tra le tre, ma offre grande flessibilità e può essere particolarmente utile per applicazioni che non richiedono un’esperienza completamente immersiva o per quelle che devono essere eseguite in parallelo ad altre attività, in multi tasking praticamente.
  • Bounded: le applicazioni “bounded” sono progettate per operare all’interno di un volume definito, o “bounded space”, nello spazio fisico dell’utente. Questo significa che l’app crea un’esperienza 3D immersiva che gli utenti possono esplorare o interagire entro i limiti di uno spazio virtuale delimitato. Il volume può essere visualizzato come una porzione di spazio virtuale che coesiste con il mondo reale, permettendo agli utenti di muoversi e guardarsi intorno all’interno dei confini definiti. Questo approccio è più immersivo rispetto alle applicazioni windowed, offrendo un’esperienza che sfrutta la percezione dello spazio 3D pur essendo ancorata a un’area specifica del mondo reale.
  • Unbounded: le applicazioni “unbounded” rappresentano il livello più elevato di immersione, in cui l’esperienza virtuale non è confinata da limiti spaziali definiti. In questo scenario, l’app può trasformare l’intero ambiente circostante dell’utente in uno spazio di gioco o di lavoro virtuale, permettendo interazioni e movimenti virtuali senza restrizioni spaziali. Questo approccio è ideale per esperienze di realtà aumentata o virtuale che intendono sostituire o trasformare completamente la percezione dell’ambiente fisico dell’utente, offrendo la massima libertà nell’esplorazione di mondi virtuali.

Ogni approccio ha i suoi vantaggi specifici e la scelta tra windowed, bounded e unbounded dipende dagli obiettivi dell’applicazione, dalle esigenze degli utenti e dal tipo di esperienza che si desidera creare. L’Apple Vision Pro, in questo modo offre agli sviluppatori la flessibilità di esplorare questi diversi approcci per progettare esperienze utente innovative e coinvolgenti.

Un approccio flessibile e unico (per adesso)

Tecnicamente non c’è una netta divisione in questo contesto di sviluppo. Da parte di Apple, ci sono finestre o volumi (oggetti ed entità) che possono apparire in modalità Shared Space o Full Space, in Passthrough o in un ambiente VR completamente immersivo. Un’app nel caso di Vision pro può combinarli tutti insieme, in vari modi.

Faccio degli esempi per rendere meglio l’idea. Nel caso di Apple è possibile per esempio sviluppare un gruppo di finestre, che si combinano con un gruppo di volumi, in uno spazio Full o Shared. In questo caso si può passare da uno all’altro, a seconda delle esigenze dell’utente, e si possono creare dinamiche di interazione e spostamento particolari: la vera distinzione da è tra il come il contenuto è rappresentato ( finestra 2D o volume 3D) e in quale spazio si trova (condiviso con altre app o non condiviso), e soprattutto se è in Passthrough o in VR completo. Molte applicazioni per necessità o precedenti sviluppi in altri ambienti e device nascono con modelli vincolati, mentre nel caso di Apple, se si vuole mantenere una completa flessibilità la soluzione più semplice (e probabilmente corretta) è utilizzare in modalità Full Space. L’unico caso che diventa veramente vincolate e inibisce alle applicazioni di poter esser gestite contemporaneamente ad altre è lo sviluppo Unbounded/Full Space, che ha di per se molti vantaggi, ma ha lo svantaggio principale che l’utente appunto non può aprire applicazioni una a fianco all’altra.

In pratica se vogliamo realizzare applicazioni che permettano all’utente in contemporanea di leggere la posta, navigare in internet, ascoltare musica, guardare un video, giocare e fare qualsiasi altra cosa dobbiamo realizzare app bounded e in uno spazio condiviso. Questo tipo di soluzione di sviluppo, che dal possibilità di utilizzo senza soluzione di continuità, da la sensazione di essere magica. E questa cosa per adesso la si può fare solo in Apple Vision Pro.

Quando Apple menziona lo Spatial Computing in pratica non parla di AR o VR, ma si riferisce esattamente a questo.

Apple Vision pro è “un computer indossabile”. E non lo dico solo per un tema di hardware o caratteristiche tecniche, ma per via dell’ecosistema che Apple vuole integrare e lo scopo che vuole raggiungere: un dispositivo, come un computer personale, indossato sulla testa, con cui puoi fare tutto, ovunque.

Scegliere quindi in quale spazio si trova l’app, a mio avviso è la prima fase della progettazione dell’esperienza dell’applicativo che si vuole sviluppare e che consentirà al progetto di poter sfruttare a pieno le potenzialità del visore. Non c’è dubbio che allinearsi alla visione di Apple, come successo negli anni con le linee progettuali dettate da Apple stessa per IOS, possa accelerare lo sviluppo e trovarsi esattamente a progettare nel corretto paradigma – approvato da Apple appunto – e su cui il visore di fatto nasce.

La differenza dei controlli tra Apple Vision Pro e gli altri sistemi

Una delle cose che mi ha sorpreso negli ultimi anni è quanto i giochi VR possano essere accessibili ai non giocatori, per quanto il numero di visori e la diffusione dei giochi VR non sia ancora così estesa. Uno dei motivi della semplicità d’uso a primo impatto è senza dubbio il controllo all’interno del gioco, ossia per la VR è viene chiamato controllo diretto. Questo è un modo elegante per dire che giochi attraverso l’incarnazione diretta e questa forma di controllo è estremamente intuitiva, perché tutti sanno come usare il proprio corpo.

All’interno del Vision Pro, il paradigma di controllo è differente. In Vision pro le cose con cui puoi interagire le guardi e poi le pizzichi. In pratica è come se gli occhi fossero il puntatore del mouse e al tuo pizzico delle dita il clic sul tasto sinistro. Questo è quello che Apple chiama il controllo indiretto. Se il controllo diretto è intuitivo, il controllo indiretto all’inizio lo è un po’ meno.

I concetti di controllo diretto e controllo indiretto si riferiscono quindi a due diversi modi in cui gli utenti possono interagire con le interfacce digitali, in particolare nel contesto di dispositivi come l’Apple Vision Pro e altri sistemi di realtà aumentata o virtuale.

  • Controllo Diretto: il controllo diretto si basa sull’interazione fisica e intuitiva con l’ambiente virtuale. In pratica, significa che le azioni dell’utente nel mondo reale vengono mappate direttamente nel mondo virtuale in modo uno a uno. Ad esempio, se in un gioco VR l’utente vuole afferrare un oggetto, estenderà la mano e lo prenderà proprio come farebbe nella vita reale. Questo approccio è definito “diretto” perché l’azione compiuta ha un corrispettivo immediato e intuitivo nell’ambiente virtuale, rendendo l’esperienza di gioco o l’interazione estremamente naturale e accessibile anche per chi non è abituato ai videogiochi. La tecnologia di tracking di movimento, come il tracciamento delle mani e dei movimenti del corpo, è cruciale per questo tipo di controllo.
  • Controllo Indiretto: il controllo indiretto richiede invece un’azione che non corrisponde fisicamente all’azione che si verifica nel mondo virtuale. Utilizzando l’esempio dell’Apple Vision Pro, gli utenti interagiscono con l’ambiente virtuale guardando gli oggetti e compiendo un gesto specifico, come un pizzicotto, per selezionarli o interagire con essi. In questo caso, lo sguardo dell’utente funziona, come detto, come un cursore del mouse, e il “clic” delle dita sostituisce il mouse. Questo metodo è considerato “indiretto” perché c’è una disconnessione tra l’azione fisica e il risultato nell’ambiente virtuale; l’utente non tocca o afferra fisicamente l’oggetto, ma usa un’interazione basata su gesti per controllarlo.

Scegliere tra un controllo diretto o indiretto

Non c’è dubbio che la modalità in controllo indiretto debba esser appreso dall’utente poiché, almeno nella fase iniziale, non risulta naturale, soprattutto se paragonata ad altre esperienze di altri visori per gli utenti che hanno già avuto altre esperienze.

Ma questa fase di apprendimento, l’abbiamo già vissuta più volte e non è stato un disastro, anzi:

  • le levette analogiche introdotte per la prima volta nei videogiochi
  • il cursore del mouse e la sua interazione con il sistema operativo
  • lo swipe di apple per lo sblocco del cellulare per per le diverse interazioni

Ogni nuova interazione porta con se una nuova fase ed una nuova curva di apprendimento. E non necessariamente è un male.

Ora, rispetto il punto è “scegliere tra un controllo diretto o indiretto”. Ovviamente la prima riflessione è che a seconda del tipo di sviluppo che si affronta è corretto pensare di sviluppare differenti tipologie di interazione, o eventualmente supportare sia il controllo diretto che quello indiretto.

I sistemi di interazione indiretta a mio avviso prenderanno popolarità per la loro versatilità e capacità di adattarsi soprattutto alla pigrizia umana, offrendo un’interfaccia concettualmente trasparente che permette di compiere molteplici azioni con minimi spostamenti nel mondo reale. Questo tipo di controllo diventa essenziale in ambienti con spazi limitati, dove l’interazione diretta fisica è impraticabile, e aggiungo in contesti in cui l’utilizzo del visore è in condizioni di lavoro “stabili” ed il visore è il sostituto di un equipaggiamento fatto di pc, device mobile e monitor. In tali contesti, gli utenti interagiscono con il sistema da una certa distanza, rendendo le azioni simili all’uso di un mouse in un ambiente 2D, ma con la tecnologia che interpreta automaticamente la profondità e l’orientamento desiderato. Questo approccio consente una partecipazione efficace e comoda in progetti complessi senza la necessità di movimenti ampi o fisici, adattandosi perfettamente a situazioni dove lo spazio è un vincolo.

In pratica progettare per il controllo indiretto significa tornare a progettare nel modo in cui si farebbe per un mouse o un controller. Invece di mappare il movimento fisico del giocatore uno a uno nel mondo virtuale, va ripensato in modo che una piccola quantità di movimento abiliti un ampio spazio di possibilità nello spazio di interazione. Questo schema di controllo si basa molto sul tracciamento degli occhi.

Tracciamento Oculare, tra punti di forza e debolezze

Il tracciamento oculare del Vision Pro è sicuramente molto efficace e preciso, seppur tecnicamente non sbagli mai su punto in cui gli occhi sono puntati, il modo in cui deve esser implementato e utilizzato ha ancora delle debolezze (che non ho dubbi verranno migliorate).

Prima di tutto il tracciamento oculare come metodo di input presenta un potenziale limite legato alla necessità di eseguire azioni in modo sequenziale, a causa della limitazione naturale di poter focalizzare visivamente un solo elemento alla volta. Questo implica che, nonostante la potenziale rapidità e intuitività dell’interazione visiva, gli utenti sono vincolati a comunicare le loro intenzioni al sistema in una sequenza temporale definita. Questo vincolo può limitare la capacità di multitasking, in particolare in contesti dove l’efficienza e la simultaneità delle azioni sono cruciali. È possibile organizzare le interazioni in modo che consentano una forma di multitasking sequenziale, ad esempio attraverso l’uso combinato di input visivi e gestuali che permettono di gestire diversi elementi quasi contemporaneamente.

Secondo tema è relativo alla percezione visiva umana, caratterizzata da rapidi e brevi movimenti degli occhi che spostano il punto di focalizzazione, introduce ulteriori complicazioni nel tracciamento oculare. Questi aspetti biologici possono distorcere la corrispondenza tra l’intenzione dell’utente e il punto effettivo di focalizzazione, portando a discrepanze tra dove l’utente crede di aver guardato e dove i suoi occhi si sono effettivamente mossi. Questo fenomeno può causare interazioni imprecise o non intenzionali, sottolineando l’importanza di considerare le peculiarità della visione umana nella progettazione di interfacce basate sul tracciamento oculare. La sfida che vedo è quella di progettare sistemi che tengano conto di queste limitazioni, minimizzando gli errori e migliorando l’esperienza utente attraverso un’interpretazione accurata delle intenzioni visive.

Da considerare infine è l’ottimizzazione delle interfacce di tracciamento oculare ed in particolare va fatta molta attenzione al tempo di reazione richiesto nell’interazione, alla disposizione spaziale degli elementi interattivi e ai falsi positivi. Minimizzare la possibilità di azioni non intenzionali e ridurre l’impatto degli errori diventa fondamentale per mantenere un’esperienza utente positiva, fluida e che non generi frustrazione. Strategie come la distanza minima tra gli elementi interattivi e la conferma delle azioni critiche possono mitigare le conseguenze degli errori e migliorare significativamente l’usabilità. La progettazione di interfacce , soprattutto in un contesto immersivo / sensoriale deve quindi bilanciare l’introduzione di esigenze tecnologica e comportamento umano, al fine di creare sistemi di interazione che siano sia avanzati che intuitivi.

Personalizzazione dell’esperienza utente su Apple Vision Pro

Un aspetto fondamentale nella progettazione di applicazioni per Vision Pro è l’importanza di offrire esperienze altamente personalizzabili. Nell’era del computing spaziale e dell’iperpersonalizzazione, la UX si trasforma richiedendo un approccio che vada oltre la “semplice” navigazione tradizionale. Lo sviluppo deve pertanto considerare che il design possano adattarsi non solo alle diverse modalità di interazione (diretta e indiretta), ma anche alle preferenze individuali degli utenti. La capacità di modificare impostazioni quali la scala di visualizzazione, la sensibilità dei controlli o gli schemi di colore diventa cruciale per accogliere un pubblico ampio e diversificato. Questo livello di personalizzazione non solo migliora il comfort e l’usabilità, ma incoraggia anche un maggior grado di immersione e soddisfazione dell’utente, ed accessibilità.

Game Design per l’Immersività Spaziale

Nel contesto di Vision Pro, il game design assume nuove dimensioni, spingendo lo sviluppo a forme di esplorazione innovative e meccaniche di gioco che sfruttino appieno le capacità dello spatial computing. La progettazione di giochi in ambienti windowed, bounded e unbounded offre opportunità senza precedenti per creare esperienze ludiche che si intrecciano con l’ambiente fisico dell’utente. Questo richiede una riflessione approfondita su come gli elementi di stimolo possano esser applicati per far emergere ed attivare comportamenti ed interazioni all’interno di spazi reali e virtuali, in un continuo di esperienza. Elementi come la realtà aumentata dinamica, gli oggetti interattivi che reagiscono alla presenza fisica e ai movimenti dell’utente, l’interazione con oggetti fisici, sensori e la narrazione che si adatta all’ambiente circostante, pongono le basi per una nuova era del game design, dove l’ambiente stesso diventa un componente chiave del gameplay.

Lo spazio condiviso: ottimizzazione e integrazione

Nella progettazione di applicazioni che utilizzano lo “spazio condiviso” diventa importante e fondamentale considerare l’impatto sulla potenza di calcolo del dispositivo e sul carico cognitivo degli utenti. Le applicazioni in questi contesti non operano in isolamento (ossia in modalità unica) ma coesistono con altre applicazioni, condividendo di conseguenza le risorse limitate come la potenza di elaborazione. Questo implica la necessità di ottimizzare le prestazioni senza presupporre l’accesso esclusivo alle risorse del sistema. Allo stesso tempo, è essenziale progettare esperienze che non sovraccarichino l’utente, lasciando spazio cognitivo (in modo fagocitante) per altre attività parallele, sottolineando l’importanza di un design che sia efficiente e non invadente.

Il concetto di spazio condiviso estende la sua rilevanza ed importanza progettuale anche al tema sonoro delle applicazioni. Nello sviluppo di un applicativo devono esser bilanciate la creazione di un contesto ambientale sonoro coinvolgente e la consapevolezza che esisteranno altri suoni nell’ambiente dell’utente fisico circostante. Questo richiede un attento lavoro di design del suono che consideri la coesistenza di fonti sonore multiple, garantendo che l’audio dell’applicazione non sia invasivo ma piuttosto si integri armoniosamente con il contesto di utilizzo. Son parecchi i giochi e applicazioni già presenti in altri store VR che non hanno una corretta attenzione progettuale a queste dinamiche.

Sfide e Strategie nello Sviluppo per Piattaforme Avanzate

Ultimo tema da affrontare è relativo alla scelta della piattaforma di sviluppo per un progetto, e qui le opzioni spaziano da ambienti nativi, come Swift per dispositivi Apple, a motori di terze parti come Unity. La decisione dipende spesso dalla familiarità con l’ecosistema e dalla valutazione dei rischi e delle tempistiche di sviluppo del singolo progetto.

Sviluppare nativamente può offrire un accesso diretto alle ultime funzionalità e ottimizzazioni e caratteristiche tecniche del dispostivo stesso e dell’OS (come succede dopo tutto con swift su IOS), ma richiede una conoscenza approfondita della piattaforma. Al contrario, l’uso di motori di terze parti può accelerare lo sviluppo grazie alla loro flessibilità e alla vasta gamma di funzionalità, anche se potrebbe comportare limitazioni in termini di accesso alle funzionalità più recenti e specifiche del dispositivo ed una maggiore dipendenza da aggiornamenti di terze parti.

Le differenze architetturali tra le piattaforme di sviluppo possono presentare complessità differenti: un esempio, in particolare, riguarda lo sviluppo in Unity (e prossimamente anche Unreal) nell’interazione con l’hardware di ogni specifica piattaforma (VisionPro, Quest3, altri) e creare delle discrepanze nella gestione del rendering, conversioni di materiali e shader, e differenze nel modo in cui di conseguenza la logica dell’applicativo interagisce con le API native.

Nello specifico questa fase di approccio alla scelta necessità di una comprensione dettagliata degli ambienti e delle loro peculiarità al fine di ottimizzare le prestazioni e garantire che il progetto funzioni come previsto. Se ci pensate non è diverso da quanto accade quando scegliamo di sviluppare app mobile in nativo o con framework come Flutter o altro.

Le questioni di rendering, in particolare, possono essere complesse, con considerazioni da valutare sull’efficacia in termini di risoluzione, framerate, latenza e come queste influenzano di conseguenza l’esperienza utente.

Last, but not Least… i dati e la privacy

La progettazione di applicazioni più complesse ci mette davanti anche temi da trattare come privacy e l’accesso ai dati, soprattutto in contesti di spazio condiviso. L’accesso a dati ed informazioni sensibili come la posizione dell’utente o il movimento degli occhi può essere limitata per motivi di sicurezza.

Nella fase di analisi di un progetto è importante comprendere fin da subito quali restrizioni dover affrontare bilanciando le necessità funzionali dell’applicativo con il rispetto della privacy dell’utente, cercando soluzioni creative per migliorare l’interazione senza compromettere la sicurezza e quindi danneggiare l’adozione.

Insomma, in questo viaggio appena iniziato vedo una potenzialità enorme, ma soprattutto uno spazio tutto nuovo di possibili progettualità che, ad oggi, nemmeno immaginiamo. Esattamente come quando per la prima volta iniziammo a pensare alla prossima app per iPhone.

Disney + Epic Games: Un Universo Magico per il Futuro dell’Intrattenimento Digitale

L’annuncio dell’investimento da 1,5 miliardi di dollari della Walt Disney Company in Epic Games è sicuramente una di quelle notizie da far spalancare gli occhi, sia per l’operazione, sia per i brand (e le loro competenze specifiche) che hanno deciso di unire le forze, ma soprattutto per la direzione che questo accordo segna.

Senza dubbio un punto di svolta significativo non solo per le due aziende coinvolte ma per l’intero panorama dell’intrattenimento digitale. Questa mossa, come dicevo, (almeno per me) lungi dall’essere una sorpresa: riflette una tendenza in atto da tempo nel settore, dove le sinergie tra la narrativa tradizionale e le piattaforme di gaming diventano sempre più strette e reciprocamente vantaggiose.

Disney, con la sua incomparabile eredità nella creazione di storie che hanno incantato generazioni, e Epic Games, con il suo ecosistema Fortnite in rapida evoluzione, stanno ponendo le basi di un futuro in cui le esperienze di gioco non sono confinate a semplici sessioni di intrattenimento, ma si espandono in nuovi universi narrativi che offrono modalità per giocare, guardare, fare acquisti e interagire con contenuti, personaggi e storie.

L’integrazione tra i mondi di Disney e Fortnite, supportata dalla potenza di Unreal Engine, di fatto abilita la creazione di un ambiente digitale persistentemente aperto e (potenzialmente) interoperabile. Questo non solo allarga le possibilità di narrazione per Disney a nuovi spazi, ma apre anche la strada ad esperienze virtuali ed immersive di gioco nuove per gli utenti (non solo da consolle e tv).

Questa collaborazione è una risposta diretta alle mutevoli abitudini dei consumatori, in particolare delle generazioni più giovani, che sono costantemente alla ricerca di esperienze di intrattenimento più immersive e interattive. L’integrazione della Vision Pro di Apple nella strategia di Disney, con lo sviluppo recente dell’app per il nuovo store, e in particolare nella sua recente alleanza con Epic Games, è esattamente la chiusura del cerchio nella visione futura dell’azienda, ossia di offrire esperienze di intrattenimento sempre più immersive e coinvolgenti.

Con l’annuncio che Disney+ sarà disponibile sulla Vision Pro di Apple, Disney sottolinea non solo il suo impegno nell’abbracciare le ultime tecnologie ma anche la sua capacità di integrare queste innovazioni per arricchire le sue narrazioni e universi narrativi in modi precedentemente inimmaginabili. Che si tratti di trovarsi al fianco di Tony Stark nel suo laboratorio o di assistere a un tramonto su Tatooine, la tecnologia Vision Pro consente di sfumare i confini tra realtà e fantasia, portando le storie di Disney a un livello di immersione senza precedenti.

La popolarità di piattaforme come Fortnite e Roblox, che stanno già esplorando la trasformazione in hub di intrattenimento, dimostra inoltre un evidente desiderio del pubblico di esperienze che si accavallano tra i confini tra il gioco, la socializzazione e la narrazione.

L’importanza della proprietà intellettuale (IP) in questo contesto è l’elemento ulteriore di strategia da sottolineare. La capacità di sfruttare personaggi e storie familiari in nuovi formati è un fattore chiave per il successo in un mercato dell’intrattenimento sempre più affollato e competitivo, soprattutto in vista del crescente trend dei virtual influencer e la possibilità di governare totalmente il personaggio e la sua immagine come un asset di valore.

La sfida che vedo all’orizzonte per le altre piattaforme e creatori di contenuti è significativa. La domanda di quale tra Fortnite e Roblox (o qualsiasi altro concorrente che possa emergere) diventerà l’hub di intrattenimento dominante potrebbe essere meno rilevante di quanto si pensi. Invece, la vera questione potrebbe diventare come le diverse piattaforme possono coesistere e collaborare per arricchire l’ecosistema dell’intrattenimento digitale nel suo complesso, permettendo ad un utente di “trasferirsi” da un mondo dall’altro senza perdere il valore costruito sul proprio avatar e sulla propria identità digitale.

Non c’è dubbio che questa alleanza Disney & Epic Games non sia solo un affare finanziario di grande impatto, ma un segnale della direzione verso cui si sta muovendo il mondo dell’intrattenimento: un futuro in cui le storie ci circondano in modi sempre più interattivi e immersivi, trasformando il modo in cui viviamo, giochiamo e interagiamo con media e brand.

Possiamo solo aspettarci Universi Magici, immersivi. Siamo di fronte al futuro dell’intrattenimento.

Discover a place where the MAGIC is EPIC.

Metamask ha annunciato la sua integrazione con Unity il gaming engine

L’annuncio dell’integrazione tra Metamask e Unity rappresenta un ulteriore passo avanti per l’adozione di massa di sistemi di wallet e per la decentralizzazione nel settore dei giochi. Unity, la piattaforma di sviluppo di giochi leader nel settore, ha deciso di creare una categoria “decentralizzazione” nel suo store online, aggiungendo il supporto per diversi software developer kit (SDK) basati su blockchain, tra cui Metamask.

La partnership tra Metamask e Unity è una notizia positiva per gli sviluppatori di giochi e per le aziende impegnate nello sviluppo di piattaforme e iniziative web3, poiché fornisce le risorse necessarie per connettersi al mondo del Web3 gaming. In pratica, questo significa che i developer potranno costruire giochi che utilizzano autenticazione basata su wallet, transazioni, utilizzare token non fungibili (NFT) e l”accesso segmentato in funzione di possesso di asset digitali ai diversi “metaversi” e piattaforme di gioco, e di conseguenza consentiranno ai giocatori di creare, guadagnare e scambiare risorse in-game in modo sicuro e trasparente.

L’industria dei giochi sta crescendo rapidamente, e il settore dei giochi Web3 sta attirando investimenti significativi“, ha detto MetaMask in un tweet. “È una nuova era per gli sviluppatori di giochi.

L’integrazione di Metamask in Unity fornirà un’esperienza di gioco più immersiva e autentica per i giocatori, mentre gli sviluppatori potranno creare nuove funzionalità e meccaniche di gioco che sfruttano le potenzialità della blockchain. Inoltre, l’aggiunta di Metamask e altri SDK decentralizzati in Unity contribuirà a creare un ecosistema di sviluppo di giochi più aperto e trasparente, dove gli sviluppatori possono condividere e monetizzare le loro creazioni in modo più efficiente e sicuro.

L’integrazione di Metamask in Unity rappresenta solo uno dei tanti sviluppi del settore dei giochi decentralizzati ed il percorso che questa industria sta facendo: altri esempi includono The Sandbox, Decentraland e DOGAMÍ, giochi che sfruttano le potenzialità della blockchain e del Web3 per creare nuove esperienze di gioco.

Unity sta aggiungendo il supporto per 13 diversi software developer kit (SDK) basati su blockchain, provenienti da blockchain e protocolli differenti, prodotti tra cui Algorand, Aptos, il blockchain Flow di Dapper Labs, Immutable X, MetaMask, Solana e Tezos.

Generative AI & Roblox: tutti possono esser creators

Roblox, la piattaforma di gioco online con 58,8 milioni di utenti giornalieri, dopo l’annuncio dei dati del periodo, ora ha annunciato che utilizzerà l’AI generativa nella sua piattaforma.

L’obiettivo è quello di rivoluzionare la creazione dei contenuti sulla propria piattaforma grazie all’uso dell’Intelligenza Artificiale generativa. I creators di Roblox potranno utilizzare questi strumenti per rendere la creazione di contenuti più facile e veloce, nonché per integrare la creazione di 3D con la scrittura di codice.

L’obiettivo finale è quello di rendere ogni utente un creators, consentendo anche ai principianti di avere un punto di partenza valido e poter sviluppare la propria creatività senza limiti.

La piattaforma sta affrontando delle sfide tecniche uniche per generare contenuti interattivi in modo automatico e allo stesso tempo mantenere la sicurezza del servizio e dell’esperienza degli utenti ad alto livello viste le numerose critiche ricevute nell’ultimo anno.

Che l’AI potesse esser un acceleratore per il mondo del gaming lo avevo scritto in alcuni post.

Qui il comunicato ufficiale di Roblox https://blog.roblox.com/2023/02/generative-ai-roblox-vision-future-creation/

Gaming e la rivoluzione della Intelligenza Artificiale Generativa

Qualche giorno fa ho fatto un colloquio ad un game designer e la chiacchierata piacevole è andata avanti poi per circa un’oretta, su diversi temi, anche fuori dal perimetro del colloquio, entrando nella sfera di passioni e ragionamenti di mercato, nonché potenzialità dell’AI generativa nel mondo del gaming. La prima cosa che più mi è rimasta in mente di lui è la sua eccitazione e meraviglia legata alla potenzialità dell’AI, ma non tanto in generale, quanto rispetto alla sua competenza e alle potenzialità applicate al suo lavoro: non paura appunto, ma opportunità. Non timore di imparare, ma voglia di governare.

In sintesi i ragionamenti fatti si basavano su 4 punti:

  • Questo potere creativo è ora disponibile per chiunque possa imparare alcuni semplici strumenti.
  • Questi strumenti possono creare un numero infinito di variazioni in modo altamente iterativo.
  • Una volta addestrato, il processo è in tempo reale – i risultati sono disponibili quasi istantaneamente.
  • Non esiste una tecnologia così rivoluzionaria per i giochi dal 3D in tempo reale.

Allora, dove sta andando questa tecnologia? E come trasformerà il gioco? Innanzitutto, però, esaminiamo cos’è l’IA generativa?

Per capire a cosa siamo di fronte e come AI generativa può cambiare intere industrie e competenze, provo a fare un ragionamento sul mondo del gaming e come questo può beneficiarne (cosa che sta già facendo) prima di molte altre industrie.

Che cos’è l’AI generativa

L’AI generativa è una categoria del machine learning. L’intelligenza è in grado di creare contenuti originali in risposta ai suggerimenti dell’utente. Attualmente è particolarmente in voga la generazione di testo (ChatGPG) e di immagini (Stablediffusion, MidJourney, Dall-E). Seppur il T2I (Text to Image) ed il T2T (Text to Text) siano tra i più maturi in questo momento, è in corso un lavoro di sperimentazione praticamente in ogni dominio creativo, dall’animazione agli effetti sonori, alla musica, persino alla creazione di personaggi e avatar virtuali con personalità arricchite ed in grado di conversare. Tra le classificazioni che stanno emergendo tra i diversi sistemi AI generativi, ci sono:

  • Text to Image (T2I)
  • Text to Video (T2V)
  • Text to Audio (T2A)
  • Text to Text (T2T)
  • Text to Motion (T2M)
  • Image to Text (I2T)
  • Audio to Text (A2T)
  • Audio to Audio (A2A)
  • Brain to Text (B2T)
  • Text to Code (T2C)
  • Text to 3D (T23D)
  • Text to NFT (T2N)
  • …. Text-to-Everything!

L’intelligenza artificiale non è una novità, soprattutto oggi, e soprattutto nel mondo del gaming, ovviamente. Se tornassimo indietro nel tempo anche i primi giochi, come il Pong di Atari, avevano avversari controllati dal computer per sfidare il giocatore. Questi “nemici” virtuali, tuttavia, non erano animati da AI come la conosciamo oggi, ma erano semplicemente procedure scritte, a stati finiti in molti casi, realizzate dagli sviluppatori del gioco, che simulavano un avversario artificialmente intelligente, con comportamenti in linea generale standard ma soprattutto non potevano imparare progressivamente con il passare del tempo e delle partite.

Ciò che è diverso oggi, a distanza di anni, è sicuramente la quantità di potenza di elaborazione e calcolo disponibile, la scalabilità delle architetture e grazie a microprocessori più veloci e al cloud. Con questo “nuovo” potere, oggi è possibile costruire grandi reti neurali in grado di identificare modelli e rappresentazioni in domini altamente complessi.

AI a servizio del mercato, e del gaming

Siamo in un momento in cui di segnali che l’AI sia qui per rimanere e non per esser una tecnologia di passaggio ne abbiamo.

Negli ultimi anni la mole di pubblicazioni e ricerche sul tema dell’AI in generale è aumentata drasticamente e sempre più aziende hanno iniziato ad adottare piattaforme e soluzioni per introdurre processi e modelli basati su intelligenza artificiale all’interno dei propri business. Molte aziende inoltre hanno avviato progetti di R&S . Il risultato è un’esplosione di interesse e innovazione sul tema sicuramente crescente.

Nel mondo dell’intrattenimento, in particolare del gaming (una delle industrie più ampie e sviluppate a livello mondiale), l’interesse per l’AI è sicuramente in forte crescita e le motivazioni sono piuttosto facili da individuare ed evidenti. I giochi sono la forma di intrattenimento più complessa, in termini di numero assoluto di tipi di risorse coinvolte ( 2D art, 3D art, effetti sonori, musica, dialoghi, coding ecc. ). I giochi sono anche i più interattivi, con una forte enfasi sulle esperienze in tempo reale. Questa complessità progettuale legata ad una necessità di costante sviluppo ed evoluzione, crea una forte barriera all’ingresso per i nuovi produttori di giochi per via un costo elevato di produzione che diventa sempre più alto.

Per fare un esempio, il gioco Red Dead Redemption 2 è uno dei giochi più costosi mai prodotti, con un costo stimato di circa 500 milioni di dollari. È facilmente intuibile la motivazione se ci avete giocato: è uno dei mondi virtuali più belli e completamente realizzati, a mio avviso, di qualsiasi gioco sul mercato. Ci sono voluti quasi 8 anni di sviluppo, con oltre 1.000 personaggi attivi nel gioco ( ognuno con la propria personalità, caratterizzazione e doppiatore ), un mondo di quasi 30 miglia quadrate, più di 100 missioni suddivise in 6 capitoli e quasi 60 ore di musica create da oltre 100 musicisti. Giusto per dare una idea.

Ora, per dare l’idea di complessità, pensiamo invece a Microsoft Flight Simulator: più che un gioco una esperienza di volo completa che a confronto con il gioco di cui sopra non ha nulla a che vedere. E non intendo a livello di gioco, ma di dimensione progettuale. Microsoft Flight Simulator consente ai giocatori di volare in tutto il pianeta Terra. In che modo Microsoft può aver creato un gioco così mastodontico? Lasciando che una intelligenza artificiale lo facesse. Microsoft ha infatti collaborato con blackshark.ai, e ha addestrato un’AI a generare un mondo 3D fotorealistico, partendo dalle immagini satellitari 2D.

Ho fatto questo esempio per far dare  che sarebbe stato letteralmente impossibile costruire un gioco di queste dimensioni senza l’ausilio dell’AI, e senza pensare che questo modello di sviluppo non si è fermato alla prima produzione, ma sta continuando a sviluppare e migliorare ambientazioni nel tempo, sempre più dettagliate e sempre diverse.

Se oggi quindi vediamo l’intelligenza artificiale generativa come un gioco passatempo da cui estrapolare sfondi, volti, ambientazioni e immagini per le prossime slide, di fatto ci stiamo limitando a vedere la punta di un iceberg e non quello che sta emergendo veramente: avremo modello AI generativi per ogni risorsa specifica, e nel caso dei giochi, modelli per la produzione di singole parti di gioco, meccaniche e dettagli.

Finora i generatori di immagini 2D come Stable Diffusion o MidJourney hanno catturato la maggior parte dell’attenzione sul tema dell’AI generativa per via della loro natura semplicità e per la qualità delle immagini che possono esser generate. Ma già adesso sono presenti sul mercato modelli di intelligenza artificiale generativa praticamente per tutte le risorse coinvolte nella produzione di un gioco, dai modelli 3D, alle animazioni dei personaggi, ai dialoghi e alla musica.

L’effetto collaterale del valore dei contenuti a mio avviso calerà drasticamente, andando effettivamente a zero in alcuni casi. Ma non deve esser una preoccupazione:

Chris Anderson disse: “ Ogni abbondanza crea una nuova scarsità”.

Leggendo post, articoli e annunci di sviluppatori e società di sviluppo di giochi che stanno sperimentando l’integrazione dell’AI generativa nei loro piani di produzione, il più grande impatto rilevato è senza dubbio la drammatica riduzione di tempo ed i costi di sviluppo, passando da stime di creazione di concept art di una singola immagine da settimane a qualche ora.

Per essere chiari, visto che di questo ne ho letto più volte in questi giorni, gli artisti, i creator ed i copywriter non rischiano di essere sostituiti dall’AI (come ho già detto in un post qualche giorno fa) ma sicuramente dovranno adeguare le loro competenze e non lavorare più da soli: d’ora in avanti la produzione di contenuti potrà esser impostata in termini di direzione creativa iniziale e quindi esser consegnata all’esecuzione tecnica a un’intelligenza artificiale.

Siamo ancora agli inizi di questa rivoluzione e molte pratiche, metodi e approcci dovranno ancora essere perfezionati, ma abbiamo una rivoluzione davanti agli occhi. C’è un’enorme quantità di lavoro da fare quando scopriamo come sfruttare questa nuova tecnologia per i giochi, e saranno generate enormi opportunità per le aziende che si spostano rapidamente in questo nuovo spazio.

Cosa aspettarci dal 2023?

Nel 2022, abbiamo assistito a un’esplosione del text-to-2D, poiché Dall-E, MidJourney e Stable Diffusion come ho detto hanno ottenuto risultati straordinari. Il text-to-3D, l’audio, il video e altro ancora sono stati esplorati dai ricercatori, ma nel 2023 ci si può aspettare di vedere applicazioni pratiche di modelli generativi che permeteranno la creazione di tutti i tipi di nuovi media.

Si prevede che i modelli multimodali, che combinano diverse modalità come la parola, l’audio, l’immagine e il testo, diventeranno sempre più popolari, guadagnando importanza come strumenti per creare un’interazione unica tra diverse modalità di input, permettendo una profonda comprensione ed una evoluzione maggiore nella produzione di contenuti.

Con l’avvento inoltre di queste nuove potenzialità, è probabile che vedremo nascere nuovi modelli di gioco focalizzati e potenziati dall’utilizzo e la  combinazione della potenza dei modelli generativi: avremo giochi in grado di creare esperienze personalizzate, sbloccando la possibilità di giochi in grado di forkare, ed nel quale una singola versione può essere personalizzata in milioni di versioni diverse, con costi di sviluppo bassi e alto valore di replay.

Questo nuovo genere aumenterà l’engagement degli utenti con narrazioni altamente uniche e personalizzate. Gli sviluppatori di giochi potranno esplorare un nuovo paradigma di storytelling e giochi basati su narrazioni ad infinite possibilità di esplorazione e gameplay.

Inoltre, l’IA generativa permetterà agli sviluppatori principianti di giochi di costruire le proprie esperienze giocabili senza alcuna esperienza di codifica. I linguaggi di programmazione basati sull’immagine e gli editori semplici drag-and-drop, il no-code/low-code in generale, permetterà alle persone di creare e condividere rapidamente i loro progetti generativi con pochi clic.

Immersività e 2023: guardando alle prossime opportunità e trend

Il metaverso sta prendendo forma, soprattutto ini questo ultimo anno che si sta chiudendo, con una narrativa ancora non del tutto chiara in termini di perimetro e piattaforme. Sicuramente una indicazioni di direzione su cosa sarà cominciamo ad averla: avremo nuovi canali di comunicazione ed interazione fortemente immersivi in ambienti virtuali, e questi mondi non saranno necessariamente solo giochi.

I brand hanno iniziato ad affacciarsi, con diversi progetti, sfruttando il potenziale illimitato che gli spazi virtuali già oggi offrono, ma ancora pochi hanno creato qualcosa di realmente efficace e completo. Nella maggior parte dei progetti si tratta di meccanismi di gioco o di una ambientazione virtuale interattiva con ancora pochi legami fisico-digitali-virtuali.

Questo ci porta a chiederci quali trend del metaverso dovremmo tenere d’occhio per il 2023 e come potremmo sfruttarli al massimo. Provo a condividere 3 spunti su cui ritengo che ci sarà tanto da studiare e progettare.

Giochi MMO / Esperienze immersive

I giochi immersivi saranno destinati a ricevere il maggior interesse e investimenti nel prossimo anno. Con l’appena rilasciato Meta Quest Pro e il Quest 2 (che diventa economicamente più abbordabile), le esperienze di realtà virtuale saranno più accessibili che mai (si tratta a questo punto solo di tempo adozione del dispositivo, e dopo le feste avremo dati di vendita sotto Natale).

L’attuale “pecca” delle esperienze di realtà virtuale è la loro bassa accessibilità e la mancanza di fedeltà/qualità grafica. Fortunatamente, con l’arrivo di headset migliori e di schede grafiche più efficaci (ed economicamente accessibili) che stanno entrando sul mercato, vedremo un drastico aumento di sviluppo dei giochi di realtà virtuale nel 2023, con circa un 25% di utenti che trascorrerà almeno un’ora al giorno secondo Gartner entro il 2026.

Nel 2023 è plausibile quindi un forte aumento del numero di giochi di realtà virtuale, presenti soprattutto negli store dei vari visori / piattaforme, in alta qualità (soprattutto quelli prodotti in AAA). Sono convinto inoltre che vedremo anche altri giochi MMO, ancora non orientati all’immersività, che inizieranno un percorso di sviluppo e “migrazione” in questa direzione.

Metaverso e Marketing

Anche gli investimenti pubblicitari ed i lancio di diverse iniziative, già quest’anno, hanno visto un significativo aumento. I brand, adesso più che mai, stanno cercando di attirare, attraverso giochi e piattaforme orientate al metaverso, una nuova generazione ed una nuova audience, dalla Gen-Z fino a utenti che potrebbero non aver mostrato fino ad ora interesse per il loro brand.

Marchi come Gucci e Vans, o anche Nike, fino a giganti dell’automobile come Mclaren, hanno ottenuto risultati positivi dalla loro presenza in alcune piattaforma di gioco (prevalentamente Roblox a mio avviso), raggiungendo un pubblico complessivo di ben oltre 50 milioni di persone, una copertura mediatica globale , ma soprattutto prime metriche di efficacia di questa sperimentazione.

L’esplosione delle identità e gli avatar sempre più realistici

Gli avatar nel metaverso, anche grazie a piattaforme di personalizzazione come Ready Player Me, sono certamente stati migliorati nell’ultimo anno. Dal sembrare palline pixelate siamo passati ad avatar sempre più realistici, tanto da poter indossare capi di abbigliamento di brand come Gucci, Versace, Tommy Hilfiger ed aprire una nuova opportunità per i brand nel futuro.

Nel 2023 assisteremo alla crescita di applicazioni che renderanno più semplice l’utilizzo della cattura del movimento del proprio corpo attraverso la telecamera e vedremo ulteriori miglioramenti delle sembianze degli avatar. In sostanza, la differenza tangibile tra un avatar e un essere umano vero, a tendere, si andrà assottigliando sempre di più.

Questo permetterà alle persone di esprimersi veramente all’interno delle piattaforme, ed il proprio avatar apparirà come una vera traslazione virtuale di se stessi, con una totale libertà di personalizzazione (indossando inoltre capi di abbigliamento e accessori legati ad asset digitali acquistati).

Insomma, il 2023 si prospetta un anno di ulteriore sperimentazione per l’immersività e per l’intrattenimento online: personalmente non vedo l’ora di vedere come questi trend emergenti influenzeranno le strategie dei brand e la vita di milioni di persone in tutto il mondo.

2022 un anno di eventi nel mondo delle criptovalute e del web3

Il mondo delle #criptovalute e del #web3 ha vissuto un anno difficile: malgrado la crescita di alcuni importanti progetti e lo sviluppo di molte iniziative, il 2022 è stato segnato da significative flessioni dei prezzi di mercato delle principali #criptovalute, un rallentamento del volume di trading in molti settori adiacenti (#DeFi#NFT) e il grande evento della bancarotta per alcune figure di spicco del settore. Il prezzo del #Bitcoin (BTC) ha raggiunto il minimo da due anni a questa parte ed il resto del mercato ha reagito con intense attività di vendita dopo il crollo dell’exchange #FTX.

Nonostante le crescenti preoccupazioni da parte del mercato e degli utenti, il potenziale degli #assetdigitali e della blockchain sottostante rimane incontestato per molti e al tempo stesso in fase di ulteriore sviluppo di maturità.

Contestualmente l’attività degli sviluppatori sta andando avanti ed il forte impegno nell’implementazione di piattaforme, protocolli ed engine va avanti, supportato proprio da una delle tecnologie più trasformative – senza dubbio – della nostra epoca.

Gli eventi di quest’anno hanno spinto e portato l’opinione pubblica e le istituzioni ad ulteriori richieste di maggiore regolamentazione nel mercato delle criptovalute per proteggere gli investitori e far avanzare ulteriormente questo mercato verso uno step più istituzionale.

Son stati presentati oltre 50 progetti di legge relativi alla regolamentazione degli asset digitali e della tecnologia #blockchain.

Il mercato è in calo, non c’è dubbio, ma chi si sta occupando di progetti web3, metaverso e tutte le possibilità abilitate dalla blockchain vede una evoluzione inevitabile per i prossimi anni avanzare e si stanno ponendo le basi per creare gli strumenti e l’infrastruttura che plasmerà il futuro delle criptovalute e del web3.

Nel report che ho postato qui su linkedin e che trovate a questo indirizzo https://link.mtvrs.it/2022CryptoWebYearReview troverete un approfondimento sul 2022

🌀 Ogni giorno pubblico un paper PDF qui Fabio Lalli e diversi contenuti sul canale telegram #MTVRS https://t.me/mtvrs_it . Se vi interessa basta seguirmi o entrare nel gruppo.

Il metaverso è morto. Lunga vita ai Metaversi (e a Roblox)

Questi nuovi mondi virtuali non sono ancora diventati un luogo comune, ma stanno già attirando milioni di persone curiose in tutto il mondo.

La maggior parte delle aziende e dei brand di moda (e non solo) sta valutando (se non l’ha già fatto) di esser presente nel Metaverso in qualche modo e attivare un nuovo canale di conversazione, presenza e sviluppo dell’esperienza utente.

Ci sono già più persone di quante si possa pensare, che stanno mettendo piede nel metaverso entrando dalla porta dei giochi, del mondo crypto / NFT o direttamente da nuove esperienze immersive: presenze che però in realtà non hanno dati certi e numeri “ufficiali”.

Tutti i sondaggi che stanno uscendo, fatti da diverse aziende di consulenza, indicano che il pubblico in generale non è realmente interessato al metaverso: alcune persone non ne hanno sentito parlare, altri non ne vedono assolutamente alcun interesse, e questo senza contare coloro che vedono questi nuovi mondi come potenzialmente minacciosi per se stessi, per i loro cari o bolle speculative momentanee.

Chi ha detto quindi che il metaverso è morto?

Tuttavia la percezione del metaverso da parte delle persone varia tra diverse generazioni, con i più giovani generalmente più entusiasti dell’idea di esplorare questi mondi, associandoli a una nuova forma di intrattenimento e nuove forme di interazione. Non si può negare che, nonostante la mancanza di hardware per accedere correttamente (oggi ancora la diffusione di visori è bassa) ed in modo agevole, questi mondi virtuali stiano conquistando più persone di quanto si possa pensare.

Il metaverso di Nike, per esempio, chiamato Nikeland (a  mio avviso la migliore implementazione per design e meccaniche di gioco) e accessibile sulla piattaforma Roblox, ha già accolto 23,6 milioni di visualizzazioni, secondo la sua landing page. Lanciato nel novembre 2021, questo spazio sociale con sede in Roblox era stato (già) visitato da 7 milioni di visualizzazioni alla fine di marzo 2022. I 21 milioni di visitatori della land Nike hanno girato senza dubbio nello showroom di Nike mostrando di fatto un interesse ed un legame con il brand e con la sua capacità di coinvolgere ed ispirare.

Questo è senza dubbio un primo grande caso globale (insieme a Vans, Walmart e altri) per incoraggiare altri brand a continuare il processo di studio e discovery, oltre che di sperimentazione e atterraggio su Roblox per sfruttare le infinite possibilità di questo canale interattivo, esperenziale ed immersivo.

Non c’è dubbio che il numero vero da valutare è il numero di giocatori (veramente) attivi e che visitano regolarmente l’universo virtuale di Nike, ma questa cosa è più difficile da determinare vista la carenza di dati e strumenti di misurazione pubblici. Secondo le statistiche visibili sulla piattaforma di Roblox, sembra che quasi 119.000 persone lo abbiano aggiunto ai preferiti. Una cifra forse meno impressionante, ma che tuttavia permette al brand di sperimentare ampiamente le potenzialità di questo mondo.

Roblox comunque, una delle piattaforme di gaming, ormai avvicinata concettualmente al mondo del Metaverso, continua a crescere ed i numeri pubblicati da Roblox stessa al trimestre sono incredibilmente in crescita tanto che il titolo in borsa qualche giorno fa è schizzato in borsa del +20%:

  • Gli utenti attivi giornalieri sono 57,8 milioni, in crescita del 23% anno su anno
  • Le ore impegnate sono state 4 miliardi, in aumento del 16% anno su anno.
  • Gli acquisti stimati sono compresi tra $ 212 milioni e $ 219 milioni, con un aumento dell’11% al 15% anno su anno.

Oltre ai numeri positivi ci sono comunque delle flessioni che trovano però riscontro nel ritorno a scuola da parte dei bambini:

  • Il numero di utenti attivi giornalieri è diminuito rispetto al rapporto di Roblox dell’agosto 2022, quando la società ha segnalato 59,9 milioni di utenti.
  • Anche il numero di ore impegnate a settembre è diminuito da 4,7 miliardi di agosto

Considerando che oggi ci sono migliaia di metaversi in sviluppo e già presenti, e che abbracciano tutti i tipi di settori, il numero di persone attive in essi, o almeno interessati, è il vero punto da valutare correttamente prima di investire in una direzione o un’altra.

Non sorprende che l’industria della moda stia saltando a capofitto nel metaverso, che, tra l’altro, potrebbe valere circa 5 trilioni di dollari entro il 2030, secondo la società McKinsey. Marchi come Gucci, Vans, adidas e Tommy Hilfiger sono già tra coloro che hanno fatto il grande passo, offrendo le proprie esperienze virtuali in questi nuovi mondi e iniziando, a mio avviso, prima di tutti, a sperimentare, comprendere le dinamiche ed i linguaggi ed iniziare a raccogliere dati utili per i prossimi passi.

Siamo agli albori di un percorso di crescita, è come se fossimo nel 1998 di Internet. Tempo al tempo: lo sviluppo tecnologico, la curva adozione, ed i casi d’uso che verranno implementati porteranno ad una maturità graduale, come appunto già successo ad Internet, all’eCommerce, al Mobile, ai Social e tanto altro ancora.

Il metaverso è morto. Lunga vita ai Metaversi (e a Roblox) e chi investe per anticipare i tempi.

Nike acquista RTFKT Studios ed entra per direttissima nel Metaverso, NFT e collezioni

C’è chi del Metaverso sta cercando ancora di capire cosa farcene e come entrarci, se utile e se veramente un business. E poi c’e chi entra direttamente comprandosi chi nel meta verso ci è nato, creando avatar ma soprattutto Sneakers e collezioni: RTFKT Studios. Tra le realtà più in crescita ed in vista in questo momento.

Una acquisizione che da la direzione a come approcciare il metaverso, gli #NFT, le collezioni ma soprattutto il modo in cui comunicare con una generazione che spesso sembra incomprensibile.

Per Nike RTFKT non è solo un brand che si aggiunge a Jordan e Converse, ma è un ponte diretto, a doppia corsia andata e ritorno, per portare l’ecosistema Nike nel #metaverso, ma soprattutto portare RTFKT nel mondo reale, e legare tutto questo con collezioni, esclusività e unicità, in un merge perfetto tra fisico e digitale, fashion e gaming, lusso e nuove forme di lusso.

Si sono presentati così, per farvi capire. Congratulazioni a RTFKT studios e tutto il suo team, ma soprattutto a Nike perchè ha scelto un brand che sembra già lo swosh del futuro.

Comunque tranquilli, se ancora non ci state (stiamo, mi ci metto anche io dentro eh) capendo nulla di tutto questo, sappiate che in una fase del genere ci siamo già passati, era il 1994 e si chiamava Internet.

Sul tema metterò un approfondimento domenica mattina nella newsletter qui > https://bit.ly/3GyreGC