Apple, l’AI, il contesto ed il paradosso dell’innovazione e della pazienza.

In questi giorni, il web e i mercati reagiscono con tono deluso al keynote del WWDC 2025: niente AI. Nessuna “AI Apple”. Nessun modello proprietario, nessun assistente rivoluzionario, nessuna dichiarazione forte. Solo aggiornamenti di sistema, funzioni incrementali, nuove integrazioni.

Eppure, se si osserva la storia di Apple con uno sguardo lungo, non dovrebbe sorprenderci. Perché Apple (quasi mai) ha fatto la prima vera mossa. Ma ha sempre fatto quella definitiva.

Il paradosso dell’innovazione tardiva

1998: iMac

  • Contesto: i PC erano grigi, complicati, pieni di cavi e direi anche con un’estetica scadente.
  • Apple: un solo cavo, design colorato e minimale, USB-only, plug and play. Non inventa il computer, ma reinventa il concetto di accessibilità e desiderabilità.
  • E gli altri: Tutti i brand iniziano a spingere su design più curato, semplicità d’uso e porte standardizzate.

2001: iPod

  • Contesto: il trend era quello di scaricare (tonnellate) musica da Napster, e ascoltarla in mobilità nei lettori MP3 presenti all’epoca, con storage limitati, interfacce “fisiche” molto più vicine ai vecchi Walkman.
  • Apple:1000 canzoni in tasca” e iTunes. Ecosistema + semplicità + design + sincronizzazione, tutto in uno, ma soprattutto legalità nell’esperienza di ascolto della musica.
  • Dopo Apple: Creative, Sony e altri provano a replicare. Ma senza un software come iTunes, l’esperienza resta frammentata.

2007: iPhone

  • Contesto: Nokia, Blackberry, Palm dominavano il mercato.
  • Apple: interfaccia multitouch fluida, niente tastiera fisica. Il telefono diventa piattaforma.
  • Dopo Apple: Android cambia direzione, Nokia crolla, Microsoft inizia un declino nel mondo OS e smartphone. La definizione delle linee guida progettuali per le app impone agli altri ecosistemi un cambio di approccio e miglioramento dell’esperienza.

2008: App Store

  • Contesto: gli smartphone erano dispositivi chiusi, con software preinstallato o accessibile solo da accordi B2B.
  • Apple: lancia l’App Store, aprendo l’iPhone agli sviluppatori indipendenti con un modello di revenue sharing (70/30), strumenti di sviluppo (SDK), linee guida di design e un processo di review centralizzato.
  • Dopo Apple: si crea un’economia digitale completamente nuova, con centinaia di migliaia di sviluppatori e aziende che costruiscono business basati su mobile app. Google risponde con Android Market (poi Play Store), ma con meno controllo qualitativo. Nokia e Microsoft non riescono a costruire ecosistemi sostenibili e perdono il mercato.

2010: iPad

  • Contesto: netbook, ebook reader, tablet marginali.
  • Apple: crea una nuova categoria tra laptop e smartphone. Mobilità, leggerezza, interfaccia su misura per una esperienza lavorativa o di intrattenimento in una zona intermedia tra smarthone e desktop.
  • Dopo Apple: Google, Samsung e Amazon rincorrono con Android, ma senza una UX verticale e coerente non riescono a imporsi allo stesso modo.

2012: Apple TV

  • Contesto: la smart TV era un terreno confuso, con interfacce poco fluide e offerte disaggregate.
  • Apple: rilancia Apple TV con focus su entertainment integrato, AirPlay, App Store per TV, e un’interfaccia coerente con l’ecosistema iOS, creando una continuità di esperienza tra device personale e connessione con spazio casalingo
  • Dopo Apple: Google ristruttura Android TV e lancia Google TV; Amazon investe su Fire TV. Inizia la corsa all’integrazione tra servizi OTT, assistenti vocali e dispositivi domestici.

2014: Apple Watch

  • Contesto: smartwatch esistenti (Pebble, Galaxy Gear), ma ancora di nicchia.
  • Apple: focus su salute, notifiche, lifestyle e perfetta integrazione con l’iPhone.
  • Dopo Apple: Android Wear si adegua, nascono ecosystem health-first (Fitbit, Garmin), ma Apple conquista il segmento premium e sanitario e nel segmento watch (non smart) diventa significativa.

2016: AirPods

  • Contesto: cuffiette Bluetooth presenti ma scomode e poco integrate.
  • Apple: esperienza seamless, pairing istantaneo, ricarica magnetica nella custodia.
  • Dopo Apple: tutti i produttori lanciano TWS, ma nessuno raggiunge la stessa immediatezza d’uso. L’accoppiamento istantaneo diventa lo standard aspirazionale.

2016–2020: Rimozione jack audio, BLE, NFC e FaceID

  • Contesto: standard tecnici consolidati ma poco evoluti ed integrati nella vita di tutti i giorni.
  • Apple: elimina il jack audio con coraggio strategico; spinge il Bluetooth Low Energy e l’NFC per pagamenti rapidi e sicuri (Apple Pay); introduce il Face ID come nuova soglia d’ingresso, abilitando il Wallet e la digitalizzazione dell’identità.
  • Dopo Apple: Samsung inizialmente critica la scelta, poi segue; Android integra NFC payment (fino a prima usato solo per trasferimento dati); il riconoscimento facciale diventa standard.

2023: Vision Pro

  • Contesto: Oculus, HTC Vive e altri visori AR/VR già sul mercato.
  • Apple: introduce lo Spatial Computing, interfaccia oculare e gestuale, contenuti immersivi. Più di un visore, un ambiente personale computazionale, integrato nell’ecosistema di tutti gli altri device.
  • Dopo Apple: I competitor cominciano a rivedere le proprie roadmap su AR/VR, integrando eye tracking e ricalibrando il focus sulla produttività immersiva. Samsung e Android, lanciano un dispositivo che utilizza il concetto di powerbank esterno al visore, come introdotto da Apple (elemento contestato da tutti al momento dell’uscita)

2025: LiquidGlass e l’apprendimento dell’interazione futura

  • Contesto: UX mobile ancora dominante, esperienze AR/VR in fase esplorativa.
  • Apple: inizia a spostare il paradigma verso una realtà aumentata integrata e continua. LiquidGlass (che vorrei segnalare che è in Beta, e come tutte le Beta serve anche a capire e migliorare) non è solo un’interfaccia: è un processo di apprendimento distribuito. L’interazione diventa trasparente e coerente con il reale, predisponendo l’esperienza a quello che evolverà in Vision pro e Glass futuri.
  • Dopo Apple: Le Big Tech iniziano a parlare di ambient intelligence e ambient interface. La UX non è più visibile, ma comportamentale.

E poi, Bonus, per non parlare degli impatti della fotocamera e rivoluzione visiva

  • Contesto: Le fotocamere sugli smartphone erano accessorie e non centrali.
  • Apple: trasforma la fotocamera in uno strumento creativo e relazionale (foto, video, FaceTime, AR), con attenzione a software computazionale e qualità.
  • Dopo Apple: tutti i competitor iniziano a investire su AI photography, miglioramento software e sensori evoluti (Samsung ne fa oggi il suo cavallo di battaglia). Il comparto foto/video diventa motore d’acquisto.

L’arte dell’integrazione (e della pazienza)

Apple non è (quasi mai) la prima a inventare una tecnologia. Apple è (quasi sempre) la prima a integrarla in modo tale da trasformarla in un comportamento diffuso, semplice, desiderabile.

Ed il vantaggio competitivo non è solo tecnologico. È esperienziale . Come disse Simon Sinek in un celebre TED Talk: “People don’t buy what you do; they buy why you do it.”

Ogni volta che Apple entra in gioco:

  • rende coerente l’esperienza tra hardware, software e servizi.
  • elimina attriti cognitivi e le frizioni tecniche.
  • costruisce un ecosistema dove ogni prodotto ha senso solo dentro il tutto, nel bene e nel male.

E lo fa con una sensibilità unica per l’interfaccia, per i dettagli invisibili, per il linguaggio. E soprattutto per il contesto.

Il contesto come intelligenza

È proprio qui che entra in gioco l’approccio di Apple all’AI. Nel paper The Illusion of Thinking, Apple “smonta” l’idea che un modello linguistico sia automaticamente “intelligente”, sottolineando come spesso generi illusioni di comprensione prive di reale utilità.

Il report è stato ampiamente criticato: molti lo hanno definito una cantonata, un errore di valutazione, uno studio fuorviante. Ma pochissimi hanno discusso le basi di partenza, dichiarate con chiarezza, e soprattutto lo scopo di quell’analisi. Il vero problema è che tutti hanno guardato il dito, ma non dove Apple sta provando a indicare.

Perché la vera domanda non è “quanto è potente un modello generativo”, ma “quanto può essere utile, efficiente e controllabile nel contesto di un dispositivo reale, personale, limitato in termini di risorse ma sempre acceso e connesso”.

È in quella direzione che Apple a mio avviso sta guardando: l’AI non come entità remota da interrogare, ma come presenza diffusa che si adatta al nostro ambiente e lo anticipa. Una AI capace di vivere sul dispositivo, nel sistema, tra i nostri dati, in modo contestuale, sicuro e trasparente.

Apple non testa modelli per battere benchmark a mio avviso, ma per capire cosa serve davvero quando l’AI deve vivere localmente, sui dispositivi, e adattarsi alla complessità quotidiana dell’utente.

Non si tratterà di avere un assistente. Ma di essere assistiti, senza accorgersene. Non un prompt. Ma un’anticipazione. Non una feature. Ma una nuova grammatica dell’interazione.

L’AI di Apple, secondo me, sarà:

  • invisibile ma presente ovunque: non un’app, ma un layer distribuito.
  • integrata in tutti i livelli di interazione: voce, testo, occhio, gesture.
  • privata per design: non solo marketing, ma architettura.
  • sicura e personale: ancorata al device, non alla nuvola.
  • contestuale e adattiva: in grado di capire se sto lavorando, chattando, leggendo o cucinando.

Questa AI abiliterà un’esperienza di continuità autentica:

  • mi sposto da iPhone ad Apple TV e il contenuto mi segue.
  • inizio una nota su Mac, la finisco a voce su iPad.
  • faccio una ricerca con lo sguardo, continuo con la voce.
  • mentre scrivo una mail, l’AI capisce che sto rispondendo a un problema ricorrente e mi suggerisce un documento interno già condiviso.
  • se sto preparando una presentazione e ho aperto le note di una call precedente, l’AI mi mostra i punti chiave e mi propone slide generate su misura.
  • quando accedo all’auto, sa che ho una conference call tra 15 minuti e mi propone il collegamento via CarPlay.
  • sto parlando con una persona e chiedo di salvare il numero di telefono e mentre me lo dice si attiva.
  • ricevo un messaggio da un cliente, e senza cercare nulla mi propone le tre risposte più coerenti con il mio tono passato.
  • mentre guardo un documento, capisce che sto preparando una riunione e compone in background una scaletta, collegando contenuti, date e allegati già usati.
  • apro il calendario e mentre inserisco un appuntamento, l’AI nota un conflitto implicito (es. tempo di spostamento insufficiente) e propone alternative logistiche.
  • se ascolto una conference call in cuffia, capisce che ho cambiato lingua e inizia la traduzione simultanea senza interruzioni.

E potrei continuare con cose , che in parte già facciamo, con diversi strumenti, con diverse app, ma in un posto, in modo sempre più naturale, integrato e non visibile.

Invece di una AI che si mostra, Apple costruirà una AI che si dissolve nell’esperienza. Che sa cosa fare, quando farlo e soprattutto quando non disturbare.

E mentre tutti cercano di farci credere che l’AI sia un oggetto, Apple studia come farla diventare un ambiente.

Tutti vogliono sapere cosa Apple dirà sull’AI. Io sto aspettando di vedere cosa ci farà fare.

Introduzione sintetica ai Modelli di Base On-Device e Server di Apple

Apple ha presentato Apple Intelligence alla Worldwide Developers Conference 2024. Questo sistema di intelligenza “personale”, praticamente un assistente sempre attivo sul device, sarà integrato completamente in iOS 18, iPadOS 18 e macOS Sequoia e compatibile su device Iphone 15 pro e successivi. Il sistema Apple Intelligence utilizza modelli generativi avanzati, specializzati per compiti quotidiani come la scrittura e la revisione di testi, la sintesi e la priorizzazione delle notifiche, la creazione di immagini per le conversazioni e l’esecuzione di azioni in-app per semplificare le interazioni tra le app.

Ho letto e studiato il paper pubblicato e presente a questo indirizzo con l’obiettivo di chiarirmi e chiarire meglio come funziona questo tipo di approccio.

Modelli di base

Prima di tutto partiamo dai modelli utilizzati. Apple Intelligence si basa su due modelli principali: un modello linguistico on-device con circa 3 miliardi di parametri e un modello più grande basato su server. Entrambi i modelli sono progettati per offrire prestazioni elevate, segregare alcune funzioni demandabili al device e altre ad un sistema fuori dal device e garantire di conseguenza un utilizzo responsabile dei dati e dell’AI, oltre a mio avviso del consumo e impatto.

Modello On-Device

Caratteristiche tecniche:

  • Parametri: Circa 3 miliardi di parametri.
  • Architettura: Basato su architettura Transformer, ottimizzata per l’esecuzione locale su dispositivi Apple.
  • Quantizzazione: Utilizza tecniche di riduzione della precisione, a bassa risoluzione (2-bit e 4-bit) così da ridurre i requisiti di memoria e migliorare l’efficienza energetica.
  • Ottimizzazioni:
    • Grouped-Query Attention (GQA): Riduce i requisiti di memoria e migliora la velocità di inferenza.
    • Palletizzazione: Implementa una configurazione mista di 2-bit e 4-bit per ottenere prestazioni comparabili a quelle dei modelli non compressi.
    • Talaria: Strumento interattivo di analisi della latenza e del consumo energetico per ottimizzare la selezione del bit rate in ogni operazione.
    • Quantizzazione di attivazioni e embedding: Riduce ulteriormente i requisiti di memoria senza compromettere la qualità del modello.

Utilizzo: Il modello on-device è integrato direttamente nei dispositivi Apple (iPhone, iPad e Mac) per gestire compiti quotidiani come:

  • Scrittura e Revisione di Testi: Assistenza nella stesura e modifica di email, messaggi e documenti.
  • Sintesi e Prioritizzazione delle Notifiche: Riassume e organizza le notifiche per migliorare la gestione delle comunicazioni.
  • Esecuzione di Azioni In-App: Automatizza attività e interazioni tra le app per rendere l’uso del dispositivo più intuitivo.

Modello Server-Based

Caratteristiche tecniche:

  • Parametri: Modello con un numero di parametri significativamente maggiore rispetto al modello on-device, progettato per operare sui server Apple Silicon.
  • Architettura: Anche questo modello si basa sull’architettura Transformer, ma è ottimizzato per l’elaborazione su larga scala nei data center.
  • Vocabulario: Utilizza una dimensione del vocabolario più ampia (100.000 token) rispetto al modello on-device (49.000 token), includendo token aggiuntivi per lingue e termini tecnici.
  • Ottimizzazioni:
    • Parallelismo: Impiega parallelismo a livello di dati, tensor, sequenza e Fully Sharded Data Parallel (FSDP) per scalare l’addestramento su vari hardware.
    • Reinforcement Learning from Human Feedback (RLHF): Utilizza algoritmi avanzati di ottimizzazione delle politiche per migliorare la qualità delle risposte del modello.
    • Rejection Sampling Fine-Tuning: Metodo di campionamento con un comitato di insegnanti per migliorare la capacità di seguire istruzioni.

Utilizzo: Il modello server-based è utilizzato per gestire compiti più complessi e intensivi in termini di calcolo, beneficiando delle capacità avanzate dei data center di Apple. Esempi di utilizzo includono:

  • Generazione di Contenuti Complessi: Creazione di testi dettagliati e specifici su richiesta degli utenti.
  • Analisi Avanzata dei Dati: Esecuzione di elaborazioni intensive come l’analisi approfondita dei dati.
  • Supporto ai Servizi Cloud: Fornisce potenza di calcolo per applicazioni e servizi che richiedono un’elaborazione continua e intensiva.

Integrazione nei Processi di Apple Intelligence

Apple Intelligence integra questi modelli in un sistema coeso per offrire una vasta gamma di funzionalità intelligenti. Questo processo coinvolge:

  1. Identificazione del Compito: Riconosce il tipo di attività che l’utente sta cercando di eseguire e decide se può essere gestita localmente o richiede il supporto del modello server-based.
  2. Selezione del Modello: Determina quale modello utilizzare in base alla complessità e ai requisiti del compito. Compiti quotidiani semplici vengono gestiti dal modello on-device, mentre compiti complessi vengono indirizzati al modello server-based.
  3. Esecuzione e Ottimizzazione: Il modello selezionato esegue il compito utilizzando ottimizzazioni specifiche per garantire velocità e precisione.
  4. Risposta e Feedback: Fornisce i risultati all’utente e raccoglie feedback per migliorare continuamente i modelli.
  5. Aggiornamenti e Manutenzione: I modelli sono costantemente aggiornati per migliorare le prestazioni e mantenere la sicurezza.

Questa architettura garantisce che Apple Intelligence possa offrire un’esperienza utente fluida, potente e sicura, sfruttando al meglio le capacità sia dei dispositivi locali che dell’infrastruttura cloud di Apple.

3. Sviluppo responsabile dell’IA

Apple segue una serie di principi di AI responsabile che guidano lo sviluppo di Apple Intelligence:

  • Empowerment degli utenti:
    • Apple si impegna a identificare aree in cui l’intelligenza artificiale può essere utilizzata responsabilmente per creare strumenti che rispondano a bisogni specifici degli utenti.
    • Rispetta le modalità in cui gli utenti scelgono di utilizzare questi strumenti per raggiungere i loro obiettivi, garantendo che l’IA sia uno strumento di potenziamento piuttosto che di controllo.
  • Rappresentazione autentica degli utenti:
    • L’obiettivo di Apple è creare prodotti che rappresentino autenticamente gli utenti di tutto il mondo, evitando di perpetuare stereotipi e bias sistemici.
    • Apple lavora continuamente per identificare e mitigare qualsiasi forma di bias nei loro modelli di intelligenza artificiale, assicurando una rappresentazione equa e inclusiva.
  • Design attento:
    • Apple prende precauzioni in tutte le fasi del processo di sviluppo dell’IA, inclusi il design, l’addestramento dei modelli, lo sviluppo delle funzionalità e la valutazione della qualità.
    • Si impegna a identificare e prevenire potenziali usi impropri o dannosi degli strumenti di IA, migliorando proattivamente questi strumenti attraverso il feedback degli utenti.
  • Protezione della privacy:
    • Apple utilizza processi on-device e infrastrutture come il Private Cloud Compute per proteggere la privacy degli utenti.
    • Non utilizza i dati personali privati degli utenti o le loro interazioni per addestrare i modelli di base, applicando filtri per rimuovere informazioni identificabili come numeri di previdenza sociale o di carte di credito.

4. Addestramento dei modelli

I modelli di base di Apple sono addestrati utilizzando il framework AXLearn, un progetto open-source basato su JAX e XLA, che permette un addestramento efficiente e scalabile.

  • Efficienza e Scalabilità:
    • AXLearn consente l’addestramento su vari hardware e piattaforme cloud, inclusi TPU e GPU sia in cloud che on-premise.
    • Apple utilizza tecniche come data parallelism, tensor parallelism, sequence parallelism e Fully Sharded Data Parallel (FSDP) per scalare l’addestramento su più dimensioni.
  • Strategia Ibrida dei Dati:
    • Apple combina dati annotati manualmente con dati sintetici e implementa procedure di curation e filtraggio rigorose per garantire la qualità del training data.
    • Apple filtra informazioni personali e contenuti di bassa qualità dal corpus di addestramento, utilizzando un classificatore basato su modelli per identificare documenti di alta qualità.
  • Algoritmi di Post-Training:
    • Rejection Sampling Fine-Tuning: Apple utilizza un algoritmo di campionamento con un comitato di insegnanti per migliorare la capacità del modello di seguire le istruzioni.
    • Reinforcement Learning from Human Feedback (RLHF): Un algoritmo avanzato che utilizza la politica di discesa speculare e un estimatore di vantaggio leave-one-out per migliorare la qualità delle risposte del modello.

5. Ottimizzazione

Apple applica una serie di tecniche innovative per ottimizzare i modelli, sia on-device che su server, garantendo velocità e efficienza.

  • Grouped-Query Attention (GQA): Questa tecnica riduce i requisiti di memoria e migliora le prestazioni di inferenza.
  • Quantizzazione:
    • Low-Bit Palletization: Utilizza una configurazione mista di 2-bit e 4-bit per ottenere prestazioni comparabili ai modelli non compressi, mantenendo la qualità.
    • Talaria Tool: Strumento interattivo per analizzare latenza e consumo energetico, ottimizzando il bit rate per ogni operazione.
    • Quantizzazione di Attivazioni e Embedding: Riduce ulteriormente i requisiti di memoria senza compromettere la qualità del modello.
  • Cache KV: Ottimizza l’aggiornamento della cache Key-Value sui motori neurali per migliorare l’efficienza.

6. Adattamento dei modelli

Apple utilizza adattatori, piccoli moduli di rete neurale, per specializzare i modelli per compiti specifici, mantenendo inalterati i parametri originali del modello base.

  • Adattatori (Adapters):
    • Gli adattatori sono integrati nei vari strati del modello pre-addestrato, consentendo una specializzazione dinamica per il compito attuale.
    • I parametri degli adattatori sono rappresentati con 16 bit e richiedono solo pochi megabyte di memoria.
    • Gli adattatori possono essere caricati dinamicamente e gestiti in memoria in modo efficiente, garantendo la reattività del sistema operativo.
  • Infrastruttura per l’Addestramento degli Adattatori:
    • Apple ha creato un’infrastruttura efficiente per addestrare, testare e distribuire rapidamente gli adattatori quando il modello base o i dati di addestramento vengono aggiornati.

7. Valutazione delle prestazioni

Apple valuta le prestazioni dei modelli tramite benchmark e valutazioni umane, concentrandosi sull’utilità per l’utente finale.

  • Benchmarking:
    • Apple utilizza un set completo di prompt reali per testare le capacità generali del modello, coprendo categorie come brainstorming, classificazione, codifica, ragionamento matematico e sicurezza.
    • Le valutazioni dimostrano che i modelli Apple spesso superano i modelli comparabili in termini di accuratezza e capacità di seguire le istruzioni.
  • Valutazioni di Specifiche Funzionalità:
    • Apple utilizza adattatori per ottimizzare le prestazioni su compiti specifici, come la sintesi di email, messaggi e notifiche.
    • Le valutazioni includono anche test su set diversificati di input rappresentativi dei casi d’uso reali.

8. Risultati di performance

Le valutazioni mostrano che i modelli Apple sono preferiti dai valutatori umani rispetto ai modelli concorrenti in vari compiti.

  • Comparazione con Modelli Competitor:
    • I modelli on-device di Apple con ~3 miliardi di parametri superano modelli più grandi come Phi-3-mini, Mistral-7B, Gemma-7B e Llama-3-8B.
    • I modelli server di Apple si confrontano favorevolmente con modelli commerciali come GPT-3.5, GPT-4 e Llama-3-70B, risultando più efficienti e sicuri.
  • Risultati di Sicurezza:
    • Apple utilizza prompt diversificati e avversariali per testare le prestazioni dei modelli su contenuti dannosi e argomenti sensibili, raggiungendo tassi di violazione inferiori rispetto ai modelli open-source e commerciali.
  • Benchmark di Instruction-Following (IFEval):
    • I modelli Apple dimostrano capacità superiori nel seguire istruzioni dettagliate rispetto ai modelli di dimensioni comparabili.
  • Benchmark di Scrittura e Sintesi:
    • I modelli Apple sono valutati positivamente nelle capacità di sintesi e composizione, ottenendo punteggi elevati nelle valutazioni interne.

Apple Intelligence, presentata alla WWDC 2024, è profondamente integrata nei dispositivi Apple e offre capacità potenti in ambito linguistico, visivo e di azione, sviluppate responsabilmente e guidate dai valori fondamentali di Apple. I modelli di base e gli adattatori garantiscono prestazioni elevate e sicure, migliorando l’esperienza utente in vari compiti quotidiani. Apple continuerà a condividere ulteriori informazioni sulla famiglia di modelli generativi, inclusi modelli linguistici, di diffusione e di programmazione.

A questo indirizzo è possibile leggere i paper integrale e la documentazione ufficiale. Vale la pena sse avete interesse e tempo di leggere tutto lo studio che in questo post ho sinteticamente riportato.

Progettare per Apple Vision Pro. Primi passi nello Spatial Computing e le prime lezioni imparate

Come scrivo da giorni, son circa 3 mesi che studio e sperimento in ambiente di sviluppo e test per Apple Vision Pro (nelle prossime ore mi arriverà il mio primo visore, di due, che ne ho acquistato). Non c’è dubbio che fin dall’ambiente di sviluppo, e senza ancora aver avuto modo di fare lunga sperimentazione con l’oggetto fisico – a parte un test di 15 min a Dicembre – il nuovo dispositivo presenta una serie di nuove sfide progettuali, rispetto ad altri visori e rispetto al mondo IOS, da considerare, e che non sono del tutto scontate.

Partiamo da un punto a mio avviso fondamentale:

La forza di Vision Pro non è l’hardware ( o meglio non solo e non soprattutto ), ma bensì la visione e la concezione che porta con se a livello di sistema e approccio.

Proprio come ho scritto qui . Detto questo qui di seguito riporto alcuni appunti che in questi mesi ho preso durante la progettazione from scratch per Apple Vision Pro.

Vision Pro non è un comune visore AR/VR

L’arrivo di Apple nel mercato dell’AR è un tema di discussione, e attesa, di lungo termine e fino a poco tempo fa non c’erano informazioni specifiche per poter iniziare a ragionare su cosa volesse dire progettare per questo device. Per esperienza il processo di migrazione di un applicativo tra diversi visori, cosi come succede tra diversi device smartphone con OS differenti, implica l’adattamento di più parti del progetto, dalla UX alle scelte tecniche di sviluppo, nonché in alcuni casi anche servizi per gestire correttamente le dinamiche dell’OS / ambiente di riferimento. Sono pochi i casi che permettono di lasciare il design pressoché inalterato, ma nel caso del VR invece è prassi.

Nel caso di Apple, rientriamo assolutamente nel secondo caso, ossia è un nuovo approccio, ergo è un contesto del tutto nuovo in cui sviluppare applicativi immersivi “per Vision pro“, e non “anche per Vision Pro“.

Da documentazione Apple è palese fin da subito che non si parla di AR / VR, ma di Spatial Computing. Di questo in questi giorni ne ho già ampiamente parlato e scritto,  e anche se per molti può sembrare solo marketing, a mio avviso ci sono alcune differenze reali nel modo in cui questo visore è progettato rispetto a Quest 3 e altri visori provati negli ultimi due anni.

Un ambiente di sviluppo, per diverse modalità

Per prima cosa in questo contesto è importante definire le tipologie di applicazioni sviluppabili. In particolare in Vision Pro ci sono tre tipi di app che si possono sviluppare: windowed, bounded e unbounded (sono termini ereditati da Unity). Nel contesto dell’Apple Vision Pro, i tre approcci alla progettazione di applicazioni rappresentano modi differenti di sfruttare le capacità di spatial computing del dispositivo. Questi approcci definiscono come l’applicazione interagisce con lo spazio dell’utente e il grado di immersività. 

  • Windowed: le applicazioni “windowed” sono quelle che appaiono agli utenti come finestre fluttuanti nello spazio davanti a loro, in modalità Passthrough, simili a come le finestre appaiono su un computer desktop tradizionale. Questo approccio consente agli utenti di interagire con l’applicazione in un formato rettangolare 2D, mantenendo contemporaneamente la consapevolezza dell’ambiente fisico. È l’opzione meno immersiva tra le tre, ma offre grande flessibilità e può essere particolarmente utile per applicazioni che non richiedono un’esperienza completamente immersiva o per quelle che devono essere eseguite in parallelo ad altre attività, in multi tasking praticamente.
  • Bounded: le applicazioni “bounded” sono progettate per operare all’interno di un volume definito, o “bounded space”, nello spazio fisico dell’utente. Questo significa che l’app crea un’esperienza 3D immersiva che gli utenti possono esplorare o interagire entro i limiti di uno spazio virtuale delimitato. Il volume può essere visualizzato come una porzione di spazio virtuale che coesiste con il mondo reale, permettendo agli utenti di muoversi e guardarsi intorno all’interno dei confini definiti. Questo approccio è più immersivo rispetto alle applicazioni windowed, offrendo un’esperienza che sfrutta la percezione dello spazio 3D pur essendo ancorata a un’area specifica del mondo reale.
  • Unbounded: le applicazioni “unbounded” rappresentano il livello più elevato di immersione, in cui l’esperienza virtuale non è confinata da limiti spaziali definiti. In questo scenario, l’app può trasformare l’intero ambiente circostante dell’utente in uno spazio di gioco o di lavoro virtuale, permettendo interazioni e movimenti virtuali senza restrizioni spaziali. Questo approccio è ideale per esperienze di realtà aumentata o virtuale che intendono sostituire o trasformare completamente la percezione dell’ambiente fisico dell’utente, offrendo la massima libertà nell’esplorazione di mondi virtuali.

Ogni approccio ha i suoi vantaggi specifici e la scelta tra windowed, bounded e unbounded dipende dagli obiettivi dell’applicazione, dalle esigenze degli utenti e dal tipo di esperienza che si desidera creare. L’Apple Vision Pro, in questo modo offre agli sviluppatori la flessibilità di esplorare questi diversi approcci per progettare esperienze utente innovative e coinvolgenti.

Un approccio flessibile e unico (per adesso)

Tecnicamente non c’è una netta divisione in questo contesto di sviluppo. Da parte di Apple, ci sono finestre o volumi (oggetti ed entità) che possono apparire in modalità Shared Space o Full Space, in Passthrough o in un ambiente VR completamente immersivo. Un’app nel caso di Vision pro può combinarli tutti insieme, in vari modi.

Faccio degli esempi per rendere meglio l’idea. Nel caso di Apple è possibile per esempio sviluppare un gruppo di finestre, che si combinano con un gruppo di volumi, in uno spazio Full o Shared. In questo caso si può passare da uno all’altro, a seconda delle esigenze dell’utente, e si possono creare dinamiche di interazione e spostamento particolari: la vera distinzione da è tra il come il contenuto è rappresentato ( finestra 2D o volume 3D) e in quale spazio si trova (condiviso con altre app o non condiviso), e soprattutto se è in Passthrough o in VR completo. Molte applicazioni per necessità o precedenti sviluppi in altri ambienti e device nascono con modelli vincolati, mentre nel caso di Apple, se si vuole mantenere una completa flessibilità la soluzione più semplice (e probabilmente corretta) è utilizzare in modalità Full Space. L’unico caso che diventa veramente vincolate e inibisce alle applicazioni di poter esser gestite contemporaneamente ad altre è lo sviluppo Unbounded/Full Space, che ha di per se molti vantaggi, ma ha lo svantaggio principale che l’utente appunto non può aprire applicazioni una a fianco all’altra.

In pratica se vogliamo realizzare applicazioni che permettano all’utente in contemporanea di leggere la posta, navigare in internet, ascoltare musica, guardare un video, giocare e fare qualsiasi altra cosa dobbiamo realizzare app bounded e in uno spazio condiviso. Questo tipo di soluzione di sviluppo, che dal possibilità di utilizzo senza soluzione di continuità, da la sensazione di essere magica. E questa cosa per adesso la si può fare solo in Apple Vision Pro.

Quando Apple menziona lo Spatial Computing in pratica non parla di AR o VR, ma si riferisce esattamente a questo.

Apple Vision pro è “un computer indossabile”. E non lo dico solo per un tema di hardware o caratteristiche tecniche, ma per via dell’ecosistema che Apple vuole integrare e lo scopo che vuole raggiungere: un dispositivo, come un computer personale, indossato sulla testa, con cui puoi fare tutto, ovunque.

Scegliere quindi in quale spazio si trova l’app, a mio avviso è la prima fase della progettazione dell’esperienza dell’applicativo che si vuole sviluppare e che consentirà al progetto di poter sfruttare a pieno le potenzialità del visore. Non c’è dubbio che allinearsi alla visione di Apple, come successo negli anni con le linee progettuali dettate da Apple stessa per IOS, possa accelerare lo sviluppo e trovarsi esattamente a progettare nel corretto paradigma – approvato da Apple appunto – e su cui il visore di fatto nasce.

La differenza dei controlli tra Apple Vision Pro e gli altri sistemi

Una delle cose che mi ha sorpreso negli ultimi anni è quanto i giochi VR possano essere accessibili ai non giocatori, per quanto il numero di visori e la diffusione dei giochi VR non sia ancora così estesa. Uno dei motivi della semplicità d’uso a primo impatto è senza dubbio il controllo all’interno del gioco, ossia per la VR è viene chiamato controllo diretto. Questo è un modo elegante per dire che giochi attraverso l’incarnazione diretta e questa forma di controllo è estremamente intuitiva, perché tutti sanno come usare il proprio corpo.

All’interno del Vision Pro, il paradigma di controllo è differente. In Vision pro le cose con cui puoi interagire le guardi e poi le pizzichi. In pratica è come se gli occhi fossero il puntatore del mouse e al tuo pizzico delle dita il clic sul tasto sinistro. Questo è quello che Apple chiama il controllo indiretto. Se il controllo diretto è intuitivo, il controllo indiretto all’inizio lo è un po’ meno.

I concetti di controllo diretto e controllo indiretto si riferiscono quindi a due diversi modi in cui gli utenti possono interagire con le interfacce digitali, in particolare nel contesto di dispositivi come l’Apple Vision Pro e altri sistemi di realtà aumentata o virtuale.

  • Controllo Diretto: il controllo diretto si basa sull’interazione fisica e intuitiva con l’ambiente virtuale. In pratica, significa che le azioni dell’utente nel mondo reale vengono mappate direttamente nel mondo virtuale in modo uno a uno. Ad esempio, se in un gioco VR l’utente vuole afferrare un oggetto, estenderà la mano e lo prenderà proprio come farebbe nella vita reale. Questo approccio è definito “diretto” perché l’azione compiuta ha un corrispettivo immediato e intuitivo nell’ambiente virtuale, rendendo l’esperienza di gioco o l’interazione estremamente naturale e accessibile anche per chi non è abituato ai videogiochi. La tecnologia di tracking di movimento, come il tracciamento delle mani e dei movimenti del corpo, è cruciale per questo tipo di controllo.
  • Controllo Indiretto: il controllo indiretto richiede invece un’azione che non corrisponde fisicamente all’azione che si verifica nel mondo virtuale. Utilizzando l’esempio dell’Apple Vision Pro, gli utenti interagiscono con l’ambiente virtuale guardando gli oggetti e compiendo un gesto specifico, come un pizzicotto, per selezionarli o interagire con essi. In questo caso, lo sguardo dell’utente funziona, come detto, come un cursore del mouse, e il “clic” delle dita sostituisce il mouse. Questo metodo è considerato “indiretto” perché c’è una disconnessione tra l’azione fisica e il risultato nell’ambiente virtuale; l’utente non tocca o afferra fisicamente l’oggetto, ma usa un’interazione basata su gesti per controllarlo.

Scegliere tra un controllo diretto o indiretto

Non c’è dubbio che la modalità in controllo indiretto debba esser appreso dall’utente poiché, almeno nella fase iniziale, non risulta naturale, soprattutto se paragonata ad altre esperienze di altri visori per gli utenti che hanno già avuto altre esperienze.

Ma questa fase di apprendimento, l’abbiamo già vissuta più volte e non è stato un disastro, anzi:

  • le levette analogiche introdotte per la prima volta nei videogiochi
  • il cursore del mouse e la sua interazione con il sistema operativo
  • lo swipe di apple per lo sblocco del cellulare per per le diverse interazioni

Ogni nuova interazione porta con se una nuova fase ed una nuova curva di apprendimento. E non necessariamente è un male.

Ora, rispetto il punto è “scegliere tra un controllo diretto o indiretto”. Ovviamente la prima riflessione è che a seconda del tipo di sviluppo che si affronta è corretto pensare di sviluppare differenti tipologie di interazione, o eventualmente supportare sia il controllo diretto che quello indiretto.

I sistemi di interazione indiretta a mio avviso prenderanno popolarità per la loro versatilità e capacità di adattarsi soprattutto alla pigrizia umana, offrendo un’interfaccia concettualmente trasparente che permette di compiere molteplici azioni con minimi spostamenti nel mondo reale. Questo tipo di controllo diventa essenziale in ambienti con spazi limitati, dove l’interazione diretta fisica è impraticabile, e aggiungo in contesti in cui l’utilizzo del visore è in condizioni di lavoro “stabili” ed il visore è il sostituto di un equipaggiamento fatto di pc, device mobile e monitor. In tali contesti, gli utenti interagiscono con il sistema da una certa distanza, rendendo le azioni simili all’uso di un mouse in un ambiente 2D, ma con la tecnologia che interpreta automaticamente la profondità e l’orientamento desiderato. Questo approccio consente una partecipazione efficace e comoda in progetti complessi senza la necessità di movimenti ampi o fisici, adattandosi perfettamente a situazioni dove lo spazio è un vincolo.

In pratica progettare per il controllo indiretto significa tornare a progettare nel modo in cui si farebbe per un mouse o un controller. Invece di mappare il movimento fisico del giocatore uno a uno nel mondo virtuale, va ripensato in modo che una piccola quantità di movimento abiliti un ampio spazio di possibilità nello spazio di interazione. Questo schema di controllo si basa molto sul tracciamento degli occhi.

Tracciamento Oculare, tra punti di forza e debolezze

Il tracciamento oculare del Vision Pro è sicuramente molto efficace e preciso, seppur tecnicamente non sbagli mai su punto in cui gli occhi sono puntati, il modo in cui deve esser implementato e utilizzato ha ancora delle debolezze (che non ho dubbi verranno migliorate).

Prima di tutto il tracciamento oculare come metodo di input presenta un potenziale limite legato alla necessità di eseguire azioni in modo sequenziale, a causa della limitazione naturale di poter focalizzare visivamente un solo elemento alla volta. Questo implica che, nonostante la potenziale rapidità e intuitività dell’interazione visiva, gli utenti sono vincolati a comunicare le loro intenzioni al sistema in una sequenza temporale definita. Questo vincolo può limitare la capacità di multitasking, in particolare in contesti dove l’efficienza e la simultaneità delle azioni sono cruciali. È possibile organizzare le interazioni in modo che consentano una forma di multitasking sequenziale, ad esempio attraverso l’uso combinato di input visivi e gestuali che permettono di gestire diversi elementi quasi contemporaneamente.

Secondo tema è relativo alla percezione visiva umana, caratterizzata da rapidi e brevi movimenti degli occhi che spostano il punto di focalizzazione, introduce ulteriori complicazioni nel tracciamento oculare. Questi aspetti biologici possono distorcere la corrispondenza tra l’intenzione dell’utente e il punto effettivo di focalizzazione, portando a discrepanze tra dove l’utente crede di aver guardato e dove i suoi occhi si sono effettivamente mossi. Questo fenomeno può causare interazioni imprecise o non intenzionali, sottolineando l’importanza di considerare le peculiarità della visione umana nella progettazione di interfacce basate sul tracciamento oculare. La sfida che vedo è quella di progettare sistemi che tengano conto di queste limitazioni, minimizzando gli errori e migliorando l’esperienza utente attraverso un’interpretazione accurata delle intenzioni visive.

Da considerare infine è l’ottimizzazione delle interfacce di tracciamento oculare ed in particolare va fatta molta attenzione al tempo di reazione richiesto nell’interazione, alla disposizione spaziale degli elementi interattivi e ai falsi positivi. Minimizzare la possibilità di azioni non intenzionali e ridurre l’impatto degli errori diventa fondamentale per mantenere un’esperienza utente positiva, fluida e che non generi frustrazione. Strategie come la distanza minima tra gli elementi interattivi e la conferma delle azioni critiche possono mitigare le conseguenze degli errori e migliorare significativamente l’usabilità. La progettazione di interfacce , soprattutto in un contesto immersivo / sensoriale deve quindi bilanciare l’introduzione di esigenze tecnologica e comportamento umano, al fine di creare sistemi di interazione che siano sia avanzati che intuitivi.

Personalizzazione dell’esperienza utente su Apple Vision Pro

Un aspetto fondamentale nella progettazione di applicazioni per Vision Pro è l’importanza di offrire esperienze altamente personalizzabili. Nell’era del computing spaziale e dell’iperpersonalizzazione, la UX si trasforma richiedendo un approccio che vada oltre la “semplice” navigazione tradizionale. Lo sviluppo deve pertanto considerare che il design possano adattarsi non solo alle diverse modalità di interazione (diretta e indiretta), ma anche alle preferenze individuali degli utenti. La capacità di modificare impostazioni quali la scala di visualizzazione, la sensibilità dei controlli o gli schemi di colore diventa cruciale per accogliere un pubblico ampio e diversificato. Questo livello di personalizzazione non solo migliora il comfort e l’usabilità, ma incoraggia anche un maggior grado di immersione e soddisfazione dell’utente, ed accessibilità.

Game Design per l’Immersività Spaziale

Nel contesto di Vision Pro, il game design assume nuove dimensioni, spingendo lo sviluppo a forme di esplorazione innovative e meccaniche di gioco che sfruttino appieno le capacità dello spatial computing. La progettazione di giochi in ambienti windowed, bounded e unbounded offre opportunità senza precedenti per creare esperienze ludiche che si intrecciano con l’ambiente fisico dell’utente. Questo richiede una riflessione approfondita su come gli elementi di stimolo possano esser applicati per far emergere ed attivare comportamenti ed interazioni all’interno di spazi reali e virtuali, in un continuo di esperienza. Elementi come la realtà aumentata dinamica, gli oggetti interattivi che reagiscono alla presenza fisica e ai movimenti dell’utente, l’interazione con oggetti fisici, sensori e la narrazione che si adatta all’ambiente circostante, pongono le basi per una nuova era del game design, dove l’ambiente stesso diventa un componente chiave del gameplay.

Lo spazio condiviso: ottimizzazione e integrazione

Nella progettazione di applicazioni che utilizzano lo “spazio condiviso” diventa importante e fondamentale considerare l’impatto sulla potenza di calcolo del dispositivo e sul carico cognitivo degli utenti. Le applicazioni in questi contesti non operano in isolamento (ossia in modalità unica) ma coesistono con altre applicazioni, condividendo di conseguenza le risorse limitate come la potenza di elaborazione. Questo implica la necessità di ottimizzare le prestazioni senza presupporre l’accesso esclusivo alle risorse del sistema. Allo stesso tempo, è essenziale progettare esperienze che non sovraccarichino l’utente, lasciando spazio cognitivo (in modo fagocitante) per altre attività parallele, sottolineando l’importanza di un design che sia efficiente e non invadente.

Il concetto di spazio condiviso estende la sua rilevanza ed importanza progettuale anche al tema sonoro delle applicazioni. Nello sviluppo di un applicativo devono esser bilanciate la creazione di un contesto ambientale sonoro coinvolgente e la consapevolezza che esisteranno altri suoni nell’ambiente dell’utente fisico circostante. Questo richiede un attento lavoro di design del suono che consideri la coesistenza di fonti sonore multiple, garantendo che l’audio dell’applicazione non sia invasivo ma piuttosto si integri armoniosamente con il contesto di utilizzo. Son parecchi i giochi e applicazioni già presenti in altri store VR che non hanno una corretta attenzione progettuale a queste dinamiche.

Sfide e Strategie nello Sviluppo per Piattaforme Avanzate

Ultimo tema da affrontare è relativo alla scelta della piattaforma di sviluppo per un progetto, e qui le opzioni spaziano da ambienti nativi, come Swift per dispositivi Apple, a motori di terze parti come Unity. La decisione dipende spesso dalla familiarità con l’ecosistema e dalla valutazione dei rischi e delle tempistiche di sviluppo del singolo progetto.

Sviluppare nativamente può offrire un accesso diretto alle ultime funzionalità e ottimizzazioni e caratteristiche tecniche del dispostivo stesso e dell’OS (come succede dopo tutto con swift su IOS), ma richiede una conoscenza approfondita della piattaforma. Al contrario, l’uso di motori di terze parti può accelerare lo sviluppo grazie alla loro flessibilità e alla vasta gamma di funzionalità, anche se potrebbe comportare limitazioni in termini di accesso alle funzionalità più recenti e specifiche del dispositivo ed una maggiore dipendenza da aggiornamenti di terze parti.

Le differenze architetturali tra le piattaforme di sviluppo possono presentare complessità differenti: un esempio, in particolare, riguarda lo sviluppo in Unity (e prossimamente anche Unreal) nell’interazione con l’hardware di ogni specifica piattaforma (VisionPro, Quest3, altri) e creare delle discrepanze nella gestione del rendering, conversioni di materiali e shader, e differenze nel modo in cui di conseguenza la logica dell’applicativo interagisce con le API native.

Nello specifico questa fase di approccio alla scelta necessità di una comprensione dettagliata degli ambienti e delle loro peculiarità al fine di ottimizzare le prestazioni e garantire che il progetto funzioni come previsto. Se ci pensate non è diverso da quanto accade quando scegliamo di sviluppare app mobile in nativo o con framework come Flutter o altro.

Le questioni di rendering, in particolare, possono essere complesse, con considerazioni da valutare sull’efficacia in termini di risoluzione, framerate, latenza e come queste influenzano di conseguenza l’esperienza utente.

Last, but not Least… i dati e la privacy

La progettazione di applicazioni più complesse ci mette davanti anche temi da trattare come privacy e l’accesso ai dati, soprattutto in contesti di spazio condiviso. L’accesso a dati ed informazioni sensibili come la posizione dell’utente o il movimento degli occhi può essere limitata per motivi di sicurezza.

Nella fase di analisi di un progetto è importante comprendere fin da subito quali restrizioni dover affrontare bilanciando le necessità funzionali dell’applicativo con il rispetto della privacy dell’utente, cercando soluzioni creative per migliorare l’interazione senza compromettere la sicurezza e quindi danneggiare l’adozione.

Insomma, in questo viaggio appena iniziato vedo una potenzialità enorme, ma soprattutto uno spazio tutto nuovo di possibili progettualità che, ad oggi, nemmeno immaginiamo. Esattamente come quando per la prima volta iniziammo a pensare alla prossima app per iPhone.

Il VisionPro è il secondo device dopo l’Iphone ad avermi stupito

La penso così, come Altman. Lo dico da Dicembre quando ho avuto modo di provarlo la prima volta: il #VisionPro è il secondo device dopo l’Iphone ad avermi stupito per l’impatto potenziale che avrà. Non c’è dubbio secondo me che questo dispositivo segnerà una evoluzione in tutta l’industria e aggiungo in tutte le industrie che lo adotteranno mettendo in discussione nuovi modelli di servizio.

Ci sono diverse cose sottovalutate rispetto a questo device:

  • fa parte di un ecosistema di dispositivi e servizi integrati
  • ha una esperienza d’uso lato ux già nota agli utenti
  • ha una community di sviluppatori enorme e consolidata
  • è di proprietà di un brand in grado di influenzare cambiamenti

Il prezzo e la vendita solo usa non sono un problema come ho già scritto. Anzi sono parte integrante della strategia di barriera all’ingresso, messa appositamente per:

  • avere il tempo di popolare lo store di applicazioni e servizi per non far sembrare il device noiso (come altri e come già successo ad alcuni ecosistemi smartphone)
  • amplificare l’effetto mediatico e creare senso di esclusività
  • trasformare una aspettativa nerd in un desiderio di life style

È il prodotto definitivo? Ovviamente no. Questo non è non sarà l’unico dispositivo, è il primo di un viaggio in una industria dove Apple ha atteso di entrare, pur studiando da anni.

Sarà un prodotto di massa nell’immediato? Sicuramente no. Per adesso. Ci vorrà tempo e maggiore maturità, tecnologica, e di mercato.

Vedremo app e servizi stupidi e futuli? Ovviamente si, come successo anche alle app dell’Iphone e servizi inutili dei primi anni, fallimenti e progetti morti, che però hanno permesso di capire, migliorare e raggiungere il modo in cui utilizziamo oggi il device, come hub.

Avrà altre potenzialità oltre quello che vediamo adesso? Ne sono certo, perché gradualmente capiremo in che modo potremo accedere una realtà sempre più estesa.

Da Lunedì, con l’arrivo del primo dei 2 device che ho preso (si lo so, sembra una follia ma ha un senso, ve lo racconterò) sarò al lavoro proprio su progetti che mettono insieme #SpatialComputing #AI e #Gamification.

Sono elettrizzato come quando mi stava arrivando il primo iphone.

Disney + Epic Games: Un Universo Magico per il Futuro dell’Intrattenimento Digitale

L’annuncio dell’investimento da 1,5 miliardi di dollari della Walt Disney Company in Epic Games è sicuramente una di quelle notizie da far spalancare gli occhi, sia per l’operazione, sia per i brand (e le loro competenze specifiche) che hanno deciso di unire le forze, ma soprattutto per la direzione che questo accordo segna.

Senza dubbio un punto di svolta significativo non solo per le due aziende coinvolte ma per l’intero panorama dell’intrattenimento digitale. Questa mossa, come dicevo, (almeno per me) lungi dall’essere una sorpresa: riflette una tendenza in atto da tempo nel settore, dove le sinergie tra la narrativa tradizionale e le piattaforme di gaming diventano sempre più strette e reciprocamente vantaggiose.

Disney, con la sua incomparabile eredità nella creazione di storie che hanno incantato generazioni, e Epic Games, con il suo ecosistema Fortnite in rapida evoluzione, stanno ponendo le basi di un futuro in cui le esperienze di gioco non sono confinate a semplici sessioni di intrattenimento, ma si espandono in nuovi universi narrativi che offrono modalità per giocare, guardare, fare acquisti e interagire con contenuti, personaggi e storie.

L’integrazione tra i mondi di Disney e Fortnite, supportata dalla potenza di Unreal Engine, di fatto abilita la creazione di un ambiente digitale persistentemente aperto e (potenzialmente) interoperabile. Questo non solo allarga le possibilità di narrazione per Disney a nuovi spazi, ma apre anche la strada ad esperienze virtuali ed immersive di gioco nuove per gli utenti (non solo da consolle e tv).

Questa collaborazione è una risposta diretta alle mutevoli abitudini dei consumatori, in particolare delle generazioni più giovani, che sono costantemente alla ricerca di esperienze di intrattenimento più immersive e interattive. L’integrazione della Vision Pro di Apple nella strategia di Disney, con lo sviluppo recente dell’app per il nuovo store, e in particolare nella sua recente alleanza con Epic Games, è esattamente la chiusura del cerchio nella visione futura dell’azienda, ossia di offrire esperienze di intrattenimento sempre più immersive e coinvolgenti.

Con l’annuncio che Disney+ sarà disponibile sulla Vision Pro di Apple, Disney sottolinea non solo il suo impegno nell’abbracciare le ultime tecnologie ma anche la sua capacità di integrare queste innovazioni per arricchire le sue narrazioni e universi narrativi in modi precedentemente inimmaginabili. Che si tratti di trovarsi al fianco di Tony Stark nel suo laboratorio o di assistere a un tramonto su Tatooine, la tecnologia Vision Pro consente di sfumare i confini tra realtà e fantasia, portando le storie di Disney a un livello di immersione senza precedenti.

La popolarità di piattaforme come Fortnite e Roblox, che stanno già esplorando la trasformazione in hub di intrattenimento, dimostra inoltre un evidente desiderio del pubblico di esperienze che si accavallano tra i confini tra il gioco, la socializzazione e la narrazione.

L’importanza della proprietà intellettuale (IP) in questo contesto è l’elemento ulteriore di strategia da sottolineare. La capacità di sfruttare personaggi e storie familiari in nuovi formati è un fattore chiave per il successo in un mercato dell’intrattenimento sempre più affollato e competitivo, soprattutto in vista del crescente trend dei virtual influencer e la possibilità di governare totalmente il personaggio e la sua immagine come un asset di valore.

La sfida che vedo all’orizzonte per le altre piattaforme e creatori di contenuti è significativa. La domanda di quale tra Fortnite e Roblox (o qualsiasi altro concorrente che possa emergere) diventerà l’hub di intrattenimento dominante potrebbe essere meno rilevante di quanto si pensi. Invece, la vera questione potrebbe diventare come le diverse piattaforme possono coesistere e collaborare per arricchire l’ecosistema dell’intrattenimento digitale nel suo complesso, permettendo ad un utente di “trasferirsi” da un mondo dall’altro senza perdere il valore costruito sul proprio avatar e sulla propria identità digitale.

Non c’è dubbio che questa alleanza Disney & Epic Games non sia solo un affare finanziario di grande impatto, ma un segnale della direzione verso cui si sta muovendo il mondo dell’intrattenimento: un futuro in cui le storie ci circondano in modi sempre più interattivi e immersivi, trasformando il modo in cui viviamo, giochiamo e interagiamo con media e brand.

Possiamo solo aspettarci Universi Magici, immersivi. Siamo di fronte al futuro dell’intrattenimento.

Discover a place where the MAGIC is EPIC.

Vision Pro. Non è una questione di prezzo, ma di viaggio, esperienza ed ecosistema.

Ho preso il Vision Pro.

L’ho pagato tanto? Dipende dal punto di vista.

Se la risposta devo darla come early adopter, no assolutamente, come ogni tecnologia nuova in ogni ambito. Se la guardo come un device alla prima uscita che vuole un posizionamento alto, forse. Se lo confronto con altri device, potrei dire di si, ma dipende con quali device lo volete mettere a confronto.

Saranno mesi, da quando è stato annunciato, che leggo un lamento continuo di blogger, youtuber e commentatori vari riguardo al prezzo dell’Apple Vision Pro. Di cosa stiamo parlando?

L’approccio di Apple nel lanciare i suoi prodotti più iconici è sempre stato evidente. Il Macintosh, l’iPod, l’iPhone e l’Apple Watch hanno seguito tutti una formula introduttiva simile.

È davvero così inaspettato il prezzo di lancio dell’Apple Vision Pro? Il Meta Quest 3 costa $499, mentre l’Apple Vision Pro costa $3499 (più accessori, tipico apple). Ma questo che importanza ha?

Provo a condividervi una provocazione, non troppo lontana dalla realtà, per far capire perché in fondo il confronto è sbagliato, soprattutto sul prezzo e sulla visione. Una bicicletta elettrica ben carrozzata costa circa 2000 euro, mentre una Tesla Model Y ha un prezzo di 45000 euro. Entrambe sono veicoli elettrici che possono portare una persona da un punto A a un punto B.

Nessuno sembra lamentarsi (almeno che io sappia) della differenza di prezzo tra questi due prodotti, perché è ovvio che, nonostante realizzino casi d’uso simili, ogni prodotto è progettato per un tipo di acquirente diverso. Ma soprattutto una esperienza diversa di viaggio.

Il Quest 3 di Meta, grandissimo prodotto e ancora poco utilizzato per le sue potenzialità, è stato progettato per mostrare al mercato e ai consumatori la visione del Metaverso di Mark Zuckerberg. Questo device ha radici progettuali che risalgono all’Oculus Rift, inizialmente rilasciato nel 2016 per i gamer. Anche quando è stato lanciato il primo Oculus Quest nel maggio 2019, il suo principale punto di forza era ancora il gaming.

Il Quest 2, rilasciato nel settembre 2020, ha aggiunto più capacità di calcolo ed elaborazione, ottiche migliori e meno peso, promuovendo l’interazione sociale per migliorare l’esperienza di gioco.

Il Quest Pro, e poi il Quest 3, uscito nell’ottobre 2023, hanno migliorato leggermente il processore, le ottiche e soprattutto le telecamere esterne per offrire un’esperienza di Mixed Reality più efficace, con l’obiettivo di migliorare ancora di più l’esperienza di gioco e stimolare ulteriori interazioni sociali.

L’approccio di Meta per realizzare la visione di Mark è stato quello di offrire ai consumatori un’esperienza simile a Ready Player One e lanciare Meta Horizon Worlds, nella speranza che gli utenti potessero fare il salto nel virtuale. Meta vuole connettere gli utenti.

L’Apple Vision Pro ha un obiettivo diverso, ossia dimostrare la visione di Apple per il futuro dell’ “informatica personale” a chi entra per la prima volta in questo modo. Questo dispositivo non è pensato per il gioco, le interazioni sociali o il Metaverso, ma piuttosto per lo Spatial Computingdi cui si parla tanto ultimamente.

Questo termine si riferisce ad un’interazione avanzata di fatto tra essere umano e device, facendo in modo che l’interazione e l’utilizzo del software venga percepito completamente inglobato e integrato nel mondo reale, intorno al corpo della persona, invece di esser confinato dietro allo schermo di un computer o di un tablet/telefono.

L’Apple Vision Pro è un’estensione dell’ecosistema Apple e offre un’esperienza utente che può essere facilmente trasferita tra un desktop, un laptop, un iPad e un iPhone. Questo dispositivo consente agli utenti di passare senza soluzione di continuità dall’interazione con uno schermo piatto (2D) a un’esperienza spaziale immersiva in 3D. Apple vuole permettere agli utenti di vedere l’integrazione tra fisico e digitale in modo differente.

Il suo pubblico target non sono i giocatori o coloro che cercano il Metaverso (seppur a mio avviso questa è la direzione più prossima al concetto), ma piuttosto gli early adopter, gli appassionati che vivono all’interno dell’ecosistema Apple e desiderano sperimentare la visione di Apple su come gli utenti interagiranno con la tecnologia in futuro.

È il prodotto definitivo? No.

È il prodotto con l’esperienza perfetta? Forse, ancora, no.

È il prodotto con contenuto già adatto all’aspettativa dell’utente? Sicuramente no.

È meglio di Quest 3? Lo potrò valutare tra qualche giorno, dopo aver valutato se sono confrontabili.

Come disse Palmer Luckey, imprenditore di OculusVR, nel 2015 “La realtà virtuale diventerà qualcosa che tutti desiderano prima di diventare qualcosa che tutti possono permettersi“. Palmer ha ribadito questo concetto anche nel 2023 in un’intervista, sottolineando che il prezzo non è importante per i primi utilizzatori.

Il prezzo è il frutto del desiderio ed inoltre una scelta di posizionamento di Apple puntuale di non uscire con un prodotto per tutti, ma per una nicchia, con l’obiettivo inoltre di alimentare l’app store di servizi ed app prima di far accedere la grande massa rischiando altrimenti di creare l'”effetto WindowsPhone” ossia un contenitore senza contenuto ed il conseguente fallimento ed abbandono.

In sostanza, Apple non sta competendo con il Meta Quest 3 o altri visori AR/VR. Per ora.

Apple sta vendendo ciò che ha sempre venduto: innovazione nell’esperienza utente. Proprio come il Macintosh ha introdotto l’esperienza utente grafica alle masse, l’iPod ha portato con sé 1000 canzoni in tasca, l’iPhone ha rivoluzionato l’interfaccia touch e presto l’Apple Vision Pro introdurrà l’informatica spaziale al pubblico.

Ma prima, Apple deve abilitare il desiderio e dimostrare ai suoi early adopter che sarà qualcosa che di diverso prima di concentrarsi sulla sua diffusione al resto degli utenti.

E appena lo avrò tra qualche giorno, vi dirò molto di più.

Vedersi vs Guardarsi: la vera “innovazione” visiva dei visori Vision Pro di Apple

Nel mondo dell’XR (Extended Reality) ogni uscita degli ultimi tempi – di hardware e software che sia – rappresenta un ulteriore passo avanti in un viaggio che negli ultimi anni è sembrato difficile da far partire e che apparentemente è andato a rilento, malgrado la tecnologia abbia fatto evoluzioni a ritmi vertiginosi.

Dalle prime fasi embrionali con Oculus Rift, alla realtà virtuale roomscale di HTC Vive, siamo stati testimoni (e sperimentatori) di un progresso costante che ha continuamente spostato i confini di ciò che sarebbe stato possibile fare con un occhiale sulla testa. Fino ad oggi.

L’arrivo del Quest 3.

In questi giorni ho avuto il piacere di accogliere nella mia collezione casalinga privata il Quest3 di Meta, un dispositivo che si aggiunge alla lunga lista di visori che ho avuto l’opportunità di testare nel corso degli anni e che tutt’ora “colleziono” gelosamente (permettetemi di flexare un po’ 🙂 ): Oculus Rift DK1 e DK2, Oculus Go, Quest, Quest 2 e il – non più recente – Quest Pro, oltre a diversi altri visori di altre marche.

Ogni nuovo arrivo porta con sé una serie di aspettative e potenzialità ed il Quest3 devo dire la verità non mi ha deluso affatto, mostrando sensibili (ed importanti) miglioramenti rispetto ai suoi predecessori.

La prova di Vision Pro.

Però… una delle esperienze più belle (e aggiungerei sorprendente) dell’ultimo periodo , tanto che ci ho messo qualche giorno a metabolizzare, è stata la prova del Vision Pro di Apple.

Ho avuto l’opportunità di testarlo in anteprima – aaargh non ho potuto fare foto purtroppo – con un cliente durante un workshop privato che aveva lo scopo di capire le potenzialità per lo sviluppo di progetti per quelli che saranno “i dipendenti aumentati“, un concetto introdotto da me nell’incontro per spiegare cosa, come e (da) dove collaboreranno le persone in azienda in un futuro ormai non troppo remoto.

La reazione (di tutti) alla prova del visore è stata di stupore (e credo che questo non descriva a sufficienza l’effetto provato) e non vi nascondo di avere avuto la stessa emozione e fibrillazione del mio primo passaggio da Nokia/Blackberry ad IPhone. Malgrado il suo prezzo enorme annunciato di $3.500 e la promessa di disponibilità solo per l’inizio del prossimo anno (2024), il Vision pro rappresenta a mio avviso un ulteriore salto in alto e l’ingresso col botto di Apple nell’innovazione di questo ambito.

Vedersi vs Guardarsi

L’elemento che ha colpito di più la mia attenzione e le mie riflessioni – e che da giorni mi fa riflettere di Vision Pro rispetto agli altri visori sul mercato – riguarda l’interazione occhi-utente.

Mentre la maggior parte dei dispositivi permette di “vedere” il contesto grazie all’introduzione del passthrough e al potenziamento delle telecamere interne, Vision Pro introduce la caratteristica innovativa del “pass-through bidirezionale“, permettendo ad altri di vedere una rappresentazione degli occhi dell’utente e quindi di “guardare” e di “essere guardato“, con un display micro-OLED 4K per occhio. E lo fa appunto anche grazie allo schermo OLED frontale presente sul visore rivolto verso l’esterno.

Per capirci, è come la differenza che c’è nel parlare con qualcuno che indossa occhiali scuri da sole o con qualcuno che ha invece lenti trasparenti: con il primo, c’è una barriera, mentre con il secondo, lo sguardo si fonde in un’interazione autentica e diretta, rendendo l’occhiale praticamente “invisibile” alla percezione dell’utente.

Apple con questo “dettaglio” non si è limitata a migliorare l’esperienza di Mixed Reality: l’ha reinventata. Passare dal vedersi al guardarsi è una rivoluzione apparentemente banale, ma fondamentale. Questo approccio trasforma il visore da un semplice strumento tecnologico a una vera e propria estensione dei nostri sensi, avvicinandolo al concetto di lente piuttosto che a quello di dispositivo.

Leggerezza, design e semplicità.

Ma non è tutto. Vision Pro è incredibilmente semplice. E lo fa con la stessa semplicità di quando Apple ha introdotto per la prima volta lo swipe. Il processo di calibrazione è fluido e intuitivo, come accedere a un iPhone appunto.

Il metallo leggero ed il vetro sul dispositivo – rispetto alla plastica di altri visori – lo rendono uno strumento percepibile come di maggiore qualità e pregio. La leggerezza del design, che si presenta in particolare più come “un visore con fascia” che un “casco” (sensazione che la maggior parte dei visori danno per via dell’elastico sopra al centro della testa… e che spettina capelli e ciuffo di chi si pettina come me), e l’assenza di controller esterni rendono l’esperienza incredibilmente immersiva.

Grazie a una serie di sensori e telecamere (scanner LiDAR, fotocamera TrueDepth) presenti nel visore, si può controllare il dispositivo usando solo mani, occhi e voce. L’eye tracking, in particolare, permette di interagire con l’ambiente virtuale in modo naturale e intuitivo. Il “touch” delle dita sulle icone ha una sensibilità talmente fluida che la sensazione, interagendo, è che con oggetti virtuali siano li, realmente, seppur in assenza però di feedback aptico.

Meta Quest 3 da non sottovalutare.

Nonostante le numerose qualità del Vision Pro, e per quanto non abbia ancora avuto modo di sperimentarlo più in profondità (in fondo ci ho giocato un oretta in tutto), non posso non riconoscere i passi avanti fatti anche dal Quest3, che invece in questi giorni ho potuto testare, usare, giocare e… girarci per casa, passando per pazzo agli occhi di tutta la famiglia!

La sensibilità del Quest3 è migliorata e l’efficacia nel riconoscimento dell’ambiente circostante è notevole ed efficace, e si presta molto per il mondo del gaming, dell’entertainment e dell’immersività più a tutto tondo. Non c’è dubbio che sia un dispositivo che, come ho detto e scritto più volte, può creare cultura e adozione maggiormente massiva anche per via del suo prezzo non proibitivo.

Nel futuro sicuramente c’è Extended Reality (XR)

Certo, non c’è dubbio comunque che Vision Pro abbia alzato il livello, ridefinendo le aspettative per il futuro dell’XR. Ora gli altri dovranno velocemente accelerare e probabilmente riconsiderare alcuni concetti introdotti da Apple che ha dalla sua parte anche un ecosistema unico integrato ed una community / aziende mature e pronte a migrare e sviluppare nuove app.

Tra qualche tempo, un decennio (o forse anche molto meno), ci guarderemo indietro, e la tecnologia di Mixed Reality di oggi ci sembrerà arcaica proprio come la tecnologia di 10 anni fa appare oggi obsoleta.

Una cosa è certa comunque. Quello a cui stiamo assistendo sta mettendo le basi profonde di un cambiamento dell’interazione uomo contesto, e le possibili implementazioni per il futuro sono infinite.

L’AI mangerà il mondo: OpenAI rilascia le API di ChatGPT e Whisper

C’è un momento preciso, come questo che stiamo vivendo, in cui tutto cambia e prende una accelerazione nuova: la creatività, l’intuizione e la capacità progettuale prendono il volo potenziate da strumenti in grado di dare vita – se ben integrati e utilizzati – a tanti nuovi servizi, prodotti, applicativi, processi e tanti modelli di business.

È già successo ed abbiamo già vissuto un momento così.

Era quel lontano 10 Luglio 2008 quando la Apple inaugurò l’app store ed il lancio delle app. Da quella data in poi sviluppatori ed aziende hanno iniziato a produrre software, piattaforme ed app per ogni ambito, industria e business, creando quella che verrà poi chiamata APP Economy.

1 Marzo 2023 OpenAI annuncia il rilascio delle API di ChatGPT e Whisper. Ora tutti potranno iniziare ad implementare quella che sembra esser la prossima più grossa rivoluzione tecnologica di massa all’interno di ogni servizio.

Con la pubblicazione di queste API, i developers possono integrare i modelli di ChatGPT e Whisper nelle loro applicazioni, costruendo applicazioni di conseguenza basate su intelligenza artificiale, più avanzate e potenti che mai, con il  potenziale di trasformare settori interi, dalla sanità e finanza alla vendita al dettaglio e intrattenimento.

Ad esempio, nel settore della salute, ChatGPT potrebbe essere utilizzato per creare infermieri e medici virtuali in grado di aiutare i pazienti a gestire le loro condizioni e fornire loro cure personalizzate. In finanza, Whisper potrebbe essere utilizzato per rilevare frodi e altre forme di reato finanziario, mentre ChatGPT potrebbe essere utilizzato per creare consulenti finanziari virtuali in grado di fornire consigli di investimento personalizzati.

Una società sportiva potrebbe integrare ChatGPT nelle app o sito web per fornire agli utenti notizie e analisi personalizzate sulle loro squadre e giocatori preferiti. Ad esempio, un utente potrebbe chiedere a un chatbot alimentato da ChatGPT: “Quali sono le probabilità che la mia squadra di basket preferita arrivi ai playoff?” ChatGPT potrebbe analizzare le prestazioni recenti della squadra, la forza del loro calendario rimanente e altri fattori rilevanti per fornire all’utente una risposta dettagliata ed accurata. Ciò consentirebbe alla società di media sportivi di offrire un’esperienza più coinvolgente e personalizzata ai propri utenti, aumentando così l’interesse e le entrate.

Un retailer potrebbe integrare ChatGPT nel proprio sito web o app per fornire agli utenti raccomandazioni di prodotto personalizzate. Ad esempio, un utente potrebbe chiedere a un chatbot alimentato da ChatGPT: “Che scarpe mi consiglieresti per la corsa?” ChatGPT potrebbe analizzare gli acquisti precedenti dell’utente, la cronologia delle ricerche e altri fattori rilevanti per fornire all’utente una lista di scarpe consigliate su misura per le loro esigenze e preferenze specifiche. Ciò consentirebbe al brand di offrire un’esperienza di shopping più personalizzata ai propri utenti, aumentando così le vendite e la fedeltà dei clienti.

Riguardo all’annuncio ci sono cose interessanti :

  • Utilizzare ChatGPT tramite API costa 10 volte meno rispetto a GPT-3.5
  • Il sistema utilizza un nuovo modello chiamato GPT-3.5-turbo
  • Non è necessariamente richiesto un’interfaccia di chat.
  • Utilizza un linguaggio di markup chiamato, come non potrebbe essere altrimenti, ChatML

Inoltre, consente di fare una cosa molto interessante che sto ancora cercando di capire bene: consente di inserire nella stessa conversazione, in ogni chiamata, diversi ruoli (la seconda immagine del post, un po’ come nella teoria dei 6 cappelli).

I ruoli sono:

  • Sistema, per guidarti nel tono generale della conversazione.
  • Utente, per le solite richieste dell’utente/sviluppatore.
  • Assistente, per salvare le risposte precedenti.

Questa volta l’impatto sarà ancora più potente.

Il software mangerà il mondo, si diceva. Ora sarà l’AI.

🚀 Pronti ad avere, come successo già con le APP, una Intelligenza Artificiale per tutto?

La pubblicazione di ChatGPT e Whisper API rappresenta un punto fondamentale nello sviluppo dell’ intelligenza artificiale. Con questi nuovi strumenti a disposizione degli sviluppatori e delle imprese, abbiamo il potenziale per trasformare il modo in cui viviamo, lavoriamo e interagiamo con la tecnologia.

Apple, iPhone 6 e l’NFC: Se l’educazione del mercato la fanno gli altri

Ieri è stato presentato, durante il keynote APPLE, il nuovo iPhone 6 con tecnologia NFC. Anche se per molti questo dettaglio è passato in sordina ed in tanti si son concentrati sul design, sulla dimensione, sul prezzo, ed altri dettagli estetico-religiosi, io ritengo che la vera novità (e non parlo di innovazione), che segnerà un nuovo ulteriore cambiamento nel mercato delle APP, dei pagamenti e della progettazione di nuove esperienze di interazione, è proprio qui: la presenza NFC e l’Apple Pay.

Questo può realmente esser l’inizio ed il motivo di una nuova fase di progettazione di nuovi servizi.

In un vecchio post del 2010 dal titolo “NFC: l’ingresso di Apple può fare la differenza” avevo scritto ed ipotizzato, al tempo dell’uscita dell’iPhone5, l’ingresso di Apple nel mondo del contactless. Ovviamente in quella versione di dispositivo l’integrazione non avvenne e sbagliai di fatto la previsione.

Rileggendo a posteriori le mie riflessioni penso di aver centrato quasi tutto (e solo il tempo mi dirà se veramente avevo ragione o meno) e sbagliato solo una cosa: il timing della previsione sull’uscita di NFC.

Nel 2011, prima Juniper Research, poi Gartner avevano decretato, con una serie di report ed analisi, il flop dell’NFC nel medio breve termine ed avevano evidenziato come il ciclo dell’hype sul tema NFC, dopo l’uscita anche di dispositivi Samsung e altri, fosse in totale discesa.

Nel 2013 in effetti, sempre da un report Gartner, emergeva che l’NFC era stato utilizzato in poco meno del 2% del totale delle transazioni. Le nuove previsioni rimandavano al 2015/2017 l’esplosione dei pagamenti contactless.

I motivi di tale “flop”, confermati anche da clienti e banche con le quali mi son trovato a lavorare, e che avevo in parte evidenziato anche nel mio precedente post, erano i seguenti:

  1. Il consumatore doveva esser in possesso di uno dispositivo NFC-enabled, ma la diffusione dei dispositivi era in quel momento molto bassa;
  2. Il punto vendita doveva esser fornito di un terminale NFC, ma se pensiamo ad esempio quanto ci è voluto solo per la sostituzione dei pos da banda magnetica a chip, potete immaginare da soli l’impatto e la criticità della nuova sostituzione;
  3. Il rivenditore doveva esser in possesso di un sistema di back-end in grado per elaborare la transazione e / o abbonarsi a qualcun altro servizio, per esempio un fornitore di servizi finanziari.
  4. Il processo di interazione, sopratutto in una prima fase educativa dell’utente, deve esser più semplice possibile più che mai se si vuole modificare una abitudine dell’utente. La verità è che i sistemi di pagamento nuovi non son stati riprogettati per una nuova interazione ed una nuova esperienza.
  5. Il costo della transazione, al fine di stimolare l’utilizzo da parte dell’utente, dovrebbe essere ragionevolmente migliore sia per il consumatore che per il rivenditore;
  6. Il servizio deve integrare completamente nel processo l’esperienza di pagamento così da evitare fasi morte o possibilità che l’utente scelga un altra modalità per se stesso “più semplice”. Pensate al pagamento del caffè al Bar: che bisogno c’è di dover fare la fila alla cassa se potrei effettuare la transazione al momento della consegna del caffè?
  7. Il consumatore doveva essere presente sul posto per utilizzare lo smartphone (ma qualsiasi acquisto da mobile invece prevedeva una transazione a distanza via SMS, Web mobile o app). Doveva quindi esser colmata una carenza culturale in termini di interazione e nuova modalità di pagamento.

Apple aveva ragione nella gestione del time to market, per l’ennesima volta. Partire per primi non sempre è la cosa migliore, soprattutto in mercati in cui c’è da cambiare completamente la cultura, le infrastrutture, i processi di interazione e spingere all’adozione di un nuovo dispositivo.

In fondo per Apple inserire un pezzettino di ferro con tecnologia NFC dentro i propri dispositivi, poteva mai esser un problema di produzione? A mio avviso, assolutamente no.

C’è da imparare, sicuramente, da tutto questo: Apple non fa educazione del mercato. Apple aspetta che la facciano gli altri, aspetta che una esigenza inizi a diffondersi, che una tecnologia raggiunga un livello di quasi maturità. Poi, quando il mercato è pronto, Apple arriva e lo prende. Come ha sempre fatto. Sembrerà arrogante come approccio, ma è come se facesse “giocare” gli altri con la tecnologia per poi arrivare, migliorare l’esperienza ed entrare su un mercato di massa.

Ed i casi di questo tipo non sono pochi:

  • Napster + Mp3 + Walkman > iPod e Itunes
  • iPod + Telefonini > iPhone
  • Tablet + Sim dati > iPad
  • Cloud + APP > MacStore
  • QrCode + SmartPhone > Passbook
  • Proximity + BLE > iBeacon
  • Wearable > iWatch, Beats 

Ma anche iHealth, iHome, CarPlay su cui si sta già muovendo. E potrei continuare.

L’educazione del mercato, soprattutto per chi si occupa di innovazione, è la parte più onerosa.

Fare educazione significa investire per far conoscere, per far utilizzare e per portare quella innovazione ad ogni utente. Fare educazione costa dal punto di vista della tecnologia: una tecnologia non di massa ha prezzi meno accessibili. Fare educazione costa dal punto di vista della progettazione: immaginate l’interazione, l’ergonomia ed il design da dover far evolvere in funzione dell’utente, della sua cultura e dei nuovi processi. Fare educazione costa dal punto di vista della comunicazione: far conoscere il proprio prodotto vuol dire investire molto.

Se l’educazione del mercato la fanno gli altri, l’opportunità più grande è nel saper migliorare l’esperienza utente e portare il prodotto alla massa, investendo capitali per arrivare a tutti quelli che già sanno di cosa si parla e riuscire ad attivare sugli altri un esigenza indotta.

E per Apple questo passaggio è più semplice: ha un ecosistema hardware-software proprietario e una potenza economica enorme.

In questo nuovo prodotto c’è molto di più di quello che sembra.

C’è un nuovo potenziale composto di mattoncini già messi sotto al naso dell’utente da tempo e altri mattoncini nuovi che vogliono modificare il mondo dei pagamenti: riconoscimento di impronta digitale + Apple Pay + NFC.

Ora siamo alla fine del 2014, ed il 2015 anno del boom NFC, come da previsione anche di analisti, è dietro l’angolo. Ed Apple è arrivata giusto in tempo, non entrando in punta di piedi.