Facebook e l’advertising sempre più profondo: grafo sociale, interessi, luoghi, prossimità e… audio (?)

Posted Posted in PENSIERI SPARSI
Nel 2015 scrissi questo post “L’advertising che verrà: real time, profilato, attivo e a conversione immediata” : Facebook aveva comprato Wit.ai, una startup che trasforma le conversazioni in dati strutturati. Diciamo che tutto faceva pensare ad una analisi della conversazione (testuale o audio/video) sempre più sofisticata e ad un advertising sempre più puntuale e attivo, in grado di portare l’utente verso una azione diretta (prenota, compra, scarica, chiama).
Da tempo come sapete osservo le dinamiche della rete, ed in particolare sono affascinato dalle evoluzioni sempre più sofisticate di Facebook ed il modo in cui riesce a proporre contenuti mirati agli utenti. A volte questi contenuti sono così capillari, da sembrare assurdi “Cavolo ne stavo parlando poco fa!”.
Ho motivato questa capillarità di contenuti più volte, in varie discussioni, come il risultato di due fattori: i dati sempre più dettagliati raccolti sugli utenti e l’attenzione selettiva dell’utente stesso. Infatti se ad un utente proponi cose che potenzialmente gli interessano, al momento giusto, nel posto giusto, e nel contesto giusto, è possibile che a lui cada l’occhio proprio su questo contenuto, malgrado sia uno su N in uno stream complesso e denso. Appunto l’attenzione selettiva dell’utente filtrerà solo le cose che a lui interessano di più.
Per capirci, è un po’ come quando volete sposarvi e vedete tutti contenuti che parlano di matrimonio, o quando volete comprare una macchina e vedete in giro solo quel modello, fino al giorno dell’acquisto. Poi, passata l’esigenza, tutto tornerà alla normalità.
Giorni fa ero con un amico a cena. All’uscita, uscendo, lui apre la sua auto a distanza, e wow! Lui ha una Mini sulla quale è stato implementato un led microscopico sotto lo specchietto che, all’apertura del veicolo, proietta a terra lo stemma ad alta definizione della casa madre. Un po’ come il pipistrello di Batman per capirci, solo che a terra, invece che nel cielo. Ecco, io ne sono rimasto colpito, e ho detto che quel led era una cosa potente e che mi sarebbe piaciuto sulla mia macchina.
Il giorno dopo mi appare su Facebook un contenuto con una Mini, un sensore per l’auto, l’immagine Marvel e tanti piccoli altri dettagli interessanti.
Vi garantisco che non ho cercato Mini, ne tanto meno il sensore, ne tanto meno il sensore Marvel, malgrado la mia fissa, ne tanto meno ero in un luogo in prossimità di un punto vendita Mini.
Quindi, come si può giustificare questa cosa?
Si può giustificare in due soli modi:
  1. Dati + Attenzione selettiva: gli interessi del mio amico (Mini), integrati con la prossimità delle nostre posizioni quella sera, hanno generato un set di dati che ricadevano in modo puntuale nella parametrizzazione della campagna sopra che vi ho mostrato, e quindi il giorno dopo la mia attenzione è caduta proprio su quel contenuto per me interessante.
  2. Ascolto dell’audio: Facebook è in grado di analizzare le conversazioni audio dalle quali estrae contenuti utili alla profilazione.
Però, vi dico una cosa che non vi ho detto: il mio amico in questione non è su FB, quindi questo annulla completamente il concetto di cui al punto uno.
L’unica cosa che mi viene in mente (e su cui mi faccio mille domanda) è se ci sono parole chiave che vengono intercettate dal dispositivo e dall’app, passivamente: non credo che facciano streaming dell’audio (vorrebbe dire un traffico dati in upload enorme), ma l’applicazione potrebbe esser quindi in grado di analizzare suoni e informazioni così da intercettare parole nuove o cardine tanto poi da trasmetterle? Ovviamente è una mia valutazione possibile, ed una mia perplessità, visto che non è scritto da nessuna parte che lo facciano. Non vuol esser paranoia, anche perchè di solito cerco di combatterle.
Questa mattina però ho trovato questo articolo nel mio stream che dice questa cosa:

Facebook using people’s smartphones to listen to what they say, professor suggests

Ora, non voglio fare terrorismo psicologico e capisco che questo sia per qualcuno inquietante, ma fatevene una ragione: l’analisi del comportamento dell’utente è sempre più profonda, integrata in flussi di dati aggregati da più fonti e le informazioni che vi vengono proposte sono sempre più vicine a quello di cui avete realmente bisogno.
A me questi temi affascinano e non ne sono spaventato, ma bisogna esser consapevoli delle potenzialità che ci circondano, sia per comprenderle, sia per governarle, sia per utilizzarle.
UPDATE 05 Giugno 2016
Facebook mi ha scritto per segnalarmi la loro posizione rispetto al tema in oggetto (l’audio in particolare). Ha risposto al mio post e quelli usciti sullo stesso tema con questo post http://newsroom.fb.com/…/facebook… così da tranquillizzare tutti che non c’è intercettazione di audio direttamente dall’app di Facebook. Poi andrebbe verificato anche la stessa dinamica su WA e le altre app dell’ecosistema. Sicuramente i dati che metabolizza sono talmente tanti che allora è in grado proporre contenuti che sono cosi vicino alle preferenze delle persone , da cogliere l’attenzione al momento giusto.

L’advertising che verrà: real time, profilato, attivo e a conversione immediata

Posted Leave a commentPosted in ESPERIMENTI E FOLLIE

Facebook acquisisce Wit.ai, una startup già presente in Y Combinator, fondata 18 mesi fa, con l’obiettivo di trasformare il linguaggio parlato in azioni. In poche parole, il sistema acquisisce uno stream audio, lo converte in testo attraverso un sistema di voice-to-text, trasforma le informazioni della conversazione in dati strutturati ed espone la struttura analizzata tramite API per permettere a sviluppatori di terze parti di integrare nuove funzionalità e dati.

Esempio 1 : impostare la temperature del bagno

Riconoscimento della necessità manifestata dall’utente di impostare la temperature della camera da letto

Ho già letto alcuni articoli, interviste e pareri online e nella maggior parte dei casi il focus della discussione verte sull’importanza della semplificazione per aziende e developer, attraverso API appunto, della possibile integrazione del riconoscimento vocale in applicazioni di terze parti.

Anche dal mio punto vista questo aspetto è particolarmente rilevante, ma di piattaforme che stanno puntando al servizio di integrazione ne esistono altre ed in alcuni casi sono sicuramente più avanzate.

L’opportunità per Facebook potrebbe esser legata all’integrazione con Messenger: immaginate di essere in grado di parlare a mani libere attraverso Messenger,  veder trascritto il discorso in testo, e quindi inviare il messaggio con comando vocale. Fantastico no? Ma non c’è nulla di nuovo in questo.

Google e Apple infatti, come sapete, hanno entrambi i loro sistemi di comando vocale come Siri, ed è già possibile utilizzare il voice-to-text per trascrivere il parlato in testo all’interno delle applicazioni. In entrambe i casi i sistemi però sono progettati per gli esseri umani per permettere di dare ai dispositivi dei comandi vocali più o meno complessi. Facebook potrebbe invece concentrarsi nell’interpretazione del parlato per migliorare le chat tra persone integrando automaticamente emoticon, simboli o riferimenti/azioni.

Il fondatore di Wit.ai nel post in cui spiega l’acquisizione, dice:

Facebook’s mission is to connect everyone and build amazing experiences for the over 1.3 billion people on the platform – technology that understands natural language is a big part of that, and we think we can help.”

Ma il punto non è qui, ed il valore enorme di questa acquisizione è altrove. Mi spiego.

Facebook fino ad oggi non ha fatto acquisizioni  – solo – per generare una nuova esperienza: Facebook fa acquisizioni per fare business, il suo business, e farlo in modo sempre più preciso. Ed il business di Facebook è l’ADV.

L’ha fatto con Instagram aggiungendo allo stream fotografico adv e post sponsorizzati, potendo analizzare i dati di preferenze, i tag e la localizzazione degli utenti. Lo ha fatto con Whatsapp, analizzando le conversazioni private e poter fare retargeting adv su Facebook. Lo ha fatto con Glancee con la geolocalizzazione, oggi anche rilevata dall’applicazione in background per poter proporre nuove amicizie e possibili conoscenze.

Ora arriviamo al punto e partiamo con un esempio: immaginate che a seguito di uno status su FB, di un messaggio su Whatsapp o Messenger in cui l’utente manifesta l’intenzione, con amici taggati, di andare a cena e mangiare un hamburger, a San Francisco.

L’attuale ADV prevede già la possibilità di presentarvi un ADV profilato per le informazioni scritte dall’utente o presenti nel profilo. E anche fin qui nulla di nuovo.

Ma con la nuova acquisizione tutto diventerebbe più completo come segue:Esempio 3 - Prenotare un ristorante per 3 persone

E da un semplice status update, proprio grazie Wit.ai, si avrebbe il dato strutturato in questo modo:

  • Esigenza: andare a cena / prenotare
  • Persone: 3
  • Luogo: Barney’s Burger
  • Data: 27 aprile

Ora immaginate se, invece di apparire il solito ADV con foto e payoff più o meno generico, vi apparisse un adv con action diretta, i dati precompilati e possibilità di prenotazione immediata e conversione senza ulteriori click da parte dell’utente:

unnamed

Possiamo quindi pensare all’ADV come qualcosa non solo di rimando, ma di azione? Secondo me si. Più che mai perchè già Facebook sta testando i tasti con action dirette (book, view, rates..) all’interno delle fan page.

L’advertising del futuro realtime, profilato, attivo (e interattivo) e con la possibilità di conversione immediata (e fortemente misurabile).

E Facebook e Google sono molto avanti, e a mio avviso pronti, per poter realizzare uno sviluppo del genere.