Governance sintetica: sistemi decisionali mediati dall’AI per istituzioni e comunità

Un nuovo capitolo delle decisioni collettive

Un consiglio comunale si riunisce, ma non nel modo consueto. Cittadini, intelligenze artificiali e amministratori si ritrovano su una piattaforma digitale in cui un algoritmo mappa le opinioni, evidenziando sorprendenti punti di consenso. Ciò che un tempo richiedeva mesi di accesi dibattiti ora richiede settimane. Un registro sicuro basato su blockchain registra in modo trasparente ogni suggerimento e voto, visibile a tutti.

In questo scenario di un futuro prossimo, il governo stesso si è evoluto: le decisioni sono guidate dall’intelligenza artificiale, validate su reti distribuite e plasmate da una partecipazione di massa. Questa è la Synthetic Governance in azione – un mondo in cui le nostre scelte collettive sono aumentate e accelerate dalla tecnologia. È un cambiamento intelligente e visionario che potrebbe trasformare tutto, dai consigli comunali alle istituzioni globali.

Ma solleva anche una domanda: come sfruttare AI e blockchain per potenziare la democrazia, senza perdere il tocco umano?

Dal consenso lento alla collaborazione algoritmica

Il modo in cui prendiamo decisioni collettive è a un punto di svolta. I modelli tradizionali di governance – nei parlamenti come nei consigli di amministrazione – spesso arrancano di fronte a complessità, impasse e sovraccarico informativo. Grandi gruppi con obiettivi diversi faticano a collaborare, e gli strumenti convenzionali (sondaggi d’opinione, assemblee pubbliche, analisi manuali dei dati) sono sopraffatti dalla scala e dalla complessità.

Il risultato sono spesso stalli decisionali o politiche in ritardo rispetto ai bisogni della società. Entra in gioco l’approccio dei sistemi decisionali mediati dall’AI: un nuovo metodo che utilizza algoritmi e registri distribuiti per aiutare i gruppi a ragionare e decidere insieme. Grazie alla sua capacità di macinare enormi quantità di dati, rilevare schemi e persino simulare scenari futuri, l’AI offre un modo per superare i dilemmi collettivi. Può analizzare enormi moli di input, comprendere le preferenze di gruppo ed eseguire simulazioni in modi impossibili per gli umani senza aiuto.

Allo stesso tempo, blockchain e altri modelli distribuiti introducono trasparenza e fiducia radicali – ogni voto o decisione può essere verificato, immunizzato da manomissioni e aperto al controllo pubblico.

In sintesi, la Synthetic Governance sposta il focus da un consenso costruito lentamente e in modo frammentario a una collaborazione aumentata in cui umani e macchine elaborano insieme le decisioni. Promette intuizioni più rapide e una partecipazione più ampia, trasformando il decision-making da un’arte del compromesso in una scienza del consenso inclusivo.

I mattoni della Synthetic Governance

Nel suo nucleo, la Synthetic Governance fonde l’intelligenza collettiva con l’intelligenza artificiale. Tre pilastri sostengono questo cambiamento: algoritmi avanzati (AI), registri distribuiti (blockchain) e nuovi modelli di partecipazione.

Il ruolo dell’AI è supportare e potenziare il processo decisionale umano – non sostituirlo. Ad esempio, l’AI può setacciare migliaia di commenti pubblici per riassumere le preoccupazioni principali, oppure modellare l’impatto di una politica su una società simulata prima che venga attuata. Ricerche recenti mostrano persino che l’AI può fare da mediatore nelle discussioni: in uno studio, un sistema AI ha analizzato le opinioni dei partecipanti e generato enunciati di consenso che le persone hanno valutato come più chiari e imparziali rispetto a quelli scritti da facilitatori umani – aiutando i gruppi a trovare un terreno comune e a convergere su prospettive condivise. Questi mediatori AI funzionano come facilitatori virtuali, ampliando il tipo di dialogo produttivo di cui la democrazia ha bisogno.

Il ruolo della blockchain è fornire un’infrastruttura di fiducia. Le tecnologie a registro distribuito abilitano una governance decentralizzata, in cui le regole sono applicate dal codice e la trasparenza è intrinseca. Ne sono un esempio le Decentralized Autonomous Organizations (DAO): utilizzano blockchain, token digitali e smart contract per permettere a comunità di allocare risorse e prendere decisioni senza gerarchie tradizionali.

Nei settori della finanza, della filantropia e delle comunità online, le DAO stanno reinventando il modo in cui vengono governati i processi collaborativi, offrendo potenzialmente maggiore accountability e partecipazione allargata fin dalla progettazione. Una rete di cittadini può votare su proposte con la garanzia che i risultati non saranno manipolati – ogni voto è registrato in modo immutabile sulla catena. Gli smart contract eseguono automaticamente le decisioni (per esempio, sbloccando fondi al verificarsi di certe condizioni) con precisione e senza bisogno di intermediari.

Questa architettura può aumentare la fiducia e l’efficienza nel processo collettivo: i partecipanti sanno che il processo è trasparente e non falsificabile.

Nuovi modelli partecipativi costituiscono il terzo elemento. La Synthetic Governance attinge a innovazioni nelle pratiche democratiche – basti pensare a piattaforme deliberative online, policymaking aperto e metodi di voto innovativi. In tutto il mondo vediamo esperimenti come la democrazia liquida (in cui gli individui delegano dinamicamente i propri voti) e il voto quadratico (che consente alle persone di esprimere l’intensità delle preferenze). Questi metodi, spesso facilitati da strumenti digitali, mirano a rendere la partecipazione più sfumata e inclusiva.

Il filo conduttore è il passaggio verso una “crowdocracy” – un governo attraverso l’intelligenza collettiva di molti, invece che tramite decisioni calate dall’alto. L’AI e l’analitica aiutano a gestire questo flusso di input, identificando le idee chiave o le aree di accordo. L’obiettivo è un’inclusività aumentata: più voci nel dibattito, con algoritmi che garantiscono che nessuna voce vada persa nel rumore. Se progettati correttamente, questi sistemi possono elevare il dibattito riflessivo a scapito delle urla scomposte, concentrando l’attenzione sui fatti e sulle soluzioni piuttosto che sulla disinformazione o le provocazioni.

Ovviamente, comprendere questo cambiamento significa anche essere realistici. AI e blockchain non sono bacchette magiche – riflettono i dati e le regole che forniamo loro. Se i dati sono distorti o incompleti, le raccomandazioni dell’AI potrebbero essere faziose. Se un sistema di voto su blockchain è troppo complesso, potrebbe escludere i cittadini meno esperti di tecnologia. Dunque, la progettazione dei sistemi di Synthetic Governance è cruciale. Devono incorporare fin dall’inizio principi di equità, trasparenza e accessibilità.

Mentre costruiamo queste nuove architetture, la domanda guida diventa: come può la tecnologia amplificare i nostri istinti collettivi migliori (ragione, empatia, equità) e frenare i peggiori (pregiudizio, opacità, esclusione)? Rispondere a questa domanda è fondamentale per comprendere davvero la promessa della Synthetic Governance.

Fiducia, trasparenza e supervisione umana

Al cuore di questo cambiamento c’è un paradosso: stiamo affidando maggiori responsabilità alle macchine, per rafforzare la fiducia umana nelle decisioni.

L’obiettivo centrale della Synthetic Governance è produrre decisioni che le persone considerino legittime, eque e informate. L’AI può aiutare sul fronte informativo – migliorando l’efficienza e la profondità delle analisi – ma fiducia e legittimità dipendono da trasparenza e supervisione umana. Un algoritmo governativo che assegna benefici pubblici, per esempio, potrebbe essere estremamente efficiente; i cittadini, però, hanno pieno diritto di sapere come funziona e se è equo.

La responsabilità non può essere automatizzata – deve essere integrata in questi sistemi e vigilata da persone in carne e ossa. Organizzazioni internazionali come l’OCSE sottolineano che il settore pubblico ha una responsabilità speciale nell’uso dell’AI: questi strumenti devono essere impiegati in modo da minimizzare i danni, evitare bias e proteggere la privacy. Se un sistema AI è una “scatola nera” le cui decisioni non possono essere spiegate, rischia di minare la fiducia invece di accrescerla.

Per questo, un principio cardine della Synthetic Governance è la “trasparenza algoritmica” – rendere il più possibile comprensibile il funzionamento dei sistemi decisionali AI. Ciò può significare pubblicare i criteri con cui un algoritmo prioritizza i progetti infrastrutturali, oppure utilizzare algoritmi open-source che esperti e cittadini possano ispezionare. Alcuni governi stanno istituendo comitati etici per l’AI e registri degli algoritmi (elenchi pubblici degli algoritmi utilizzati dalle agenzie) per garantire supervisione.

L’obiettivo è prevenire problemi come i bias nascosti o le discriminazioni involontarie che, come avvertono gli analisti, potrebbero portare a esiti iniqui con implicazioni sociali gravi. Illuminando il codice, si difende il valore del due diligence in un mondo potenziato dall’AI.

Altrettanto importante è l’inclusione. Un sistema decisionale può essere equo solo quanto lo è la partecipazione che consente. La Synthetic Governance cerca di allargare la partecipazione – ma deve attivamente colmare i divari digitali. Non tutti sono fluenti nel “linguaggio dell’AI” o dispongono dell’ultimo smartphone; non ogni comunità ha uguale accesso a Internet. Senza una progettazione attenta, i processi mediati dall’AI potrebbero privilegiare le voci più alfabetizzate digitalmente o amplificare disuguaglianze esistenti.

Consapevoli di ciò, molte iniziative di Synthetic Governance pongono l’accento su ruoli umani aumentati: ad esempio, la piattaforma vTaiwan di Taiwan prevede facilitatori formati (e persino un ruolo governativo chiamato “Participation Officer”) per garantire che la tecnologia aumenti, anziché rimpiazzare, il coinvolgimento umano

. Nelle migliori implementazioni, l’AI gestisce il lavoro pesante – sintetizzando migliaia di commenti o individuando temi comuni – liberando gli umani per fare ciò che sanno fare meglio: discutere di valori, negoziare compromessi ed empatizzare gli uni con gli altri.

La fiducia è la valuta della governance, e questo cambiamento riguarda l’ottenere fiducia in modi nuovi. Immaginiamo politiche co-create dai cittadini insieme a consulenti AI, o bilanci decisi con input in tempo reale da parte dei membri della comunità tramite sondaggi su blockchain. Tali processi possono apparire più democratici e informati, rafforzando la fiducia – ma solo se i cittadini credono che i sistemi siano aperti e controllabili. Dunque, il nucleo della Synthetic Governance non è la tecnologia in sé; è un nuovo patto sociale attorno alla tecnologia.

Accettiamo di introdurre algoritmi e reti nei nostri processi decisionali, ma in cambio ci aspettiamo maggiore trasparenza, equità e decisioni basate sui fatti. Il mantra potrebbe essere: potenziare la governance, non automatizzarla. Gli esseri umani restano nel circuito come decisori finali, guidati dalle intuizioni dell’AI ma anche dai principi etici e democratici che la tecnologia da sola non può garantire. Se si trova questo equilibrio, la Synthetic Governance può produrre decisioni non solo più intelligenti, ma anche più degne della nostra fiducia.

Strategia, policy e design reinventati

Ciò che nasce nei forum governativi e nelle comunità online non vi rimane confinato – gli effetti a cascata della Synthetic Governance si estendono in lungo e in largo. Sul fronte della strategia, organizzazioni di ogni tipo stanno apprendendo da questi nuovi paradigmi decisionali. Le imprese, ad esempio, stanno adottando la pianificazione strategica assistita dall’AI per rendere le decisioni più adattive. Invece di affidarsi all’intuito o a piani quinquennali statici, i leader utilizzano simulazioni con agenti virtuali per stress-testare le strategie in condizioni variabili. Ne deriva un passaggio dalla strategia come tabella di marcia fissa alla strategia come processo di navigazione in continuo apprendimento. Si diffonde il portfolio planning (sviluppare opzioni strategiche alternative) e l’adattamento in tempo reale basato sui dati.

I principi della Synthetic Governance – apertura a input diversificati e adattamento fondato su evidenze – stanno trasformando la strategia in uno sforzo collaborativo e dinamico. Un’AI potrebbe segnalare deboli “segnali anticipatori” di cambiamento (ad esempio, una nuova preferenza dei consumatori o un rischio geopolitico emergente) permettendo a aziende o governi di reagire proattivamente.

L’impatto ampio è che il processo decisionale diventa più orientato al futuro e resiliente, sia nelle politiche pubbliche sia nelle strategie aziendali.

Nelle politiche pubbliche stiamo assistendo ai primi passi di una governance anticipatoria. I governi stanno inserendo strumenti previsionali potenziati dall’AI nel ciclo di policy-making. Si pensi ai “laboratori” di simulazione normativa: prima di implementare una nuova politica, i regolatori possono simularne gli effetti su una popolazione virtuale. Si sta valutando l’introduzione di un reddito di base universale? Lo si può simulare per capire come reagirebbero milioni di famiglie a livello economico.

Questo approccio, supportato dall’AI, può rivelare in anticipo conseguenze indesiderate, portando a progettare politiche più intelligenti. Istituzioni come la Commissione Europea e l’OCSE hanno creato unità di foresight strategico che utilizzano la modellizzazione di scenari e l’analisi dei dati per elaborare politiche robuste a diversi scenari futuri. L’ethos sta passando da una governance reattiva (“aggiustare i problemi dopo che si manifestano”) a una governance proattiva (“progettare politiche capaci di reggere agli shock futuri”).

Le politiche diventano così più guidate da evidenze e collaudate in scenari. Inoltre, l’aspetto deliberativo della Synthetic Governance significa che le politiche guadagnano legittimità: quando i cittadini vedono che le loro opinioni o i loro dati hanno concretamente plasmato una legge – tramite una consultazione online o una proposta crowdsourced adottata grazie all’analisi dell’AI – saranno più propensi ad accettarla e supportarla.

Sul versante del design – inteso sia come progettazione di sistemi sia di servizi e prodotti – l’influsso è profondo. Consideriamo come si progetta un processo di coinvolgimento pubblico o una piattaforma digitale per la partecipazione. L’emergere della mediazione AI richiede ai designer di dare priorità a esperienza utente, equità e chiarezza. Ad esempio, i progettisti della piattaforma Polis di Taiwan hanno dovuto assicurarsi che l’interfaccia incoraggiasse il consenso, non il conflitto: hanno deliberatamente impedito le risposte dirette ai post per evitare flame war, visualizzando invece le aree di accordo

È una nuova sfida di design all’incrocio tra tecnologia e sociologia. In pratica, stiamo progettando per l’intelligenza collettiva. Emergono concetti come la UX della governance: quanto è facile per un cittadino comprendere e interagire con un’assemblea virtuale facilitata dall’AI? Come presentiamo le intuizioni generate dall’AI in modo che le persone le trovino affidabili e non di parte? Il cambiamento più ampio qui è che designer, architetti di politiche e tecnologi devono lavorare insieme. Le soluzioni sono interdisciplinari: un po’ di data science, un po’ di economia comportamentale, un po’ di design civico.

Vediamo l’emergere di framework concreti da think tank e gruppi civic tech. Ad esempio, linee guida etiche di design per algoritmi pubblici insistono su trasparenza e progettazione human-centric, garantendo che, anche se le decisioni diventano guidate dai dati, restino comprensibili ed eque per le persone coinvolte.

Dobbiamo citare anche le riforme legali e istituzionali come parte di questo ampio cambiamento. Le nostre leggi e burocrazie non sono state create per AI e blockchain. Ora si stanno aggiornando. I Paesi stanno sviluppando quadri normativi per l’AI (ad esempio, l’AI Act dell’UE) per regolare come l’AI può essere usata in ambiti delicati. Analogamente, sul fronte di blockchain e DAO, c’è uno sforzo per chiarire lo status giuridico – chi è responsabile se “il codice è legge”?

Il World Economic Forum rileva che senza definizioni legali chiare, i partecipanti delle DAO affrontano incertezze (es. potrebbero avere responsabilità legali per decisioni prese collettivamente?). In risposta, stanno emergendo nuove politiche – alcune giurisdizioni ora consentono alle aziende di registrarsi come DAO o riconoscono gli smart contract come strumenti legali. In sostanza, stiamo ripensando le istituzioni di governance per adattarle a queste tecnologie. Ciò comporta l’istituzione di guardrail (per prevenire abusi come la discriminazione algoritmica o gli exploit negli smart contract) e di fattori abilitanti (come sistemi di identità digitale affinché i voti online siano sicuri e verificabili).

La visione a lungo termine è una fusione armoniosa tra vecchio e nuovo: principi e diritti costituzionali codificati o rispettati nei sistemi algoritmici, e sandbox normativi agili dove le innovazioni nella governance possono essere testate in sicurezza.

In sintesi, il cambiamento più ampio introdotto dalla Synthetic Governance va ben oltre esperimenti isolati – sta influenzando il modo in cui pianifichiamo, elaboriamo politiche e progettiamo i processi di governance. La strategia diventa più adattiva e guidata dai dati; la definizione delle politiche diventa più partecipativa e resiliente al futuro; la progettazione di tecnologie civiche diventa cruciale quanto le politiche stesse.

Si tratta di una trasformazione olistica della cultura della governance, che unisce la velocità e il rigore degli algoritmi con la saggezza e i valori delle comunità umane. Man mano che questo cambiamento si diffonde, potremmo scoprire che non solo governi e organizzazioni prendono decisioni migliori – ma forse ricostruiscono anche la fiducia pubblica, pezzo dopo pezzo, attraverso apertura e collaborazione.

Sfide e opportunità all’orizzonte

La Synthetic Governance è ancora agli inizi – una frontiera entusiasmante con molte domande aperte. Guardando avanti, una sfida urgente è scalare questi modelli in modo responsabile. Finora molti successi (come vedremo nel caso di Taiwan) si sono avuti a livello locale o nazionale in comunità tecnologicamente avanzate.

Il passo successivo è portare sistemi decisionali con AI e blockchain in contesti più ampi – dai piccoli comuni agli organismi internazionali – senza lasciare indietro nessuno. Ciò significa puntare sull’inclusione digitale: garantire che, man mano che dispieghiamo piattaforme sofisticate, investiamo anche in alfabetizzazione digitale e accesso equo. Un’assemblea cittadina aumentata dall’AI è un’ottima cosa, ma solo se ogni cittadino ha i mezzi e le competenze per partecipare. Colmare quel divario è di per sé una priorità politica. Potremmo vedere governi creare nuovi ruoli o dipartimenti per la “partecipazione digitale”, incaricati di rendere questi strumenti comuni e semplici quanto le urne elettorali.

Un altro fronte chiave è governare l’AI con l’AI – un concetto in un certo senso autoriferito. Man mano che i sistemi di AI diventano più centrali nei processi decisionali, potremmo impiegare AI per monitorare l’AI. Immaginiamo un’AI di oversight che controlli continuamente gli algoritmi governativi per individuare bias o errori, segnalando problemi a regolatori umani.

Ciò potrebbe migliorare l’accountability, individuando i problemi più velocemente rispetto alla supervisione tradizionale. In effetti, si stanno già formando collaborazioni: l’AI Governance Alliance del World Economic Forum riunisce stakeholder per esplorare idee simili. La cooperazione internazionale sarà cruciale, perché la tecnologia oltrepassa i confini, a differenza delle leggi. Potremmo aver bisogno di nuove istituzioni per l’era dell’AI – forse una sorta di “Consiglio Internazionale di Supervisione Algoritmica” in seno all’ONU, o trattati che garantiscano determinati standard di base (ad es. trasparenza o rispetto dei diritti umani) per qualsiasi uso pubblico dell’AI. Questi sono concetti iniziali, ma sottolineano che anche la governance deve innovare in parallelo con la tecnologia.

All’orizzonte, vediamo anche la maturazione dei modelli decentralizzati. Le DAO odierne, nonostante le potenzialità, affrontano ostacoli come bassa partecipazione e incertezza legale. Ma si stanno studiando soluzioni: piattaforme DAO più user-friendly, strutture giuridiche ibride (dove una DAO è affiancata da un’entità legale tradizionale), e meccanismi di incentivo migliorati per stimolare il coinvolgimento dei membri.

Nei prossimi anni, la governance decentralizzata potrebbe passare da comunità cripto di nicchia ad applicazioni mainstream. Potremmo assistere a quartieri che formano cooperative stile DAO per gestire risorse locali, o organizzazioni non-profit governate da stakeholder sparsi nel mondo che detengono token. Man mano che questi esperimenti proliferano, genereranno dati su cosa funziona e cosa no. È probabile che itereremo verso best practice di “governance 2.0”: ad esempio, combinando input diretti dei cittadini con analisi di esperti tramite AI, oppure utilizzando votazioni su blockchain in concomitanza con assemblee cittadine, così da unire deliberazione qualitativa e decisione quantitativa.

Fondamentale, la cultura attorno alla governance dovrà evolversi. Funzionari pubblici, manager e cittadini dovranno abbracciare mentalità più aperte e collaborative. Può essere scomodo – cedere parte del controllo ad algoritmi o folle può sembrare rischioso. Ci sarà resistenza, e non senza ragione: passi falsi (come uno strumento di AI fuori controllo o un voto su blockchain compromesso da un bug) potrebbero erodere la fiducia. Ecco perché progetti pilota e valutazioni rigorose sono essenziali.

Ogni città o organizzazione che sperimenta la Synthetic Governance dovrebbe prevedere audit e piani di riserva. La trasparenza sugli insuccessi sarà importante tanto quanto sbandierare i successi. Col tempo, man mano che cresce la fiducia, potremmo vedere un ciclo virtuoso: esempi riusciti creano domanda pubblica per una diffusione maggiore. Immaginiamo un futuro in cui, in campagna elettorale, i candidati si confrontino su come utilizzeranno AI e input dei cittadini per prendere decisioni più reattive – è un’ipotesi tutt’altro che remota.

Infine, ciò che ci attende implica fare i conti con questioni etiche e filosofiche. Come preserviamo i diritti fondamentali (come la privacy e la libertà di espressione) nelle discussioni mediate dall’AI? Chi è responsabile se la raccomandazione politica di un’AI causa danni – i funzionari, gli sviluppatori, l’algoritmo stesso? Abbiamo bisogno di una sorta di “giuramento di Ippocrate” per gli algoritmi che governano la vita pubblica? La società dovrà dibattere e rispondere a queste domande parallelamente allo sviluppo tecnico.

La buona notizia è che la Synthetic Governance, per sua natura, può includere la società in quel dibattito. Possiamo usare proprio gli strumenti di intelligenza collettiva per decidere come dovrebbero essere governati – una sorta di circuito riflessivo della democrazia.

In definitiva, il prossimo capitolo della Synthetic Governance sarà definito dall’equilibrio: equilibrio tra innovazione e cautela, efficienza ed equità, tecnologia e umanità. Le opportunità davanti a noi sono enormi – un governo a tutti i livelli più partecipativo, adattivo e basato sui dati. I rischi, se non controllati, sono altrettanto rilevanti – da una potenziale “tirannia” degli algoritmi a nuove forme di esclusione. Orientarsi verso le opportunità e lontano dai rischi è il grande compito che ci attende.

Nel procedere, una cosa è chiara: la governance non sarà più la stessa. Il cambiamento che stiamo attuando ora potrebbe rimodellare profondamente i contratti sociali di domani, auspicabilmente in meglio. Le decisioni che prendiamo su come usare AI e blockchain nella vita pubblica a loro volta determineranno la qualità delle nostre democrazie e istituzioni nel XXI secolo.

vTaiwan: un pioniere della democrazia digitale

Una protesta del 2014 a Taipei durante il Movimento dei Girasoli, che ha catalizzato le iniziative taiwanesi di democrazia digitale.
Nel 2014, Taiwan ha affrontato una crisi di fiducia nel proprio governo. Le polemiche su un accordo commerciale con la Cina hanno scatenato proteste di massa note come Movimento dei Girasoli, con studenti e attivisti che hanno occupato il parlamento. Invece di reprimere le proteste, è accaduto qualcosa di straordinario: funzionari governativi e civic hacker hanno unito le forze per co-creare un nuovo modo di prendere decisioni.

Ne è nato vTaiwan, una piattaforma di consultazione aperta lanciata nel 2015 che combina deliberazione online e offline per costruire consenso sulle politiche pubbliche. Nata dalla comunità civic tech g0v (“gov-zero”) e sostenuta dalla ministra digitale Audrey Tang, vTaiwan è stata concepita come uno spazio neutrale in cui qualsiasi cittadino potesse discutere di questioni di policy con la partecipazione del governo – dai regolamenti su Uber alle normative fintech. Alla base c’è l’idea che, anche su temi controversi, la tecnologia possa aiutare a trovare terreni comuni invece di amplificare le divisioni.

Il processo vTaiwan si articola in varie fasi. La prima è una fase “oggettiva”: raccolta di fatti, dati e definizione del problema. Segue una fase “riflessiva” di deliberazione online usando uno strumento chiamato Polis – il motore della piattaforma, basato su algoritmi, per costruire consenso. Polis consente a migliaia di partecipanti di pubblicare opinioni e votare (d’accordo/non d’accordo/astensione) sugli enunciati altrui. Una particolarità: nessuno può gridare o rispondere direttamente; Polis raggruppa invece algoritmicamente le persone in base alle somiglianze nei voti e mette in evidenza gli enunciati che ottengono ampio sostegno trasversale ai vari gruppi.

Man mano che la discussione avanza, emerge una visualizzazione: un “paesaggio di opinioni” che mostra cluster di gruppi di opinione e le aree di sovrapposizione tra essi. Gli stessi partecipanti possono vedere questa mappa in tempo reale, il che li stimola – quasi fosse un gioco – a formulare enunciati in grado di attrarre il sostegno altrui, incentivando la ricerca del consenso. Dopo poche settimane, in genere il processo porta alla luce una serie di affermazioni condivise.

Si passa poi a un incontro di persona (trasmesso in streaming per trasparenza) in cui gli stakeholder chiave – funzionari, esperti, rappresentanti dei cittadini – esaminano quei punti di consenso e elaborano raccomandazioni o azioni concrete. Infine, se opportuno, si formula una bozza di legge o di regolamento basata su questo lavoro e la si inoltra al normale iter legislativo.

Un “paesaggio di opinioni” generato da Polis nel dibattito di vTaiwan su UberX: ogni punto rappresenta un partecipante raggruppato in base ai modelli di voto, ed emergono enunciati di consenso (come uno con il 92% di accordo) che attraversano le divisioni.

I risultati testimoniano il potere di questo approccio. Tra il 2015 e il 2018, vTaiwan ha affrontato 26 questioni nazionali – dalla regolamentazione dei servizi di ride-sharing alla vendita online di alcol – e circa l’80% di questi processi ha portato a un’azione governativa concreta, sotto forma di nuove leggi o cambiamenti regolamentari. Finora oltre 200.000 persone hanno partecipato, un numero sorprendente considerando la popolazione di Taiwan (circa 23 milioni). Uno dei primi successi citati è stato il caso UberX: inizialmente il dibattito era polarizzato tra sostenitori e oppositori di Uber, ma attraverso Polis i partecipanti hanno convergito su principi condivisi (come garantire concorrenza leale e standard di sicurezza) che hanno plasmato un nuovo quadro normativo accettabile per entrambi gli schieramenti.

Il governo, vedendo quel consenso emergente, ha proceduto a varare regole che hanno legittimato il ride-sharing affrontando al contempo le preoccupazioni dei tassisti. È stato un punto di svolta su un tema che in molti altri paesi era rimasto bloccato.

Altrettanto importanti sono i benefici qualitativi. vTaiwan ha dimostrato che la partecipazione digitale può essere civicamente seria e costruttiva. Le discussioni sulla piattaforma si sono mantenute sorprendentemente civili e orientate al merito, in larga parte grazie alle scelte di design (nessun trolling o dirottamento di thread è possibile).

I partecipanti riferiscono spesso che vedere le questioni mappate visivamente li aiuta ad apprezzare altri punti di vista. Come ha detto Audrey Tang, “le persone passano molto più tempo a scoprire ciò che hanno in comune piuttosto che a infilarsi in una tana del disaccordo” – nel giro di tre o quattro settimane, invariabilmente si trova una configurazione in cui la maggior parte delle persone concorda sulla maggior parte delle affermazioni. Questo orientamento al consenso è in netto contrasto con le dinamiche tipiche dei social media. Ha anche costruito fiducia: i cittadini sanno che i loro input possono plasmare direttamente le politiche, e i funzionari ottengono un supporto pubblico che rende più agevole l’implementazione. In effetti, il modello di rough consensus di vTaiwan ha contribuito a formulare circa una dozzina di provvedimenti legislativi finora, coprendo temi dalla pornografia non consensuale (“revenge porn”) ai sandbox normativi per il fintech.

Tuttavia, vTaiwan non è una bacchetta magica – anche i suoi limiti offrono insegnamenti. I critici l’hanno definita “una tigre senza denti” per sottolineare che la piattaforma in sé non costringe il governo ad agire. Serve comunque la volontà politica di recepire le raccomandazioni della folla. Alcune consultazioni hanno visto calare la partecipazione col tempo o difficoltà a coinvolgere i cittadini meno esperti di tecnologia (una sfida a cui Taiwan ha risposto lanciando piattaforme complementari come “Join”, che coinvolge fasce di popolazione più ampie).

Inoltre, vTaiwan è stata utilizzata prevalentemente su temi legati all’economia digitale, dove l’engagement online è naturalmente elevato. Questioni più controverse o di principio (ad es. difesa nazionale o fisco) non sono ancora passate attraverso questo filtro. In breve, vTaiwan funziona al meglio come parte di un ecosistema democratico più ampio – non sostituisce le istituzioni rappresentative ma le integra. Il governo taiwanese l’ha adottata come canale consultivo che alimenta l’azione legislativa, e questo approccio ibrido sembra la chiave del suo successo.

L’influenza di vTaiwan ha iniziato a diffondersi a livello globale. La sua metodologia – in particolare l’uso di Polis per la deliberazione di massa – viene emulata altrove. La Finlandia, per esempio, ha recentemente sperimentato una consultazione supportata da Polis (“Cosa ne pensi, Finlandia?”) su temi sociali, citando esplicitamente l’esperienza taiwanese come ispirazione. Comunità negli Stati Uniti e nel Regno Unito hanno organizzato assemblee cittadine virtuali con Polis su questioni locali. Nel frattempo, Taiwan continua a innovare. Nel 2023, di fronte all’avanzata dell’AI, il governo ha lanciato le “Alignment Assemblies” in partnership con ricercatori internazionali – di fatto, deliberazioni pubbliche sulla governance dell’intelligenza artificiale, ancora una volta usando piattaforme digitali per raccogliere ciò che i cittadini considerano rischi e usi accettabili dell’AI. È l’etica di vTaiwan applicata a una nuova frontiera, assicurando che persino la politica sull’AI stessa sia plasmata dalla voce del pubblico.

In sintesi, vTaiwan offre un caso di studio convincente di Synthetic Governance in pratica. Dimostra che, se ben congegnati, AI e collaborazione aperta possono rafforzare la democrazia – non rimpiazzando gli esseri umani, ma potenziandoli. Taiwan ha trasformato un momento di crisi in un’opportunità per modernizzare la propria governance, fondendo la saggezza delle folle con l’assistenza algoritmica. Per altri governi e istituzioni, il messaggio è chiaro: è possibile attingere all’intelligenza collettiva su larga scala, trovando soluzioni “win-win” dove prima c’erano solo contrapposizioni. Il percorso non è stato facile né perfetto, ma vTaiwan prova che maggiore fiducia, trasparenza e inclusione nel decision-making sono traguardi raggiungibili nell’era digitale. Resta un pioniere che illumina la strada affinché comunità di tutto il mondo ripensino il modo in cui prendiamo le scelte che plasmano il nostro futuro collettivo.

Takeaways

  • Decisioni aumentate dalla tecnologia: La Synthetic Governance sfrutta l’AI e le piattaforme digitali per aiutare i gruppi ad affrontare decisioni complesse. L’AI può analizzare dati, simulare scenari e persino redigere proposte di consenso, permettendo scelte collettive più informate ed efficienti. Invece di rimpiazzare i decisori umani, potenzia il giudizio umano con un’intelligenza scalabile.

  • Decentralizzazione e fiducia: La blockchain e i registri distribuiti offrono nuovi modi per garantire fiducia nella governance. Tecniche come gli smart contract e i ledger trasparenti consentono la creazione di organizzazioni decentralizzate (DAO) in cui regole e votazioni sono codificate in modo visibile a tutti. Ciò riduce la dipendenza da autorità centrali e può rendere i processi decisionali più trasparenti, responsabili e aperti a stakeholder diversi

  • Migliori risultati e inclusione: Se ben progettata, la governance mediata dall’AI può portare a politiche più inclusive e reattive. I governi che utilizzano l’AI segnalano aumenti di produttività e efficacia nelle politiche, nonché servizi più su misura per le comunità. Le piattaforme digitali possono coinvolgere migliaia di cittadini nelle deliberazioni (come vTaiwan), fornendo ai decisori una comprensione più ricca dei bisogni pubblici. Questo può rafforzare la legittimità – le persone sono più propense a sostenere decisioni che hanno contribuito a plasmare.

  • Nuovi rischi e necessità di regole: Il cambiamento porta con sé rischi significativi da gestire. Senza un’adeguata supervisione, i sistemi AI potrebbero amplificare bias o operare in modo opaco, minando l’equità. Una scarsa partecipazione civica o un’“esclusione algoritmica” sono rischi reali (se solo élite o utenti tecnologicamente alfabetizzati dominano i forum digitali). Inoltre, le DAO affrontano sfide come bassa partecipazione al voto e incertezza giuridica. Servono solidi framework di governance – dalle linee guida etiche agli adeguamenti normativi – per garantire che queste innovazioni rafforzino la democrazia invece di eroderla.

  • Ruoli e competenze in evoluzione: La Synthetic Governance sta ridisegnando i ruoli di funzionari pubblici, leader e cittadini. Emergono nuove figure come gli officiali della partecipazione e data scientist nel settore pubblico per facilitare le politiche supportate dall’AI. I leader devono familiarizzare con la tecnologia e i metodi di crowdsourcing, mentre i cittadini potrebbero aver bisogno di nuove competenze digitali per impegnarsi in modo significativo. È in atto un cambiamento culturale verso maggiore trasparenza, collaborazione e apprendimento continuo sia nelle istituzioni pubbliche sia nelle organizzazioni private.

  • Impatto su strategia e design: I principi della Synthetic Governance stanno influenzando la strategia e il design in senso più ampio. Le organizzazioni adottano un decision-making anticipatorio – utilizzando simulazioni AI e pianificazione di scenari per rimanere agili nelle strategie. I designer di soluzioni civiche puntano a interfacce human-centric che incoraggino una partecipazione costruttiva (come visto con Polis, che riduce i fenomeni di trolling. In generale, la governance viene considerata un problema di design, con sperimentazioni su nuovi processi decisionali e circuiti di feedback per iterare su ciò che funziona.

  • Visione per il futuro: A lungo termine, la Synthetic Governance prefigura un futuro di governance più partecipativa, adattiva e fondata sui dati. Si possono immaginare decisioni di bilancio prese tramite votazioni comunitarie su blockchain, guidate dall’analisi di AI, o trattati internazionali negoziati con il contributo di milioni di cittadini attraverso piattaforme online. Idee del genere stanno diventando plausibili. L’obiettivo finale non è solo un governo potenziato dalla tecnologia, ma una governance migliore – più democratica, più trasparente e più capace di affrontare sfide complesse tramite l’intelligenza collettiva.

Verso una governance adattiva e inclusiva

Il passaggio alla Synthetic Governance è un viaggio in corso che reinventa il modo in cui prendiamo decisioni collettive. Siamo ancora ai primi capitoli di questa trasformazione. È chiaro che la governance nel XXI secolo non può più restare statica – deve diventare adattiva e intelligente quanto il mondo che serve.

Abbracciando con giudizio l’AI e i modelli decentralizzati, abbiamo l’opportunità di progettare istituzioni più trasparenti, reattive e inclusive che mai. La strada da percorrere richiederà sperimentazione, misure di sicurezza e collaborazione costante tra tecnologi, policymaker e cittadini. Eppure, la promessa è fonte di ispirazione: un futuro in cui comunità e organizzazioni possano navigare complessità e incertezza con una saggezza aumentata, in cui le decisioni siano guidate dai dati e dal dialogo democratico, e in cui la fiducia nelle nostre scelte collettive venga ricostruita sul fondamento della trasparenza.

Il cambiamento continua, alimentato dalla nostra aspirazione a governare meglio, insieme – combinando valori umani e visione tecnologica per plasmare un futuro della governance più resiliente e partecipativo.

Model Context Protocol (MCP): potenzialità, rischi e uso responsabile

Un paio di giorni di fa ho scritto un post riguardo la mia visione del Model Context Protocol (MCP), il nuovo standard aperto per integrare modelli linguistici (LLM) con tool e sorgenti dati esterne. In un paio di giorni, forse colpa anche dell’algoritmo di Linkedin, MCP è rapidamente diventato il tema de facto del mio stream in modo permanente. Da articoli per collegare chatbot e agenti AI con servizi di terze parti fino ad articoli con visioni più estreme della mia, soprattutto in temi di sicurezza ed opportunità come il bel post di approfondimento dal titolo Everything Wrong with MCP di Shrivu Shankar che ho intercettato grazie ad una interazione di Paola Bonomo.

Insieme all’entusiasmo – ovvio – per il tema è evidente che, come per tutto, stanno emergendo ora analisi che evidenziano vulnerabilità, limiti strutturali e problemi di user experience, che in parte avevo citato anche nel mio primo post di approfondimento.

In questo post , viste le discussioni che ho letto e sulle quali mi sto confrontando in diversi ambiti, provo ad andare un po’ oltre precedente: andrò più a fondo sulle potenzialità di MCP in termini di standardizzazione e interoperabilità, ma anche le criticità legate a sicurezza, prompt injection, esperienza utente e i limiti nell’uso di LLM con molti strumenti attivi. Ho aggiunto alla fine uno spunto sul trade-off tra facilità d’uso e controllo, proponendo principi per un uso più sicuro e responsabile di MCP sia per sviluppatori che per utenti finali.

MCP come standard di integrazione

Il Model Context Protocol nasce come ho già scritto con l’obiettivo di standardizzare il modo in cui le applicazioni forniscono contesto e funzionalità ai modelli AI. La documentazione ufficiale lo paragona a una porta USB-C per le applicazioni AI: così come USB-C offre un modo unificato per collegare dispositivi diversi, MCP definisce un modo uniforme per connettere agenti AI a servizi e strumenti eterogenei. In pratica, MCP permette a sviluppatori terzi di creare “plugin” o MCP server contenenti strumenti (funzioni) e risorse che un assistente AI può invocare in chat.

Questa standardizzazione comporta enormi vantaggi di interoperabilità. I fornitori di assistenti (es. piattaforme come Claude, ChatGPT, Cursor, ecc.) possono concentrarsi sul migliorare l’interfaccia utente e le capacità conversazionali, sapendo che esiste un linguaggio comune per estendere le funzionalità. Dall’altro lato, gli sviluppatori di terze parti possono costruire servizi integrativi in modo assistant-agnostic, plug-and-play su qualsiasi piattaforma compatibile con MCP.

Esempio: immaginiamo di poter dire al nostro assistente AI: “Trova il mio paper di ricerca su Google Drive, controlla se mancano citazioni usando un motore di ricerca accademico, poi imposta la luce del soggiorno sul verde quando hai finito.” In uno scenario tradizionale, integrare manualmente questi servizi (cloud storage, ricerca web, IoT) richiederebbe molto codice ad-hoc. Con MCP, basta collegare tre server MCP di terze parti (uno per Google Drive, uno per il motore di ricerca, uno per la lampadina smart): l’assistente orchestrerà da solo le operazioni tra i vari strumenti in maniera sequenziale. Questo abilita funzionalità complesse e workflow end-to-end autonomi prima impensabili: l’LLM non solo elabora testo, ma può agire – cercare informazioni, richiamare dati privati, eseguire comandi – il tutto tramite un canale standardizzato.

Le potenzialità di MCP , senza dubbio, risiedono nella flessibilità (Bring-Your-Own-Tools: ognuno può aggiungere gli strumenti che preferisce), nella scalabilità dell’ecosistema (una volta creato un tool MCP, può essere riusato ovunque) e in un accesso al contesto più ricco per gli LLM (possono attingere a dati e servizi esterni in tempo reale invece di essere limitati al prompt statico). Questa promessa di un “AI app store universale” ha giustamente attirato attenzione e adozione rapida.

Ma, come in tuti in grandi cambiamenti, anche questo introduce anche nuove sfide da non sottovalutare.

Rischi di sicurezza e trust: cosa può andare storto?

Aprire le porte dell’LLM a strumenti esterni comporta inevitabilmente dei rischi di sicurezza. Diversi ricercatori hanno già dimostrato che l’attuale design di MCP può esporre gli utenti a una varietà di exploit. In particolare, è stato mostrato come persino modelli linguistici di punta possano essere indotti con opportuni prompt malevoli a utilizzare i tool MCP in modi imprevisti, compromettendo il sistema dell’utente ( qui un esempio interessante e ben descritto MCP Safety Audit: LLMs with the Model Context Protocol Allow Major Security Exploits).

Tra i possibili attacchi documentati troviamo:

  • Esecuzione di codice malevolo (Malicious Code Execution): il modello potrebbe essere persuaso a eseguire codice arbitrario sul sistema locale tramite un tool di file system o terminale, ad esempio inserendo backdoor o comandi distruttivi nei file dell’utente. Un esperimento ha mostrato che un LLM (Claude) connesso a un server MCP di filesystem a volte riesce addirittura a scrivere nel file di configurazione dell’utente un comando per ottenere un accesso remoto ogni volta che si apre il terminale (nell’esempio condiviso sopra c’è proprio questo) . In altri casi fortunatamente il modello ha riconosciuto il tentativo e rifiutato l’azione, ma basta una formulazione leggermente diversa perché esegua istruzioni pericolose senza allertare adeguatamente l’utente. Questo evidenzia quanto siano fragili le attuali difese basate solo sulle policy interne del modello.
  • Accesso remoto non autorizzato (Remote Access Control): simile al caso sopra, un attaccante potrebbe ottenere il pieno controllo remoto della macchina vittima inducendo l’LLM a eseguire comandi di networking (es. avviare un server, modificare firewall, rubare chiavi API, ecc.). In uno scenario multi-utente (es. uffici condivisi), un aggressore potrebbe direttamente interagire con l’assistente di qualcun altro e sfruttare MCP per piantare accessi persistenti.
  • Furto di credenziali o dati sensibili: se il modello ha accesso a file di configurazione o variabili d’ambiente tramite MCP, un prompt malevolo può istruirlo a leggere e inviare all’esterno informazioni riservate (token, password, documenti privati). Ad esempio, un tool apparentemente innocuo potrebbe richiedere di “passare il contenuto di /etc/passwd per una verifica di sicurezza”, inducendo l’LLM a consegnare informazioni di sistema riservate a un servizio esterno.

Un elemento preoccupante è che questi attacchi possono avvenire senza che l’utente se ne accorga immediatamente. MCP parte dal presupposto che i tool di terze parti siano affidabili e li integra profondamente nel flusso dell’assistente. Di fatto, i tool MCP vengono spesso inseriti nel prompt di sistema (le istruzioni di controllo interne all’LLM) anziché come input utente, conferendo loro un livello di fiducia più alto. Ciò significa che un tool compromesso o costruito con intenti malevoli può facilmente aggirare le protezioni e influenzare il comportamento dell’assistente, anche più di quanto potrebbe un normale input utente malizioso (prompt injection classico). Si parla infatti di prompt injection di terze o quarte parti: un server MCP può deliberatamente fornire output formattati in modo da manipolare l’LLM o altri server a cascata. Un esempio ancore potrebbe esser un server che potrebbe riuscire a cambiare dinamicamente nome e descrizione di un tool dopo che l’utente ha già autorizzato il suo utilizzo (rug pull attack), sfruttando il fatto che l’LLM continuerà a usarlo credendo sia affidabile.

Inoltre, con MCP un aggressore potrebbe concatenare servizi per aumentare l’efficacia dell’attacco. Immaginiamo un database aziendale esposto via MCP: un malintenzionato potrebbe inserire nel campo di testo di un record una stringa contenente un comando o una falsa eccezione che suggerisce una determinata azione (ad es. “Errore: mancano alcune righe, eseguire UPDATE ... per correggere”). Se l’assistente AI di un developer andrà a leggere quel record tramite il tool MCP, potrebbe eseguire il comando suggerito credendo sia parte del flusso logico, causando potenzialmente un Remote Code Execution o modifiche indesiderate al database. Tutto ciò pur non disponendo di un tool esplicito di esecuzione codice, ma sfruttando la capacità dell’LLM di interpretare e seguire istruzioni testuali provenienti dai dati esterni.

Un altro rischio è la fuga involontaria di dati (data leakage). Anche senza attori malevoli, l’autonomia conferita agli agenti può portare l’assistente a divulgare informazioni sensibili a servizi di terze parti. Ad esempio, un utente potrebbe collegare il proprio Google Drive e un servizio di web publishing via MCP per farsi aiutare a redigere un post sul blog. Se l’LLM, nel tentativo di essere utile, decide di leggere referti medici privati dal Drive per arricchire il post, potrebbe inviarne estratti a un servizio esterno (es. un correttore grammaticale online) senza un’esplicita intenzione dell’utente. In mancanza di controlli granulari, l’AI può mescolare dati pubblici e privati violando le aspettative di privacy dell’utente.

In parole povere l’ MCP amplia la superficie d’attacco dei sistemi basati su LLM. Ogni tool aggiunto è un potenziale vettore di exploit se non viene validato e autorizzato con attenzione. Purtroppo, allo stato attuale MCP non prevede meccanismi standard di sandbox o gestione permessi: se l’utente abilita un tool che cancella file, il modello potrebbe teoricamente usarlo senza ulteriore conferma. Questo impone molta fiducia sia nell’LLM (che dovrebbe capire da solo quando non eseguire istruzioni pericolose) sia nei fornitori terzi dei tool. Come osservato da molti, combinare LLM con dati e azioni reali è “intrinsecamente rischioso e amplifica rischi esistenti o ne crea di nuovi”.

Esperienza utente: assenza di conferme e costi nascosti

Oltre ai rischi di exploit deliberati, MCP presenta criticità sul piano UX (user experience) e di controllo da parte dell’utente. L’idea di fondo di MCP è fornire un’esperienza fluida, dove l’assistente AI può chiamare strumenti esterni in autonomia per aiutare l’utente a raggiungere un obiettivo.

Ma così tanta autonomia, non è forse troppa autonomia?

Attualmente, il protocollo lascia molte decisioni critiche all’assistente, senza livelli di avvertimento o conferma differenziati.

Una prima criticità è che MCP non definisce livelli di rischio per gli strumenti che il modello può utilizzare. Tutti i tool, dal più innocuo al più potente, vengono esposti all’LLM sullo stesso piano. Immaginiamo una chat assistita da vari plugin: leggi_diario_personale(), prenota_volo(), elimina_file(). Alcune azioni sono banali o facilmente reversibili, altre costose o irreversibili e pericolose, ma il modello potrebbe non avere piena consapevolezza di questa differenza. Spetta all’applicazione che implementa MCP chiedere conferma all’utente, ma non esiste uno standard obbligatorio: un particolare client potrebbe limitarsi a elencare i tool disponibili e lasciare che l’utente abiliti tutto in blocco.

È facile inoltre che l’utente sviluppi col tempo la pessima abitudine di confermare automaticamente (modality YOLO scherza qualcuno) tutte le azioni proposte, se la maggior parte delle volte sono innocue routine. Così, il giorno in cui l’LLM decide di usare elimina_file("foto_vacanze") o di “aiutare” prenotando e pagando un volo senza dettagli corretti, il danno è fatto in un click distratto. La mancanza di indicatori di rischio o di gravità per i tool è dunque un problema: l’utente non riceve un segnale chiaro quando l’agente sta per fare qualcosa di potenzialmente pericoloso o costoso.

Un secondo problema di UX legato a MCP è l’assenza di conferme visive e preview per azioni sensibili. Poiché il protocollo per design fa transitare i risultati dei tool come semplice testo non strutturato (o blob binari per immagini/audio), l’interfaccia dell’assistente spesso mostra solo la risposta finale dell’LLM e pochi dettagli sull’azione compiuta. Questo va bene per notifiche o dati testuali, ma diventa inadeguato in casi come: prenotare un taxi o un volo, pubblicare un post sui social, inviare un’email importante. L’utente avrebbe bisogno di verificare dettagli cruciali – ad esempio confermare che l’AI ha scelto l’indirizzo giusto per il taxi, o vedere un’anteprima formattata di un post prima di renderlo pubblico. Con l’attuale MCP queste garanzie “visuali” non sono integrate: il modello potrebbe dirci di aver fatto X, ma non c’è un meccanismo standard per fornirci un link di conferma, una finestra di dialogo, o un risultato parziale strutturato. Tutto dipende dall’implementazione del singolo tool e dall’interfaccia dell’applicazione host. Questo può portare a errori difficili da intercettare prima che sia troppo tardi, specie se l’agente opera autonomamente in background.

Un terzo aspetto spesso trascurato è quello dei costi nascosti. A differenza di protocolli tradizionali dove i dati scambiati sono relativamente piccoli e a costo trascurabile, nell’universo LLM il “contesto” ha un costo computazionale ed economico significativo. MCP, ampliando il contesto con risultati di tool, può generare risposte voluminose. Un output di qualche centinaio di kilobyte può costare diversi centesimi di dollaro in termini di utilizzo del modello, e 1 MB di testo generato può arrivare a costare circa 1 dollaro per richiesta. Quel testo potrebbe venire incluso in ogni successivo prompt durante la conversazione, sommando più addebiti. Ciò significa che se un tool MCP restituisce un risultato molto lungo (es. il contenuto di un lungo documento, o una lista di dati estesa), l’utente potrebbe bruciare il proprio budget rapidamente senza accorgersene, finché non arriva la fattura o finché il servizio non inizia a rallentare. Sono già emerse lamentele da parte di utenti e sviluppatori di agenti AI riguardo a costi imprevedibili dovuti a integrazioni MCP token-inefficienti. Attualmente, sta al singolo sviluppatore di tool limitare prudentemente la quantità di dati restituiti (magari tagliando risultati o implementando paginazione), ma il protocollo in sé non impone limiti di lunghezza. Un miglioramento proposto è di fissare un massimale sul risultato o quantomeno rendere visibile e configurabile la quantità di contesto aggiunto da ogni tool, così da responsabilizzare chi sviluppa MCP server a essere efficiente.

Dal punto di vista UX MCP eccelle in comodità, ma pecca in controlli e trasparenza verso l’utente. Non fornisce per default né una graduatoria di pericolosità dei tool, né un sistema strutturato di conferme per azioni critiche, né indicatori chiari dell’impatto in termini di costi/risorse. Questo lascia spazio a errori umani (conferme affrettate, fiducia eccessiva nell’agente) e a situazioni in cui l’utente perde il controllo fine di ciò che sta accadendo. Le implementazioni dovranno colmare queste lacune con soluzioni personalizzate, ma idealmente lo standard stesso potrebbe evolvere per includere best practice di sicurezza ed esperienza utente più robuste.

Limiti strutturali: LLM con troppi tool, interpretazione ed efficienza

Un altro tema emerso nelle analisi recenti è che MCP, pur estendendo le capacità degli LLM, non elimina i limiti intrinseci dei modelli – anzi, in certi casi li amplifica. Collegare “più strumenti possibile” potrebbe sembrare una buona idea per massimizzare la versatilità di un assistente AI, ma all’atto pratico ci sono dei trade-off di performance e affidabilità.

Innanzitutto, gli LLM attuali mostrano un calo di affidabilità man mano che cresce il contesto e la complessità delle istruzioni da seguire. Ogni tool MCP aggiunto porta con sé descrizioni, parametri e possibili azioni che l’AI deve tenere a mente. Se da un lato più strumenti significano più opportunità, dall’altro rappresentano più carico cognitivo per il modello. In effetti, è stato osservato che aumentando il numero di tool e di dati connessi, le prestazioni dell’assistente possono degradare sensibilmente, mentre il costo per ogni singola richiesta aumenta (più informazioni da elaborare in input/output). In scenari reali, potrebbe diventare necessario far scegliere all’utente quali integrazioni attivare di volta in volta, invece di tenerle tutte sempre attive, per evitare di appesantire inutilmente ogni risposta.

Va considerato poi che utilizzare correttamente degli strumenti tramite linguaggio naturale è di per sé un compito non banale per gli LLM. Pochi dataset di addestramento contenevano esempi di agenti che chiamano API o funzioni esterne, quindi la capacità di tool use spesso non è innata ma deriva da fine-tuning o prompt engineering. Benchmark specializzati mostrano che anche modelli avanzati hanno un basso successo percentuale nel portare a termine correttamente task multi-step con strumenti. Ad esempio, su un set di compiti come prenotare un volo seguendo policy specifiche, uno dei migliori modelli disponibili nel 2025 riusciva a completare autonomamente solo circa il 16% delle operazioni previste. Ciò implica che all’aumentare della complessità delle azioni richieste (soprattutto se coinvolgono più strumenti in sequenza), l’agente potrebbe fallire o doversi arrendere, restituendo risultati parziali o errati.

Un ulteriore limite è la comprensione contestuale dell’AI rispetto a ciò che i tool offrono. MCP presuppone che gli strumenti siano progettati per essere generici e assistant-agnostic, ma nella realtà ogni assistente o utente potrebbe avere esigenze diverse. Ad esempio, un server MCP per Google Drive potrebbe fornire funzioni come list_file(nome), read_file(file_id), delete_file(file_id). Un utente inesperto potrebbe pensare che collegando questo server al suo ChatGPT, potrà semplicemente chiedere: “Trova il file FAQ che ho scritto ieri per il cliente X”. In assenza di un vero motore di ricerca indicizzato nei contenuti, l’LLM proverà magari a chiamare list_file con vari nomi, fallendo se il file non ha “FAQ” nel titolo.

L’utente rimane deluso perché si aspettava un comportamento più “intelligente”, mentre avrebbe bisogno che il tool stesso implementi una ricerca full-text o query semantiche — funzionalità non previste senza un’architettura aggiuntiva. Analogamente, richieste come “Quante volte appare la parola ‘AI’ nei documenti che ho scritto?” mettono in crisi l’assistente: potrebbe dover aprire decine di file (read_file) e contare, finendo il contesto disponibile dopo alcuni risultati e dando magari un numero incompleto. Operazioni di aggregazione o di join di dati attraverso più fonti (es. “incrocia l’ultimo report vendite con i profili LinkedIn dei candidati”) sono ancora più proibitive: il modello non ha una memoria persistente su cui fare calcoli o confronti complessi oltre i limiti del prompt. Questi esempi illustrano come collegare un dato strumento non garantisce automaticamente che l’AI sappia svolgere qualsiasi compito correlato – se il compito richiede logica o capacità oltre quelle offerte esplicitamente dai tool, l’LLM tenterà soluzioni sub-ottimali o dichiarerà di non poterlo fare.

C’è poi una questione di compatibilità variabile tra modelli e formati di strumenti. MCP definisce l’interfaccia, ma piccoli dettagli (come la descrizione testuale dei tool, gli schemi di risposta attesi, l’uso di markdown o XML nei prompt) possono influire sul rendimento a seconda del modello usato. Ad esempio, si è notato che Claude (Anthropic) interpreta meglio descrizioni di tool strutturate in un certo modo, mentre GPT-4 preferisce altri formati. Quindi un set di tool potrebbe funzionare benissimo con un assistente e meno con un altro, confondendo l’utente che tende a dare la colpa all’applicazione (“Quest’app non è capace di fare X”) quando in realtà è una combinazione di design del tool e idiosincrasie del modello AI.

Riassumendo, MCP ha un grandissimo potenziale ma non è una bacchetta magica e come sempre “per i grandi poteri ricevuti, ci vuole una grande responsabilità” : rimane vincolato ai limiti attuali degli LLM in termini di capacità di ragionamento, contesto e azione. Aggiungere più fonti dati e più funzioni può dare l’illusione di un “super assistente” onnisciente, ma in pratica rischia di peggiorare l’efficacia (assistente più lento, più costoso e talvolta confuso) se non progettato con criterio. Serve equilibrio nel numero di integrazioni attive contemporaneamente e consapevolezza che l’AI potrebbe non sfruttarle appieno come farebbe un umano senza un lavoro ulteriore di ottimizzazione. Questi limiti strutturali suggeriscono che, accanto all’entusiasmo, è necessaria prudenza e responsabilità: ogni nuova integrazione va testata e compresa a fondo per evitare di sovraccaricare o disorientare il modello.

Trade-off tra facilità d’uso e controllo/verificabilità

Un tema trasversale a quanto discusso sopra è il delicato bilanciamento tra comodità e controllo. MCP nasce per rendere facile ed immediato estendere le capacità di un modello – in altre parole, massimizzare la facilità d’uso sia per chi sviluppa (standard unico, integrazioni plug-in) sia per l’utente finale (chiedi in linguaggio naturale e l’AI fa tutto). Tuttavia, questa facilità intrinseca porta con sé una perdita di visibilità e governabilità sulle azioni dell’agente AI.

Da un lato dello spettro abbiamo la “completa autonomia”: l’utente collega molti tool e permette all’agente di agire senza dover confermare ogni passo. L’esperienza è fluida e quasi “magica” – pochi input in linguaggio naturale producono output complessi e multi-step. Ma come abbiamo visto, ciò può portare a comportamenti indesiderati o rischiosi non verificati, e rende difficile ricostruire a posteriori cosa sia andato storto ( scarsa verificabilità). Se qualcosa va storto – ad esempio dati sensibili inviati ad un servizio esterno, o un file cancellato – l’utente o l’amministratore si trovano a dover interpretare i log della conversazione e delle chiamate API per capire quale prompt o quale tool abbia causato l’evento. Non c’è una traccia strutturata facilmente consultabile di tutte le azioni autorizzate, a meno che l’applicazione host non la implementi manualmente.

Dall’altro lato c’è la “massimo controllo/manualità”: l’utente mantiene il potere decisionale su ogni chiamata di tool (conferme frequenti, step intermedi mostrati, scelta esplicita di quali integrazioni usare per ciascun task). Questo approccio minimizza i rischi, ma sacrifica molta della comodità. L’agente diventa meno autonomo e più un sistema di suggerimento, dove l’utente deve comunque fare da supervisore costante. Inoltre, troppe interruzioni e richieste di conferma possono peggiorare l’esperienza d’uso, frustrando l’utente o inducendolo ad aggirare le protezioni pur di non essere disturbato di continuo.

Verificabilità e controllo più granulari spesso significano aggiungere complessità all’ecosistema MCP. Ad esempio, si potrebbe voler un registro dettagliato di tutte le operazioni compiute tramite MCP (chi le ha scatenate, con quali parametri, risultati, timestamp) per poter effettuare audit di sicurezza. Realizzare ciò richiede estensioni al framework o log robusti lato client/server, e magari strumenti di analisi dedicati. Allo stesso modo, introdurre livelli di permission per i tool (lettura/scrittura, accesso limitato a certe risorse, ecc.) rende il sistema più sicuro ma anche più macchinoso da configurare rispetto alla semplice plug-and-play attuale.

È evidente che c’è un trade-off: facilità d’uso vs. complessità di controllo. MCP nella sua forma base ha scelto di ottimizzare la prima a scapito della seconda. Sta ora alla comunità e ai progettisti decidere come riequilibrare la bilancia. Nel prossimo e ultimo punto, discuteremo alcune possibili soluzioni e linee guida per mitigare i rischi senza rinunciare ai benefici di MCP.

Blockchain, una soluzione strutturale?

Per affrontare strutturalmente (ma che non risolverebbero a mio avviso tutti i problemi) i rischi di sicurezza e i limiti di verificabilità evidenziati finora, una soluzione potenziale potrebbe arrivare dalla blockchain e dall’uso di un sistema di identità decentralizzata (DID). La blockchain offre naturalmente risposte alle criticità che MCP manifesta:

  • Autenticazione robusta e decentralizzata: ogni utente e tool MCP potrebbe disporre di un’identità registrata su blockchain tramite DID (Decentralized Identifier), che garantisce l’origine e l’integrità delle richieste senza affidarsi a un’unica autorità centralizzata.

  • Audit e tracciabilità immutabile: le operazioni effettuate tramite MCP verrebbero registrate su blockchain creando un log immodificabile, utile per audit, debugging e risoluzione di controversie.

  • Autorizzazioni granulari tramite smart contract: le regole sui permessi e sulle operazioni consentite ai tool MCP potrebbero essere gestite da smart contract trasparenti e verificabili, eliminando il rischio di esecuzioni incontrollate o dannose.

Come potrebbe funzionare un sistema MCP basato su blockchain?

Un’implementazione pratica potrebbe basarsi su:

  • Identità decentralizzata (DID): gli utenti e gli sviluppatori registrano le loro identità utilizzando un sistema decentralizzato (es. Ethereum Name Service, Solana DID), firmando digitalmente ogni richiesta MCP con una chiave privata.

  • Smart contract di autorizzazione: i permessi per ciascun tool MCP vengono definiti esplicitamente in smart contract che limitano automaticamente le azioni eseguibili. Le azioni ad alto rischio potrebbero richiedere una firma esplicita aggiuntiva dell’utente.

  • Registrazione delle operazioni: ogni chiamata agli strumenti MCP genererebbe eventi registrati permanentemente, facilitando controlli retroattivi e audit automatici.

Perché tale soluzione sia sostenibile nel tempo e facilmente adottabile, è fondamentale definire ulteriori requisiti:

  • Standardizzazione: scegliere blockchain ad alta interoperabilità (ad esempio Ethereum, Solana, o altre chain compatibili) e definire chiaramente gli standard DID utilizzabili.

  • Privacy e riservatezza: adottare tecniche avanzate (zero-knowledge proofs) per garantire la riservatezza di dati sensibili, evitando di renderli pubblicamente visibili sulla blockchain.

  • Usabilità e gestione chiavi: semplificare il recupero degli account smarriti e implementare meccanismi di backup sicuri per la gestione delle chiavi private, evitando complessità eccessiva per gli utenti non tecnici.

  • Governance decentralizzata: prevedere modalità per aggiornamenti dello standard MCP e dei relativi smart contract tramite governance decentralizzata (es. DAO), per garantire evoluzione e sicurezza nel tempo.

L’integrazione della blockchain in MCP rappresenterebbe a mio avviso un ulteriore passo importante verso quella convergenza di cui parlo da un po’ e vero la creazione di uno standard realmente maturo, sicuro e scalabile. La capacità di autenticare richieste, autorizzare operazioni e tracciare eventi in modo decentralizzato potrebbe trasformare MCP da semplice protocollo di integrazione a piattaforma completa e (più) sicura per l’automazione avanzata con LLM.

Verso un uso responsabile e sicuro di MCP: proposte e principi

Nonostante le criticità evidenziate, il Model Context Protocol rimane dal mio punto di vista un’innovazione importante e utile, oltre che un cambio radicale di modelli ed ecosistemi inteeri. La chiave sta nell’adottarlo in modo responsabile, implementando misure di sicurezza e di design che ne mitigano i difetti. Di seguito provo a buttare giu  alcune proposte e principi – rivolti sia a sviluppatori di tool/applicazioni, sia a utenti avanzati – per migliorare la progettazione della sicurezza e l’affidabilità di MCP senza perdere i vantaggi della standardizzazione:

  • Classificazione del rischio dei tool e conferme contestuali: Gli strumenti MCP andrebbero categorizzati per livello di rischio (basso, medio, alto) in base alle azioni che compiono. Ad esempio, leggere dati pubblici può essere low risk, modificare dati sensibili high risk. L’interfaccia utente dovrebbe poi modulare le conferme di conseguenza: niente conferma per azioni sicure di routine, conferma obbligatoria (con chiaro avviso) per operazioni distruttive o finanziariamente impegnative. In mancanza di uno standard ufficiale, alcune implementazioni iniziano a muoversi in questa direzione introducendo livelli di esecuzione: ad esempio, eseguire direttamente le azioni a basso rischio, ma richiedere un permesso esplicito per quelle medie e addirittura isolare in sandbox (es. in un container Docker) quelle ad alto rischio ().
  • Sandboxing e scope limitato: Per i tool più potenti (come quelli che eseguono codice o modificano file), è consigliabile limitarne il campo d’azione. Ciò può avvenire tramite sandboxing (esecuzione in un ambiente chiuso che impedisca danni al sistema host) o definendo scope ristretti – ad esempio un tool delete_file() potrebbe essere vincolato a operare solo in una directory predefinita, impedendo cancellazioni arbitrarie in tutto il file system. Idealmente, MCP potrebbe supportare in futuro una sorta di policy di autorizzazione dichiarativa, in cui l’utente concede a un tool solo certi permessi (lettura sola, accesso solo a un certo dataset, ecc.). Nel frattempo, sta ai singoli server MCP implementare tali controlli internamente.
  • Verifica e fiducia nei server MCP di terze parti: Prima di collegare un qualsiasi MCP server esterno al proprio assistente, occorre valutarne l’affidabilità. Preferire tool open source il cui codice è ispezionabile, oppure servizi di provider noti con solide politiche di sicurezza. Evitare di usare plugin da fonti sconosciute o poco trasparenti, specialmente se richiedono accesso a dati sensibili. Gli sviluppatori della piattaforma potrebbero creare un registry pubblico di server MCP verificati o con recensioni, facilitando agli utenti la scelta di integrazioni sicure.
  • Trasparenza delle azioni dell’agente: L’applicazione host (es. l’interfaccia chat) dovrebbe fornire strumenti per monitorare e loggare le azioni che l’LLM compie tramite MCP. Ciò può includere un pannello di attività in tempo reale (“L’assistente sta chiamando lo strumento X con questi parametri…”), e log dettagliati consultabili successivamente. Questo aiuta sia a tranquillizzare l’utente durante operazioni lunghe o complesse (sapendo cosa sta succedendo dietro le quinte), sia a effettuare audit in caso di comportamenti sospetti o malfunzionamenti. Alcune implementazioni visualizzano già il “chain of thought” o i passi compiuti dall’agente: estenderlo con dettagli specifici dei tool MCP usati sarebbe un’ottima pratica.
  • Limitare l’autonomia in contesti critici: Per task particolarmente delicati – ad esempio operazioni finanziarie, modifiche di sistema, invio di mail a larga diffusione – è saggio mantenere l’umano nel loop. Ciò significa progettare l’agent affinché si fermi prima di un punto di non ritorno e chieda conferma finale all’utente, magari mostrando un riepilogo di cosa intende fare. Questo principio si riallaccia ai livelli di rischio: nessun modello AI dovrebbe effettuare transazioni bancarie o cancellazioni massicce senza un “OK” umano, anche se in generale gli si concede autonomia su altre cose.
  • Educazione dell’utente e best practice d’uso: L’utente finale va reso consapevole che uno strumento come MCP non è infallibile e richiede uso accorto. I provider di assistenti dovrebbero educare tramite documentazione e tutorial sui rischi possibili (es. evidenziando il pericolo di prompt injection attraverso esempi) e sulle funzionalità di sicurezza messe a disposizione. Un utente informato sarà più propenso a configurare correttamente i permessi, a scegliere con giudizio quali integrazioni attivare e a riconoscere eventuali segnali di comportamento anomalo dell’agente.

L’MCP rappresenta un passo significativo verso ecosistemi AI modulari e integrati, analoghi a un sistema operativo per agenti intelligenti. Le sue promesse di standardizzazione e versatilità sono reali, ma altrettanto vere sono le sfide emerse e che emergeranno in termini di sicurezza e UX. La buona notizia è che, come tutti i grandi progetti di cambiamento, vedono una partecipazione di diverse comunità che stanno già affrontando questi temi e approfondendo tecnicamente molti aspetti: dall’analisi delle vulnerabilità (esempio riportato in questo articolo MCP Safety Audit: LLMs with the Model Context Protocol Allow Major Security Exploits) alla creazione di sistemi di validazione di sicurezza automatici per server MCP, fino al dibattito su come migliorare il protocollo stesso (Everything Wrong with MCP – by Shrivu Shankar).

È probabile che vedremo evolvere sia lo standard MCP (con estensioni per gestione permessi, formati di risposta più strutturati, ecc.), sia le implementazioni lato applicazione (assistenti che guideranno meglio l’utente, magari con interfacce più ricche e controlli). Fino ad allora, il principio guida dev’essere la cautela consapevole: adottare MCP con entusiasmo, ma progettare sempre con una ”mentalità di sicurezza” e usare l’autonomia dell’AI entro limiti che possiamo gestire.

Come spesso accade nella tecnologia, la chiave è trovare il giusto equilibrio tra innovazione e controllo: sfruttare l’automazione offerta da MCP senza mai rinunciare del tutto alla supervisione umana e a misure preventive. In questo modo potremo godere dei benefici dell’AI aumentata dai tool, minimizzando al contempo i rischi per sistemi e persone.

Un nuovo senso alla parola Fiducia, nell’intersezione Blockchain e AI. Non solo.

Fino a poco tempo fa, ciò che vedevamo e ascoltavamo sembrava essere la verità (non sempre) assoluta. Le immagini che scorrevano sui nostri schermi, le voci che ci arrivavano dagli altoparlanti, erano per noi un riflesso di una realtà alquanto tangibile. Ma questa sensazione di certezza, a cui ci siamo affidati per decenni, sta rapidamente crollando.

Oggi, voci, immagini, video e persino testi possono essere creati, manipolati e distorti con una facilità senza precedenti, grazie alle potenzialità dell’intelligenza artificiale generativa e agli strumenti sempre più accessibili. Ciò che un tempo era una rappresentazione affidabile della realtà è ora diventato un’ombra di quella stessa realtà. In questo contesto, ci troviamo di fronte a una domanda fondamentale: in un mondo in cui tutto può essere falsificato, cosa è realmente autentico? E, soprattutto, come possiamo fidarci di ciò che vediamo e ascoltiamo?

Cyber attacchi e truffe: una criticità crescente

Negli ultimi anni, le truffe e i cyber attacchi alimentati dall’intelligenza artificiale sono aumentati drasticamente, con conseguenze economiche e sociali gravi. Le frodi legate a identità e transazioni hanno portato, solo nel 2023, a perdite globali di miliardi di dollari. Tecniche avanzate come la sintesi vocale e la manipolazione video consentono ai criminali di creare attacchi sempre più sofisticati. Il problema non risiede solo nel danno economico immediato, ma nella crescente sfiducia che questi fenomeni generano. Più credibile è l’attacco, più difficile è ripristinare la fiducia nelle informazioni digitali.

Quali soluzioni abbiamo per lavorare su questo concetto di fiducia?

AI e Blockchain: un’opportunità nella convergenza tecnologica

Uno dei temi che maggiormente sto trattando recentemente e di cui ho scritto nel libro Spatial Shit, è quelllo della convergenza tecnologica, che vede, in questo momento storico, la maturità di diverse tecnologie raggiungere uno di contatto con tutte le altre. Intelligenza artificiale, Spatial Computing, Blockchain, Iot stanno iniziando appunto un processo di convergenza in cui ognuna di queste introduce vantaggi per le altre.

Se ci soffermiamo a osservare il rapporto tra l’intelligenza artificiale (AI) e la blockchain, per esempio, in riferimento alla domanda principale, è facile dedurre come queste due tecnologie, sebbene apparentemente diverse, siano in grado di integrarsi perfettamente. L’AI, da un lato, si basa su algoritmi capaci di apprendere dal passato, analizzare grandi quantità di dati e, attraverso processi predittivi, fornire scenari futuri per aiutare le aziende a prendere decisioni in tempo reale. In questo flusso costante di dati e previsioni, le informazioni però possono essere potenzialmente manipolate o modificate con facilità, soprattutto in un ambiente sempre più digitale e complesso.

Ed è qui che entra in gioco la blockchain, che svolge il ruolo di custode del passato. A differenza dell’AI, che è in continua evoluzione e ottimizzazione, la blockchain non prevede adattamenti o cambiamenti: una volta che un’informazione viene registrata in questo registro distribuito, diventa permanente. Ogni decisione o transazione è tracciabile e verificabile da tutti i partecipanti alla rete, garantendo che nulla possa essere alterato senza che l’intero sistema ne prenda atto.

Questa complementarità tra AI e blockchain crea un equilibrio a mio avviso fondamentale. L’AI offre velocità e capacità predittiva, ma in un contesto in cui è sempre necessario valutare quanto ci si possa fidare dei dati. La blockchain fornisce invece un contesto di trasparenza e integrità, assicurando che ogni dato, una volta registrato, non sia più soggetto a manipolazioni o alterazioni. Insieme, le due tecnologie, non solo accelerano il processo decisionale, ma lo rendono anche verificabile e sicuro. Pensiamo per esempio a un sistema aziendale in cui l’AI ottimizza le operazioni in base a scenari futuri, ma ogni scelta chiave è tracciata su blockchain per garantirne la trasparenza.

Un altro aspetto senza dubbio interessante da approfondire è che l’AI, per la sua stessa natura, tende a centralizzare il potere: ha bisogno di enormi risorse di calcolo e di dati per funzionare in modo ottimale, dati però spesso concentrati in pochi grandi centri. La blockchain, invece, opera esattamente all’opposto. La sua forza risiede nella decentralizzazione: ogni nodo della rete è autonomo ma collegato agli altri, il che significa che non esiste un singolo punto di controllo. Questo riduce la possibilità di manipolazione e aumenta la fiducia tra i partecipanti, creando un ecosistema in cui il potere è distribuito equamente.

Se l’AI quindi punta a risolvere problemi complessi attraverso la competizione e il miglioramento continuo, la blockchain mira a creare un ambiente di cooperazione, dove ogni partecipante ha la certezza che ciò che è registrato è reale e immutabile. Questo connubio tra previsione e sicurezza, centralizzazione e decentralizzazione, potrebbe rappresentare una nuova via per affrontare le sfide del mondo digitale di oggi, in cui la fiducia è diventata il bene più prezioso.

Fiducia e trasparenza: il cuore della blockchain

Un altro punto cruciale che differenzia AI e blockchain è la spiegabilità. Gli algoritmi di AI agiscono di fatto come scatole nere, con processi decisionali che spesso non sono chiari neanche ai loro creatori. Al contrario, la blockchain è costruita su principi di trasparenza. Ogni azione registrata è tracciabile e spiegabile da chiunque partecipi alla rete, offrendo così un sistema verificabile in ogni momento, e tale meccanismo è fondamentale per costruire una nuova architettura di fiducia in un mondo in cui ciò che vediamo e ascoltiamo non può più essere dato per scontato.

La blockchain non solo protegge l’integrità dei dati, ma cambia radicalmente il concetto di fiducia. In passato, questa fiducia era mediata da istituzioni, autorità centrali e relazioni umane. Oggi, potenzialmente, grazie alla blockchain, potremmo affidare il compito della fiducia a un sistema distribuito che verifica ogni passaggio. La fiducia, quindi, non sarebbe più una questione puramente umana o istituzionale, ma diventerebbe un processo tecnologico, una fiducia “computazionale”, come già alcuni la definiscono.

Ma non tutto è verità: i limiti della blockchain

Nonostante il suo potenziale, la blockchain non è una panacea. Pur avendo evidenziato un enorme potenziale, restano però alcuni limiti nella sua implementabilità rispetto al problema della fiducia. Un limite importante è che la blockchain può registrare informazioni false, rendendole permanenti e inalterabili nel tempo, ed una volta registrata, un’informazione errata, rimarrà nella blockchain per sempre, con la sola traccia di chi l’ha inserita. Questo significa che, sebbene la blockchain possa garantire l’integrità, non può garantire la sua veridicità. Un aspetto che spesso viene frainteso e che non può esser sottovalutato.

C’è poi un altro punto di debolezza che va affrontato nel provare a comprendere questo tema: la blockchain funziona solo in reti dove esiste una comunione di interessi tra i partecipanti. Se gli attori della rete non condividono gli stessi obiettivi, o non sono d’accordo su cosa monitorare, l’efficacia della blockchain diminuisce. E se, soprattutto, all’interno della rete esistono gerarchie rigide, l’intera filosofia decentralizzata della blockchain viene compromessa. In altre parole, la blockchain funziona meglio quando tutti i partecipanti della rete sono su un piano di parità e condividono gli stessi scopi. Ma questo è possibile realisticamente parlando?

Quindi cosa manca?

Guardando ad un possibile futuro, la fiducia nel mondo digitale richiederà un ecosistema di tecnologie integrate. Alcuni elementi chiave che potrebbero completare il puzzle, ad oggi, potrebbero appunto esser:

  1. Intelligenza Artificiale (AI): l’AI, utilizzata in modo trasparente e con logiche etiche ben definite, può aiutare a verificare e validare la qualità dei dati prima che vengano registrati sulla blockchain. Ad esempio, strumenti di AI avanzati potrebbero essere impiegati per analizzare i dati in tempo reale e distinguere tra contenuti genuini e falsificati, riducendo il rischio che informazioni false vengano immortalate su blockchain.
  2. Zero-Knowledge Proofs (ZKP): le prove a conoscenza zero sono un elemento fondamentale per garantire la privacy senza sacrificare la verificabilità. Con ZKP, sarà possibile dimostrare che un’informazione è vera senza rivelarla esplicitamente. Questo potrebbe rappresentare un miglioramento fondamentale per assicurare la fiducia nelle interazioni digitali senza violare la riservatezza dei dati sensibili.
  3. Regolamentazione e Governance: la fiducia ovviamente non può basarsi solo su tecnologia. Devono essere implementati chiari quadri normativi e regolamentazioni che definiscano le regole di ingaggio per le tecnologie come blockchain e AI. Una governance trasparente e condivisa permetterebbe di bilanciare l’uso di queste tecnologie con i diritti e le aspettative delle persone.
  4. Identità Digitale Decentralizzata (DID): infine uno degli elementi più critici per stabilire la fiducia nel futuro sarà la creazione di identità digitali sicure, che possano essere verificate in modo decentralizzato. La blockchain può giocare un ruolo chiave qui, ma sarà necessario integrarla con altri strumenti per garantire che le identità non possano essere falsificate o compromesse.

Un nuovo senso della parola fiducia

In un mondo in cui tutto può essere manipolato o falsificato, la fiducia deve essere ricostruita in modo diverso, più profondo. La regolamentazione giocherà un ruolo essenziale nel garantire che queste tecnologie convergenti operino all’interno di un quadro etico e sicuro, ma il vero cambiamento sarà culturale: la costruzione di una responsabilità distribuita e una governance decentralizzata, incarnata dal concetto di Web3.

Il bilanciamento tra il mondo probabilistico dell’intelligenza artificiale e quello deterministico della blockchain, integrate al un modello di regolamentazione, rappresenta un nuovo modo di costruire fiducia. In questa direzione, ownership e trasparenza diventano i pilastri portanti di un futuro in cui potremo non solo verificare ciò che vediamo e ascoltiamo, ma anche agire con consapevolezza e responsabilità se ciò che percepiamo non risulta affidabile.

La convergenza: AI, Blockchain e Spatial Computing

Stiamo vivendo un momento di convergenza senza precedenti tra intelligenza artificiale (AI), blockchain e spatial computing, una trasformazione che promette di ridefinire i processi in molti settori, influenzando la trasparenza, la sicurezza e l’efficienza in tempi brevi.

Recentemente ho avuto modo di approfondire un paper pubblicato dall’AI & Blockchain Convergences Task Force in collaborazione con esperti internazionali del settore. Questo studio esamina in dettaglio come queste tecnologie stiano convergendo e offre una panoramica delle implicazioni per il futuro. I razionali del lavoro includono un’analisi approfondita degli sviluppi tecnologici e delle loro applicazioni reali, con contributi di vari esperti come Mariana de la Roche, Erwin Voloder, e altri professionisti provenienti da organizzazioni come Cheqd, Hyperledger Foundation e UNJSPF.

Questi esperti hanno unito le loro competenze per delineare un quadro chiaro di come l’integrazione di AI e blockchain possa rivoluzionare vari settori.

Anche nel mio libro Spatial Shift, ho esplorato come la convergenza tecnologica stia trasformando il nostro mondo, e ho trovato molteplici punti di contatto con quanto trattato nel paper. Innanzitutto, la combinazione di AI e blockchain crea un nuovo paradigma nella gestione dei dati, noto come “dataconomy“. La Blockchain offre una piattaforma sicura e immutabile per la gestione dei dati, garantendo che i dati utilizzati dagli algoritmi di AI siano autentici e di alta qualità. Questo approccio migliora la trasparenza e l’integrità dei dati, affrontando problemi di accesso e sicurezza.

La decentralizzazione offerta dalla blockchain potrà ridurre i bias nei modelli di AI, distribuendo il controllo e le decisioni su una rete di nodi piuttosto che concentrarle in un’unica entità. Questo aumenterà la sicurezza e la trasparenza dei processi decisionali, rendendo l’AI più equa e affidabile. Inoltre, l’addestramento distribuito dei modelli di AI su una rete blockchain permette di accelerare i tempi di elaborazione e migliorare l’efficienza dei modelli su larga scala. La decentralizzazione del calcolo distribuisce il carico su più nodi, riducendo i colli di bottiglia e migliorando la scalabilità dei modelli di AI.

Gli smart contracts basati su blockchain possono automatizzare la gestione del consenso e la revoca dell’accesso ai dati. Questi contratti intelligenti potranno (e possono già) garantire che i dati vengano utilizzati solo per gli scopi autorizzati, aumentando la fiducia degli utenti e rispettando la privacy. Inoltre, l’AI migliora la sicurezza delle reti blockchain monitorando e rilevando comportamenti anomali in tempo reale. Questo permetterà di prevenire attività fraudolente come hacking e riciclaggio di denaro, garantendo la protezione delle risorse digitali.

La convergenza di AI, blockchain e spatial computing sta trasformando anche le esperienze di realtà mista (Mixed Reality, MR). L’AI crea ambienti virtuali più realistici e interattivi in tempo reale attraverso la sua capacità generativa e predittiva, mentre la blockchain gestisce la proprietà e le transazioni di asset digitali, assicurando autenticità e tracciabilità. Questa combinazione renderà sempre più le esperienze di MR coinvolgenti e sicure, permettendo agli utenti di interagire in modo naturale e protetto.

L’integrazione di AI e blockchain sarà inoltre il boost di miglioramento alla sostenibilità e l’autenticità delle operazioni in vari settori. Per esempio, nella gestione delle catene di approvvigionamento, l’AI potrà prevedere le complessità logistiche, mentre la blockchain garantirà la trasparenza e l’autenticità dei prodotti, promuovendo pratiche sostenibili e responsabili. Un esempio pratico che ho trattato nel libro riguarda il settore agricolo, dove la blockchain sarà la base su cui tracciare l’intero ciclo di vita di un prodotto agricolo, dall’origine alla tavola del consumatore, mentre l’AI può ottimizzare la gestione delle risorse e prevedere le condizioni meteorologiche per migliorare la resa delle colture e lo spatial computing sarà l’elemento di visualizzazione immersiva.

Nel campo della sanità, la blockchain, già oggi utilizzata in alcuni progetti, potrà gestire le credenziali digitali portatili dei pazienti, mantenendo la loro storia medica sicura e sotto il controllo del paziente. L’IA potrà invece analizzare questi dati per prevedere tendenze di salute o epidemie, mentre la blockchain assicurerà che i dati rimangano immutabili e tracciabili. Nel mio libro, discuto anche di un caso studio in cui un sistema basato su blockchain e AI ha migliorato la gestione delle malattie croniche, permettendo ai pazienti di condividere i propri dati con i ricercatori in cambio di incentivi sotto forma di token, promuovendo così la ricerca medica senza compromettere la privacy.

La convergenza di queste tecnologie si sta estendendo a diversi settori, tra cui anche quello finanziario, dove l’AI verrà sempre più utilizzata per creare strategie di trading automatizzate e personalizzate, di asset allocation, di analisi dinamica dei parametri finanziari, mentre la blockchain assicurerà a tutte le transazioni la trasparenza e la verificabilità. Questo non solo migliorerà l’efficienza, ma ridurrà anche il rischio di frodi e manipolazioni ed introdurrà modalità nuove per lo sviluppo degli investimenti.

Infine, uno dei temi più discussi ultimamente – e attualmente fuori hype – trattati nel paper è l’applicazione delle tecnologie convergenti nel contesto del metaverso. L’IA come già visto in una fase ancora immatura sar utilizzata per creare avatar realistici e ambienti interattivi, mentre la blockchain garantirà che gli asset digitali all’interno del metaverso siano autentici, posseduti dagli utenti, realmente visualizzati in un determinato contesto e garantirà inoltre la veridicità delle informazioni a cui l’utente sarà esposto in termini di sollecitazioni visive. Questo apre una nuova strada a nuove forme di interazione sociale e economica, in cui gli utenti potranno possedere, scambiare e monetizzare beni digitali, ma soprattutto “collegare” alla realtà un layer virtuale sicuro e trasparente, e condivisibile.

Questa convergenza tecnologica non solo sta rendendo le esperienze digitali più coinvolgenti e sicure, ma sta mettendo le basi per promuovere una fase nuovo del web (il “famoso” web3) e un ambiente di sviluppo e utilizzo più inclusivo e collaborativo.

L’integrazione di AI, blockchain e spatial computing sta costruendo le fondamenta per un futuro in cui il digitale, il fisico e il virtuale si fondono armoniosamente, offrendo soluzioni innovative e sostenibili per le sfide globali.

Per approfondire questi temi e capire come queste tecnologie stanno rivoluzionando il nostro mondo, vi invito a leggere il mio libro Spatial Shift, disponibile su Amazon.

Macro Trend 2024: dell’Intelligenza artificiale e (tanto) altro

Il 2024 si prospetta come un anno di notevole trasformazione tecnologica, in cui l’intelligenza artificiale (AI) emerge come un catalizzatore fondamentale, abilitando una moltitudine di trend emergenti e consolidati. Mentre alcuni di questi trend sono ancora nelle loro fasi iniziali, promettendo un terreno fertile per investimenti futuri, altri hanno già raggiunto una maturità tale da richiedere un’adozione immediata. Questa dinamica riflette un panorama tecnologico in cui l’AI non solo guida l’innovazione ma anche crea impatti collaterali in settori diversi, spingendo le aziende e gli investitori a valutare attentamente dove posizionare le loro pedine nel gioco dell’innovazione.

In questo contesto, alcuni trend si stanno affermando come pilastri per le strategie a lungo termine, mentre altri rappresentano opportunità di cambiamento e adattamento che le organizzazioni possono e devono cogliere nel presente. La convergenza di queste tendenze sta plasmando un futuro in cui la tecnologia non è solo uno strumento di progresso, ma anche un elemento chiave per affrontare le sfide globali e locali, offrendo nuove prospettive di crescita e sviluppo in un’ampia gamma di settori.

Sicurezza Pubblica nel XXI secolo

L’innovazione tecnologica sta rivoluzionando il settore della sicurezza pubblica. L’uso di droni e sistemi intelligenti di sorveglianza sta migliorando la risposta a emergenze e criminalità, consentendo una gestione più efficace delle risorse di sicurezza, riducendo i tempi di risposta e migliorando l’efficacia degli interventi.

Smart Grids

La transizione verso reti energetiche intelligenti è fondamentale per gestire in modo più efficiente le fonti di energia rinnovabile. Queste reti supportano il flusso bidirezionale di energia, permettendo non solo il consumo, ma anche la produzione e la vendita di energia da parte dei consumatori.

Swarming Cost-Effective per la Difesa

L’uso di sistemi di droni in scenari di difesa per creare un effetto di massa e sovraccarico offre un vantaggio strategico significativo. Questi sistemi possono essere utilizzati per missioni di sorveglianza, ricognizione o attacco.

Acquisizioni Tecnologiche

Le aziende stanno ampliando le loro competenze software attraverso acquisizioni strategiche. Questo permette loro di estendere la scala dei loro vantaggi software e migliorare il profilo del business acquisito.

Nuove Applicazioni per la Visione Artificiale

L’impiego della visione computerizzata in vari settori industriali come trasporti, agricoltura e miniere permette l’analisi e il monitoraggio automatico, migliorando l’efficienza e la sicurezza.

Nuova Era dell’Esplorazione Marittima

L’innovazione tecnologica sta rivoluzionando il settore marittimo. AI, hardware avanzati e visione computerizzata sono utilizzati per modernizzare le flotte e migliorare l’esplorazione e l’utilizzo sostenibile delle risorse marine.

Democratizzazione dei “Farmaci Miracolosi”

Lo sviluppo di terapie farmaceutiche innovative e la loro introduzione nel mercato in modo economicamente sostenibile rappresenta un trend importante. Questo include la gestione dei costi e la logistica complessa di tali farmaci.

Medicina Programmabile

La medicina programmabile rappresenta una rivoluzione nel modo in cui vengono sviluppate e distribuite le terapie, permettendo un approccio più rapido e mirato alla cura di varie malattie.

Potenziamento della Forza Lavoro Sanitaria

L’integrazione dell’intelligenza artificiale nel settore sanitario sta contribuendo a ridurre il carico di lavoro e migliorare l’efficienza del personale sanitario, contribuendo a ridurre il burnout e migliorare la qualità delle cure.

AI che Supera il Futuro della Salute

L’adozione dell’intelligenza artificiale nel settore sanitario non solo per l’automazione, ma anche per l’innovazione in diagnosi, trattamento e gestione dei pazienti è un trend in crescita.

App a Voce Primaria

Lo sviluppo di applicazioni che utilizzano l’interfaccia vocale come modalità principale di interazione sta migliorando l’accessibilità e la facilità d’uso.

AI Mirata e Costruita su Misura

Lo sviluppo di soluzioni AI specifiche per settori e esigenze particolari sta garantendo che l’AI sia ottimizzata per applicazioni specifiche piuttosto che per usi generali.

Strumenti AI per l’Educazione dei Bambini

Lo sviluppo di piattaforme AI progettate specificamente per l’educazione dei bambini, con focus sulla sicurezza, l’interattività e l’adattabilità alle diverse esigenze di apprendimento è un trend emergente.

Generatori AI senza Codice

La creazione di piattaforme che permettono agli utenti di generare contenuti e applicazioni senza la necessità di competenze di programmazione sta democratizzando l’accesso alla creazione digitale.

La Creatività Potenziata dall’AI

L’uso di strumenti AI che funzionano come co-piloti creativi, assistendo gli utenti nel processo creativo e rendendo l’arte e il design più accessibili è un trend in crescita.

Nuova Era di Decentralizzazione

L’importanza della decentralizzazione per garantire la libertà degli utenti e la neutralità delle infrastrutture internet, contrastando la centralizzazione del potere, è un trend emergente.

Rifacimento dell’Esperienza Utente nel Futuro

Innovazioni nell’esperienza utente nel settore delle criptovalute stanno rendendo il settore più semplice e accessibile.

Ascesa della Pila Tecnologica Modulare

La tendenza verso architetture modulari nelle reti per promuovere l’innovazione aperta e la concorrenza è un trend in crescita.

AI + Blockchain

La combinazione di intelligenza artificiale e blockchain per democratizzare l’innovazione nell’AI e garantire la sicurezza e la trasparenza è un trend emergente.

Dal Gioco per Guadagnare al Gioco e Guadagnare

La trasformazione dell’economia dei giochi per permettere ai giocatori non solo di divertirsi ma anche di trarre vantaggi economici dalle loro attività di gioco è un trend in crescita.

Intelligenza Artificiale come acceleratore di Giochi

L’uso di agenti AI nei giochi per creare esperienze di gioco più ricche e coinvolgenti è un trend emergente.

Verifica Formale meno “Formale”

Lo sviluppo di metodi di verifica formale più accessibili e meno complessi, particolarmente importanti nel settore dei contratti intelligenti, è un trend in crescita.

NFT come Asset di Marca Onnipresenti

L’uso degli NFT come strumenti per costruire identità di marca e coinvolgere la comunità è un trend emergente.

SNARKs Diventano Mainstream

L’adozione di SNARKs per la verifica sicura e efficiente di carichi di lavoro computazionali è un trend in crescita.

I trend tecnologici del 2024 abbracciano una vasta gamma di settori in rapida evoluzione, evidenziando il ruolo centrale dell’innovazione tecnologica nel plasmare il futuro in diversi ambiti. Nel 2024 le aziende adotteranno un approccio sempre più pragmatico all’innovazione, con un’attenzione crescente alle pratiche tecnologiche sostenibili e all’importanza di un’approccio alle decisioni tecnologiche strategico, ma anche concreto.

La ridefinizione dell’Identità Digitale nel Metaverso, il ruolo degli avatar da non sottovalutare

Nell’era dei mondi virtuali e delle realtà alternative, gli avatar stanno assumendo un ruolo sempre più centrale nella definizione dell’identità digitale degli utenti. Un recente rapporto del Blockchain Research Lab analizza ed esplora come l’adozione crescente degli avatar nel metaverso stia trasformando l’autoespressione, l’inclusività, la diversità e l’impatto sociale ed economico.

Il metaverso, l’universo virtuale interconnesso, darà a tutti noi infinite possibilità di espressione e comunicazione. Gli avatar, rappresentazioni digitali degli utenti, sono il punto di ingresso in questo mondo e grazie all’interoperabilità che molti player stanno sviluppando, permetteranno la creazione ed il controllo dell’identità digitale attraverso diverse piattaforme, metaversi e applicazioni. Il mercato degli avatar attualmente è in espansione, con piattaforme e creators che guadagnano cifre interessanti attraverso la vendita di personaggi personalizzabili ed accessori digitali.

L’identità digitale nel metaverso va ben oltre l’aspetto estetico degli avatar e la traslazione di un io digitale. Fattori come espressioni, emozioni, comportamenti, storia e reti sociali contribuiscono a definire l’identità di un utente nel metaverso e la sua riconoscibilità. Gli avatar potranno inoltre offrire a tendere (e già ora in alcune piattaforme) una serie di servizi aggiuntivi, tra cui aspetti sociali, educativi, psicologici, commerciali e di intrattenimento.

La scelta degli avatar, anche come emerge da più studi e report, è influenzata da diversi fattori psicologici, tra cui l’autoidentità, le dinamiche sociali ed il senso di appartenenza a determinate community e l’autostima. Gli utenti tendono a scegliere avatar che riflettano la propria identità, i propri valori e lo status sociale, ed “aumentarli” in alcune caratteristiche al fine di facilitare la socializzazione e l’integrazione nelle dinamiche virtuali. Le motivazioni alla base della scelta degli avatar possono essere diverse, come esprimere un’immagine o un’identità desiderata, sperimentare diverse identità in un ambiente sicuro e controllato o esplorare e comprendere la propria identità in un contesto oggi ancora fortemente inclusivo.

L’integrazione orizzontale, ovvero la collaborazione tra progetti con obiettivi simili, sta favorendo la crescita del metaverso e sostiene la visione di un ambiente aperto e appunto inclusivo. Ad esempio, l’integrazione di avatar 3D provenienti da collezioni di token non fungibili (NFT) , sul modello di Ready Player Me, in piattaforme differenti dimostra come la cooperazione possa essere vantaggiosa per tutti e contribuire allo sviluppo del mercato degli avatar.

Un altro aspetto interessante riguarda la moda digitale, che sta acquisendo un’enorme rilevanza grazie al crescente ruolo degli avatar. I giocatori spesso preferiscono cambiare l’abbigliamento del proprio avatar invece di sostituirlo completamente ed adattarlo a momenti e iniziative. Di conseguenza, il mercato della moda digitale è destinato a crescere rapidamente nei prossimi anni, man mano che sempre più persone utilizzano piattaforme digitali per intrattenimento e commercio.

La ricerca di Blockchain Research Lab inoltre ha identificato diversi profili di utenti in relazione alle aspettative sul loro ruolo nel gameplay. Un gruppo di utenti utilizza attivamente le emote (balletti e movimenti caratterizzanti dell’avatar), percependo il loro impatto positivo sul gameplay; un altro gruppo considera le emote come parte della propria identità sociale; mentre un terzo gruppo rifiuta l’idea di pagare per le emote, ritenendola inautentica. Ogni gruppo di utenti, in diverse community, richiede comunque modelli dedicati di autoespressione e ha aspettative uniche su come integrare avatar ed emote nelle proprie esperienze di gioco.

Il metaverso incentrato sugli avatar sta ridefinendo il concetto di identità digitale, e questa è una tendenza da non sottovalutare. L’impatto sociale ed economico di questa trasformazione è evidente, con un mercato in rapida crescita e una comunità di creators e utenti sempre più attiva e coinvolta.

Tra le tendenze emergenti, come la moda digitale , c’è l’uso appunto che accennavo delle emote, che contribuiscono a plasmare l’esperienza degli utenti nel metaverso e a creare nuovi modi di interazione e comunicazione fisico digitali: non ultimo, il caso di questi giorni della Griddy Dance, iniziata nel mondo dello sport NFL e adottata rapidamente da Fortnite tra le sue emote.

Parallelamente, la crescente adozione di tecnologie decentralizzate, come i token non fungibili (NFT) ed il Web3, sta offrendo strumenti per incentivare e premiare creatori e sviluppatori, e creare sempre di più il concetto di identità, unicità e proprietà degli asset.

Il futuro del metaverso e dell’identità digitale è un trend da non sottovalutare per la sua promettente e crescente popolarità tra i giovani e l’interesse da parte di aziende e dei brand.

Smart Contract, futuro e casi d’uso

Gli smart contract stanno rivoluzionando il mondo degli affari e della tecnologia, grazie alla loro capacità di automatizzare e rendere più efficienti le transazioni.

Ma cosa sono esattamente e quali vantaggi offrono?

Gli smart contract sono protocolli digitali auto-esecutivi basati su blockchain, che automatizzano processi e transazioni secondo termini e condizioni predefinite. Garantiscono sicurezza, trasparenza, efficienza e riduzione dei costi, eliminando la necessità di intermediari e rivoluzionano il concetto di accordo e transazione in vari settori, come finanza, immobiliare e assicurazioni.

Funzionalità degli smart contract:

  • Distribuiti: gli smart contract sono replicati e distribuiti su tutti i nodi della rete, garantendo che le condizioni non possano essere modificate unilateralmente.
  • Deterministici: gli smart contract possono eseguire funzioni solo quando sono soddisfatte le condizioni specificate.
  • Immutabili: una volta implementato, uno smart contract non può essere modificato, solo rimosso se la funzionalità è stata implementata in precedenza.
  • Autonomi: gli smart contract eliminano la necessità di intermediari, riducendo le possibilità di abusi e garantendo l’autorità delle parti coinvolte.
  • Personalizzabili: gli smart contract possono essere modificati o personalizzati prima del lancio.
  • Trasparenti: gli smart contract sono memorizzati su una blockchain pubblica, rendendo il codice visibile a tutti.
  • Senza fiducia: gli smart contract non richiedono terze parti per verificare l’integrità del processo o l’adempimento delle condizioni specificate.
  • Auto-verificanti: gli smart contract si verificano automaticamente grazie alle possibilità automatizzate.
  • Auto-esecutivi: gli smart contract si eseguono automaticamente quando tutte le condizioni e le regole sono soddisfatte.

Vantaggi degli smart contract:

  • Massima trasparenza: gli smart contract garantiscono che termini e condizioni siano definiti in modo chiaro e accessibile a tutte le parti coinvolte.
  • Maggiore efficienza: gli smart contract permettono di risparmiare tempo grazie all’automazione dei processi e all’eliminazione di intermediari.
  • Sicurezza e protezione superiore: gli smart contract offrono elevati livelli di sicurezza e protezione dei dati grazie alla crittografia.
  • Aumento della fiducia e della sicurezza: la natura trasparente e sicura degli smart contract li rende un’opzione affidabile per gli affari.
  • Precisione e accuratezza: gli smart contract garantiscono un alto livello di dettaglio e accuratezza nella definizione dei termini e delle condizioni.
  • Funzionalità di archiviazione dei dati desiderabili: gli smart contract memorizzano in modo accurato e affidabile tutti i dettagli relativi a una transazione.
  • Risparmio sui costi: gli smart contract eliminano la necessità di intermediari e riducono i costi associati ai processi basati su documenti cartacei.
  • Alternativa ecologica: gli smart contract, essendo interamente basati su codice, non richiedono l’utilizzo di carta, contribuendo a ridurre l’impatto ambientale.

Gli smart contract rappresentano una soluzione rivoluzionaria per molteplici settori, grazie alla loro capacità di automatizzare processi, ridurre costi e garantire trasparenza e sicurezza nelle transazioni. Le loro funzionalità e i vantaggi offerti li rendono uno strumento ideale per migliorare e semplificare gli scambi commerciali e le interazioni tra individui e aziende.

Il futuro degli smart contract appare estremamente promettente, con un crescente numero di industrie e settori che potranno trarre beneficio dalla loro adozione. Tra questi, possiamo citare il settore immobiliare, le assicurazioni, la finanza, la gestione della catena di approvvigionamento e il settore pubblico. L’introduzione degli smart contract in queste aree permetterà di ottimizzare i processi, riducendo i tempi di attesa, minimizzando gli errori umani e garantendo una maggiore affidabilità nelle transazioni.

L’adozione degli smart contract potrebbe portare a nuove opportunità di business e a nuovi modelli di servizi, in particolare nei settori dell’Internet of Things (IoT), dell’economia condivisa e della gestione dei diritti d’autore.

E’ a mio avviso necessario considerare che, per realizzare appieno il potenziale degli smart contract, sarà necessario affrontare alcune sfide, tra cui questioni legali, normative e di interoperabilità tra diverse piattaforme blockchain e sarà fondamentale garantire che gli smart contract siano sviluppati e implementati in modo sicuro e affidabile, per evitare possibili vulnerabilità e attacchi informatici.

Mi rendo sempre più conto dell’enorme importanza degli smart contract in un contesto in grande evoluzione e fortemente accelerato come quello che stiamo vivendo.

Nonostante la loro attuale applicazione limitata in alcuni (molti) settori, sono convinto che il loro impatto potenziale sia enorme e capace di rivoluzionare il modo in cui stiamo affrontando tanti processi e interagiamo in ambito commerciale e sociale (pensiamo al concetto di coinvolgimento di collaboratori, al concetto di (s)fiducia e alla mancanza troppo spesso di trasparenza.

Gli smart contract sono qui per dare la possibilità di eliminare gli intermediari e di automatizzare processi complessi, rendendo le transazioni più sicure, trasparenti ed efficienti. La loro adozione potrebbe portare a un’innovazione senza precedenti in molti settori, migliorando le nostre vite e facilitando la cooperazione tra individui e aziende.

Sono convinto che, una volta superate alcune sfide relative a questioni legali, normative e di interoperabilità, gli smart contract diventeranno uno strumento fondamentale per il progresso tecnologico e sociale (soprattutto).

Nel report di Rejolut alcuni casi d’uso e numeri sul contesto degli smart contract https://link.mtvrs.it/SmartContractsAndCases

 

Amazon Digital Marketplace: l’ingresso dei giganti nel mondo NFT

Amazon, il gigante dell’e-commerce, sta entrando nel mondo degli NFT (Token non Fungibili) con il lancio della sua piattaforma di digital collectibles. Secondo diverse fonti e notizie uscite, la piattaforma NFT di Amazon, chiamata Amazon Digital Marketplace, dovrebbe essere disponibile dal 24 aprile 2023, consentendo agli utenti di acquistare NFT legati ad asset reali. La piattaforma sarà inizialmente accessibile solo agli utenti negli Stati Uniti, ma verrà successivamente estesa anche in altre regioni del mondo.

Oltre agli NFT legati ad asset reali, la piattaforma si concentrerà anche sui giochi basati su blockchain, dove gli utenti potranno guadagnare NFT come ricompensa. Amazon Digital Marketplace dovrebbe esordire con 15 collezioni NFT già disponibili al momento del lancio e pronte per l’acquisto.

Questa mossa di Amazon è un segnale importante dell’interesse crescente per gli NFT e la tecnologia blockchain. Sebbene non sia ancora chiaro quale tecnologia blockchain e protocollo sarà utilizzata da Amazon, è ipotizzabile che la piattaforma possa scegliere la strada della blockchain privata.

Trovo interessante che Amazon abbia deciso di consentire ai clienti di pagare con carta di credito, anziché con criptovalute: questa scelta potrebbe essere una strategia facilitare e rendere l’acquisto di NFT più accessibile a un pubblico più ampio e poco ancora consapevole del funzionamento di wallet e crypto. L’adozione di massa di una nuova tecnologia passa spesso anche da azioni come queste.

Amazon ha una base di utenti, di circa 167 milioni di membri Prime negli Stati Uniti e questa enorme base di partenza potrebbe esser l’elemento di accelerazione del lancio della piattaforma, tanto da diventare uno dei maggiori player nel mondo degli NFT in pochissimo tempo.

Il lancio della piattaforma NFT di Amazon è un segnale dell’interesse crescente da parte delle aziende, malgrado l’anno passato pieno di notizie a casi che hanno fatto perdere interesse e fiducia, sia da parte degli utenti che delle aziende: la blockchain accelerata da casi come questo, e dall’ingresso di brand hanno un grande trust con gli utenti , crea l’opportunità di adozione rapida, facilitazione dell’ingresso e allargamento dei possibili servizi e iniziative che potremmo nascere intorno, dal mondo dell’arte e del ticketing, al mondo della musica e dei contenuti, al monto degli sport, del gaming e dell’abbigliamento.

Metamask ha annunciato la sua integrazione con Unity il gaming engine

L’annuncio dell’integrazione tra Metamask e Unity rappresenta un ulteriore passo avanti per l’adozione di massa di sistemi di wallet e per la decentralizzazione nel settore dei giochi. Unity, la piattaforma di sviluppo di giochi leader nel settore, ha deciso di creare una categoria “decentralizzazione” nel suo store online, aggiungendo il supporto per diversi software developer kit (SDK) basati su blockchain, tra cui Metamask.

La partnership tra Metamask e Unity è una notizia positiva per gli sviluppatori di giochi e per le aziende impegnate nello sviluppo di piattaforme e iniziative web3, poiché fornisce le risorse necessarie per connettersi al mondo del Web3 gaming. In pratica, questo significa che i developer potranno costruire giochi che utilizzano autenticazione basata su wallet, transazioni, utilizzare token non fungibili (NFT) e l”accesso segmentato in funzione di possesso di asset digitali ai diversi “metaversi” e piattaforme di gioco, e di conseguenza consentiranno ai giocatori di creare, guadagnare e scambiare risorse in-game in modo sicuro e trasparente.

L’industria dei giochi sta crescendo rapidamente, e il settore dei giochi Web3 sta attirando investimenti significativi“, ha detto MetaMask in un tweet. “È una nuova era per gli sviluppatori di giochi.

L’integrazione di Metamask in Unity fornirà un’esperienza di gioco più immersiva e autentica per i giocatori, mentre gli sviluppatori potranno creare nuove funzionalità e meccaniche di gioco che sfruttano le potenzialità della blockchain. Inoltre, l’aggiunta di Metamask e altri SDK decentralizzati in Unity contribuirà a creare un ecosistema di sviluppo di giochi più aperto e trasparente, dove gli sviluppatori possono condividere e monetizzare le loro creazioni in modo più efficiente e sicuro.

L’integrazione di Metamask in Unity rappresenta solo uno dei tanti sviluppi del settore dei giochi decentralizzati ed il percorso che questa industria sta facendo: altri esempi includono The Sandbox, Decentraland e DOGAMÍ, giochi che sfruttano le potenzialità della blockchain e del Web3 per creare nuove esperienze di gioco.

Unity sta aggiungendo il supporto per 13 diversi software developer kit (SDK) basati su blockchain, provenienti da blockchain e protocolli differenti, prodotti tra cui Algorand, Aptos, il blockchain Flow di Dapper Labs, Immutable X, MetaMask, Solana e Tezos.

Porsche, gli NFT, la cultura delle aziende ed i 10 comandamenti del web3

Il 23 gennaio Porsche, casa automobilistica tedesca, ha lanciato una collezione NFT dedicata all’iconica auto sportiva 911. Il progetto prevedeva un lancio pianificato di 7.500 asset digitali per la celebrazione dello storico veicolo del brand e consentito ai possessori di accedere a eventi , iniziative e merchandising esclusivo. Il progetto vuole costruire una community che possa “supportare Porsche nell’ingresso al mondo virtuale“.

Al lancio però non è andato tutto come “previsto” ed in soli 2gg in rete e nelle community web3 si è parlato molto delle modalità del progetto e del risultato come “da morte annunciata”.

Partiamo dall’inizio

A dicembre 2022 Porsche, alla Miami Art Week, ha annunciato la collezione NFTe la collaborazione con Road2Dreams, società tedesca di collezionismo digitale, sussidiaria di Fanzone, specializzata nella distribuzione di token, generando molta attesa sul progetto.

L’annuncio di Porsche

Venerdì 20 gennaio 2022 scorso, il brand ha annunciato il lancio della venduta degli NFT a 0,911 ETH ciascuno (circa $ 1.475). Il prezzo di partenza è stato fissato con l’idea ricordare appunto la sigla del veicolo. Ma forse già qui qualcosa è andato storto: in rete, già al primo tweet del brand, gli utenti hanno iniziato a rumoreggiare che il prezzo fosse elevato soprattutto in un mercato NFT che nell’ultimo ha perso molto vigore. In particolare la prima onda di segnalazioni era relativa al fatto che la presenza di diverse migliaia di NFT in vendita, fosse sproporzionata al prezzo di partenza.

Il lancio del mint

La collezione lanciata ha aperto la fase di mint alle 9:00 di lunedì con un rilascio progressivo a 4 wave, di un’ora ciascuna, aperta inizialmente agli inviti. Dopo la fine della lista iniziale, è stata rilasciata al pubblico la vendita a tempo indeterminato. I collezionisti in ingresso potevano mintare fino a tre Porsche 911 virtuali. Le fasi successive del processo di lancio avrebbero poi consentito ai titolari di scegliere uno dei tre “percorsi” da seguire per personalizzare il design e la rarità dei loro veicoli virtuali: Performance, Heritage e Lifestyle.

Le ore successive al lancio

Nelle ore successive all’apertura iniziale, le vendite della collezione hanno iniziato a rallentare arrivando a lunedì sera con solo 1.198 NFT – circa il 16% della collezione totale – venduti attraverso il sito ufficiale di Porsche . Le vendite sul mercato secondario hanno iniziato a dare segnali negativi, sembrando di fatto inattive e poco scambiate. Il prezzo minimo della collezione, dopo poco meno di una giornata dal lancio, è sceso a 0,89 ETH, circa $50 in meno su mercati secondari come OpenSea, con il mint ancora in corso.

I primi segnali della community e la (non) gestione della crisi di Porsche.

Alcuni utenti su Twitter hanno iniziato a commentare negativamente il progetto e la collezione, non solo per il costoso prezzo dell’asset digitale, ma per la strategia di vendita fortemente disallineata con l’etica di Web3, per la poca efficacia nelle modalità di gestione della community e del valore condiviso previsto da piano.

Porsche e Road2Dreams non hanno risposto immediatamente a diversi utenti, compresa CoinDesk e questo ha aumentato il sentiment negativo intorno all’iniziativa con commenti duri da diversi creators, esperti e collezionisti.

Solo successivamente il brand si è attivato per rispondere e dare una posizione rispetto alle richieste della community e comunicare che il MINT sarebbe stato fermato e chiuso in anticipo, secondo la richiesta della community, alla quota di 2,363 NFT.

Le critiche della community

Quello che la community (e non solo) ha mosso come critica al progetto è sintetizzabile quindi nei seguenti macro punti:

  1. Prezzo iniziale NFT elevato e non in linea rispetto alla quantità di asset disponibili
  2. Strategia di vendita non allineata con i valori e al cultura del Web3
  3. Nessuna strategia di community building prima del lancio
  4. Poco (nessun) coinvolgimento di creators e community
  5. Nessuno sfruttamento del POAP lanciato nell’evento nftnow
  6. Autenticità della collezione e chiarezza dell’utilità dell’asset
  7. Condizioni di mercato attuali non ottimali per sparare alto come fatto

Il risultato attuale

Allo stato attuale, considerato il rumore che si è generato, e l’iniziale sentimento negativo, la vendita ha raggiunto il sold out e sono iniziati gli scambi del mercato secondario, spostando già il floor price tra 1.2 ETH e punte anche poco sopra al 1,7 ETH.

Quello che ci si può aspettare è sicuramente un sali e scendi fino alla stabilizzazione di un prezzo: chi ha criticato il progetto a mio avviso prevalentemente lo ha fatto per speculazione, ma la verità è che chi sposa progetti di questo tipo lo fa con una ottica di lungo termine e punta al valore, più ampio, di un progetto del calibro di questo brand nel tempo.

E’ quindi realmente classificabile come un fallimento, come etichettato da molti?

La mia idea è leggermente differente rispetto a quanto ho letto e alle sonore critiche che ho visto sparare dopo pochissime ore da lancio.

Prima di tutto iniziamo a fare più attenzione ai commenti e soprattutto al commentatore: troppo spesso chi commenta negativamente una iniziativa è spinto da un interesse personale e usa la provocazione per mettersi in mostra. Un po’ come succedeva con i #socialmediafail che diventavano paccate di slide di “consulenti” web2, e che provavano poi a bussare alla porta del brand sull’onda della critica sferrata pubblicamente. Oggi molti sono consulenti Web3 e si comportano allo stesso modo.

Secondo punto guardiamo al brand, al potere mediatico e diamoci il tempo di capire meglio il concetto di successo o meno, ma soprattutto l’arco temporale del progetto. Ho visto tanti progetti NFT con meno potere mediatico, utilità e comunità essere comunque considerati un “successo” da molti e viceversa progetti sconosciuti esser snobbati dai produttori di slide.

Come ha detto Charles Adkins, che io condivido e che riporto con delle integrazioni:

“Penso però che un buon 99% delle persone che parlano dello scivolone di Porsche NFT:

  • Non possieda una Porsche (ergo non legge il problema dal punto di vista di chi ha quella capacità di spesa)
  • Non abbia acquistato l’NFT (e quindi non creda a prescindere nel progetto)
  • Non abbia mai visto un evento Porsche (e quindi parla di una community di riferimento senza conoscerla)
  • Abbia un interesse speculativo (vuole mettersi in mostra)”

i 10 comandamenti del web3 

Poi arrivo ad una serie di mantra (praticamente un elenco che mi sono dato) che sto imparando frequentando, gestendo e progettando iniziative per il web3 da un po’ per diversi clienti:

  1. nel web3 non è detto che un brand sia percepito ugualmente al web2 o al fisico
  2. nel web3 non è detto che tutte le idee siano applicabili e gli utenti interessati e disponibili
  3. nel web3 la community è il primo asset su cui investire in termini di ascolto, coinvolgimento, progettazione e valorizzazione
  4. nel web3 c’è una nuova “netiquette” – per dirla da boomer – da dover comprendere
  5. nel web3 bisogna esser trasparenti
  6. nel web3 la community a cui ci si rivolge si aspetta di aggiungere valore, ma anche e soprattutto che il brand aggiunga valore
  7. nel web3 c’è una cultura fatta di valori legati agli elementi fondanti: decentralizzazione, autodeterminazione, trasparenza, sostenibilità, inclusività e interoperabilità sono caratteristiche che un brand deve adottare se vuole entrare nel web3.
  8. nel web3 ci vogliono, a supporto dei progetti, persone con competenze specifiche che vivano e comprendano le dinamiche, la dialettica, le piattaforme e le aspettative della community in questo ambito. Non basta avere un consulente con un avatar NFT da qualche migliaio di dollari o plotoni di consulenti con excel in mano pensando sia solo un tema di numeri e speculazione.
  9. non si può affrontare il web3 (come altre frontiere e sperimentazioni) senza pensare che il progetto potrebbe fallire, che il progetto potrebbe dover ricevere revisioni strategiche e soprattutto nuovi investimenti.
  10. nel web3, come in altri settori, non esiste un modello applicabile in modo incondizionato a tutti i brand, a tutti i progetti e a tutti gli utenti. I progetti vanno costruiti con gli utenti e per gli utenti, seriamente.

Infine, provo a condividere un monito per la community di “esperti: non perpetuiamo la “cultura del fallimento” se poi ogni volta che un nuovo progetto non va bene, stiamo li a scrivere tonnellate di analisi affondando il progetto. Anche perché per esser esperti bisogna avere esperienza fatta sul campo, e/o aver studiato tanto (tantissimo) materiale da cui aver acquisito veramente tanta conoscenza. Ma c’è tutta questa conoscenza già ora a parte i (pochi) casi noti già su mille slide?

Da un lato predichiamo di volere che le imprese sperimentino, entrino e sviluppino iniziative così da raggiungere una “adozione di massa”, ma poi, non appena le prime sperimentazioni non soddisfano le nostre alte aspettative, iniziamo a gettare ombra e a lamentarci del fatto che le aziende “non sono abbastanza pronte“.

Quante altre aziende in qualsiasi settore, in qualsiasi paese del mondo, sbagliano la loro strategia di prezzo al momento del lancio?

Sbagliare è normale, ripetere l’errore no. Vediamo adesso come andrà il progetto Porsche e vediamo se la lezione è stata appresa.