Negli ultimi mesi ho lavorato su tre testi diversi, ma legati da un filo unico: capire cosa sta diventando il digitale quando smette di essere “uno schermo” e diventa ambiente, infrastruttura e, soprattutto, comportamento. “Pelle Digitale” prova a nominare il cambiamento (e le sue implicazioni umane). La guida su LocalAI spiega come costruire un ecosistema di AI privata e controllabile. La guida su OpenClaw porta tutto sul piano operativo: un assistente che non si limita a rispondere, ma agisce.

 


Negli ultimi mesi sono usciti tre miei lavori che, a prima vista, sembrano parlare a pubblici diversi: un saggio, due guide pratiche. In realtà, sono tre capitoli della stessa domanda: cosa succede quando la tecnologia smette di essere un “mezzo” e diventa uno “strato” della realtà? Uno strato che ci avvolge, ci legge, ci anticipa, ci indirizza. E che, proprio per questo, va capito prima ancora che usato.

Il primo punto è semplice e scomodo: non stiamo vivendo un’ennesima ondata di innovazione. Stiamo attraversando un cambio di postura dell’umano. Il digitale non è più un luogo separato (il web, l’app, la piattaforma). È un sistema nervoso diffuso fatto di sensori, modelli, agenti, edge, interfacce spaziali. Una “intelligenza invisibile” che diventa infrastruttura del quotidiano, mentre noi continuiamo a raccontarcela come una serie di prodotti e feature.

Da qui nasce “Pelle Digitale”: un tentativo di dare un nome alla convergenza tra AI e mondo fisico, e di ragionare sul prezzo (e sul valore) di questa simbiosi. Perché se la tecnologia migra “dalla tasca alla pelle”, cambiano le regole dell’esperienza, della percezione, della relazione e del potere. Non è un libro sulle tendenze: è una mappa per non subire lo shift.

Il secondo punto è operativo: se l’AI diventa una componente strutturale, allora serve una scelta di architettura. E la scelta non è solo tecnica: è politica, economica, culturale. “AI locale” significa, prima di tutto, riprendersi controllo su dati, costi, personalizzazione e continuità operativa. È una forma di sovranità digitale: non delegare tutto al cloud per abitudine, ma decidere dove vive la tua intelligenza, con quali vincoli, con quali garanzie. 

È il senso della “Guida completa a LocalAI, LocalAGI e LocalRecall”: un percorso pratico per costruire un ecosistema privato (LLM, memoria, agenti) su hardware consumer, con strumenti open-source e API compatibili. Non è un manuale “da laboratorio”: è una guida pensata per chi vuole capire davvero cosa sta installando e perché, e per chi vuole passare dalla demo al sistema.

Il terzo punto è l’ultimo miglio: quando l’AI smette di essere solo conversazione e diventa azione. Qui entrano gli agenti autonomi e la nuova categoria degli “assistenti che fanno cose”: non solo risposte, ma task, workflow, automazioni, verifiche, iterazioni. “OpenClaw: La Guida Completa all’Assistente AI Personale” nasce per spiegare come funziona (davvero) un agente che interagisce con sistema operativo, browser e strumenti quotidiani, e soprattutto come lo si governa in sicurezza.

Se devo sintetizzare il filo rosso, è questo: stiamo costruendo un mondo in cui il digitale diventa ambiente. Un ambiente può essere accogliente o ostile. Può amplificare autonomia o erodere libertà. Può rendere le persone più capaci o più dipendenti. E la differenza la fanno design, governance e responsabilità.

Per questo i tre libri, scritti nel primo trimestre del 2026, possono essere letti come una sequenza naturale, dal senso all’implementazione:

  1. “Pelle Digitale” per capire il contesto: cosa sta succedendo al rapporto tra corpo, spazio, interfacce e intelligenza.
  2. “LocalAI” per costruire la base: un’infrastruttura AI privata (inferenza, memoria, agenti) sotto il tuo controllo.
  3. “OpenClaw” per passare all’azione: un assistente agentico, con architettura modulare e una disciplina di sicurezza “prima dei superpoteri”.

E se invece vuoi una lettura “per ruolo”, ecco tre percorsi possibili.

Se guidi un’azienda, un team, un prodotto: parti da “Pelle Digitale” per mettere ordine nelle implicazioni (attenzione, opacità, relazioni aumentate, umanesimo aumentato) e poi scendi su LocalAI per capire cosa significa progettare sistemi AI sostenibili, non solo esperimenti.

Se sei tecnico (dev, data, IT, security): parti da LocalAI per costruire stack, costi e privacy; poi OpenClaw per capire come si traduce l’AI in agenti “operativi” e quali sono i rischi reali quando un modello può toccare file, browser e credenziali.

Se sei curioso e vuoi un quadro completo: parti da “Pelle Digitale”, ma tieni LocalAI e OpenClaw come “laboratori”: ti aiutano a trasformare concetti in oggetti, e oggetti in pratiche.

Il punto, per me, non è aggiungere contenuti al rumore. È offrire tre strumenti di orientamento: una mappa concettuale, una guida infrastrutturale, una guida agentica. Perché la vera domanda non è “cosa può fare l’AI?”. La domanda è “che tipo di mondo stiamo costruendo quando la rendiamo ovunque?”.

Comments are closed