C’è stato un tempo (e forse c’è ancora) in cui il comando “vai a farmi le fotocopie” era il simbolo per eccellenza della gerarchia operativa. Diretto, inequivocabile, senza margini di interpretazione o ambiguità. Più o meno.
Vi starete domandando cosa c’entra questo con l’AI, con il rilascio di Perplexity o del recente Operator di OpenAI, vero? Non ci crederete ma un legame, con l’evoluzione e l’arrivo degli agenti, questo tema è molto attuale.
Pensateci, con un’intelligenza artificiale non funziona più essere autoritari: bisogna essere collaborativi. E forse anche un po’ educati.
Partiamo dal principio.
Dal comando al dialogo: chi educa chi?
La relazione con un agente AI, viste le evoluzioni recenti, le potenzialità e l’efficacia che stanno cominciando ad avere, non è più univoca: è una relazione che diventa dialogica e persino educativa. Il fatto di dover collaborare con un agente AI, e non comandarlo come verrebbe naturale, implica un cambio di prospettiva non da poco. Non possiamo più limitarci ad impartire ordini secchi; dobbiamo chiederci come formulare una richiesta in modo che sia compresa e, soprattutto, eseguita al meglio.
Immaginate la scena:
- “Vai a farmi le fotocopie.”
- L’AI risponde: “Quali pagine? A colori o in bianco e nero? E quante copie esattamente?”
- Tu: “Fai tu.”
- L’AI: “Fai tu cosa? C’è un errore nella richiesta / prompt.”
Ecco, questa è la nuova realtà: l’AI non si accontenta di eseguire, vuole capire. E noi, da “padroni del comando”, dobbiamo trasformarci in partner comunicativi, in grado di spiegare non solo cosa vogliamo, ma anche perché e come lo vogliamo. E se non iniziamo ad agire così abbiamo due possibili effetti che, in alcuni casi, iniziano già a manifestarsi: il primo è che l’AI, questo strumento magico che sembra possa fare tutto, in effetti non capisce e non fa quello che ci aspettiamo. Il secondo effetto, successivo, è noi non sappiamo chiederle ciò che ci serve e questo ci fa sentire inferiori potenzialmente.
Un nuovo (possibile) galateo
Se gli agenti AI diventano partner dialogici, forse dovremmo iniziare a pensare al nostro tono. Dopotutto, nessuno ama o ha mai amato un capo che urla, da comandi e impone di fare cose senza spiegarsi. E se la tecnologia ci stesse insegnando qualcosa, non in modo diretto, sul valore della gentilezza? Immaginate di dover chiedere all’AI di prenotare un volo:
- Versione “vai a farmi le fotocopie“: “Prenota il volo per Milano.”
- Versione dialogica: “Mi aiuti a trovare il miglior volo per Milano? Preferisco partire al mattino e con pochi scali.“
Io credo che sia palese che una delle due è efficace, mentre l’altra no. Non solo la seconda versione è più chiara, ma risulta anche più… umana!
È ironico: un agente digitale, apparentemente privo di emozioni, ci costringe a essere più consapevoli del nostro modo di comunicare. Forse, nel tentativo di insegnare all’AI come interagire con noi, stiamo imparando noi stessi a interagire meglio con gli altri?
Dal “cosa” al “perché”
La vera rivoluzione di questo shift non è solo nel come chiediamo, ma nel perché lo chiediamo. Quando diciamo all’AI di fare qualcosa, stiamo implicitamente trasferendo a lei il processo decisionale. Non stiamo solo delegando un compito, ma anche il modo in cui quel compito verrà eseguito. E qui nasce una domanda cruciale: siamo davvero pronti a cedere questo potere?
Prendiamo un esempio semplice: “Organizza la mia giornata.”
Se non forniamo contesto, l’AI potrebbe pianificare otto meeting consecutivi senza pause. Ha sbagliato? No, semplicemente ha eseguito un compito interpretandolo sulla base delle informazioni che aveva a disposizione. Non vi sembra un dejavù, no? Se non spieghiamo perché abbiamo bisogno di spazio per pensare o di tempo per un pranzo tranquillo, l’AI non potrà saperlo.
La verità è che chiedere bene richiede una certa dose di autoconsapevolezza. Dobbiamo sapere cosa vogliamo e perché lo vogliamo, altrimenti rischiamo di essere “mal serviti” da un’entità che, paradossalmente, cerca solo di aiutarci.
Chi è il maestro?
E qui arriviamo al punto più ironico (e forse non solo ironico) di tutti: chi sta educando chi? Stiamo insegnando all’AI a comprendere meglio il linguaggio umano? Oppure è l’AI che, indirettamente, ci sta insegnando a essere più chiari, più collaborativi, persino più riflessivi? Forse, l’evoluzione degli agenti AI non riguarda tanto il loro apprendimento, quanto il nostro.
Questi sistemi ci costringono a fermarci, a pensare, a chiarire.
Non possiamo più limitarci a dire “vai a farmi le fotocopie“; dobbiamo chiederci: “Perché servono? Come posso spiegare meglio la mia richiesta?” E in questo processo, potremmo scoprire che la tecnologia non sta solo automatizzando i nostri compiti, ma sta affinando le nostre capacità di comunicazione e comprensione. Una lezione inaspettata da un’entità che non ha né cuore né anima.
Eppure è un insegnamento che ha sicuramente un impatto sul singolo, ma potenzialmente avrà un impatto anche sul modo in cui le aziende si approcceranno a questa ennesima trasformazione: ridefinire lo scopo prima di attivare una azione che non necessariamente sarà utile.
La gentilezza del futuro
Forse, un giorno, guarderemo indietro e penseremo che la rivoluzione dell’AI non è stata tanto nell’efficienza o nell’automazione, su cui tutti, chi più e chi meno stiamo mettendo la testa, ma nel suo impatto sul nostro modo di pensare e interagire. Esattamente come scrivevo anche giorni fa nel post “Comprensione e fiducia: l’evoluzione dell’interazione uomo-macchina” . Gli agenti AI ci stanno spingendo a rivalutare non solo cosa chiediamo, ma come e perché lo facciamo. E chissà, magari la prossima volta che ci verrà da dire “vai a farmi le fotocopie”, ci fermeremo un attimo.
Forse sorrideremo e diremo: “Mi aiuti a organizzare al meglio questo lavoro? Grazie.”
E quel grazie, in fondo, potrebbe essere il vero segno del nostro progresso.