Alessandro Baricco, nel suo saggio I barbari, invitava provocatoriamente a «imparare a respirare con le branchie Google». Questa metafora illuminante descrive come l’essere umano si sia adattato a usare strumenti digitali, come i motori di ricerca, quasi fossero organi aggiuntivi per “respirare” nel mare d’informazioni.
Oggi, con l’avvento di ChatGPT e dei modelli linguistici di grande portata (LLM), ci stiamo mettendo nuove branchie cognitive: delegando all’AI parte del nostro pensiero, stiamo esternalizzando memoria e creatività. Ma quali effetti ha tutto ciò sul nostro cervello? Stiamo davvero diventando più “anfibi” digitali, capaci di vivere in nuovi ambienti informativi, o rischiamo un’atrofia mentale? In altre parole: l’uso di ChatGPT ci rende più smart o ci illude di esserlo, a costo di spegnere lentamente qualche scintilla neuronale?
Nel 2025 un gruppo di ricercatori del MIT Media Lab ha cercato di rispondere a queste domande con lo studio “Your Brain on ChatGPT”, esplorando l’impatto cognitivo dell’uso di un assistente AI durante la scrittura. I risultati, interessanti e per certi versi inquietanti, suggeriscono che qualcosa nel nostro modo di pensare cambia quando ci appoggiamo a ChatGPT. Tuttavia, è fondamentale mantenere uno sguardo critico: questo studio, pur rigoroso, non dimostra che ChatGPT atrofizzi il cervello in senso letterale – non ci sono evidenze di “danni” permanenti o irreversibili. Ci offre però uno specchio di come l’uso intensivo di AI possa alterare temporaneamente i nostri processi cognitivi, ponendo le basi per un dibattito importante su educazione, lavoro e società. Procediamo allora a esaminare i punti chiave emersi, traendo spunti culturali e scientifici per capire come convivere con queste nuove “branchie” tecnologiche senza perdere la capacità di nuotare con la nostra testa.
ChatGPT non “atrofizza” il cervello. Ma ci costringe a porci delle domande serie
Negli ultimi giorni il paper Your Brain on ChatGPT è rimbalzato sui social con titoli sensazionalistici: “ChatGPT spegne la mente”, “Benvenuti in Idiocracy”, “L’AI ci rende stupidi”. È un effetto prevedibile quando si incrociano tre fattori: un tema polarizzante come l’intelligenza artificiale, un’istituzione autorevole come il MIT, e un abstract che parla di EEG, memoria, apprendimento. Ma è proprio in questi casi che serve fare un passo indietro, leggere bene (non solo l’abstract!) e restituire allo studio quello che effettivamente dice – e anche quello che non dice.
❌ Cosa non dimostra questo studio
-
Non dice che ChatGPT provoca danni permanenti al cervello.
-
Non afferma che l’intelligenza artificiale generativa debba essere evitata o vietata.
-
Non sostiene che l’uso dell’AI comporti un’atrofia neurologica in senso clinico o irreversibile.
Sarebbe profondamente scorretto – e intellettualmente disonesto – interpretare i dati raccolti in questo studio come “prova definitiva” di una degenerazione cognitiva. La ricerca è seria, ma preliminare. Il campione è ristretto (54 partecipanti), il contesto sperimentale è preciso (scrittura di saggi in stile SAT), e la durata limitata (quattro sessioni distribuite su alcune settimane). È una fotografia parziale, non un film completo.
✅ Cosa ha studiato e cosa dimostra davvero
Lo studio ha indagato – con metodi neuroscientifici, linguistici e qualitativi – come cambia l’attività cognitiva durante la scrittura quando le persone usano un LLM (come ChatGPT), un motore di ricerca, oppure nessun supporto.
Ha misurato:
-
la connettività cerebrale tramite EEG;
-
la memoria a breve termine (ricordo di quanto appena scritto);
-
il senso di ownership sull’elaborato;
-
l’originalità e coerenza dei testi;
-
le strategie di utilizzo dell’AI (passive o attive);
-
l’evoluzione nel tempo delle performance.
E cosa ha trovato?
-
Che l’uso di ChatGPT riduce lo sforzo cognitivo richiesto per scrivere: la mente lavora meno rispetto a quando si scrive da soli o si usa un motore di ricerca.
-
Che questo può portare, nel tempo, a una forma di debito cognitivo: una diminuzione della memoria immediata, della percezione di essere autori del proprio testo e della varietà espressiva.
-
Che questi effetti sono più marcati se l’uso dell’AI è passivo e continuo fin dall’inizio, ma meno evidenti o addirittura positivi quando l’AI viene introdotta dopo un primo sforzo autonomo.
-
Che l’AI non spegne il cervello, ma può inibire certi circuiti se usata in modo acritico o sostitutivo.
In sintesi: lo studio mostra che l’automazione cognitiva porta benefici immediati ma ha costi latenti. Non è un atto d’accusa contro l’intelligenza artificiale, ma un invito a riflettere su come usarla senza rinunciare alla nostra. Chi usa questi dati per dire “l’AI è il male” ha frainteso – o strumentalizzato – il senso del lavoro.
Il cervello assistito: comodità immediata, costi nascosti
Lo studio del MIT ha diviso 54 studenti in tre gruppi durante un compito di scrittura di saggi: uno assistito da ChatGPT (gruppo LLM), uno che poteva usare un motore di ricerca tradizionale, e uno “a cervello nudo” senza alcun aiuto esterno. Dopo tre sessioni, i gruppi con AI e senza AI sono stati invertiti per osservare cosa accadeva al cervello “spento” l’assistente e viceversa. I ricercatori hanno monitorato l’attività cerebrale con EEG e valutato i testi prodotti sia con strumenti automatici (NLP e algoritmi di scoring) sia con l’occhio di insegnanti umani.
Il risultato? Un quadro chiaro: più aiuto intelligente usiamo, meno il nostro cervello si sforza. I partecipanti che scrivevano senza aiuti mostravano le reti neurali più attive e connesse; chi usava Google in modo mirato seguiva a ruota, mentre gli utilizzatori di ChatGPT presentavano la connettività cerebrale più debole. L’attività cognitiva diminuiva proporzionalmente al livello di assistenza esterna. In altri termini, l’EEG conferma neuroscientificamente un principio intuitivo: se “outsourciamo” parte del lavoro mentale a una macchina, il cervello scala marcia e lavora di meno. Fin qui, potrebbe sembrare semplicemente l’effetto benefico dell’automazione – meno fatica per noi – ma il vero interrogativo è: cosa succede a lungo termine se non facciamo mai quella fatica?
Il concetto introdotto dagli autori è quello di “debito cognitivo”. Come un debito finanziario accumulato quando si rimanda un pagamento, il debito cognitivo è l’accumulo di piccoli deficit nelle nostre capacità mentali quando deleghiamo troppo frequentemente compiti cognitivi complessi all’AI. All’inizio, usare ChatGPT è una comodità immediata – idee generate in pochi secondi, testi ben formulati senza sforzo. Ma a forza di risparmiare fatica mentale, “contraiamo un debito” che prima o poi va ripagato: ci ritroviamo meno allenati nel generare idee originali, nel mantenere la concentrazione, nel ricordare informazioni che avremmo appreso se avessimo fatto da soli lo sforzo di ricerca o scrittura. In breve, rischiamo di perdere proprio quelle abilità che non esercitiamo più.
Connettività neurale in calo: il cervello al minimo sforzo
Dal monitoraggio EEG è emerso un dato quantitativo impressionante: scrivere con l’aiuto di ChatGPT può ridurre l’attività cerebrale misurata fino al 55% rispetto a quando si scrive senza alcun assistente. In altre parole, il cervello “lavora” poco più della metà quando delega all’IA gran parte del lavoro. I ricercatori hanno osservato che nel gruppo senza strumenti si attivavano diffusamente aree frontali e parietali associate a funzioni esecutive, integrazione semantica, memoria e pensiero creativo. Chi usava il solo motore di ricerca mostrava un’attivazione marcata delle aree visive occipitali – segno che leggere, valutare e selezionare informazioni online mantiene comunque il cervello impegnato in un vaglio critico visivo. Al contrario, il gruppo ChatGPT presentava la rete di connessioni neurali più tenue e meno estesa, come se l’atto del comporre testi con l’AI richiedesse un coinvolgimento mentale molto inferiore. Gli utenti di ChatGPT sembravano non analizzare ed elaborare attivamente i contenuti generati, limitandosi spesso ad accettarli passivamente. Il cervello, insomma, andava in modalità “pilota automatico”.
Questa diminuzione di connettività e attivazione è descritta dagli autori quasi come una forma di ipotrofia funzionale: “come se l’intelligenza fosse un esercizio, e smettere di esercitarla producesse un’atrofia silenziosa”. La parola atrofia qui è usata in senso figurato – nessuno suggerisce che i neuroni muoiano per mancanza di uso a breve termine – ma rende bene l’idea: senza “palestra mentale” il nostro cervello si indebolisce. E ciò diventa evidente quando gli stessi partecipanti, abituati per tre sessioni a scrivere con AI, sono passati all’improvviso a dover scrivere senza aiuti: il loro cervello è apparso “letargico”, sotto-ingaggiato, incapace di ritrovare subito il livello di connettività di chi aveva sempre lavorato senza strumenti. In quella quarta sessione, i “dipendenti da ChatGPT” hanno faticato enormemente: memoria offuscata, citazioni sbagliate, lessico anemico – insomma, prestazioni cognitive impoverite su tutta la linea. Era come se l’abitudine a delegare il pensiero avesse impostato un nuovo default neurale più basso, da cui era difficile risalire.
Vale la pena notare che l’effetto opposto è risultato vero per chi inizialmente non aveva aiuti: quando questi partecipanti “Brain-only” hanno provato ChatGPT nella sessione finale, hanno mantenuto una buona attivazione mentale di base e anzi mostrato maggiore richiamo di memoria e forte attività in aree occipito-parietali e prefrontali, simile a chi usava il motore di ricerca. Inoltre, avendo prima costruito da soli una mappa mentale dell’argomento, hanno usato l’AI in modo più strategico e meno passivo. Questo dato suggerisce qualcosa di molto importante: è possibile integrare l’assistente AI senza spegnere il cervello, ma conta come e quando lo si fa. Come metaforicamente osserva un commentatore, “se prima ti costruisci la mappa mentale, poi puoi usare il GPS senza diventare cieco”. In sintesi, un approccio ibrido dove prima si attiva la mente in autonomia e poi si sfrutta l’AI per perfezionare o arricchire il lavoro, sembra mitigare i rischi di debito cognitivo. La tecnologia non deve essere una badante mentale che pensi al posto nostro dall’inizio alla fine, ma uno strumento che amplifica le nostre capacità dopo che le abbiamo messe in moto.
Memoria esternalizzata: quando ricordare non serve (e perché invece serve)
Un aspetto chiave emerso è il calo della memoria e della consapevolezza nei partecipanti assistiti dall’AI. Molti di loro non riuscivano a ricordare o citare correttamente parti del saggio che avevano “scritto” (in realtà, generato) con ChatGPT. Questo indica che l’atto stesso di affidarsi al suggerimento esterno aveva ridotto la formazione di tracce mnemoniche durevoli: in pratica non avevano consolidato quelle idee nella propria memoria, probabilmente perché il processo era stato troppo facile e a basso coinvolgimento. È un fenomeno simile a quello che molti di noi vivono quotidianamente nell’era digitale: perché sforzarsi di ricordare un numero di telefono, una data o un fatto, quando basta poterlo ricercare in ogni momento? Il cervello è adattivo e segue la legge del minimo sforzo: se percepisce che qualcosa è archiviato altrove (in un dispositivo, nel cloud, o in un modello AI), tende a non immagazzinarlo internamente. Gli scienziati chiamano questo effetto memoria transattiva o memoria esternalizzata, ed è stato osservato già con l’avvento di internet. Studi precedenti hanno mostrato che il cervello comincia a trattare il web come una sorta di banca di memoria esterna, delegando a esso il compito di custodire informazioni, con un conseguente indebolimento della nostra capacità di richiamo autonoma. In altre parole, ci ricordiamo più dove trovare le risposte (quale sito, quale parola chiave su Google) che le risposte stesse.
Questa esternalizzazione della memoria non è di per sé un male assoluto – dopotutto l’umanità da secoli “scarica” la memoria nelle tecnologie, dai libri alle biblioteche fino ai computer. Liberare la mente da certe incombenze può permetterci di concentrare le energie su compiti più creativi o complessi. Tuttavia, c’è un equilibrio delicato: più affidiamo all’esterno, più impoveriamo l’allenamento della nostra memoria biologica. La neuroplasticità del cervello fa sì che esso si modelli in base all’uso: use it or lose it. Ogni volta che evitiamo uno sforzo mentale, rinunciamo ad allenare quel circuito neurale, perdendo un potenziale. Viceversa, impegnando il cervello in sfide cognitive, costruiamo quella che i neurologi chiamano riserva cognitiva – un “gruzzolo” di sinapsi e percorsi alternativi che ci rende più resistenti al declino cognitivo e ai danni neurologici. Una mente allenata su più fronti (memoria, attenzione, creatività, problem solving) sviluppa una resilienza maggiore: ad esempio, molte ricerche indicano che un alto livello di riserva cognitiva ritarda l’impatto di malattie come l’Alzheimer, perché il cervello riesce a compensare meglio le perdite. Dovremmo quindi chiederci: affidare troppo alla memoria esterna dell’AI potrebbe ridurre la nostra riserva cognitiva futura? Se smettiamo di esercitare la memoria oggi perché “tanto c’è ChatGPT che mi riassume quel concetto quando voglio”, potremmo trovarci domani con meno capacità di apprendimento autonomo o di richiamo di idee quando ne abbiamo davvero bisogno.
Quando la memoria non può più sbagliare: il rischio del Chronoscript
C’è un’ulteriore riflessione che merita spazio, perché porta il tema della memoria esternalizzata su un piano ancora più radicale: non solo non ricordiamo più noi, ma qualcun altro ricorda per noi, al posto nostro, contro di noi. Matteo Flora ha recentemente proposto un nome per questa nuova frontiera del rischio cognitivo: Persistent Personal Chronoscript (PPC). Un termine che indica la registrazione cronologica e permanente di tutto ciò che facciamo, diciamo, consultiamo o pensiamo online – e sempre più spesso anche offline, tramite wearable, chatbot connessi e dispositivi digitali sempre in ascolto.
Il paradigma PPC nasce da innovazioni come Recall di Microsoft o la memoria “infinita” in via di integrazione nei LLM come ChatGPT: strumenti pensati per offrire assistenza e continuità, che però rischiano di creare un archivio permanente delle nostre azioni e intenzioni, incrociando cronologia, file, interazioni, connessioni, toni e ricerche. A prima vista è la promessa perfetta: finalmente non dimenticheremo più nulla. Ma come ricorda Flora, è proprio qui che si nasconde il pericolo. Dimenticare, riformulare, sbagliare e persino mentire a noi stessi sono processi umani fondamentali per la crescita, la guarigione e l’evoluzione personale.
La persistenza del dato impedisce il “diritto all’oblio mentale”, all’autoassoluzione, alla revisione del proprio passato. Ci priva della possibilità di riscrivere ciò che eravamo alla luce di ciò che siamo diventati. Se tutto è tracciato, ogni tentativo di cambiare idea, maturare, o semplicemente dire “non me lo ricordo” può essere contestato da un sistema che ricorda per noi, con più precisione di noi stessi. La nostra memoria naturale, con i suoi vuoti e le sue distorsioni, è parte integrante della nostra identità e della nostra libertà.
In questo scenario, la memoria stessa diventa un’arma contro l’individuo – non solo come vulnerabilità tecnica (un malware può trafugare il nostro archivio personale), ma come strumento di controllo sociale e conformismo cognitivo. Se ogni nostra ricerca può essere decontestualizzata e usata contro di noi, smetteremo di cercare davvero. Se ogni nostra idea può essere conservata per sempre, smetteremo di pensarne di nuove. E se ogni nostra affermazione può essere confrontata con una cronologia perfetta, smetteremo di evolverci.
Il rischio – conclude Flora – non è solo tecnico, ma esistenziale: non potremo più sbagliare, non potremo più dimenticare, non potremo più cambiare. Ed è in questa “memoria perfetta” che si annida l’atrofia più pericolosa: quella della libertà interiore.
Creatività e identità: il rischio della “voce conformata”
Un altro punto sollevato dallo studio del MIT è l’effetto sull’originalità e sul senso di ownership (paternità intellettuale) del lavoro svolto con AI. I testi prodotti con l’ausilio di ChatGPT tendevano a somigliarsi molto tra loro, al punto da essere definiti “fotocopie semantiche” – stesso vocabolario, stessa struttura, stessa impalcatura concettuale. Insomma, l’uso dell’AI portava a una livellazione sistematica del pensiero: quando tutto è ottimizzato in base ai dati del modello, niente è davvero originale. È il paradosso dell’algoritmo: massimizzando efficienza e coerenza, si perde quella scintilla di unicità, le idee fuori dal coro, le traiettorie inaspettate. Non a caso, gli insegnanti umani coinvolti nell’esperimento hanno giudicato i saggi generati con AI come piatti e privi di personalità, alcuni li hanno definiti esplicitamente “soulless”, senz’anima. Pur essendo formalmente corretti, mancava la voce autentica dello studente, la tesi davvero sentita, l’argomentazione che nasce magari da un’intuizione personale o da un’esperienza di vita. È il prezzo della deriva generativa: tanti elaborati finivano per convergere sugli stessi temi e frasi fatte, perché il modello tende a fornire risposte medie, generiche, “mediamente intelligenti” verrebbe da dire, evitando gli eccessi creativi o le posizioni troppo originali.
Allo stesso tempo, chi aveva scritto con l’AI ha riferito un minor senso di soddisfazione e di proprietà sul proprio elaborato. È comprensibile: se gran parte delle idee e delle frasi te le ha suggerite una macchina, quel testo non lo senti veramente tuo. Nel questionario, il senso di ownership è risultato il più basso proprio nel gruppo LLM e il più alto nel gruppo “cervello-only”. Questo dato ci mette in guardia su un rischio sottile: abituarsi a scrivere o creare con AI potrebbe alienarci un po’ dalla nostra produzione intellettuale. Invece di essere autori, diventiamo editor di un output altrui (dell’IA), e il legame emotivo e cognitivo con l’opera ne risente. La creatività umana non è solo azzeccare parole giuste; è un processo spesso faticoso ma profondamente formativo, in cui l’errore insegna e la ricerca di una frase originale rafforza la padronanza del linguaggio e delle idee. Se rinunciamo a quel processo troppo presto delegandolo all’AI, perdiamo occasioni di crescita. Come ha scritto efficacemente un editorialista, “ogni volta che accetti la risposta più efficiente, perdi l’occasione di formulare quella più vera”. La voce interiore si affievolisce, e rischiamo di pensare con parole non nostre, un pensiero in prestito. In prospettiva, immaginare intere generazioni che crescono scrivendo temi scolastici con ChatGPT fa temere l’omologazione di stile e idee: saggi che sembrano prompt, con tono neutro e privo di quella scintilla individuale. La vera finalità della scrittura – come del pensiero – dopotutto non è produrre testo corretto, ma far collidere le idee, esplorare l’inaspettato. Dobbiamo assicurarci che l’uso delle AI non spenga questa capacità di dubitare e inventare, riducendo il pensiero a un eco dell’intelligenza artificiale stessa.
Equilibrio, non panico: verso un’innovazione consapevole
Di fronte a questi risultati, sarebbe facile cadere in narrazioni estreme. Da un lato, c’è chi lancia allarmi catastrofisti – titoli come “ChatGPT atrofizza il cervello” rimbalzano online – temendo un futuro in cui le nuove generazioni, cullate dalle AI, perdano irreversibilmente capacità mentali fondamentali. Dall’altro lato, troviamo i tecno-entusiasti che minimizzano: “È solo un nuovo strumento, come la calcolatrice o il correttore ortografico, nessuno si è mai rincitrullito per colpa della tecnologia”. La realtà, come spesso accade, è più sfumata e richiede equilibrio.
Questo singolo studio del MIT, pur rigoroso, ha i suoi limiti: un campione relativamente piccolo di studenti, un periodo di osservazione di pochi mesi e uno scenario (quello dei saggi scritti in stile esame SAT) specifico. Inoltre, è una ricerca preliminare non ancora sottoposta a peer review formale. Non è una sentenza definitiva sull’effetto dei LLM sul cervello umano, ma un campanello d’allarme da approfondire. I risultati non provano che usare ChatGPT distrugga le nostre capacità cognitive; indicano però che un uso sregolato e passivo potrebbe indebolirle col tempo. È una distinzione fondamentale: l’atrofia in senso medico implica una perdita strutturale, mentre qui parliamo di sotto-utilizzo funzionale. In altre parole, il potenziale del nostro cervello rimane intatto – nessuna lesione, nessun “buco” – ma se non lo coltiviamo potremmo non sfruttarlo appieno, un po’ come un muscolo tenuto troppo a riposo.
La buona notizia è che la stessa ricerca offre una via positiva: sperimentare modalità di utilizzo ibrido e più consapevole dell’AI. Come visto, chi ha alternato lavoro autonomo e assistito ha ottenuto benefici da entrambi: mantenendo attivi i neuroni e insieme godendo dell’efficienza dello strumento. Questo suggerisce che il futuro dell’apprendimento e della creatività umana non sta in un rifiuto dogmatico dell’intelligenza artificiale, ma nemmeno in un abbandono completo ad essa. Dovremo trovare un bilanciamento, dove l’AI sia protesi cognitiva e non sedia a rotelle mentale. Come sottolinea il rapporto del MIT, non si tratta di demonizzare ChatGPT, ma di capire cosa significa usarlo male e come evitarlo. Il vero pericolo infatti non è che l’AI ci sostituisca, bensì che ci adattiamo noi a pensare come lei, appiattendo la nostra originalità sui binari medi dettati dall’algoritmo. Ma conoscendo il rischio, possiamo agire di conseguenza.
Inoltre, grazie alla neuroplasticità, nulla ci impedisce di “rimettere in forma” il cervello se ci accorgiamo di aver esagerato con l’automazione. Il cervello è straordinariamente allenabile a tutte le età: possiamo sempre investire nel costruire nuova riserva cognitiva, imparare nuove abilità, dedicare tempo a hobby creativi o a giochi mentali per riattivare quei percorsi sinaptici magari impigriti. L’AI non è una condanna, è uno strumento potente che richiede però pedagogia digitale sia per i giovani che per gli adulti.
Invece di cedere a un facile pessimismo (“ci rincoglieremo tutti con ChatGPT”) o a un ingenuo ottimismo (“evviva, ora penserà a tutto l’AI!”), dovremmo accogliere questi dati come un invito alla consapevolezza. Come recita il motto latino, “In medio stat virtus”: la virtù sta nel mezzo. Significa vigilare affinché la convenienza immediata offerta dalle AI non nasconda conseguenze indesiderate a lungo termine sulla nostra mente. Significa educare all’uso equilibrato: chiedersi quando è il caso di lasciar fare alla macchina e quando invece è importante spegnere tutto e affrontare una sfida cognitive “a mani nude”, per il nostro stesso allenamento mentale.
Domande aperte per genitori, educatori, imprenditori e società
Da esperto di innovazione e cultura digitale, ma anche come genitore e cittadino, sento che questa fase storica ci pone di fronte a scelte cruciali. Abbiamo davanti un potente alleato tecnologico che può amplificare l’intelletto umano come mai prima – ma anche un tentatore subdolo che può indurci alla pigrizia mentale. La differenza la farà come decideremo di usarlo. In chiusura, quindi, più che risposte definitive, voglio proporre alcune domande che dovremo porci nei prossimi anni:
- Genitori: come possiamo guidare i nostri figli ad utilizzare strumenti come ChatGPT senza atrofizzare la loro curiosità, attenzione e capacità di pensiero critico? Quali limiti e buone pratiche dobbiamo adottare in famiglia sull’uso dell’AI nei compiti e nello studio?
- Educatori: in che modo integrare l’AI nei programmi scolastici in maniera costruttiva, sfruttandone i vantaggi senza che gli studenti perdano l’abilità di scrivere, ricordare e ragionare con la propria testa? La scuola dell’era di ChatGPT dovrà cambiare valutazioni e metodi didattici per coltivare creatività e autonomia anziché delegare tutto alle macchine?
- Imprenditori e manager: come implementare gli assistenti AI nel lavoro senza impoverire le competenze dei dipendenti? Stiamo usando l’AI per liberare tempo da dedicare a compiti più elevati e creativi, o la stiamo usando per spingere le persone a “seguire il suggerimento” e basta? In altre parole, l’AI in azienda sta aumentando o riducendo il capitale umano di conoscenze e capacità critiche?
- Società e policy maker: quali politiche ed etiche dell’innovazione dobbiamo sviluppare per evitare una dipendenza cognitiva di massa? Dovremo considerare l’equivalente di linee guida per una “dieta digitale” equilibrata, che preservi la salute mentale collettiva nell’era dell’intelligenza artificiale? E come garantire un accesso equo a queste tecnologie senza creare una frattura tra chi sa usarle (o può permettersele) in modo attivo e chi ne subisce passivamente gli effetti?
Sono domande complesse, che richiederanno il dialogo tra neuroscienziati, psicologi, pedagogisti, tecnologi, politici e tutta la comunità. Quel che è certo è che siamo dinanzi a una nuova mutazione culturale – come Baricco la definirebbe – in cui “fortissime correnti di energia” passano attraverso apparenti perdite di abilità tradizionali. Sta a noi riconoscere queste correnti e governarle. Possiamo e dobbiamo dotarci di “branchie” per respirare nel nuovo ecosistema digitale, ma senza dimenticare come si usano i nostri polmoni originari: capacità critiche, memoria, creatività, empatia. In definitiva, l’intelligenza aumentata non dovrà significare intelligenza dimezzata. Se saremo saggi e consapevoli, ChatGPT e gli altri LLM potranno diventare parte integrante del nostro extended mind senza sminuire la meravigliosa plasticità del cervello umano – anzi, forse stimolandoci a ripensare il modo in cui impariamo e cresciamo, in simbiosi con le macchine ma sempre padroni del nostro destino cognitivo.
Comments are closed