ChatGPT non atrofizza il cervello. Ma ci costringe, finalmente, a pensare a come lo stiamo usando.

Alessandro Baricco, nel suo saggio I barbari, invitava provocatoriamente a «imparare a respirare con le branchie Google». Questa metafora illuminante descrive come l’essere umano si sia adattato a usare strumenti digitali, come i motori di ricerca, quasi fossero organi aggiuntivi per “respirare” nel mare d’informazioni.

Oggi, con l’avvento di ChatGPT e dei modelli linguistici di grande portata (LLM), ci stiamo mettendo nuove branchie cognitive: delegando all’AI parte del nostro pensiero, stiamo esternalizzando memoria e creatività. Ma quali effetti ha tutto ciò sul nostro cervello? Stiamo davvero diventando più “anfibi” digitali, capaci di vivere in nuovi ambienti informativi, o rischiamo un’atrofia mentale? In altre parole: l’uso di ChatGPT ci rende più smart o ci illude di esserlo, a costo di spegnere lentamente qualche scintilla neuronale?

Nel 2025 un gruppo di ricercatori del MIT Media Lab ha cercato di rispondere a queste domande con lo studio “Your Brain on ChatGPT”, esplorando l’impatto cognitivo dell’uso di un assistente AI durante la scrittura. I risultati, interessanti e per certi versi inquietanti, suggeriscono che qualcosa nel nostro modo di pensare cambia quando ci appoggiamo a ChatGPT. Tuttavia, è fondamentale mantenere uno sguardo critico: questo studio, pur rigoroso, non dimostra che ChatGPT atrofizzi il cervello in senso letterale – non ci sono evidenze di “danni” permanenti o irreversibili. Ci offre però uno specchio di come l’uso intensivo di AI possa alterare temporaneamente i nostri processi cognitivi, ponendo le basi per un dibattito importante su educazione, lavoro e società. Procediamo allora a esaminare i punti chiave emersi, traendo spunti culturali e scientifici per capire come convivere con queste nuove “branchie” tecnologiche senza perdere la capacità di nuotare con la nostra testa.

ChatGPT non “atrofizza” il cervello. Ma ci costringe a porci delle domande serie

Negli ultimi giorni il paper Your Brain on ChatGPT è rimbalzato sui social con titoli sensazionalistici: “ChatGPT spegne la mente”, “Benvenuti in Idiocracy”, “L’AI ci rende stupidi”. È un effetto prevedibile quando si incrociano tre fattori: un tema polarizzante come l’intelligenza artificiale, un’istituzione autorevole come il MIT, e un abstract che parla di EEG, memoria, apprendimento. Ma è proprio in questi casi che serve fare un passo indietro, leggere bene (non solo l’abstract!) e restituire allo studio quello che effettivamente dice – e anche quello che non dice.

❌ Cosa non dimostra questo studio

  • Non dice che ChatGPT provoca danni permanenti al cervello.

  • Non afferma che l’intelligenza artificiale generativa debba essere evitata o vietata.

  • Non sostiene che l’uso dell’AI comporti un’atrofia neurologica in senso clinico o irreversibile.

Sarebbe profondamente scorretto – e intellettualmente disonesto – interpretare i dati raccolti in questo studio come “prova definitiva” di una degenerazione cognitiva. La ricerca è seria, ma preliminare. Il campione è ristretto (54 partecipanti), il contesto sperimentale è preciso (scrittura di saggi in stile SAT), e la durata limitata (quattro sessioni distribuite su alcune settimane). È una fotografia parziale, non un film completo.

✅ Cosa ha studiato e cosa dimostra davvero

Lo studio ha indagato – con metodi neuroscientifici, linguistici e qualitativi – come cambia l’attività cognitiva durante la scrittura quando le persone usano un LLM (come ChatGPT), un motore di ricerca, oppure nessun supporto.

Ha misurato:

  • la connettività cerebrale tramite EEG;

  • la memoria a breve termine (ricordo di quanto appena scritto);

  • il senso di ownership sull’elaborato;

  • l’originalità e coerenza dei testi;

  • le strategie di utilizzo dell’AI (passive o attive);

  • l’evoluzione nel tempo delle performance.

E cosa ha trovato?

  • Che l’uso di ChatGPT riduce lo sforzo cognitivo richiesto per scrivere: la mente lavora meno rispetto a quando si scrive da soli o si usa un motore di ricerca.

  • Che questo può portare, nel tempo, a una forma di debito cognitivo: una diminuzione della memoria immediata, della percezione di essere autori del proprio testo e della varietà espressiva.

  • Che questi effetti sono più marcati se l’uso dell’AI è passivo e continuo fin dall’inizio, ma meno evidenti o addirittura positivi quando l’AI viene introdotta dopo un primo sforzo autonomo.

  • Che l’AI non spegne il cervello, ma può inibire certi circuiti se usata in modo acritico o sostitutivo.

In sintesi: lo studio mostra che l’automazione cognitiva porta benefici immediati ma ha costi latenti. Non è un atto d’accusa contro l’intelligenza artificiale, ma un invito a riflettere su come usarla senza rinunciare alla nostra. Chi usa questi dati per dire “l’AI è il male” ha frainteso – o strumentalizzato – il senso del lavoro.

Il cervello assistito: comodità immediata, costi nascosti

Lo studio del MIT ha diviso 54 studenti in tre gruppi durante un compito di scrittura di saggi: uno assistito da ChatGPT (gruppo LLM), uno che poteva usare un motore di ricerca tradizionale, e uno “a cervello nudo” senza alcun aiuto esterno. Dopo tre sessioni, i gruppi con AI e senza AI sono stati invertiti per osservare cosa accadeva al cervello “spento” l’assistente e viceversa. I ricercatori hanno monitorato l’attività cerebrale con EEG e valutato i testi prodotti sia con strumenti automatici (NLP e algoritmi di scoring) sia con l’occhio di insegnanti umani.

Il risultato? Un quadro chiaro: più aiuto intelligente usiamo, meno il nostro cervello si sforza. I partecipanti che scrivevano senza aiuti mostravano le reti neurali più attive e connesse; chi usava Google in modo mirato seguiva a ruota, mentre gli utilizzatori di ChatGPT presentavano la connettività cerebrale più debole. L’attività cognitiva diminuiva proporzionalmente al livello di assistenza esterna. In altri termini, l’EEG conferma neuroscientificamente un principio intuitivo: se “outsourciamo” parte del lavoro mentale a una macchina, il cervello scala marcia e lavora di meno. Fin qui, potrebbe sembrare semplicemente l’effetto benefico dell’automazione – meno fatica per noi – ma il vero interrogativo è: cosa succede a lungo termine se non facciamo mai quella fatica?

Il concetto introdotto dagli autori è quello di “debito cognitivo”. Come un debito finanziario accumulato quando si rimanda un pagamento, il debito cognitivo è l’accumulo di piccoli deficit nelle nostre capacità mentali quando deleghiamo troppo frequentemente compiti cognitivi complessi all’AI. All’inizio, usare ChatGPT è una comodità immediata – idee generate in pochi secondi, testi ben formulati senza sforzo. Ma a forza di risparmiare fatica mentale, “contraiamo un debito” che prima o poi va ripagato: ci ritroviamo meno allenati nel generare idee originali, nel mantenere la concentrazione, nel ricordare informazioni che avremmo appreso se avessimo fatto da soli lo sforzo di ricerca o scrittura. In breve, rischiamo di perdere proprio quelle abilità che non esercitiamo più.

Connettività neurale in calo: il cervello al minimo sforzo

Dal monitoraggio EEG è emerso un dato quantitativo impressionante: scrivere con l’aiuto di ChatGPT può ridurre l’attività cerebrale misurata fino al 55% rispetto a quando si scrive senza alcun assistente. In altre parole, il cervello “lavora” poco più della metà quando delega all’IA gran parte del lavoro. I ricercatori hanno osservato che nel gruppo senza strumenti si attivavano diffusamente aree frontali e parietali associate a funzioni esecutive, integrazione semantica, memoria e pensiero creativo. Chi usava il solo motore di ricerca mostrava un’attivazione marcata delle aree visive occipitali – segno che leggere, valutare e selezionare informazioni online mantiene comunque il cervello impegnato in un vaglio critico visivo. Al contrario, il gruppo ChatGPT presentava la rete di connessioni neurali più tenue e meno estesa, come se l’atto del comporre testi con l’AI richiedesse un coinvolgimento mentale molto inferiore. Gli utenti di ChatGPT sembravano non analizzare ed elaborare attivamente i contenuti generati, limitandosi spesso ad accettarli passivamente. Il cervello, insomma, andava in modalità “pilota automatico”.

Questa diminuzione di connettività e attivazione è descritta dagli autori quasi come una forma di ipotrofia funzionale: “come se l’intelligenza fosse un esercizio, e smettere di esercitarla producesse un’atrofia silenziosa”. La parola atrofia qui è usata in senso figurato – nessuno suggerisce che i neuroni muoiano per mancanza di uso a breve termine – ma rende bene l’idea: senza “palestra mentale” il nostro cervello si indebolisce. E ciò diventa evidente quando gli stessi partecipanti, abituati per tre sessioni a scrivere con AI, sono passati all’improvviso a dover scrivere senza aiuti: il loro cervello è apparso “letargico”, sotto-ingaggiato, incapace di ritrovare subito il livello di connettività di chi aveva sempre lavorato senza strumenti. In quella quarta sessione, i “dipendenti da ChatGPT” hanno faticato enormemente: memoria offuscata, citazioni sbagliate, lessico anemico – insomma, prestazioni cognitive impoverite su tutta la linea. Era come se l’abitudine a delegare il pensiero avesse impostato un nuovo default neurale più basso, da cui era difficile risalire.

Vale la pena notare che l’effetto opposto è risultato vero per chi inizialmente non aveva aiuti: quando questi partecipanti “Brain-only” hanno provato ChatGPT nella sessione finale, hanno mantenuto una buona attivazione mentale di base e anzi mostrato maggiore richiamo di memoria e forte attività in aree occipito-parietali e prefrontali, simile a chi usava il motore di ricerca. Inoltre, avendo prima costruito da soli una mappa mentale dell’argomento, hanno usato l’AI in modo più strategico e meno passivo. Questo dato suggerisce qualcosa di molto importante: è possibile integrare l’assistente AI senza spegnere il cervello, ma conta come e quando lo si fa. Come metaforicamente osserva un commentatore, “se prima ti costruisci la mappa mentale, poi puoi usare il GPS senza diventare cieco”. In sintesi, un approccio ibrido dove prima si attiva la mente in autonomia e poi si sfrutta l’AI per perfezionare o arricchire il lavoro, sembra mitigare i rischi di debito cognitivo. La tecnologia non deve essere una badante mentale che pensi al posto nostro dall’inizio alla fine, ma uno strumento che amplifica le nostre capacità dopo che le abbiamo messe in moto.

Memoria esternalizzata: quando ricordare non serve (e perché invece serve)

Un aspetto chiave emerso è il calo della memoria e della consapevolezza nei partecipanti assistiti dall’AI. Molti di loro non riuscivano a ricordare o citare correttamente parti del saggio che avevano “scritto” (in realtà, generato) con ChatGPT. Questo indica che l’atto stesso di affidarsi al suggerimento esterno aveva ridotto la formazione di tracce mnemoniche durevoli: in pratica non avevano consolidato quelle idee nella propria memoria, probabilmente perché il processo era stato troppo facile e a basso coinvolgimento. È un fenomeno simile a quello che molti di noi vivono quotidianamente nell’era digitale: perché sforzarsi di ricordare un numero di telefono, una data o un fatto, quando basta poterlo ricercare in ogni momento? Il cervello è adattivo e segue la legge del minimo sforzo: se percepisce che qualcosa è archiviato altrove (in un dispositivo, nel cloud, o in un modello AI), tende a non immagazzinarlo internamente. Gli scienziati chiamano questo effetto memoria transattiva o memoria esternalizzata, ed è stato osservato già con l’avvento di internet. Studi precedenti hanno mostrato che il cervello comincia a trattare il web come una sorta di banca di memoria esterna, delegando a esso il compito di custodire informazioni, con un conseguente indebolimento della nostra capacità di richiamo autonoma. In altre parole, ci ricordiamo più dove trovare le risposte (quale sito, quale parola chiave su Google) che le risposte stesse.

Questa esternalizzazione della memoria non è di per sé un male assoluto – dopotutto l’umanità da secoli “scarica” la memoria nelle tecnologie, dai libri alle biblioteche fino ai computer. Liberare la mente da certe incombenze può permetterci di concentrare le energie su compiti più creativi o complessi. Tuttavia, c’è un equilibrio delicato: più affidiamo all’esterno, più impoveriamo l’allenamento della nostra memoria biologica. La neuroplasticità del cervello fa sì che esso si modelli in base all’uso: use it or lose it. Ogni volta che evitiamo uno sforzo mentale, rinunciamo ad allenare quel circuito neurale, perdendo un potenziale. Viceversa, impegnando il cervello in sfide cognitive, costruiamo quella che i neurologi chiamano riserva cognitiva – un “gruzzolo” di sinapsi e percorsi alternativi che ci rende più resistenti al declino cognitivo e ai danni neurologici. Una mente allenata su più fronti (memoria, attenzione, creatività, problem solving) sviluppa una resilienza maggiore: ad esempio, molte ricerche indicano che un alto livello di riserva cognitiva ritarda l’impatto di malattie come l’Alzheimer, perché il cervello riesce a compensare meglio le perdite. Dovremmo quindi chiederci: affidare troppo alla memoria esterna dell’AI potrebbe ridurre la nostra riserva cognitiva futura? Se smettiamo di esercitare la memoria oggi perché “tanto c’è ChatGPT che mi riassume quel concetto quando voglio”, potremmo trovarci domani con meno capacità di apprendimento autonomo o di richiamo di idee quando ne abbiamo davvero bisogno.

Quando la memoria non può più sbagliare: il rischio del Chronoscript

C’è un’ulteriore riflessione che merita spazio, perché porta il tema della memoria esternalizzata su un piano ancora più radicale: non solo non ricordiamo più noi, ma qualcun altro ricorda per noi, al posto nostro, contro di noi. Matteo Flora ha recentemente proposto un nome per questa nuova frontiera del rischio cognitivo: Persistent Personal Chronoscript (PPC). Un termine che indica la registrazione cronologica e permanente di tutto ciò che facciamo, diciamo, consultiamo o pensiamo online – e sempre più spesso anche offline, tramite wearable, chatbot connessi e dispositivi digitali sempre in ascolto.

Il paradigma PPC nasce da innovazioni come Recall di Microsoft o la memoria “infinita” in via di integrazione nei LLM come ChatGPT: strumenti pensati per offrire assistenza e continuità, che però rischiano di creare un archivio permanente delle nostre azioni e intenzioni, incrociando cronologia, file, interazioni, connessioni, toni e ricerche. A prima vista è la promessa perfetta: finalmente non dimenticheremo più nulla. Ma come ricorda Flora, è proprio qui che si nasconde il pericolo. Dimenticare, riformulare, sbagliare e persino mentire a noi stessi sono processi umani fondamentali per la crescita, la guarigione e l’evoluzione personale.

La persistenza del dato impedisce il “diritto all’oblio mentale”, all’autoassoluzione, alla revisione del proprio passato. Ci priva della possibilità di riscrivere ciò che eravamo alla luce di ciò che siamo diventati. Se tutto è tracciato, ogni tentativo di cambiare idea, maturare, o semplicemente dire “non me lo ricordo” può essere contestato da un sistema che ricorda per noi, con più precisione di noi stessi. La nostra memoria naturale, con i suoi vuoti e le sue distorsioni, è parte integrante della nostra identità e della nostra libertà.

In questo scenario, la memoria stessa diventa un’arma contro l’individuo – non solo come vulnerabilità tecnica (un malware può trafugare il nostro archivio personale), ma come strumento di controllo sociale e conformismo cognitivo. Se ogni nostra ricerca può essere decontestualizzata e usata contro di noi, smetteremo di cercare davvero. Se ogni nostra idea può essere conservata per sempre, smetteremo di pensarne di nuove. E se ogni nostra affermazione può essere confrontata con una cronologia perfetta, smetteremo di evolverci.

Il rischio – conclude Flora – non è solo tecnico, ma esistenziale: non potremo più sbagliare, non potremo più dimenticare, non potremo più cambiare. Ed è in questa “memoria perfetta” che si annida l’atrofia più pericolosa: quella della libertà interiore.

Creatività e identità: il rischio della “voce conformata”

Un altro punto sollevato dallo studio del MIT è l’effetto sull’originalità e sul senso di ownership (paternità intellettuale) del lavoro svolto con AI. I testi prodotti con l’ausilio di ChatGPT tendevano a somigliarsi molto tra loro, al punto da essere definiti “fotocopie semantiche” – stesso vocabolario, stessa struttura, stessa impalcatura concettuale. Insomma, l’uso dell’AI portava a una livellazione sistematica del pensiero: quando tutto è ottimizzato in base ai dati del modello, niente è davvero originale. È il paradosso dell’algoritmo: massimizzando efficienza e coerenza, si perde quella scintilla di unicità, le idee fuori dal coro, le traiettorie inaspettate. Non a caso, gli insegnanti umani coinvolti nell’esperimento hanno giudicato i saggi generati con AI come piatti e privi di personalità, alcuni li hanno definiti esplicitamente “soulless”, senz’anima. Pur essendo formalmente corretti, mancava la voce autentica dello studente, la tesi davvero sentita, l’argomentazione che nasce magari da un’intuizione personale o da un’esperienza di vita. È il prezzo della deriva generativa: tanti elaborati finivano per convergere sugli stessi temi e frasi fatte, perché il modello tende a fornire risposte medie, generiche, “mediamente intelligenti” verrebbe da dire, evitando gli eccessi creativi o le posizioni troppo originali.

Allo stesso tempo, chi aveva scritto con l’AI ha riferito un minor senso di soddisfazione e di proprietà sul proprio elaborato. È comprensibile: se gran parte delle idee e delle frasi te le ha suggerite una macchina, quel testo non lo senti veramente tuo. Nel questionario, il senso di ownership è risultato il più basso proprio nel gruppo LLM e il più alto nel gruppo “cervello-only”. Questo dato ci mette in guardia su un rischio sottile: abituarsi a scrivere o creare con AI potrebbe alienarci un po’ dalla nostra produzione intellettuale. Invece di essere autori, diventiamo editor di un output altrui (dell’IA), e il legame emotivo e cognitivo con l’opera ne risente. La creatività umana non è solo azzeccare parole giuste; è un processo spesso faticoso ma profondamente formativo, in cui l’errore insegna e la ricerca di una frase originale rafforza la padronanza del linguaggio e delle idee. Se rinunciamo a quel processo troppo presto delegandolo all’AI, perdiamo occasioni di crescita. Come ha scritto efficacemente un editorialista, “ogni volta che accetti la risposta più efficiente, perdi l’occasione di formulare quella più vera”. La voce interiore si affievolisce, e rischiamo di pensare con parole non nostre, un pensiero in prestito. In prospettiva, immaginare intere generazioni che crescono scrivendo temi scolastici con ChatGPT fa temere l’omologazione di stile e idee: saggi che sembrano prompt, con tono neutro e privo di quella scintilla individuale. La vera finalità della scrittura – come del pensiero – dopotutto non è produrre testo corretto, ma far collidere le idee, esplorare l’inaspettato. Dobbiamo assicurarci che l’uso delle AI non spenga questa capacità di dubitare e inventare, riducendo il pensiero a un eco dell’intelligenza artificiale stessa.

Equilibrio, non panico: verso un’innovazione consapevole

Di fronte a questi risultati, sarebbe facile cadere in narrazioni estreme. Da un lato, c’è chi lancia allarmi catastrofisti – titoli come “ChatGPT atrofizza il cervello” rimbalzano online – temendo un futuro in cui le nuove generazioni, cullate dalle AI, perdano irreversibilmente capacità mentali fondamentali. Dall’altro lato, troviamo i tecno-entusiasti che minimizzano: “È solo un nuovo strumento, come la calcolatrice o il correttore ortografico, nessuno si è mai rincitrullito per colpa della tecnologia”. La realtà, come spesso accade, è più sfumata e richiede equilibrio.

Questo singolo studio del MIT, pur rigoroso, ha i suoi limiti: un campione relativamente piccolo di studenti, un periodo di osservazione di pochi mesi e uno scenario (quello dei saggi scritti in stile esame SAT) specifico. Inoltre, è una ricerca preliminare non ancora sottoposta a peer review formale. Non è una sentenza definitiva sull’effetto dei LLM sul cervello umano, ma un campanello d’allarme da approfondire. I risultati non provano che usare ChatGPT distrugga le nostre capacità cognitive; indicano però che un uso sregolato e passivo potrebbe indebolirle col tempo. È una distinzione fondamentale: l’atrofia in senso medico implica una perdita strutturale, mentre qui parliamo di sotto-utilizzo funzionale. In altre parole, il potenziale del nostro cervello rimane intatto – nessuna lesione, nessun “buco” – ma se non lo coltiviamo potremmo non sfruttarlo appieno, un po’ come un muscolo tenuto troppo a riposo.

La buona notizia è che la stessa ricerca offre una via positiva: sperimentare modalità di utilizzo ibrido e più consapevole dell’AI. Come visto, chi ha alternato lavoro autonomo e assistito ha ottenuto benefici da entrambi: mantenendo attivi i neuroni e insieme godendo dell’efficienza dello strumento. Questo suggerisce che il futuro dell’apprendimento e della creatività umana non sta in un rifiuto dogmatico dell’intelligenza artificiale, ma nemmeno in un abbandono completo ad essa. Dovremo trovare un bilanciamento, dove l’AI sia protesi cognitiva e non sedia a rotelle mentale. Come sottolinea il rapporto del MIT, non si tratta di demonizzare ChatGPT, ma di capire cosa significa usarlo male e come evitarlo. Il vero pericolo infatti non è che l’AI ci sostituisca, bensì che ci adattiamo noi a pensare come lei, appiattendo la nostra originalità sui binari medi dettati dall’algoritmo. Ma conoscendo il rischio, possiamo agire di conseguenza.

Inoltre, grazie alla neuroplasticità, nulla ci impedisce di “rimettere in forma” il cervello se ci accorgiamo di aver esagerato con l’automazione. Il cervello è straordinariamente allenabile a tutte le età: possiamo sempre investire nel costruire nuova riserva cognitiva, imparare nuove abilità, dedicare tempo a hobby creativi o a giochi mentali per riattivare quei percorsi sinaptici magari impigriti. L’AI non è una condanna, è uno strumento potente che richiede però pedagogia digitale sia per i giovani che per gli adulti.

Invece di cedere a un facile pessimismo (“ci rincoglieremo tutti con ChatGPT”) o a un ingenuo ottimismo (“evviva, ora penserà a tutto l’AI!”), dovremmo accogliere questi dati come un invito alla consapevolezza. Come recita il motto latino, “In medio stat virtus”: la virtù sta nel mezzo. Significa vigilare affinché la convenienza immediata offerta dalle AI non nasconda conseguenze indesiderate a lungo termine sulla nostra mente. Significa educare all’uso equilibrato: chiedersi quando è il caso di lasciar fare alla macchina e quando invece è importante spegnere tutto e affrontare una sfida cognitive “a mani nude”, per il nostro stesso allenamento mentale.

Domande aperte per genitori, educatori, imprenditori e società

Da esperto di innovazione e cultura digitale, ma anche come genitore e cittadino, sento che questa fase storica ci pone di fronte a scelte cruciali. Abbiamo davanti un potente alleato tecnologico che può amplificare l’intelletto umano come mai prima – ma anche un tentatore subdolo che può indurci alla pigrizia mentale. La differenza la farà come decideremo di usarlo. In chiusura, quindi, più che risposte definitive, voglio proporre alcune domande che dovremo porci nei prossimi anni:

  • Genitori: come possiamo guidare i nostri figli ad utilizzare strumenti come ChatGPT senza atrofizzare la loro curiosità, attenzione e capacità di pensiero critico? Quali limiti e buone pratiche dobbiamo adottare in famiglia sull’uso dell’AI nei compiti e nello studio?
  • Educatori: in che modo integrare l’AI nei programmi scolastici in maniera costruttiva, sfruttandone i vantaggi senza che gli studenti perdano l’abilità di scrivere, ricordare e ragionare con la propria testa? La scuola dell’era di ChatGPT dovrà cambiare valutazioni e metodi didattici per coltivare creatività e autonomia anziché delegare tutto alle macchine?
  • Imprenditori e manager: come implementare gli assistenti AI nel lavoro senza impoverire le competenze dei dipendenti? Stiamo usando l’AI per liberare tempo da dedicare a compiti più elevati e creativi, o la stiamo usando per spingere le persone a “seguire il suggerimento” e basta? In altre parole, l’AI in azienda sta aumentando o riducendo il capitale umano di conoscenze e capacità critiche?
  • Società e policy maker: quali politiche ed etiche dell’innovazione dobbiamo sviluppare per evitare una dipendenza cognitiva di massa? Dovremo considerare l’equivalente di linee guida per una “dieta digitale” equilibrata, che preservi la salute mentale collettiva nell’era dell’intelligenza artificiale? E come garantire un accesso equo a queste tecnologie senza creare una frattura tra chi sa usarle (o può permettersele) in modo attivo e chi ne subisce passivamente gli effetti?

Sono domande complesse, che richiederanno il dialogo tra neuroscienziati, psicologi, pedagogisti, tecnologi, politici e tutta la comunità. Quel che è certo è che siamo dinanzi a una nuova mutazione culturale – come Baricco la definirebbe – in cui “fortissime correnti di energia” passano attraverso apparenti perdite di abilità tradizionali. Sta a noi riconoscere queste correnti e governarle. Possiamo e dobbiamo dotarci di “branchie” per respirare nel nuovo ecosistema digitale, ma senza dimenticare come si usano i nostri polmoni originari: capacità critiche, memoria, creatività, empatia. In definitiva, l’intelligenza aumentata non dovrà significare intelligenza dimezzata. Se saremo saggi e consapevoli, ChatGPT e gli altri LLM potranno diventare parte integrante del nostro extended mind senza sminuire la meravigliosa plasticità del cervello umano – anzi, forse stimolandoci a ripensare il modo in cui impariamo e cresciamo, in simbiosi con le macchine ma sempre padroni del nostro destino cognitivo.

Dalla gerarchia al dialogo: come gli agenti AI stanno riscrivendo il nostro modo di chiedere

C’è stato un tempo (e forse c’è ancora) in cui il comando “vai a farmi le fotocopie” era il simbolo per eccellenza della gerarchia operativa. Diretto, inequivocabile, senza margini di interpretazione o ambiguità. Più o meno.

Vi starete domandando cosa c’entra questo con l’AI, con il rilascio di Perplexity o del recente Operator di OpenAI, vero? Non ci crederete ma un legame, con l’evoluzione e l’arrivo degli agenti, questo tema è molto attuale.

Pensateci, con un’intelligenza artificiale non funziona più essere autoritari: bisogna essere collaborativi. E forse anche un po’ educati.

Partiamo dal principio.

Dal comando al dialogo: chi educa chi?

La relazione con un agente AI, viste le evoluzioni recenti, le potenzialità e l’efficacia che stanno cominciando ad avere, non è più univoca: è una relazione che diventa dialogica e persino educativa. Il fatto di dover collaborare con un agente AI, e non comandarlo come verrebbe naturale, implica un cambio di prospettiva non da poco. Non possiamo più limitarci ad impartire ordini secchi; dobbiamo chiederci come formulare una richiesta in modo che sia compresa e, soprattutto, eseguita al meglio.

Immaginate la scena:

  • “Vai a farmi le fotocopie.”
  • L’AI risponde: “Quali pagine? A colori o in bianco e nero? E quante copie esattamente?”
  • Tu: “Fai tu.”
  • L’AI: “Fai tu cosa? C’è un errore nella richiesta / prompt.”

Ecco, questa è la nuova realtà: l’AI non si accontenta di eseguire, vuole capire. E noi, da “padroni del comando”, dobbiamo trasformarci in partner comunicativi, in grado di spiegare non solo cosa vogliamo, ma anche perché e come lo vogliamo. E se non iniziamo ad agire così abbiamo due possibili effetti che, in alcuni casi, iniziano già a manifestarsi: il primo è che l’AI, questo strumento magico che sembra possa fare tutto, in effetti non capisce e non fa quello che ci aspettiamo. Il secondo effetto, successivo, è noi non sappiamo chiederle ciò che ci serve e questo ci fa sentire inferiori potenzialmente.

Un nuovo (possibile) galateo

Se gli agenti AI diventano partner dialogici, forse dovremmo iniziare a pensare al nostro tono. Dopotutto, nessuno ama o ha mai amato un capo che urla, da comandi e impone di fare cose senza spiegarsi. E se la tecnologia ci stesse insegnando qualcosa, non in modo diretto, sul valore della gentilezza? Immaginate di dover chiedere all’AI di prenotare un volo:

  • Versione “vai a farmi le fotocopie“: “Prenota il volo per Milano.”
  • Versione dialogica: “Mi aiuti a trovare il miglior volo per Milano? Preferisco partire al mattino e con pochi scali.

Io credo che sia palese che una delle due è efficace, mentre l’altra no. Non solo la seconda versione è più chiara, ma risulta anche più… umana!

È ironico: un agente digitale, apparentemente privo di emozioni, ci costringe a essere più consapevoli del nostro modo di comunicare. Forse, nel tentativo di insegnare all’AI come interagire con noi, stiamo imparando noi stessi a interagire meglio con gli altri?

Dal “cosa” al “perché”

La vera rivoluzione di questo shift non è solo nel come chiediamo, ma nel perché lo chiediamo. Quando diciamo all’AI di fare qualcosa, stiamo implicitamente trasferendo a lei il processo decisionale. Non stiamo solo delegando un compito, ma anche il modo in cui quel compito verrà eseguito. E qui nasce una domanda cruciale: siamo davvero pronti a cedere questo potere?

Prendiamo un esempio semplice: “Organizza la mia giornata.

Se non forniamo contesto, l’AI potrebbe pianificare otto meeting consecutivi senza pause. Ha sbagliato? No, semplicemente ha eseguito un compito interpretandolo sulla base delle informazioni che aveva a disposizione. Non vi sembra un dejavù, no? Se non spieghiamo perché abbiamo bisogno di spazio per pensare o di tempo per un pranzo tranquillo, l’AI non potrà saperlo.

La verità è che chiedere bene richiede una certa dose di autoconsapevolezza. Dobbiamo sapere cosa vogliamo e perché lo vogliamo, altrimenti rischiamo di essere “mal serviti” da un’entità che, paradossalmente, cerca solo di aiutarci.

Chi è il maestro?

E qui arriviamo al punto più ironico (e forse non solo ironico) di tutti: chi sta educando chi? Stiamo insegnando all’AI a comprendere meglio il linguaggio umano? Oppure è l’AI che, indirettamente, ci sta insegnando a essere più chiari, più collaborativi, persino più riflessivi? Forse, l’evoluzione degli agenti AI non riguarda tanto il loro apprendimento, quanto il nostro.

Questi sistemi ci costringono a fermarci, a pensare, a chiarire.

Non possiamo più limitarci a dire “vai a farmi le fotocopie“; dobbiamo chiederci: “Perché servono? Come posso spiegare meglio la mia richiesta?” E in questo processo, potremmo scoprire che la tecnologia non sta solo automatizzando i nostri compiti, ma sta affinando le nostre capacità di comunicazione e comprensione. Una lezione inaspettata da un’entità che non ha né cuore né anima.

Eppure è un insegnamento che ha sicuramente un impatto sul singolo, ma potenzialmente avrà un impatto anche sul modo in cui le aziende si approcceranno a questa ennesima trasformazione: ridefinire lo scopo prima di attivare una azione che non necessariamente sarà utile.

La gentilezza del futuro

Forse, un giorno, guarderemo indietro e penseremo che la rivoluzione dell’AI non è stata tanto nell’efficienza o nell’automazione, su cui tutti, chi più e chi meno stiamo mettendo la testa, ma nel suo impatto sul nostro modo di pensare e interagire. Esattamente come scrivevo anche giorni fa nel post “Comprensione e fiducia: l’evoluzione dell’interazione uomo-macchina” . Gli agenti AI ci stanno spingendo a rivalutare non solo cosa chiediamo, ma come e perché lo facciamo. E chissà, magari la prossima volta che ci verrà da dire “vai a farmi le fotocopie”, ci fermeremo un attimo.

Forse sorrideremo e diremo: “Mi aiuti a organizzare al meglio questo lavoro? Grazie.”

E quel grazie, in fondo, potrebbe essere il vero segno del nostro progresso.

The Intelligence Age: la trasformazione del lavoro e l’obsolescenza della competenza

Negli ultimi anni, l’intelligenza artificiale generativa (GenAI) ha guadagnato un ruolo centrale nella trasformazione del mondo del lavoro. Come evidenziato dallo studio di Sia Partners, oltre l’80% delle attività di un terzo delle professioni potrebbe essere automatizzato, e siamo solo all’inizio di una rivoluzione che cambierà il modo in cui lavoriamo, viviamo e risolviamo problemi complessi. Questa evoluzione non è solo un passaggio tecnologico: è il preludio a ciò che Sam Altman ha definito l’inizio dell’“The Intelligence Age”, un’era di straordinaria prosperità e innovazione.

Impatto settoriale e suddivisione del lavoro

Il potenziale impatto dell’AI generativa varia tra i settori, ma è significativo in aree come l’ingegneria, la finanza, il design digitale e l’assistenza sanitaria. Attività ripetitive e strutturate, come la gestione fiscale o la creazione di contenuti web, saranno tra le prime a essere automatizzate, mentre altre aree, come la sanità o il legale, vedranno l’intelligenza artificiale come supporto nella presa di decisioni complesse.

Sam Altman, nel suo post “The Intelligence Age“, sottolinea come l’intelligenza artificiale diventerà un potente strumento per aumentare le capacità umane, rendendo le persone in grado di affrontare problemi che prima sembravano irrisolvibili. Questo significa che anche settori come l’istruzione e la medicina potrebbero vedere una rivoluzione, con l’introduzione di tutor e assistenti virtuali che personalizzeranno l’apprendimento e miglioreranno la qualità delle cure sanitarie.

Nuovi modelli di lavoro: l’era del “team virtuale”

Uno dei concetti chiave introdotti da Altman è l’idea che in futuro ognuno di noi potrebbe avere un “team virtuale” composto da esperti AI in diverse discipline. Questi team ci aiuteranno a svolgere attività che oggi richiedono competenze multiple e interazioni complesse, trasformando il modo in cui collaboriamo e produciamo risultati. Questo concetto si inserisce nella visione di “lavoro aumentato“, dove l’intelligenza artificiale non sostituisce il lavoratore umano, ma ne amplifica le capacità.

Un esempio pratico può essere visto nel settore legale: un avvocato potrebbe affidare la ricerca e la revisione dei documenti a un sistema AI, concentrandosi sugli aspetti strategici e creativi del caso. Allo stesso modo, gli educatori potrebbero affidarsi a tutor AI personalizzati per offrire supporto individuale agli studenti, ottimizzando l’esperienza di apprendimento.

Efficienza e produttività: AI come forza moltiplicatrice

Lo studio di Sia Partners mostra come l’AI generativa potrebbe accelerare il 10-20% delle attività nelle professioni, portando a un significativo aumento della produttività. Sam Altman, sempre nel suo post, spinge oltre questa riflessione, immaginando un futuro in cui l’intelligenza artificiale diventerà un moltiplicatore di produttività su larga scala. “L’AI ci permetterà di realizzare molto di più di quanto possiamo fare oggi“, afferma, e il risultato sarà una prosperità senza precedenti per tutti.

L’AI non solo accelera i processi, ma porta precisione ed efficienza in compiti che finora richiedevano molto tempo e risorse. Aziende che adottano l’AI vedono miglioramenti nelle operazioni, dalla logistica alla pianificazione finanziaria. Questo livello di efficienza, secondo Altman, permetterà di concentrare risorse su sfide ancora più ambiziose, come la risoluzione della crisi climatica o la colonizzazione dello spazio.

Reskilling e Upskilling: prepararsi all’obsolescenza della competenza

Un punto critico, evidenziato sia dallo studio che da Altman, ma oggetto continuo di discussioni e confronti in ogni dove, è la necessità di preparare la forza lavoro a questa nuova era. Molte aziende non hanno ancora sviluppato piani chiari per il reskilling e l’upskilling dei loro dipendenti. Altman immagina un futuro in cui la formazione continua diventa un aspetto centrale del lavoro umano: dovremo costantemente adattarci e aggiornare le nostre competenze per sfruttare al meglio le nuove tecnologie. E questo, come dico da tempo, è legato alla velocità con cui la competenza invecchia, e viviamo un tema di obsolescenza della competenza.

Come società, la nostra capacità di navigare nell’era dell’intelligenza dipenderà da quanto investiremo nell’infrastruttura educativa e nell’accessibilità delle tecnologie AI. L’istruzione diventerà una componente essenziale per ridurre le disuguaglianze che potrebbero emergere da questa trasformazione.

Sfide e rischi: un futuro da costruire con saggezza

Nonostante le promesse, Altman riconosce che l’era dell’intelligenza porterà con sé rischi significativi, inclusi cambiamenti nel mercato del lavoro e potenziali disuguaglianze. La stessa automazione che aumenta la produttività potrebbe portare alla perdita di posti di lavoro, e questo richiederà una riflessione profonda su come redistribuire le risorse e creare nuove opportunità per tutti.

La sfida, quindi, è trovare un equilibrio tra il progresso tecnologico e la gestione etica di questi cambiamenti. Altman, e su questo condivido pienamente, avverte che l’AI non sarà solo uno strumento per i ricchi o per pochi settori privilegiati, ma dovrà essere accessibile a tutti per garantire una prosperità condivisa.

L’adozione dell’AI e il futuro dell’umanità

Sia lo studio di Sia Partners che le riflessioni di Altman convergono sull’importanza dell’adozione rapida dell’AI. Le aziende che per prime integreranno l’intelligenza artificiale nelle loro operazioni avranno un vantaggio competitivo significativo. Ma non solo, anche in contesti non solo professionali, l’adozione dell’AI porterà benefici a chi sarà usarla prima di altri. Come sottolinea Altman, il vero salto sarà quando l’AI diventerà parte integrante della vita quotidiana di ogni persona, migliorando non solo il lavoro, ma anche la qualità della vita.

Infine Altman dipinge un quadro ambizioso del futuro, in cui “la prosperità sarà così grande da sembrare inimmaginabile“. Questo richiederà un investimento in infrastrutture, energia e volontà umana, elementi necessari per far sì che l’AI diventi uno strumento di progresso per tutti, e non solo per pochi.

Un futuro luminoso e complesso

L’intelligenza artificiale generativa rappresenta una delle più grandi trasformazioni nella storia dell’umanità. Mentre lo studio di Sia Partners ci mostra il potenziale impatto sul mondo del lavoro, Sam Altman ci invita a guardare oltre, verso un futuro in cui l’AI diventerà parte integrante della nostra vita e della nostra civiltà. Le sfide saranno molte, come è comprensibile, e come è sempre successo ad ogni grande cambiamento, ma le opportunità sono altrettanto straordinarie.

Il futuro sarà così luminoso che nessuno può descriverlo adeguatamente oggi“. Ma ciò che possiamo fare è prepararci, investire in nuove competenze e infrastrutture, e abbracciare la promessa di un’era di intelligenza che potrebbe superare ogni nostra aspettativa.

Anthropic e Claude AI: il futuro dell’assistenza digitale

Claude AI è sicuramente un segnale forte al mercato riguardo la prossima generazione di assistenti digitali intelligenti. Un sistema che combina capacità linguistiche avanzate con una nuova concezione di interazione etica e sicura. Questo modello, sviluppato da Anthropic, si distingue per la sua versatilità e precisione, offrendo una gamma di servizi che vanno dalla generazione di testo e codice alla sommarizzazione di documenti e al supporto decisionale. Con la promessa di un’interfaccia utente intuitiva e una straordinaria facilità di integrazione, Claude AI si presenta come una soluzione robusta per gli utenti che cercano un’esperienza di AI conversazionale più riflessiva e responsabile.

Cosa è Anthropic AI

Anthropic AI è una startup di intelligenza artificiale focalizzata sulla sicurezza, interpretabilità e controllabilità dei sistemi AI, fondata da un gruppo di ex ricercatori di OpenAI, tra cui spiccano i fratelli Dario e Daniela Amodei. L’ambizione di Anthropic è quella di sviluppare tecnologie AI che non solo avanzino le frontiere della ricerca e dell’applicazione pratica ma che lo facciano in modo sicuro ed etico, affrontando proattivamente i rischi potenziali associati ai sistemi di intelligenza artificiale generativa e di grandi dimensioni.

La Missione e la Visione di Anthropic

La missione di Anthropic si concentra sulla creazione di sistemi AI che siano affidabili, comprensibili dall’uomo e in grado di operare secondo principi etici ben definiti. Questo impegno nasce dalla convinzione che, mentre l’IA presenta un potenziale immenso per il bene sociale, economico e tecnologico, la sua evoluzione debba essere guidata da una comprensione profonda dei suoi impatti e da un impegno verso la minimizzazione dei rischi. Anthropic si pone quindi come pioniere nell’ambito della “AI Safety”, promuovendo un approccio alla ricerca e allo sviluppo che tenga conto delle implicazioni etiche e della sicurezza fin dalle fasi iniziali.

Differenze e Innovazioni

Rispetto ad altre realtà nel campo dell’IA, Anthropic si distingue per il suo approccio denominato “Constitutional AI”. Questa metodologia innovativa prevede la creazione di modelli di IA che seguano un insieme di principi costituzionali, una sorta di “codice etico”, che guida il comportamento dell’IA in situazioni complesse, garantendo che le sue azioni e risposte siano allineate con valori umani fondamentali come la sicurezza, la privacy e il rispetto dell’individuo.

Contributi e Impatto sul Campo dell’IA

Dal suo lancio, Anthropic ha guadagnato riconoscimenti per i suoi contributi significativi alla comunità dell’IA, compresa la pubblicazione di ricerche pionieristiche e lo sviluppo di Claude, il suo modello di punta. Con finanziamenti da giganti tecnologici come Google e Amazon, Anthropic ha solidificato la sua posizione come uno degli attori chiave nello sviluppo futuro dell’IA. La sua enfasi sulla trasparenza, sull’interpretabilità dei modelli e sulla collaborazione aperta con la comunità scientifica e tecnologica evidenzia un percorso verso un’IA che sia non solo avanzata ma anche al servizio dell’umanità.

Cosa è Claude AI?

Claude AI rappresenta la frontiera più avanzata nell’ambito dell’intelligenza artificiale conversazionale, sviluppata dalla startup Anthropic con l’intento di creare un assistente digitale non solo altamente competente ma anche eticamente consapevole. Nato dalla visione di ex ricercatori di OpenAI, Claude si distingue nel panorama IA per la sua capacità di condurre conversazioni naturali, fornendo risposte comprensive e dettagliate attraverso l’impiego di modelli linguistici di grande dimensione, i cosiddetti Large Language Models (LLMs).

La Genesi di Claude

L’origine di Claude AI affonda le radici nell’esperienza accumulata dai suoi creatori durante il loro lavoro su GPT-3 presso OpenAI, da cui hanno tratto ispirazione per migliorare e raffinare l’approccio alla creazione di sistemi di IA conversazionale. Diversamente da altri modelli esistenti, Claude è stato progettato per superare specifiche sfide legate alla sicurezza, all’interpretazione dei dati e alla direzionalità delle risposte fornite, ponendo le basi per un modello di IA che rispetti principi etici ben definiti.

Le Capacità Uniche di Claude

Claude si distingue per le sue eccezionali capacità di elaborazione del linguaggio, che gli consentono di affrontare un’ampia gamma di compiti: dalla sommarizzazione di testi all’editing, dalla risposta a domande complesse alla scrittura di codice, fino alla facilitazione di processi decisionali. Una delle sue caratteristiche più innovative è la possibilità di leggere e comprendere documenti fino a 75.000 parole, offrendo agli utenti la capacità di esplorare e interagire con quantità di informazioni paragonabili a quelle contenute in un libro breve. Questa funzionalità apre nuove prospettive nell’utilizzo dell’IA per supportare la ricerca accademica, l’analisi di dati complessi e la creazione di contenuti.

Un Modello Etico e Sicuro

Un aspetto che distingue profondamente Claude dagli altri modelli di IA è il suo impegno verso la sicurezza e l’etica. Anthropic ha introdotto un approccio rivoluzionario denominato “Constitutional AI”, attraverso il quale il modello viene allenato seguendo un insieme di principi etici predefiniti, mirati a massimizzare l’impatto positivo delle sue interazioni evitando allo stesso tempo consigli dannosi o comportamenti indesiderati. Questa metodologia non solo garantisce una maggiore affidabilità delle risposte di Claude ma promuove anche un uso responsabile dell’IA, in linea con le aspettative della società moderna.

Claude: Un Nuovo Standard nelle Conversazioni AI

Claude AI si posiziona come un vero e proprio punto di riferimento nel panorama delle intelligenze artificiali conversazionali, segnando un’avanzata significativa rispetto ai modelli precedenti. Offrendo tre versioni principali – Claude 1, Claude 2 e Claude Instant – Anthropic si rivolge a una vasta gamma di utenti, dalle esigenze personali a quelle aziendali, definendo nuovi standard in termini di interattività e funzionalità.

Le Diverse Facce di Claude

Ogni versione di Claude è stata progettata con obiettivi specifici in mente. Claude 1 pone le basi con una solida comprensione del linguaggio naturale e la capacità di interagire in modo significativo, mentre Claude 2 estende queste capacità con un’elaborazione più profonda e una maggiore comprensione del contesto. Claude 2 è progettato per leggere e analizzare grandi volumi di testo, rendendolo ideale per compiti che vanno dall’analisi di dati complessi al supporto decisionale. Claude Instant, d’altra parte, offre una soluzione più agile e veloce, adatta per interazioni rapide che richiedono tempi di risposta immediati, pur mantenendo una qualità di conversazione elevata.

Comparazione delle Capacità

Nel confronto diretto delle capacità, Claude 1 e Claude 2 dimostrano una competenza notevole nella conversazione e nella scrittura creativa, con Claude 2 che mostra un’abilità superiore nell’analisi di testi estesi e nella gestione di dati complessi. La versione Instant, pur non avendo la stessa profondità di comprensione, compensa con la sua rapidità, rendendola un’opzione ideale per gli sviluppatori che necessitano di integrare una componente AI conversazionale nei loro prodotti senza compromettere le prestazioni.

La capacità di Claude di scrivere codice è un altro punto di forza, in particolare con Claude 2, che può generare algoritmi e aiutare nella risoluzione di problemi di programmazione con una comprensione del linguaggio e delle sue applicazioni che va oltre la semplice generazione di testo. Questa poliedricità rende Claude un partner ideale per una varietà di utenti, dai content creator ai data scientist, fino agli sviluppatori di software.

Caratteristiche Tecniche e Modelli di Algoritmo di Claude AI

Claude AI, sviluppato da Anthropic, si basa su una serie di innovazioni tecniche e concettuali che lo distinguono nell’ambito dell’intelligenza artificiale conversazionale. Al cuore di Claude giace una struttura di modelli di algoritmi avanzati, definiti come Large Language Models (LLMs), che si avvalgono di tecniche di apprendimento profondo e di vasti corpus di dati testuali per generare risposte coerenti, accurate e contestualizzate.

Architettura e Dimensioni del Modello

Una delle caratteristiche principali di Claude è la sua architettura basata su Transformer, un tipo di modello di apprendimento automatico che ha rivoluzionato il campo del Natural Language Processing (NLP). I modelli Transformer sono particolarmente efficaci nel catturare relazioni complesse all’interno di sequenze di dati, come il testo, grazie alla loro capacità di gestire dipendenze a lungo termine tra le parole. Claude si avvale di questa architettura con un numero significativo di parametri, nell’ordine delle decine di miliardi, che gli conferiscono una notevole capacità di comprensione e generazione del linguaggio.

Apprendimento e Fine-tuning

Il processo di apprendimento di Claude si basa su tecniche di fine-tuning avanzate, dove il modello pre-addestrato su ampi dataset viene ulteriormente ottimizzato per specifici compiti o per aderire a particolari principi etici, come quelli definiti nell’approccio di Constitutional AI di Anthropic. Questo processo di fine-tuning permette a Claude di allinearsi a un insieme di valori e obiettivi predefiniti, migliorando la sua affidabilità e la sua sicurezza nell’interazione con gli utenti.

Constitutional AI

Una delle innovazioni più significative introdotte con Claude è l’approccio Constitutional AI. A differenza dei tradizionali sistemi di apprendimento automatico, che si basano su feedback umano per guidare le risposte del modello, il Constitutional AI di Claude integra una “costituzione” di principi etici direttamente nel processo di apprendimento. Questo insieme di regole guida il modello nelle sue risposte, assicurando che siano allineate con valori come la non nocività, la privacy e il rispetto dell’autonomia dell’utente. Tale approccio non solo migliora l’etica operativa di Claude ma ne aumenta anche la trasparenza e l’interpretabilità.

Capacità di Elaborazione e Interazione

Grazie alla sua avanzata architettura e al suo ampio training, Claude è in grado di elaborare fino a 75.000 parole in un’unica sessione, permettendo un’analisi approfondita di documenti estesi. Questa capacità supera di gran lunga quella dei suoi concorrenti, rendendo Claude uno strumento particolarmente potente per la sintesi di informazioni, l’analisi di dati e la generazione di contenuti complessi.

Claude AI è Meglio di ChatGPT?

La questione se Claude sia superiore a ChatGPT si presta a una risposta sfumata: sì e no. L’analisi comparativa rivela che Claude eccelle in alcuni benchmark rispetto a ChatGPT, mentre in altri aspetti rimane indietro. Una distinzione chiave emerge tra le versioni gratuite e a pagamento di entrambi i sistemi: Claude gratuito si dimostra superiore alla versione gratuita di ChatGPT, ma la sottoscrizione a pagamento di ChatGPT offre funzionalità avanzate e una base di conoscenza più ampia rispetto a quella di Claude.

Analisi Comparativa e Benchmark

La valutazione dell’intelligenza di un sistema AI non può essere esauriente e solleva interrogativi su quali benchmark siano più affidabili. In questo contesto, la classifica dei chatbot di LMSYS emerge come uno strumento utile, proponendo un confronto diretto basato su tre criteri di valutazione principali:

  1. Valutazione Elo: Questo algoritmo, utilizzato originariamente per classificare i giocatori di scacchi, si basa su confronti ciechi fianco a fianco e sull’input umano per determinare quale risposta, e di conseguenza quale modello, sia il migliore. Claude e ChatGPT vengono messi a confronto in termini di capacità di generare risposte coerenti e pertinenti, con Claude che spesso prevale nella versione gratuita.
  2. MT-Bench: Questo benchmark valuta i modelli utilizzando GPT-4 e si avvale di sessioni di domande e risposte a più turni come coppie di input/output per la valutazione. Con una precisione fino all’80% rispetto alla valutazione umana, questo test offre una misura comparativa delle capacità di elaborazione e di risposta dei modelli.
  3. MMLU (Massive Multitask Language Understanding): Questo metodo valuta la conoscenza acquisita dai modelli durante l’addestramento, testando la loro capacità di rispondere a domande che richiedono vari livelli di comprensione su un’ampia gamma di argomenti. Claude supera il tier gratuito di ChatGPT in termini di rating Elo e prestazioni MMLU, ma GPT-4 mantiene un vantaggio nei tier più lenti e costosi.

Capacità Distintive e Limitazioni

Oltre alla conoscenza grezza, Claude si distingue per la sua abilità nell’analizzare, leggere e riassumere documenti lunghi, con un limite di 150 pagine sufficiente a gestire piccoli libri. Questa capacità rappresenta un vantaggio significativo per utenti che necessitano di elaborare grandi volumi di testo.

Claude Pro non offre molte delle funzionalità introdotte da ChatGPT+, come chat vocale, creazione di immagini, analisi dei dati, comprensione delle immagini e navigazione web. Questo lascia Claude Pro in una posizione di svantaggio competitivo rispetto a ChatGPT+ al medesimo punto di prezzo, indicando un’area in cui Claude deve migliorare per incrementare la sua quota di mercato.

Come Usare Claude AI

L’utilizzo di Claude AI, la piattaforma di intelligenza artificiale conversazionale sviluppata da Anthropic, rappresenta un salto qualitativo nell’interazione uomo-macchina grazie alla sua avanzata capacità di comprendere e rispondere in modo naturale e contestualizzato. Ecco una guida passo dopo passo su come iniziare ad utilizzare Claude AI, sia per scopi personali che professionali.

Passo 1: Accesso alla Piattaforma

Per accedere a Claude AI, visita il sito ufficiale e procedi con la creazione di un account. Questo richiederà di fornire alcuni dati base come l’indirizzo email e di impostare una password. Una volta completata la registrazione, potrai accedere alla dashboard di Claude, dove avrai la possibilità di interagire direttamente con l’IA.

Passo 2: Iniziare una Conversazione

Una volta entrato nella dashboard di Claude, ti troverai di fronte a un’interfaccia utente intuitiva e semplice. Qui, potrai digitare domande o comandi nel campo di testo dedicato. Claude è progettato per comprendere una vasta gamma di richieste, dalle domande generali sulla conoscenza del mondo alla generazione di testo creativo, dall’analisi di dati al supporto decisionale.

Passo 3: Utilizzare Documenti per Contestualizzare le Richieste

Una delle caratteristiche distintive di Claude è la sua capacità di elaborare documenti estesi, consentendoti di caricare pdf o documenti di testo per arricchire il contesto delle tue interazioni. Se hai un articolo, un rapporto o qualsiasi altro documento di cui desideri una sintesi, un’analisi o semplicemente porre domande specifiche, puoi caricarlo attraverso l’interfaccia utente. Claude lo analizzerà e utilizzerà le informazioni contenute per fornire risposte più accurate e contestualizzate.

Passo 4: Sfruttare le Capacità Avanzate di Claude

Esplora le diverse capacità di Claude chiedendo di scrivere codice, generare idee creative, fornire consulenza su decisioni complesse o qualsiasi altro compito supportato dal modello. Claude può anche essere utilizzato per esercizi di brainstorming, supporto allo studio, o semplicemente per soddisfare la tua curiosità su vari argomenti.

Passo 5: Iterare e Migliorare

Una delle chiavi per ottenere il massimo da Claude è sperimentare con diverse formulazioni delle tue richieste. Se non sei soddisfatto della risposta ottenuta, prova a riformulare la tua domanda o a fornire dettagli aggiuntivi per aiutare Claude a capire meglio il contesto. La piattaforma offre anche la possibilità di fornire feedback sulle risposte ricevute, contribuendo così a migliorare la qualità del servizio.

Accesso e Integrazione API di Claude AI

Una delle caratteristiche più interessanti di Claude AI è la sua flessibilità e facilità di integrazione in varie applicazioni tramite la sua Interfaccia di Programmazione delle Applicazioni (API). Questa capacità è particolarmente attraente per sviluppatori e aziende che mirano a incorporare un’intelligenza artificiale conversazionale sofisticata nei loro prodotti o servizi. Attraverso l’API di Anthropic, gli sviluppatori possono collegare senza problemi le loro applicazioni ai modelli linguistici avanzati di Claude, abilitando un’ampia gamma di funzionalità, dalla assistenza clienti automatizzata alla generazione dinamica di contenuti e oltre.

Il processo di accesso a Claude tramite API è progettato per essere semplice e amichevole per gli sviluppatori. Registrandosi al programma per sviluppatori di Anthropic, individui e organizzazioni possono ottenere chiavi API e accedere a una documentazione completa che li guida nell’integrare le capacità di Claude nei loro sistemi. L’API consente un controllo preciso sulle interazioni con Claude, inclusa la specifica della versione del modello (come Claude-1, Claude-2 o Claude-Instant), la personalizzazione dello stile conversazionale e l’impostazione dei parametri di risposta per adattarsi alle esigenze uniche di ogni applicazione.

Inoltre, il modello di prezzo pay-as-you-go dell’API assicura che gli sviluppatori paghino solo per le risorse computazionali che utilizzano, rendendolo una soluzione conveniente per progetti di tutte le dimensioni. Questo approccio consente anche una rapida prototipazione e scalabilità, poiché gli sviluppatori possono regolare il loro utilizzo in base alla domanda senza costi iniziali significativi. Con il supporto sia di Anthropic che di Amazon Bedrock, gli sviluppatori hanno la flessibilità di scegliere la piattaforma che meglio si adatta alle loro esigenze di distribuzione, sia che diano priorità alle massime prestazioni con Claude-2 o cercano la velocità e l’efficienza di Claude-Instant per interazioni in tempo reale.

Quanto Costa Claude AI?

Con l’avvento di Claude AI, la proposta di Anthropic nel mondo dell’intelligenza artificiale conversazionale, si apre un nuovo capitolo nel dialogo tra uomo e macchina. Una delle domande più frequenti riguarda il costo di accesso a questa tecnologia all’avanguardia. In questo articolo, esploriamo i diversi piani tariffari di Claude AI e confrontiamo le sue offerte con quelle del suo concorrente diretto, ChatGPT di OpenAI.

Accesso Gratuito e Claude Pro

Per l’utente medio, Anthropic fornisce accesso gratuito al loro modello di Claude AI più avanzato tramite la loro interfaccia di chat su claude.ai, ancora in fase di beta testing aperto a ottobre 2023. Per accedere, è sufficiente registrarsi e creare un account gratuito. Questo livello di accesso gratuito offre agli utenti l’ultimo e più capace modello di Claude, Claude 2, in netto contrasto con OpenAI che riserva GPT-4 agli abbonati di ChatGPT+.

Parallelamente, Anthropic propone Claude Pro a $20 al mese, un abbonamento analogo a ChatGPT+. Il piano Pro è pensato per quegli utenti che desiderano funzionalità aggiuntive e un supporto più ampio.

Prezzi per Sviluppatori e Imprese

Anthropic commercializza l’accesso ai suoi modelli a tre gruppi distinti: utenti standard, sviluppatori che desiderano integrare Claude nelle loro applicazioni e imprese che richiedono supporto a livello aziendale.

Per gli sviluppatori, è possibile ottenere l’accesso ai modelli di Claude tramite l’API di Anthropic o tramite Amazon Bedrock. Entrambi supportano un approccio on-demand, con prezzi basati sulla quantità di testo che si desidera che Claude elabori. I prezzi per mille “token” – che rappresentano la quantità di testo processato dal modello – variano in base ai costi di calcolo per input e output. La seguente tabella illustra i prezzi per mille token sia per input che per output, offrendo un confronto dei prezzi con i modelli GPT di OpenAI.

Modello Token Massimi Costo per 1K Token Input Costo per 1K Token Output
Claude-Instant 100K $0.00163 $0.00551
Claude-2 100K $0.01102 $0.03268
GPT-3.5 4K $0.0015 $0.002
GPT-4 8K $0.03 $0.06

Throughput Provisionato per Clienti Enterprise

AWS Bedrock offre ai clienti enterprise l’opzione “Throughput Provisionato”, che riserva capacità di calcolo su cloud dedicata alla loro attività. Questa opzione non è economica, ma consente di inviare richieste quanto necessario per un costo fisso, una volta che la capacità di calcolo è stata riservata. La sottoscrizione minima di un mese per il throughput con Amazon Bedrock ha un costo iniziale di $29,462.40 per il punto prezzo di Claude-Instant. La tabella seguente riporta il prezzo per ora della tua prenotazione:

Modello Costo/ora per 1 mese di impegno Costo/ora per 6 mesi di impegno
Claude-Instant $39.60 $22.00
Claude-2 $63.00 $35.00

Claude nell’Uso Quotidiano e Professionale

Claude AI di Anthropic si è rapidamente affermato come uno strumento versatile, utile non solo nel quotidiano degli utenti personali ma anche nelle operazioni professionali. Questo assistente digitale intelligente si adatta a svariate casistiche d’uso: è in grado di analizzare documenti lunghi, fornendo riassunti e insight profondi, e di generare codice, facilitando il lavoro di programmatori e sviluppatori. La capacità di Claude di comprendere e interagire in modo naturale lo rende uno strumento prezioso per settori che vanno dall’educazione all’industria creativa, dalla ricerca scientifica al marketing digitale.

Casi d’uso e Partnership di Successo: Quora, Notion, DuckDuckGo

Claude AI ha rapidamente guadagnato terreno non solo tra gli utenti individuali ma anche come partner tecnologico per aziende e piattaforme online rinomate. L’efficacia di Claude come strumento AI è stata ulteriormente validata attraverso collaborazioni di successo e testimonianze entusiastiche da parte di aziende come Quora, Notion e DuckDuckGo.

Quora e Claude: Una Conversazione Naturale

Quora, la piattaforma di domande e risposte, ha integrato Claude attraverso Poe, la loro app di chat AI, e i risultati hanno ricevuto feedback positivi. Gli utenti hanno descritto le risposte di Claude come dettagliate e di facile comprensione, apprezzando la naturalezza delle conversazioni. Questo testimonia l’abilità di Claude di fornire un’esperienza utente ricca e umana, oltrepassando la semplice fornitura di informazioni per creare un dialogo coinvolgente e significativo.

Notion e l’Assistenza AI di Claude

Notion, la piattaforma all-in-one per la gestione di note e progetti, ha adottato Claude AI per potenziare la loro nuova funzionalità di assistente AI connesso, Notion AI. La partnership ha permesso agli utenti di Notion di lavorare più efficacemente, migliorando le loro capacità di scrittura e organizzazione all’interno del loro spazio di lavoro digitale. Questa collaborazione sottolinea come Claude possa essere integrato in maniera fluida in strumenti esistenti per aumentare la produttività e arricchire l’esperienza degli utenti.

DuckDuckGo e l’Affidabilità di Claude

DuckDuckGo, noto per il suo impegno nella privacy degli utenti, ha scelto di collaborare con Anthropic per migliorare la qualità delle risposte fornite nel loro motore di ricerca. La partnership si è concentrata su DuckAssist, la prima risposta istantanea nei risultati di ricerca a utilizzare la tecnologia del linguaggio naturale per generare risposte a partire da Wikipedia e altre fonti correlate. Il lavoro congiunto ha permesso di migliorare la qualità delle risposte di DuckAssist, rispettando al contempo i rigorosi requisiti di privacy imposti dalla piattaforma.

Integrazione e Accessibilità di Claude

L’accesso e l’integrazione di Claude sono stati progettati per essere il più fluidi possibile. Anthropic ha fornito una guida dettagliata che accompagna gli utenti dalla configurazione iniziale fino all’interazione avanzata, assicurando che ogni passaggio sia intuitivo e accessibile. Gli sviluppatori possono sfruttare l’API di Claude per incorporarlo in applicazioni esistenti, mentre le aziende possono beneficiare del supporto a livello enterprise per implementazioni su larga scala.

Claude AI e l’Etica nell’Intelligenza Artificiale

L’etica è al centro della filosofia di Claude AI. Incorporando principi etici direttamente nel suo modello di apprendimento, Claude assicura che ogni interazione rispetti valori fondamentali come la privacy, la sicurezza e l’autonomia. Questo approccio etico si riflette in una maggiore trasparenza e accuratezza nelle risposte fornite, posizionando Claude come un modello di riferimento anche nel confronto con altre soluzioni AI come ChatGPT.

Claud AI e Anthropic, un percorso di investimenti e crescita

L’ascesa di Claud AI e Anthropic nel campo dell’intelligenza artificiale è stata caratterizzata da una serie di investimenti strategici e da una crescita esponenziale del valore aziendale. Nell’ultimo anno, Anthropic, noto per lo sviluppo del modello di linguaggio Claud AI, ha catturato l’attenzione di investitori di alto profilo, culminando in una serie di finanziamenti che hanno solidificato la sua posizione come serio concorrente nel settore dell’intelligenza artificiale conversazionale.

Nel corso delle discussioni per un nuovo round di finanziamenti, Anthropic ha ottenuto la fiducia di Menlo Ventures per una significativa iniezione di capitale di $750 milioni. Questo potenziale investimento potrebbe portare la valutazione dell’azienda a un incredibile $18.4 miliardi, segnando un notevole incremento rispetto alla precedente valutazione di $4.1 miliardi​.

Un fattore chiave che ha contribuito a tale crescita è stato l’impegno di Google, che ha dimostrato la propria fiducia in Anthropic attraverso un impegno finanziario che potrebbe arrivare fino a $2 miliardi. Questo sostegno è parte di una strategia più ampia che include un’iniezione iniziale di $500 milioni seguita da ulteriori investimenti progressivi di $1.5 miliardi​​.

Le partnership di Anthropic con giganti tecnologici come Google, Salesforce e Zoom sottolineano l’importanza e la fiducia nell’approccio di Anthropic alla sicurezza e all’etica dell’IA. Il modello Claud AI, in particolare, si è distinto per le sue capacità avanzate, inclusa l’abilità di elaborare e riassumere testi estesi fino a 75,000 parole, un limite ben superiore a quello di ChatGPT​​.

Questa serie di investimenti testimonia la visione e la fiducia che il mercato ripone in Anthropic e Claud AI, non solo come innovatori nel campo dell’IA ma anche come leader emergenti in un’industria in rapido sviluppo. Con tali risorse finanziarie e una squadra di ricerca di primo livello, Anthropic è pronta a proseguire il suo percorso di innovazione e a plasmare il futuro dell’intelligenza artificiale conversazionale.

Prospettive Future per Claude e l’IA Conversazionale

Guardando al futuro, si prevede che Claude AI e Anthropic continueranno a essere pionieri nell’IA conversazionale. Con l’evoluzione costante di Claude e il suo impatto crescente sul mercato e sulla società, Anthropic mira a definire il cammino per un futuro in cui l’IA sia più sicura, più etica e più integrata nel tessuto sociale e professionale.

Dalla Generative AI nelle aziende, fino all’Interactive AI

In questo anno che si sta chiudendo l’AI Generativa è diventata senza dubbio il tema di discussione principale e una delle tecnologie più influenti e potenzialmente impattanti nel medio breve termine, grazie ad applicazioni come ChatGPT, Stable Diffusion, GitHub Copilot, e Midjourneyche sono entrate già nel vivo del modo di lavorare e stanno introducendo notevoli cambiamenti in alcune aree di competenza .

In un sondaggio di O’Reilly,condotto sui propri utenti lo scorso settembre 2023, sono state analizzate le modalità di utilizzo delle aziende stanno già implementando l’AI Generativa, gli ostacoli nella sua adozione e le lacune di competenze da colmare.

Dati e stato attuale

Tra i dati rilevanti che emergono dallo studio, due terzi dei partecipanti al sondaggio (67%) hanno affermato che le loro aziende utilizzano l’AI Generativa. Di questi, il 41% la usa da più di un anno, mentre il 26% da meno di un anno. Solo il 33% delle aziende non utilizza affatto l’AI Generativa.

L’adozione dell’AI non è ancora universale per quanto i numeri diano una indicazione importante di accelerazione: molti utilizzatori (38%) sono ancora nelle fasi iniziali, sperimentando e lavorando su progetti di prova, e molto spesso con utilizzi superficiali e su processi di base o semplici, attraverso l’utilizzo di piattaforme terze e non integrate (con modelli basati su cloud come GPT-4). L’adattamento di un modello per specifici casi d’uso rimane ancora una grande sfida.

Nonostante l’alta percentuale di adoption (e aggiungerei di alta predisposizione a farlo a mio avviso), c’è ancora molto da fare in termini di formazione, recruiting, cultura e implementazione.

La formazione di modelli e lo sviluppo di applicazioni complesse si stanno semplificando grazie a molti nuove soluzioni open source che cominciano a nascere grazie a diverse comunità online e soprattutto a soluzioni che, con dimensioni piccole e meno intensive in termini di risorse, permettono l’avvio con budget ridotti.

Intorno all’AI Generativa si stanno sviluppando ecosistemi di strumenti di diverso genere, abilitando diverse modalità di lavoro e possibilità di integrazioni di potenzialità all’interno dell’azienda a costi accessibili.

Ostacoli e criticità

I fattori che ostacolano una maggiore adozione dell’intelligenza artificiale generativa nelle aziende e che sono stati identificati dalla survey, includono:

  1. Difficoltà nel trovare casi d’uso appropriati: trovare casi d’uso aziendali appropriati e facilmente implementabili è la sfida più grande. Questo tema è tipico delle fasi di trasformazione e cambiamento e riflette solitamente la mancanza di immaginazione ed interpretazione o l’eccesso di cautela nell’implementare soluzioni AI potenzialmente inappropriatate.
  2. Preoccupazioni legali, rischi e conformità: sono parecchi le preoccupazioni riguardo ai rischi legali e alla conformità. Le implicazioni legali dell’utilizzo dell’AI generativa, come la proprietà ed i diritti del contenuto prodotto, creano incertezza e preoccupazione.
  3. Mancanza di politiche per l’uso dell’AI: la mancanza di linee guida progettuali all’interno delle aziende sull’utilizzo dell’AI è un problema minore ma importante. In molti casi i CEO delegano all’IT o ai CIO la gestione della tematica sottovalutando le implicazioni finanziarie, legali, la conformità normativa, l’etica e via dicendo.
  4. Resistenza al cambiamento: alcune aziende non riconoscono la necessità dell’AI, il che può indicare una mancanza di visione o di apertura verso le nuove tecnologie o processi di sperimentazione.
  5. Mancanza di competenze: La difficoltà nel trovare persone qualificate nell’AI è una sfida significativa. Questo è un ostacolo sia per le aziende che cercano di adottare l’AI sia per quelle che già la utilizzano e vogliono integrare competenze ed accelerare i processi di implementazione.
  6. Problemi di infrastruttura: Costruire un’infrastruttura AI è complicato e costoso, e questo rappresenta un ostacolo per molte aziende. L’adozione di infrastrutture terze è sicuramente una soluzione, ma le implicazioni relative a tematiche di dati, segregazione, tutela e utilizzo è l’elemento cruciale.
  7. Qualità dei dati e formazione dei modelli: Nel processo di implementazione la qualità dei dati per la formazione dei modelli sembra non esser un problema e sono meno percepiti come barriere di partenza rispetto ad altri problemi.

Come le aziende stanno usando l’AI

L’utilizzo che emerge dallo studio rappresenta a mio avviso l’esempio naturale dell’impiego l’intelligenza artificiale generativa in processi e ambiti di base e facilmente intuibili:

  1. Programmazione: l’utilizzo più comune dell’AI generativa è nel campo della programmazione, con strumenti come GitHub Copilot o ChatGPT, utilizzati dal 77% dei rispondenti alla survey. Questo include sia sperimentazioni sia impiego effettivo nel lavoro quotidiano ed in particolare sia nella produzione di codice, che supporto ai test, che soprattutto nel processo di produzione documentale.
  2. Analisi dei dati: il 70% degli intervistati utilizza l’AI per l’analisi dei dati, con una divisione quasi equa tra sperimentazione e utilizzo pratico.
  3. Interazione con i clienti: il 65% delle aziende sta esplorando o già utilizzando l’AI per progetti di custormer care e servizi di assistenza clienti (interni ed esterni) e condivisione della knowledge base.
  4. Generazione di testi: l’AI è utilizzata per generare contenuti testuali, con il 47% delle aziende che la impiega per la produzione di contenuti di marketing e il 56% per altri tipi di documentazione (report, relazioni, sintesi o estensione di documenti).
  5. Design e creatività: l’uso dell’AI come supporto di design e la creatività è meno comune, in parte probabilmente a causa della natura dell’audience di O’Reilly, maggiormente orientata allo sviluppo. In linea generale comunque è evidente che l’utilizzo già oggi nelle aziende nei processi creatività è crescente, vista la semplicità di accesso a tool come Firefly di Adobe, Dall-E di OpenAi, Midjourney e molti altri.
  6. Altri ambiti di applicazioni: alcune aziende stanno utilizzando l’AI in un’ampia varietà di modi, iniziando processi di integrazione di dati e servizi: dalla rilevazione di frodi, all’insegnamento, allla gestione delle relazioni con i clienti, alle risorse umane fino alla conformità.
  7. Integrazione in strumenti esistenti: non ultima, l’AI generativa sta diventando una parte integrante di strumenti comuni di office automation, marketing e collaboration, da Microsoft Office, Google Docs e Adobe Photoshop, Canva e tanti altri che stanno progressivamente integrando funzionalità standard e base nelle proprie applicazioni.

Approccio, strumenti utilizzati ed impatti

Per quanto riguarda strumenti e piattaforme, la survey riporta una serie di informazioni (a mio avviso note) ma rilevanti da conoscere:

  1. Uso di applicazioni preconfezionate e personalizzate: circa il 36% degli intervistati usa applicazioni come ChatGPT e GitHub Copilot, mentre il restante 64% sta sviluppando applicazioni AI personalizzate, un passo significativo che richiede investimenti in personale, infrastruttura ed educazione.
  2. Scelta dei modelli AI: i modelli GPT sono i più utilizzati (23%), seguiti da un sorprendente 21% di aziende che sviluppano i propri modelli AI, un processo che richiede senza dubbio risorse sostanziali. Una percentuale più bassa di aziende (16%) utilizza modelli open source, meno costosi e più flessibili.
  3. Diversità dei modelli utilizzati: oltre ai modelli GPT, un’ampia varietà di altri modelli viene utilizzata dalle aziende, compresi quelli derivati da LLaMA di Meta e modelli disponibili (su piattaforme come Hugging Face). In molti casi c’è da tenere in considerazione che alcuni di questi modelli open source hanno restrizioni sulla loro possibilità di utilizzo.
  4. Stadio di sviluppo: molti degli intervistati sono ancora nelle fasi iniziali dello sviluppo con l’AI, con il 34% che lavora su concept e progetti in fase embrionale, mentre il 18% ha applicazioni AI in produzione.
  5. Test per i rischi: le aziende che stanno procedendo con le implementazioni dele loro applicazioni AI, stanno valutando diverse fasi di test vista la varietà di rischi, inclusi risultati imprevisti, vulnerabilità alla sicurezza, affidabilità, equità, etica e privacy.
  6. Competenze necessarie per progetti AI: le competenze necessarie per i progetti AI includono la programmazione, l’analisi dei dati e le operazioni per l’AI e il Machine Learning, competenze che attualmente non sono presenti nelle aziende e riflettono la complessità e la natura interdisciplinare del lavoro con l’AI Generativa.
  7. Impatto sul business: le aziende si aspettano che l’AI aumenti la produttività, generi maggiori entrate e migliori la pianificazione e la previsione. Solo una piccola percentuale prevede una riduzione del personale grazie all’AI. In linea generale l’approccio all’implementazione iniziale e l’adozione dell’AI generativa sta partendo da progetti di Marketing o di ottimizzazione costi.

Dall’AI Generativa a quella Interattiva

Le prospettive sull’AI Generativa sono positive, ma come dico da tempo siamo solo all’inizio di un grande processo di cambiamento. Se il 2023 è stato l’anno della AI Generativa, già dal 2024 vedremo i grandi segnali dell’arrivo della fase successiva.

Mustafa Suleyman, co-fondatore di DeepMind (poi Google DeepMind), sostiene che dopo l’era dell’AI Generativa, il futuro sarà dominato appunto dall’Intelligenza Artificiale Interattiva, e questa sarà una nuova fase fondamentale nella storia della tecnologia.

L’Intelligenza Artificiale Interattiva (Interactive AI) si riferisce a sistemi di intelligenza artificiale che saranno in grado di interagire in modo più dinamico e flessibile con gli utenti. Questo tipo di AI non si limiterà a rispondere a richieste specifiche o eseguire attività predefinite, ma sarà in grado di adattarsi e rispondere a situazioni in continua evoluzione, e spesso in tempo reale.

Le caratteristiche rilevanti saranno:

  1. Dialogo bidirezionale: L’AI Interattiva potrà sostenere conversazioni bidirezionali con gli utenti, comprendendo e rispondendo a domande, commenti o richieste in modo contestualizzato.
  2. Adattabilità: Questa forma di AI sarà in grado di adattarsi ai comportamenti e alle preferenze degli utenti nel tempo, offrendo risposte e servizi personalizzati.
  3. Apprendimento in tempo reale: L’AI Interattiva potrà apprendere dai propri errori e dalle interazioni con gli utenti, migliorando costantemente le sue capacità di risposta e decisionali.
  4. Interazione vocale: l’AI Interattiva utilizzerà interfacce vocali (o altri sistemi IOT) per un’interazione più naturale e intuitiva con gli utenti.
  5. Automazione avanzata: l’interazione andrà oltre la semplice automazione di compiti, e permetterà una collaborazione più profonda tra umani e sistemi AI: una assistente presente nella risoluzione di problemi complessi o nella generazione di idee creative.
  6. Personalizzazione: questa nuova modalità di AI offrirà una esperienze altamente personalizzata basata sulle interazioni precedenti e sui dati raccolti dagli utenti.
  7. Elevata elaborazione del linguaggio naturale: verranno sempre più implementate tecnologie avanzate di elaborazione del linguaggio naturale per comprendere e generare risposte naturali.

Forward looking

L’importanza dell’adozione dell’Intelligenza Artificiale Generativa (AI Generativa) per le aziende e il ruolo cruciale dei partner nel supportare questo processo emergono chiaramente anche dall’articolo del MIT Sloan.

L’AI Generativa senza dubbio offre un ampio ambito di applicazioni, ma non c’è dubbio che l’adozione debba essere ponderata e consapevole, ed è fondamentale che le aziende non solo adottino l’AI Generativa, ma anche che i loro dipendenti comprendano questa nuova tecnologia deve esser utilizzata con un approccio incrementale e potenziante, piuttosto che di sostituzione, soprattutto del lavoro umano.

In questa fase anche la scelta di partner competenti nel campo è cruciale, sia per evitare che il FOMO faccia fare scelte poco pesate e sia per poter iniziare un viaggio con un approccio strutturato in questo nuovo territorio, dal supporto all’identificazione di casi d’uso più appropriati, fino a garantire che l’implementazione avvenga in modo etico e responsabile, massimizzando i benefici e riducendo i rischi.

In questi mesi, lavorando con diverse aziende, ho messo a punto un modello di valutazione della maturità e percorso: nei prossimi giorni pubblicherò una survey con l’obiettivo di raccogliere delle informazioni per validare il modello e condividere con i partecipanti l’output. Come si direbbe… stay tuned! 🙂

Generative AI: Dall’esplorazione all’integrazione. Prossima fermata, l’Era BioSpaziale.

L’intelligenza artificiale generativa ha iniziato il suo viaggio negli anni ’60, ma è stato il 2022, a mio avviso, a segnare un’epoca che definiamo – e che sarà definita senza dubbio in futuro – rivoluzionaria, un po’ un nuovo Rinascimento, caratterizzato da nuove forme di creatività e scoperte.

Il rilascio di strumenti come MidJouney, DALL-E e GPT ha acceso un interesse globale – ed un entusiasmo – in precedenza pari a momenti di grandi stravolgimenti come l’arrivo di Internet, dell’Ecommerce e del Mobile. L’arrivo poi di Stable Diffusion ed il successo di ChatGPT hanno ulteriormente catalizzato questo interesse, portando l’IA Generativa al centro dell’attenzione mondiale.

Atto Primo – Esplorazione: Il primo atto di questa storia è stato caratterizzato dall’esplorazione e dall’innovazione. DALL-E 2 ha aperto nuovi orizzonti nella generazione di immagini, mentre GPT-3 ha rivoluzionato la scrittura assistita dall’IA. Con il rilascio di Stable Diffusion, abbiamo visto un’esplosione di strumenti di immagini AI, segnando un cambiamento significativo nella percezione e nell’accessibilità (fortemente semplificata e a portata di tutti) dell’IA Generativa. Questa fase ha visto un’accelerazione nell’adozione e nella sperimentazione dell’IA, preparando il terreno per una maggiore integrazione nel tessuto della vita quotidiana, e aziendale.

Atto Secondo – Integrazione: Mentre l’Atto Primo è stato di esplorazione, l’Atto Secondo, come suggerito da diverse scritture, articoli e riflessioni, è definito ill momento dell’integrazione. In questa fase, l’IA Generativa sta maturando, passando dall’essere una novità a diventare una componente fondamentale di vari sistemi e servizi. Grandi aziende tecnologiche stanno rapidamente incorporando l’IA Generativa nei loro prodotti. Microsoft, ad esempio, sta integrando l’IA in tutto, dalla suite Office 365 a Bing e Windows. Google sta seguendo un percorso simile, potenziando servizi come Google Search e Workspace con modelli di linguaggio avanzati.

L’Era dell’Integrazione: Questa era sta mettendo le basi, per le aziende tecnologiche e non solo, del consolidamento della loro posizione di mercato attraverso collaborazioni strategiche, acquisizioni ed integrazioni di modelli. L’approccio è semplice (concettualmente) ma potente (praticamente): integrare l’IA Generativa in strumenti e prodotti già utilizzati dai consumatori e dalle imprese, al fine di incrementare efficacia, modello di business, fedeltà utente.

Adobe, con il suo Firefly v2, sta portando l’IA Generativa nel mondo della grafica e del design, mentre Amazon, attraverso la sua piattaforma cloud, offre modelli di IA come servizio. Ma non solo i grandi brand si stanno muovendo rapidamente, anche le piattaforme come Roblox, Unity, Nvidia, Notion, Zapier e tante altre hanno intrapreso un processo virtuoso di implementazioni.

Dall-e | ChatGPT | Fabio Lalli | “About Generative Timeline”

Sfida, non facile, per le Aziende e Startup: Le startup – così come le aziende attive nei processi di ricerca – vitali per l’innovazione continua, si trovano di fronte a sfide significative. Le grandi aziende tecnologiche controllano le piattaforme e i modelli principali, rendendo difficile per le piccole imprese competere a lungo termine. Nonostante ciò, l’importanza dell’open source nell’IA Generativa rimane cruciale per garantire un ambiente di innovazione senza le restrizioni imposte dalle grandi aziende.

Collaborazione e Personalizzazione: L’integrazione dell’IA Generativa sta portando ad un aumento della collaborazione tra sistemi e aziende, offrendo soluzioni personalizzate per varie applicazioni. Questo è evidente nella partnership tra Canva e Runway, e nell’incorporazione di Firefly di Adobe in applicazioni Google, così come le implementazioni di Heygen, Evenlabs, Perplexity o Inflection in diverse piattaforme. Queste collaborazioni stanno aprendo nuovi orizzonti per applicazioni innovative e soluzioni personalizzate e fortemente potenziate.

What’s Next? – Una era BioSpaziale: Guardando al futuro, è probabile che l’era dell’IA Generativa si evolva ulteriormente nell’Era “BioSpaziale“. Questa fase prevede una fusione tra IA, mondo fisico e biologia, portando nuove frontiere nell’ IOT (Internet delle Cose) e nella biologia sintetica. Le caratteristiche principali e le potenziali implicazioni di questa era potrebbero includere:

  • Convergenza di IA e Biologia: sviluppi significativi nella biotecnologia e nella medicina personalizzata, progettazione di farmaci assistita da IA, diagnostica avanzata e terapia genetica.
  • Sintesi tra IA e il Mondo Fisico: fusione tra IA e dispositivi fisici, innovazioni nel campo dell’Internet delle Cose (IoT), immersività, robotica avanzata e sistemi autonomi.
  • Applicazioni nell’Edilizia evoluta: progettazione e gestione degli ambienti urbani, miglioramento l’efficienza energetica, mobilità sostenibile e abitabilità delle città.
  • Agricoltura e Sostenibilità Ambientale: ottimizzazione di pratiche agricole, giorne delle risorse naturali in modo più efficiente e contributo alla lotta contro il cambiamento climatico.
  • Sviluppi della Bioinformatica: analisi dei dati genetici e biomolecolari, nuove scoperte in genetica, evoluzione e ecologia.
  • Human Computer Interaction: progresso nelle neurotecnologie, nuove forme di interazione tra uomo e macchine, possibilità di sviluppo di interfaccia cerebrale-computer.
  • Etica e impatti Sociali: nuove sfide etiche e sociali significative, nuove forme di gestione della privacy, sicurezza biologica e accesso equo alle tecnologie avanzate.

L’Era BioSpaziale rappresenta un potenziale futuro, non troppo remoto, in cui la tecnologia IA si fonde e interagisce profondamente con il mondo biologico e fisico, aprendo nuove frontiere in molteplici settori e sollevando questioni importanti che richiederanno un’attenta considerazione e gestione.

Dall-e | ChatGPT | Fabio Lalli | “BioSpatial Era”

L’IA Generativa, ora al suo Secondo Atto e nel pieno dell’accelerazione, dell’adozione e della complessità da gestire in termini di sostenibilità e scalabilità, sta acquisendo graduale maturità tecnologica in diversi ambiti, ma siamo comunque solo all’inizio di un viaggio che sta modellando e modellerà totalmente intere industrie.

GPT Store, ecco perchè sarà una rivoluzione.

Ho ricevuto un po’ di commenti e messaggi riguardo GPT, e provo a condividere il motivo dell’entusiasmo intorno all’annuncio di OpenAI, relativamente al GPTs Store, così da rendere più completo il senso del concetto di “rivoluzione”.

🤓 Cos’è il GPT Store prima di tutto?

Il GPT Store è fondamentalmente un AppStore per l’Intelligenza Artificiale, e questo dovrebbe già far capire il potenziale di quello che abbiamo davanti.

📊 Un po’ di contesto:

  • L’Appstore di Apple ha 2,24 milioni di app e giochi
  • Il Play Store di Google ha 2,59 milioni di app

Entrambe gli store gli store nati nel 2008, hanno traguardato il milione di app tra il 2012 ed il 2013. A mio avviso il GPTs Store di OpenAI avrà almeno 100 milioni di app e succederà in molto meno tempo, addirittura meno di un anno.

❓ Perchè questa stima?

Da quando ho fondato IQUII abbiamo sviluppato ben oltre 500 app (ios, android e non solo) per diversi brand in diverse industrie: indicativamente una app ben fatta, tra progettazione, disegno, integrazione, sviluppo, e test ha un ciclo lavoro di 2 / 3 mesi (ribadisco app mediamente complesse). Oltre ai tempi necessari per pubblicazione, validazione e lancio.

💥 Per sviluppare un GPTs, di base, e senza grandi integrazioni, ci vogliono tra 10 ed i 30 minuti (per stare larghi). Compresa pubblicazione e condivisione tramite canali social, wa, telegram e via dicendo. Ovviamente non parlo di GPTs con integrazioni di servizi terze parti magari da realizzare ad hoc per aggiungere un valore dinamico e fortemente integrato con il proprio core business. Ma parliamo di tempi decisamente diversi.

👀 Non c’è dubbio che GPT Store rivoluzionerà quasi tutti i settori, inclusi:

  • Salute mentale
  • Fitness
  • Assistenza sanitaria
  • Produttività
  • Creazione di contenuti
  • Analisi di business
  • Marketing
  • Vendite
  • Viaggi
  • e tanto altro ancora.

Praticamente intere industrie.

✍ Chiunque voglia entrare essere qualificato e avere una solida conoscenza di:

  • Formulazione di prompt
  • Ricerca
  • Raccolta dati
  • Integrazione di servizi
  • ma soprattutto analisi di processi ed analisi di impatto.

Nulla dovrà esser lasciato al caso, e commettere gli stessi errori già fatti in fasi precedenti (investimenti affrettati e senza disegno e progettazione, come successo anche nel mobile) avrà, in questo caso, impatti molto più grandi.

AI Generativa e le opportunità per le aziende

L’intelligenza artificiale (AI) sta vivendo una trasformazione radicale. Si è evoluta da un insieme di algoritmi isolati ad una forza potente e integrata, pronta a rivoluzionare il modo in cui le aziende operano. Questa evoluzione, guidata in particolare dall’ascesa dell’AI generativa, sta offrendo ai singoli, ma soprattutto alle aziende opportunità senza precedenti, ma presenta anche nuove sfide che richiedono attenzione e corretta interpretazione, oltre che azione (tempestiva, aggiungerei).

L’AI generativa sta aprendo la strada a una nuova ondata di innovazioni di modelli e processi, ampliando le possibilità di applicazione dell’AI in una serie di settori, dalla farmaceutica alla banca, dal retail allo sport. Modelli come GPT-4, Bard, sono capaci di generare contenuti unici e di alta qualità, che possono essere utilizzati in una serie di contesti aziendali, dal marketing allo sviluppo del prodotto, passando dal legal al finance. .

Malgrado le tante potenzialità e opportunità, l’avvento dell’AI generativa non è privo comunque di sfide e punti di critici da attenzionare. La sua velocità di sviluppo, il rischio di bias nascosti nei dati di addestramento e la necessità di nuove infrastrutture tecnologiche e competenze specializzate sono tutti fattori che le aziende devono necessariamente considerare nel loro viaggio verso l’adozione in generale di nuove tecnologie, ma anche e soprattutto nei confronti dell’AI generativa.

L’AI generativa offre senza dubbio alle aziende l’opportunità di rivedere e reinventare molti dei loro processi operativi ed impattare sui modelli di business, permettendo una maggiore automazione, efficienza e personalizzazione, e di conseguenza ottimizzazione di costi e potenzialità maggiori sui ricavi.

Riguardo ai nuovi modelli di business, come l’uso di AI per generare contenuti unici o per offrire servizi personalizzati su larga scala però c’è un punto che deve esser necessariamente considerato ossia rischi e sfide derivanti da un normativo in continua evoluzione, con nuove leggi e regolamentazioni che potrebbero influenzare l’uso dell’AI, e di conseguenza diritti di ownership sull’asset creato, tipologia di utilizzo e applicazione.

I CEO oggi di aziende che vogliono accelerare e non perdere quote di mercato, hanno un ruolo fondamentale nel guidare l’adozione dell’AI in primis, e anche dell’AI generativa nelle loro aziende. L’attenzione e le azioni che la direzione dell’azienda dovrà affrontare non dovranno esser solo orientate alle opportunità e le sfide presentate dall’A in termini infrastrutturali e tecnologici, ma anche (e soprattutto) di metodo, al fine di guidare i team attraverso il cambiamento organizzativo necessario,  per sfruttare al meglio questa nuova potenzialità.

Una della prime azioni che l’organizzazione dovrebbe affrontare è la creazione di un gruppo cross-funzionale di leader dell’azienda a cui affidare lo studio, l’identificazione e le priorità dei casi d’uso di maggior valore, al fine di garantire un’implementazione sicura e coordinata dell’AI nel contesto aziendale. Questo può anche includere la promozione di una cultura di apprendimento continuo e la sperimentazione (che troppo spesso le aziende tralasciano pensando sia una attività individuale e spontanea) in cui i dipendenti sono incoraggiati ad innovare i processi, le competenze, le metodologie e i prodotti che incorporano efficacemente questi strumenti.

Un altro aspetto cruciale è la creazione di un “faro”, ossia un progetto o un caso d’uso pilota che possa servire da esempio concreto, e che possa dimostrare il reale potenziale dell’AI generativa e l’impatto che questa adozione avrebbe su più larga scala, oltre ad aiutare a creare entusiasmo, sostegno e consenso all’interno dell’organizzazione.

Le aziende dovranno essere molto attente a bilanciare la creazione di valore con la corretta gestione del rischio. Se da una parte l’AI generativa può offrire enormi vantaggi, presenta nuovi rischi, come dicevo, come la possibilità di perpetuare i bias nascosti nei dati di addestramento o di “allucinare” informazioni non esistenti. Sarà necessario definire e stabilire principi e linee guida etiche per l’uso dell’AI, modelli di controllo e sviluppare una comprensione approfondita dei rischi presentati da ogni caso d’uso potenziale.

Costruire e mantenere un insieme equilibrato di alleanze esterne oltre che sviluppare le competenze interne può inoltre aiutare, in questo processo di adozione, le aziende ad accelerare l’implementazione dell’AI generativa. A vantaggio di un approccio ad ecosistema si permetterà di abilitare l’esperienza e le competenze di altri senza dover costruire tutte le applicazioni o i modelli di base da soli, creando un processo di maggiore facilità di aggiornamento progressivo e l’adozione delle più recenti tecnologia.

La fase di boost tecnologico e l’evoluzione dell’AI generativa che stiamo vivendo rappresenta una promessa enorme per le aziende, ed una offerta senza precedenti di nuove opportunità per l’innovazione, l’efficienza e la personalizzazione. Ma per realizzare questo potenziale, le aziende devono essere pronte a affrontare le sfide associate a questa nuova tecnologia, compreso il bisogno di nuove competenze, infrastrutture e approcci alla gestione del rischio, e di conseguenza investimenti. Con la giusta guida e strategia, tuttavia, le aziende potranno sfruttare questo potenziale per guidare la trasformazione e creare un vantaggio competitivo duraturo.

L’AI mangerà il mondo: OpenAI rilascia le API di ChatGPT e Whisper

C’è un momento preciso, come questo che stiamo vivendo, in cui tutto cambia e prende una accelerazione nuova: la creatività, l’intuizione e la capacità progettuale prendono il volo potenziate da strumenti in grado di dare vita – se ben integrati e utilizzati – a tanti nuovi servizi, prodotti, applicativi, processi e tanti modelli di business.

È già successo ed abbiamo già vissuto un momento così.

Era quel lontano 10 Luglio 2008 quando la Apple inaugurò l’app store ed il lancio delle app. Da quella data in poi sviluppatori ed aziende hanno iniziato a produrre software, piattaforme ed app per ogni ambito, industria e business, creando quella che verrà poi chiamata APP Economy.

1 Marzo 2023 OpenAI annuncia il rilascio delle API di ChatGPT e Whisper. Ora tutti potranno iniziare ad implementare quella che sembra esser la prossima più grossa rivoluzione tecnologica di massa all’interno di ogni servizio.

Con la pubblicazione di queste API, i developers possono integrare i modelli di ChatGPT e Whisper nelle loro applicazioni, costruendo applicazioni di conseguenza basate su intelligenza artificiale, più avanzate e potenti che mai, con il  potenziale di trasformare settori interi, dalla sanità e finanza alla vendita al dettaglio e intrattenimento.

Ad esempio, nel settore della salute, ChatGPT potrebbe essere utilizzato per creare infermieri e medici virtuali in grado di aiutare i pazienti a gestire le loro condizioni e fornire loro cure personalizzate. In finanza, Whisper potrebbe essere utilizzato per rilevare frodi e altre forme di reato finanziario, mentre ChatGPT potrebbe essere utilizzato per creare consulenti finanziari virtuali in grado di fornire consigli di investimento personalizzati.

Una società sportiva potrebbe integrare ChatGPT nelle app o sito web per fornire agli utenti notizie e analisi personalizzate sulle loro squadre e giocatori preferiti. Ad esempio, un utente potrebbe chiedere a un chatbot alimentato da ChatGPT: “Quali sono le probabilità che la mia squadra di basket preferita arrivi ai playoff?” ChatGPT potrebbe analizzare le prestazioni recenti della squadra, la forza del loro calendario rimanente e altri fattori rilevanti per fornire all’utente una risposta dettagliata ed accurata. Ciò consentirebbe alla società di media sportivi di offrire un’esperienza più coinvolgente e personalizzata ai propri utenti, aumentando così l’interesse e le entrate.

Un retailer potrebbe integrare ChatGPT nel proprio sito web o app per fornire agli utenti raccomandazioni di prodotto personalizzate. Ad esempio, un utente potrebbe chiedere a un chatbot alimentato da ChatGPT: “Che scarpe mi consiglieresti per la corsa?” ChatGPT potrebbe analizzare gli acquisti precedenti dell’utente, la cronologia delle ricerche e altri fattori rilevanti per fornire all’utente una lista di scarpe consigliate su misura per le loro esigenze e preferenze specifiche. Ciò consentirebbe al brand di offrire un’esperienza di shopping più personalizzata ai propri utenti, aumentando così le vendite e la fedeltà dei clienti.

Riguardo all’annuncio ci sono cose interessanti :

  • Utilizzare ChatGPT tramite API costa 10 volte meno rispetto a GPT-3.5
  • Il sistema utilizza un nuovo modello chiamato GPT-3.5-turbo
  • Non è necessariamente richiesto un’interfaccia di chat.
  • Utilizza un linguaggio di markup chiamato, come non potrebbe essere altrimenti, ChatML

Inoltre, consente di fare una cosa molto interessante che sto ancora cercando di capire bene: consente di inserire nella stessa conversazione, in ogni chiamata, diversi ruoli (la seconda immagine del post, un po’ come nella teoria dei 6 cappelli).

I ruoli sono:

  • Sistema, per guidarti nel tono generale della conversazione.
  • Utente, per le solite richieste dell’utente/sviluppatore.
  • Assistente, per salvare le risposte precedenti.

Questa volta l’impatto sarà ancora più potente.

Il software mangerà il mondo, si diceva. Ora sarà l’AI.

🚀 Pronti ad avere, come successo già con le APP, una Intelligenza Artificiale per tutto?

La pubblicazione di ChatGPT e Whisper API rappresenta un punto fondamentale nello sviluppo dell’ intelligenza artificiale. Con questi nuovi strumenti a disposizione degli sviluppatori e delle imprese, abbiamo il potenziale per trasformare il modo in cui viviamo, lavoriamo e interagiamo con la tecnologia.

Snapchat lancia My AI, il suo chatbot alimentato da ChatGPT

Snapchat, la piattaforma di social media per inviare foto e video ai propri amici e guardare reality show, ha annunciato, a partire da questa settimana, che per gli Snapchat Plus subscriber potranno accedere alla nuova funzionalità chiamata “My AI”, un chatbot basato sulla tecnologia ChatGPT.

La tecnologia ChatGPT, sviluppata da OpenAI, è stata recentemente adottata da diverse grandi aziende del settore tecnologico come Google e Microsoft. Anche Snapchat ora sta cercando di sfruttare le potenzialità dell’AI per migliorare l’esperienza degli utenti. “My AI” sarà disponibile all’interno dell’app Snapchat, come se fosse un “contatto amico” a cui scrivere, e sarà in grado di suggerire idee per regali di compleanno, pianificare viaggi escursionistici, proporre ricette per la cena, ovviamente tutte funzionalità in linea con i modelli di partnership che in questi mesi ha sviluppato con Amazon per lo shopping integrato.

Rispetto alla versione standard di ChatGPT, My AI è stata educata e personalizzata da Snapchat per rispettare le sue linee guida sulla sicurezza e sulla fiducia. L’obiettivo di Snapchat è quello di rendere My AI disponibile a tutti gli utenti della piattaforma, ma per il momento sarà possibile accedere solo se si è abbonati a Snapchat Plus. Tuttavia, dai comunicati, sembra che l’azienda voglia espandere la funzionalità in futuro e soprattutto l’utenza che potrà utilizzarlo.

L’obiettivo di Snapchat è far diventare l’interazione con l’AI una parte quotidiana della vita degli utenti, così come lo è già l’interazione con gli amici e la famiglia, aumentando di conseguenza il tempo speso in piattaforma (a discapito ovviamente di altri utilizzi). Evan Spiegel, CEO di Snap, afferma che la piattaforma è ben posizionata e percepita sul mercato per offrire questo tipo di servizio essendo una app di messaggistica e già predisposta alla conversazione.

A differenza di Bing di Microsoft, che ha rivelato di avere problemi con ChatGPT a causa delle risposte errate e delle “hallucinations” prodotte, Snapchat ha personalizzato la sua versione di ChatGPT per adattarsi alle linee guida sulla sicurezza e sulla fiducia dell’azienda. Come Snapchat stessa ammette, “My AI” è comunque soggetta a “hallucinations” e può essere “ingannata! ancora per dire qualsiasi cosa.

Il mercato dell’AI sta crescendo rapidamente e numerose grandi aziende stanno investendo in questo settore, come ho scritto anche nel report pubblicato ieri  relativo agli investimenti in AI generativa. L’adozione di AI da parte di Google, Microsoft, e molte altre aziende, e ora Snapchat, dimostra l’importanza di questa tecnologia per il futuro del settore tecnologico (e non solo).

A lungo termine, gli investimenti in AI potrebbero aprire nuove opportunità di revenue, miglioramento di processi e ottimizzazione di costi, implementazione di servizi per l’interazione e la customer experience delle aziende.