Da un po’ di tempo stiamo provando a fare chiarezza sui temi della data science — abbiamo anche scritto un libello.
Ultimamente, vista la confusione crescente, ci stiamo concentrando molto sui LLM (Large Language Model).
Cerco di raccontare quello che so, quello che sto studiando, e quello che ho capito finora. Mi diverte, spero sia utile, ma a volte è strano. È un po’ una commedia dell’assurdo. Ogni volta che si apre una discussione, il dibattito si popola sempre degli stessi personaggi. Provo a descriverli.
Il tecnoentusiasta riscattato.
Per lui l’LLM è una rivincita. Non ha mai avuto gli strumenti per capire davvero le cose, ma adesso si sente competente perché la macchina gli dà risposte articolate. Non distingue tra plausibilità e conoscenza. Se l’output è ben scritto, per lui è vero.
Poi c’è il supercazzolista sistemico.
È quello che parla di “System-0”, “cognizione emergente”, “intelligenza simbiotica”. Ha letto tre articoli di blog e un libro divulgativo, li ha scambiati per letteratura scientifica, e adesso gira per conferenze spiegando che i token sono come neuroni. Spesso fa più danni del primo, perché veste di tecnicismo quello che è puro aneddoto.
Il terzo è il filosofante post-tutto.
Non discute mai dei modelli. Discute delle parole. Dice che bisogna ridefinire “pensiero”, “intelligenza”, “mente”, “mento”, “menta”, “rosmarino”, “juve”, “scudetto”, e che non possiamo escludere nulla a priori, manco i priori. Se provi a parlare di architetture o funzioni obiettivo, ti risponde che il linguaggio è performativo.
Poi c’è il luddista apocalittico.
Non sa cos’è un transformer, ma è convinto che stiamo creando un dio o un mostro. Mescola fantascienza, etica e panico morale. Di solito non ha mai scritto una riga di codice né letto un paper, ma ha un’opinione forte su tutto. E si inventa delle frasi assurde piene di tecnicismo per far vedere che ne capisce.
Segue poi, a volte, ma per fortuna sempre più raro, l’umanista sentimentale.
È quello che dice “questa macchina non potrà mai scrivere come me”, ma poi la usa per scrivere le email, le bio, i titoli delle slide. Difende l’umanità del linguaggio, ma non sa distinguere un embedding da un rastrello. A volte scrive testi peggiori dell’LLM, ma ci tiene a dire che “c’è l’intenzione dietro”.
Il professore tardivo.
Ha scoperto l’intelligenza artificiale nel 2023, ma adesso ci tiene a spiegarti perché è tutto riconducibile a Peirce, a Vico o a Busto Arsizio. Fa lezione su concetti che non ha mai testato. Cita Wittgenstein, Marx e lo Zen e l’Ukulele ogni tre frasi, ma non conosce il meccanismo di attention. Il suo corso ha “AI” nel titolo — che sta per “AI studenti” — e nel syllabus c’è solo letteratura secondaria, quasi interamente riconducibile all’epoca babilonese.
Infine, il prompt engineer autoproclamato.
Ha fatto un corso da autodidatta. Ha messo “prompting” nel profilo LinkedIn prima ancora di capire cosa stava ottimizzando. Fa corsi su come “parlare alla macchina”, ma non ha idea del fatto che l’LLM non sta ascoltando, sta solo completando sequenze di testo. Ti vende “prompt magici” per ottenere risultati che il modello avrebbe dato comunque.
Tutti questi personaggi, pur diversi, hanno un tratto in comune: parlano dell’output, ma ignorano il processo. Discutono l’effetto, non la struttura.
Allora, giusto per fare chiarezza: come funziona davvero un LLM?
Genera testo un token alla volta, scegliendo ogni volta la parola più probabile da mettere subito dopo quelle già scritte.
Non ha in mente l’intera frase, né un significato globale da trasmettere. Procede in modo sequenziale, chiedendosi: “dato quello che ho già scritto, quale parola viene di solito dopo in casi simili?”
Questo approccio si chiama autoregressivo. Significa che il modello usa il testo precedente per prevedere il testo successivo, costruendo la frase un pezzo alla volta.
Il modello è stato addestrato leggendo enormi quantità di testo, imparando a riconoscere le regolarità statistiche nelle sequenze di parole.
Non costruisce una rappresentazione del contenuto, non ragiona sul significato. Semplicemente, riproduce pattern linguistici appresi.
Di default, non ha accesso a conoscenze esterne. Alcuni modelli possono essere connessi a strumenti esterni (come database o motori di ricerca), ma queste fonti non diventano parte strutturale del modello: restano accessi temporanei al contesto.
Il criterio che guida la generazione non è la verità, la coerenza logica o la pertinenza rispetto a un obiettivo. È la plausibilità linguistica: scegliere, a ogni passo, la parola che “suona giusta” data la storia precedente.
Questo spiega perché può generare risposte credibili e ben scritte anche su temi che non “conosce”: sta imitando il modo in cui quei temi sono stati trattati nei testi su cui è stato addestrato.
E spiega anche perché può dire cose false con sicurezza: se una bugia è stata scritta abbastanza spesso, per lui è una sequenza plausibile.
Non ha un modello del mondo.
Non separa in modo esplicito input, conoscenza e obiettivo: tutto è trattato come una sequenza di testo da completare.
Non rappresenta simbolicamente, non ragiona, non verifica.
Non ha intenzione, memoria o controllo interno.
L’output è plausibile. A volte è corretto, a volte no. Ma il criterio con cui viene prodotto è sempre lo stesso: continuità statistica rispetto ai dati visti durante l’addestramento.
Si parla spesso di “emergenza” per descrivere il fatto che, man mano che questi modelli crescono di dimensione, iniziano a fare cose che prima non facevano: risolvere problemi logici, fare calcoli, rispondere a domande complesse.
A prima vista sembra che “a un certo punto succeda qualcosa”. In realtà, quasi tutto quello che oggi chiamiamo emergente è il risultato di una combinazione di due fattori: più dati e maggiore capacità parametrica.
Non c’è un salto qualitativo, ma un accumulo di correlazioni sempre più sottili che portano a comportamenti più raffinati.
Nel senso tecnico del termine, l’emergenza dovrebbe implicare l’apparizione di una struttura nuova, più semplice e stabile, che nasce da un sistema molto complesso.
Nei LLM, invece, si tratta per lo più di prestazioni che migliorano gradualmente e che, con gli strumenti giusti, possiamo anche prevedere.
Quando sembra “intelligente” è perché le correlazioni imparate riflettono pattern linguistici umani. L’apparenza concettuale è un effetto di superficie, non il risultato di una struttura interna di ragionamento.
Il sistema non sa cosa sta dicendo. Sta solo proiettando, token dopo token, la sequenza più probabile.
Anche gli avanzamenti più recenti — finestre contestuali più ampie, retrieval aumentato, strumenti esterni — non cambiano questa architettura di base.
Restano modelli di plausibilità linguistica, non sistemi cognitivi. Non ragionano, non decidono, non capiscono.
Capirlo non serve a sminuire. Serve a usare bene.
Delegare funzioni cognitive a un sistema che cognitivo non è, richiede più consapevolezza di quanta ne vedo in giro.
* da Facebook
- © Riproduzione possibile DIETRO ESPLICITO CONSENSO della REDAZIONE di CONTROPIANO
Ultima modifica: stampa

ugo
Io ho provato a dire a google “qui ma più no, ma rivredremne altrove” che è un verso di una delle ultime poesie del Canzoniere, RVF 328: niente! allora gli ho detto: “qui ma più no, ma rivredremne altrove, Petrarca”; la riposta è stata grottesca: “La frase “qui mai più no, ma rivedremo altrove” è una citazione dal Canzoniere di Francesco Petrarca, precisamente dal sonetto “Solo e pensoso i più deserti campi” (RVF 35). ” Il fotografo Giacomelli in Calabria ha fatto togliere il malocchio dalla sua macchina fotografica e ovviamente google sapeva tutti i dettagli: “”Sdocchiare la macchina fotografica” nel contesto di Giacomelli probabilmente si riferisce al processo di “svelare” o “preparare” la macchina fotografica per lo scatto, non a un’azione specifica di Giacomelli, ma un’azione comune a tutti i fotografi.” Il bello è che continua dicendo che prima di fotografare bisogna “impugnare la macchina fotografica, assicurandosi di avere una presa salda e stabile.” Ma allora, se invece di pensare a Kallas, Kubilius e google come nemici contro cui lottare (lotta di popolo armata!) li vedessimo come simpatici clown? Se cercassimo di dar loro quella tenerezza che non hanno mai avuto? Piccoli Pinochet da coccolare? Una risata li seppellirà.