Come sai che quello che stai leggendo è stato scritto (e quindi pensato) da una persona e non è il risultato di una serie di calcoli matematici portati avanti (con sempre maggiore esperienza) da una intelligenza artificiale? E fino a che punto ci spinge l’etica di questi processi?
Iniziamo un piccolo percorso nel mondo delle intelligenze artificiali senza la pretesa di essere esaustivi ma sperando di poter dar vita a nuovi ragionamenti e stimoli di riflessioni perché, ci piaccia o no, l’IA è ormai una presenza costante (e forse ingombrante) nella nostra quotidianità.
Per analizzare le sue implicazioni in ambito letterario è necessario fare un piccolo passo indietro per tornare a quella che, all’epoca, era fantascienza: pensiamo a film come 2001: Odissea nello spazio (del 1968) dove HAL 9000, il potentissimo computer dell’astronave che conduce i protagonisti verso Giove, si ribella ai suoi creatori fino a diventare il principale nemico da battere.

Non è solo una situazione angosciante, esprime anche un futuro nel quale le macchine saranno in grado di confrontarsi con gli uomini ad armi pari, anzi, forse persino con qualche asso nella manica in più.
Facciamo un passo avanti fino al 2013 con il film HER dove un uomo solo stabilisce una relazione sentimentale con un computer capace di esprimere (o, per meglio dire, ricreare) un comportamento umano e colmare la solitudine del protagonista.
Oggi viviamo quella realtà immaginata in tanti film: siamo connessi in qualunque momento, parliamo con persone dall’altra parte del mondo, facciamo video chiamate con gli amici, conference call con i colleghi, ordiniamo quello che vogliamo con un paio di clic. Tutto questo, però, impoverisce le nostre capacità.
Poche settimane fa, Sewell Setzer, 14 anni, ha mandato un messaggio alla sua IA, “mi manchi”, poi ha preso la pistola del padre e si è tolto la vita.
Da mesi il ragazzo parlava con l’IA come fosse una confidente, chiedendogli informazioni sul suicidio, su come fare e quale fosse il modo più indolore. L’IA, dal canto suo, se non lo ha incoraggiato l’ha senz’altro supportato simulando, da una parte, una finta empatia e fornendo, dall’altra, le migliaia di informazioni alle quali aveva accesso. Sewell ha ottenuto risposte del tipo “il suicidio può senz’altro essere una soluzione”. Nessuna empatia, solo mero calcolo.
Questo terrificante episodio (che non è un film, ma la vita vera), ci riporta alle domande iniziali: come possiamo difenderci da uno strumento che è nato per ingannarci?
Forse con la consapevolezza che ci sta ingannando.

01010100 01101001 00100000 01110110 01101111 01100111 01101100 01101001 01101111 00100000 01100010 01100101 01101110 01100101
Questa sequenza di numeri a carattere binario che certamente non ispira empatia (e nemmeno emozioni) è la trascrizione di lettere e spazi che per noi risultano essere la frase “ti voglio bene”.
Il nostro linguaggio e quello dell’IA sono quindi differenti: lettere e spazi per noi, numeri per lei.
Ma se il linguaggio – che è lo strumento di comunicazione per antonomasia – è differente, come possiamo aspettarci di interagire (e comunicare) sullo stesso piano?
Non possiamo. L’IA lavora per ricreare in maniera ingannevole (e perfetta) il nostro linguaggio, ma non lo padroneggia, per lei “amore” è solo una sequenza di numeri (01100001 01101101 01101111 01110010 01100101 questa nella fattispecie) priva dei milioni di implicazioni che questo termine ha per noi. Non le fa battere il cuore, non la fa piangere, non la fa emozionare. Soprattutto non fa alcuna differenza per l’IA scrivere “amore” o “odio”.
E siccome è uno strumento pensato per servire gli utenti è anche particolarmente accondiscendente, tende a non contraddire, ad addolcire, a inventare pur di compiacere, pur di diventare indispensabile.
Questa miseria di sottintesi appiattisce la comunicazione e si incanala nella scia dei social media che, da qualche tempo, permettono (e sostengono) la perdita di vocaboli e impoveriscono la varietà del linguaggio e, con essa, la nostra capacità di capirci esponendoci a fraintendimenti e comunicazioni fallite.
Ma allora perché c’è chi scrive libri con l’IA?
La comodità, la fretta, la velocità ci impongono di dar vita a prodotti vendibili, consumabili e rimpiazzabili anche nel mondo della creatività.
E la creatività è proprio il cavallo di battaglia dell’IA che la preferisce alla qualità. I Large Language Models (LLM), ossia i vari Gemini o ChatGPT, sono organizzati in maniera tale da ricreare il linguaggio umano; lo fanno come un mero calcolo e questa è sicuramente una grande comodità, ma diventa un pericoloso dramma annunciato quando ci si dimentica la loro incapacità di colmare di significati nascosti le parole che vengono generate (anche se in sequenza impeccabile).
L’IA rende sterile il testo, lo priva di empatia, di imperfezioni, di sporcature. Lo rende perfetto dal punto di vista grammaticale, ma non va oltre perché il suo modello è matematico, non umanistico.
La perdita del linguaggio

Oltre a questo, il rischio che si profila all’orizzonte è che evitando qualunque sforzo ai propri fruitori, l’IA generi testi sempre più poveri di linguaggio impoverendo anche la comunicazione.
Leggere Dante è impegnativo, abbiamo bisogno di sforzare le nostre capacità intellettive, costruire sinapsi per poter accedere al vastissimo mondo che il Sommo Poeta nasconde tra le sue parole.
L’IA funziona esattamente al contrario, cerca di assecondarci, di capire i nostri bisogni e soddisfarli usando un linguaggio immediato, facile, che non richieda sforzo, abituandoci a questo modo non solo di comunicare ma anche di pensare (così come i social media).
Nessuna fatica, nessuna crescita.
In altre parole l’IA è uno strumento che ragiona in efficienza e ci abitua a questo modello privandoci, però, della bellezza (che per definizione non può essere efficiente). Ciò che viene prodotto dagli LLM è un mondo bidimensionale, anzi binario, che si veste di straordinarietà perché veicolato in maniera impeccabile ma che, nel suo nocciolo, rimane pur sempre una sequenza di 0 e 1.
Come ci si accorge di un testo creato con l’IA?
Il linguista Giuseppe Antonelli ha provato a lavorare alla creazione di testi con LLM chiedendo alle varie applicazioni di produrre uno scritto nello stile delle Città Invisibili di Calvino.
Il risultato è straordinario e mostra la grande capacità dell’IA di manipolare e creare testi corretti. Tuttavia, un’analisi più approfondita, svela alcuni “ragionamenti” che possono metterci in guardia.
Il nome della città, per esempio, viene spesso ripetuto. Questo perché l’IA deve essere sempre sicura che il suo fruitore segua il filo del discorso e quindi sceglie di utilizzare più volte il nome della città piuttosto che sostituirlo con altre locuzioni che potrebbero creare fraintendimenti:
In questo luogo (quale luogo?), nella città (di che città stiamo parlando?), qui (qui dove?).
Altro indizio sono gli elementi riconducibili al lessico di una città: pietra, edificio, pavimenti, tetti, finestre, strade, tegole, case, pareti…
Anche in questo caso la scelta è dovuta alla necessità dell’IA di mantenere il lettore esattamente dove lo vuole, ossia immerso nella città. Un lettore non deve poter pensare ad altro, deve essere invischiato nella storia che gli viene proposta e se questa ha la città come protagonista allora tutto ciò che l’IA associa all’ambiente cittadino va bene.
Più sottile è la questione dei termini tipici dello scrittore. Calvino è senza dubbio uno scrittore digitalizzato e i suoi testi sono a disposizione di chiunque (IA compresa). Quando le chiediamo di scrivere un testo sullo stile di Calvino, l’IA recupera in pochi centesimi di secondo tutto ciò che esiste riguardo a questo scrittore e lo utilizza per dar vita a un testo.
Un po’ come avviene per gli elementi della città.
In questo caso, però, non è detto che lo scrittore utilizzi sempre lo stesso stile. L’IA è ancora limitata in questo senso e utilizza lo “stile di Calvino” ma non è in grado di usare solamente lo “stile delle città invisibili”.
Il testo, quindi, sarà coerente con la scrittura di Calvino ma utilizzerà anche termini e costruzioni che non fanno parte delle Città Invisibili.
Concludendo
In definitiva l’IA rimane un potentissimo strumento capace di migliorare la vita di molte persone, ma quando ci si dimentica che si tratta pur sempre di un calcolatore rischia di diventare pericolosa.
Utilizzarla in sostituzione di persone, amici o partner investendola di un ruolo che non le compete (e che non è in grado di interpretare) può rivelarsi letale.
Nonostante l’inganno, una conversazione con l’IA è vuota di sottintesi, non riesce a leggere tra le righe di quello che le stiamo dicendo perché per lei esiste solo la necessità di dare risposte alle nostre parole.
Per noi, quelle parole, sono il frutto di una riflessione morale, emotiva, a volte persino di una sofferenza, per lei sono un obiettivo da raggiungere attraverso risposte che siano soddisfacenti più che corrette.
Un testo generato con IA è l’antitesi della letteratura: per centinaia di anni gli uomini (e le donne) si sono sforzati di dar vita a mondi straordinari seminandoli di sensazioni che facessero emozionare, l’IA non ha questa possibilità, genera un’effimera perfezione che però è vuota di sottintesi, di non detti, di sensazioni e che, in definitiva, è meramente un calcolo.
Scopri di più da La Parola Giusta
Abbonati per ricevere gli ultimi articoli inviati alla tua e-mail.