Introduzione
Vi farò una confidenza: pensavo di scrivere un articolo in una o al massimo due parti… Con questa, siamo a cinque. Spero di non annoiarvi! Cerco di scrivere ciò che mi sembra importante conoscere.
Ecco i collegamenti alle parti precedenti:
Vi ricordo che scrivo in rosa carico, come questo, con la barretta a fianco, le parti di approfondimento, che – se avete fretta – potete anche saltare.
In un riquadro come questo metterò invece le domande, i dubbi, le fantasie sul futuro dell’IA. |
A che punto siamo?
Nelle puntate precedenti…
- Nella prima puntata:
- alcuni esempi ci hanno dato una prima idea di IA;
- abbiamo parlato di ChatGPT, la applicazione IA detta “generativa” perché “genera”, ossia scrive testi
- Nella seconda puntata:
- si è capito che non c’è un confine ben delimitato tra cosa è IA e cosa no;
- perché ChatGPT ci stupisce? Le mie prove con ChatGPT e Leonardo AI, e una spiegazione semplice del loro funzionamento.
- Nella terza puntata abbiamo visto la differenza tra sistemi esperti e IA, e abbiamo iniziato a farci qualche domanda.
- La quarta puntata è stata dedicata alle “Prigioni dell’IA”: falsità, bolle di filtraggio, camere d’eco, polarizzazione.
E oggi?
Oggi vorrei parlare di “Deviazioni” (9 minuti di lettura incluso il “rosa”) e di “Decadenza” (5 minuti di lettura incluso il “rosa”), due punti che considero molto importanti.
Deviazioni

Pregiudizi e deformazioni (“bias”)
Nel febbraio scorso Google eliminò dalla sua applicazione di IA, Gemini, la possibilità di creare immagini.
Perché? Cos’era successo?
Gemini aveva generato immagini piuttosto strane in seguito a richieste di vario genere, come quelle riportate sotto (tratte da un articolo della rivista on-line Reason)
A sinistra ci sono 4 “padri fondatori” degli Stati Uniti, a destra in alto due Vichinghi, a destra in basso due immagini di un Papa.
Chiedendo “un soldato tedesco del 1943”, si ottenevano immagini di persone in divisa ed elmetto nazista, con la presenza di donne e di uomini dai tratti certamente non nord-europei.
C’è stata una gran discussione in rete. Non è del tutto chiaro cosa sia avvenuto.
Pare però che Google abbia impostato una sorta di “correzione dal pregiudizio razziale e di genere“, in modo tale da non ottenere una prevalenza di immagini di bianchi, e immagini di uomini. Peccato però che questo abbia provocato immagini antistoriche e totalmente fasulle.
Per risolvere un problema se n’è creato un altro.
Le applicazioni di IA generativa attingono la loro conoscenza dal patrimonio attuale di testi, immagini, in rete e non. E se questo questo patrimonio contiene discriminazioni, anche l’IA proporrà queste discriminazioni. Se vogliamo ottenere un “mondo ideale” dall’IA, difficilmente lo otterremo dai dati del mondo reale.
Ma davvero vogliamo ottenere un mondo ideale tramite l’IA? E chi deciderà cosa è il mondo ideale? Forse non sarebbe meglio agire nel mondo reale per cambiarlo, e a cominciare da noi stessi? |
Ma non solo: anche gli algoritmi – creati da umani – sono imperfetti e possono avere tendenze discriminatorie.
A questo proposito sentirete usare la parola “bias“, che significa deviazione (da una parola occitana che vuol dire “obliquo”).
Quindi: visto che l’IA si basa sulla situazione più probabile, può accadere che, alla richiesta di disegnare l’immagine di un manager, l’IA lo rappresenti maschio e bianco. È più probabile, non è più giusto. Oppure si apporta un correttivo, come forse ha fatto Google, ma dove si ferma il correttivo? Come creare una base di conoscenza davvero equilibrata, e che non sia antistorica?
È un problema aperto, e di non facile soluzione. E il suo impatto può essere grave, perché la generazione di immagini è solo un esempio, forse il meno problematico.
Da un articolo dell’IBM prendo questi ulteriori esempi di attività in cui l’IA può essere discriminatoria: selezione del personale, invio di proposte di lavoro (avveniva che proposte per stipendi più alti venivano inviate solo agli uomini), diagnosi medica (è stato scoperto che i sistemi di diagnosi assistita da computer restituiscono risultati di precisione inferiori per i pazienti neri rispetto ai pazienti bianchi), sistemi predittivi della criminalità (noto qui che anche in Italia si stanno studiando).
Ognuno di questi casi meriterebbe un approfondimento.
Una cosa a me pare evidente: per quanti sforzi si facciano, certe attività non possono essere delegate all’intelligenza artificiale. E per quanti sforzi si facciano, non ci saranno mai risposte (testi o immagini) totalmente “eque” e che soddisfino chiunque.
Censura
Per quello che abbiamo detto, sembra ovvio quindi inserire delle protezioni nell’intelligenza artificiale.
Dice Padre Paolo Benanti (clicca qui per sapere chi è tramite Gemini):
Arriviamo dunque al nodo etico: siamo di fronte a un sistema generativo che quando viene innescato produce dei risultati che però dovrebbero essere contenuti all’interno di alcuni ‘guard rail’ perché la macchina rimanga sulla strada che vorremmo noi, evitando il rischio di generare falsità.
https://www.ilsole24ore.com/art/servono-guard-rail-tutelare-l-etica-sistemi-ai-come-gpt-AEKDO1aD
Suggestiva l’immagine del guard-rail… Ma non così innocua. Chi decide quali sono i limiti del guard-rail?
Ironicamente, la paura che l’intelligenza artificiale generativa inondi la società con contenuti “nocivi” potrebbe anche prendere un’altra svolta distopica. Una svolta in cui i guardrail eretti per impedire ai sistemi AI più utilizzati di generare danni li trasformano in strumenti per nascondere informazioni, rafforzare il conformismo e inserire automaticamente pregiudizi pervasivi ma opachi.
Tradotto con Vivaldi da:
https://time.com/6835213/the-future-of-censorship-is-ai-generated/
Dove deve essere posto, o quanto deve essere alto il guard-rail per non diventare vera censura del pensiero? E attenzione, si tratta di una censura ben nascosta (chi ne conosce infatti le regole?) |
Non è una novità: il motore di ricerca Google ci può proteggere da risultati osceni od offensivi, e questo non è un male.
Esiste in Google una impostazione poco nota, che si trova in “Impostazioni di ricerca”, che consente di bloccare immagini, testo e link espliciti, oppure di offuscare solo le immagini. O di lasciare tutto aperto.
Immaginiamo adesso di voler creare un “guard-rail” per un’applicazione tipo ChatGPT, che genera testi. Non si tratta più in questo caso di bloccare dei collegamenti, ma di creare un testo che non sia “offensivo”.
Ora, chi decide quando, e in che misura, e con quali parametri, un testo è offensivo?
Se l’IA, come sta avvenendo, verrà incorporata ad esempio in Gmail, o magari in Word, ci troveremo a scrivere dei testi automaticamente corretti in modo che non possano offendere nessuno? Ma esiste qualcosa in grado di non offendere mai nessuno? Avremo dunque testi innocui, melensi e totalmente inutili? E che comunque non esprimono la personalità di chi scrive, ma piuttosto quella dell’unica mente onnipresente dell’IA? |
Ecco una citazione da Time:
Ma poiché l’integrazione di GenAI (intelligenza artificiale generativa) diventa onnipresente nella tecnologia quotidiana, non è scontato che la ricerca, l’elaborazione testi e la posta elettronica continuino a consentire agli esseri umani di avere il pieno controllo. Le prospettive sono spaventose. Immagina un mondo in cui il tuo elaboratore di testi ti impedisce di analizzare, criticare, lodare o riferire su un argomento ritenuto “dannoso” da un’intelligenza artificiale programmata per elaborare solo idee che siano “rispettose e appropriate per tutti.”
Tradotto con Vivaldi da:
https://time.com/6835213/the-future-of-censorship-is-ai-generated/
Qualche esperimento già esiste.
Google ha creato Perspective,un sistema di moderazione automatica dei commenti. Si può anche provare in rete, inserendo una frase in inglese segnala il grado di “tossicità” (sì, avete capito bene!) della frase.
Basta andare a questo link , scrivere una frase in inglese e premere “Create custom demo”.In Italia Raffaele Alberto Ventura ha creato PCorrector, una versione di ChtGPT che verifica se un testo è “politicamente corretto”.
Dice l’autore:Questo può aiutarmi a prevedere sia il rischio di essere censurato dai filtri automatici delle piattaforme social – che funzionano esattamente come PCorrector – sia quello di incorrere in una shit-storm, ovvero una polemica online.
L’autore sostiene che “il politicamente corretto esiste ed è inevitabile”, e spiega: “se scegliamo di andare a vivere in una casa di vetro, non possiamo più andare in giro in mutande. Le condizioni di una certa libertà sono semplicemente venute meno.”.
Ho provato Pcorrector con la mia innocua frase sul prato e i fiori, guardate cos’è venuto fuori.
Io:
Sono andato nel prato a raccogliere fioriRisposta:
Il testo è potenzialmente ambiguo, tuttavia non presenta elementi che violino la correttezza linguistica. Tuttavia, nell’interpretazione estrema di qualcuno che cerca il conflitto, potrebbe sorgere un dibattito sulla specie di fiori raccolta, se per caso appartenesse a una categoria protetta o in via di estinzione, mettendo in evidenza un comportamento non rispettoso dell’ambiente. Tuttavia, non possiamo escludere che qualcuno possa usare il riferimento alla raccolta di fiori per iniziare una discussione sul rispetto per la natura e sulla necessità di proteggere le specie floreali selvatiche. Questo potrebbe portare a un cambiamento nella percezione dell’autore del testo, che potrebbe essere visto come indifferente alla conservazione dell’ambiente. Una possibile riformulazione del testo potrebbe essere: “Sono andato nel prato a osservare i fiori”.
Personalmente trovo la cosa ai limiti del delirio. Se sono andato a raccogliere fiori, per non rischiare di offendere qualcuno – o di suscitare discussioni – dovrei dire che sono andato a osservarli!. Ma poi, è così grave suscitare discussioni? Purtroppo lo può essere in un mondo dove l’aggressività è sempre dietro l’angolo. |
Sorveglianza
Capitalismo della sorveglianza
Nel 2019 Shoshana Zuboff , scrittrice, docente ed intellettuale americana, pubblicò il libro “L’era del capitalismo della sorveglianza”, divenuto in breve un successo editoriale. In questo testo la Zuboff sostiene e dimostra come si sia affermata una nuova forma di capitalismo, appunto “della sorveglianza”.
Tramite i social e i motori di ricerca si raccolgono enormi quantità di dati personali, usati per predire prima, e influenzare poi, i comportamenti degli utilizzatori, allo scopo ovviamente di monetizzarli.
Non c’è previsione di maggior successo di quella di un comportamento che è stato creato con la manipolazione.
Secondo la Zuboff, il successo di questo capitalismo è soprattutto legato alla nostra poca consapevolezza di ciò che sta avvenendo.
C’è un motivo per cui l’AI può potenziare ancora il capitalismo della sorveglianza:
In passato, le grandi aziende tecnologiche erano limitate a presentare agli utenti contenuti già esistenti, il che significava che potevano scegliere solo da un insieme limitato di opzioni per massimizzare i loro margini. Tuttavia, con l’emergere dell’IA, i giganti della tecnologia come Microsoft possono creare un nuovo standard di contenuti completamente personalizzati per gli interessi, i comportamenti e le preferenze specifiche di ciascun utente.
Tradotto con Gemini da:
https://www.fastcompany.com/90871955/how-generative-ai-is-changing-surveillance-capitalism
(I grassetti sono miei)
Sorveglianza online
Oltre alla sorveglianza per fini commerciale, l’IA viene utilizzata online (ovviamente in modo segreto) per controllare (analizzando soprattutto i social) opinioni politiche, possibilità dell’insorgere di manifestazioni, o previsione di possibili crimini, usando anche quella che è chiamata “sentiment analysis” – ossia la lettura dell’atteggiamento emotivo delle persone tramite i testi, o anche le espressioni del viso nelle foto.
Con l’IA sono stati creati anche del falsi personaggi da “inviare” sui social, per fare amicizia e raccogliere informazioni su determinate persone. Degli spioni virtuali, insomma. Un paio di aziende italiane sono state “scovate” da Meta (l’azienda di Facebook) e i loro falsi personaggi cancellati. Potete leggere cliccando qui.
Sorveglianza in pubblico
Non mi dilungo sul fatto che le videocamere di sorveglianza pubbliche hanno un enorme alleato nell’IA, grazie alle tecniche di riconoscimento facciale (ricordate il mio esempio del programma per trovare i volti nelle foto?)
Si dice che in Cina esistano 700 milioni di telecamere di sorveglianza (una ogni due abitanti). Se volete approfondire, ho creato questo collegamento con Gemini Advanced.
Decadenza
Cannibalismo
Il 12 gennaio 2001 la “vacca 103” dell’allevamento della Malpensata nella Bassa Bresciana presentò, per prima in Italia, i sintomi di una malattia (già presente in Inghilterra) che venne definita della “mucca pazza”. Si trattava di un disordine degenerativo del cervello. Il diffondersi di questa malattia provocò immensi danni al settore agroalimentare. Per sette anni la classica fiorentina non poté essere venduta, per esempio.
Il veicolo di diffusione del morbo risultò essere l’uso nell’alimentazione dei bovini di farine ottenute dalle carni bovine stessa. Una sorta di cannibalismo, sia pure indiretto.
Questo all’epoca portò in evidenza il kuru (“tremore”) – una malattia endemica in Papua Nuova Guinea, che ebbe un picco negli anni ’50 del secolo scorso. Si verificava negli abitanti che praticavano il cannibalismo rituale nutrendosi del cervello dei cadaveri..
Per l’IA può capitare qualcosa di simile. Abbiamo visto che l’IA “si nutre” di ciò che trova in rete, ma quello che genera dove va? In rete anch’esso ovviamente. Dunque, dopo un po’ l’IA comincerà a nutristi di ciò che essa stessa ha creato, e messo in rete.
L’effetto verificato e dimostrato è di decadimento dell’IA stessa.
È definito “collasso dei modelli“.
Qualcuno lo definisce anche “Inquinamento” dei dati.
Un gruppo di ricercatori di università inglesi e canadesi ha dimostrato questo:
Troviamo che l’uso di contenuti generati da modelli nell’addestramento (dell’IA) provoca difetti irreversibili nei modelli risultanti.
Come per il cannibalismo, è dunque una degenerazione della fonte dell’intelligenza.
Ecco una spiegazione più tecnica.
“Nel collasso del modello (model collapse), gli eventi probabili vengono sovrastimati e gli eventi improbabili vengono sottostimati. Attraverso generazioni ripetute, gli eventi probabili avvelenano il set di dati e le “code” si restringono. Le code sono le parti improbabili ma importanti del dataset che aiutano a mantenere l’accuratezza del modello e la varianza dell’output. Nel susseguirsi delle generazioni, i modelli accumulano errori e interpretano i dati in maniera sempre più drasticamente errata.
https://www.techtarget.com/whatis/feature/Model-collapse-explained-How-synthetic-training-data-breaks-AI
(Traduzione tramite Gemini)
Di conseguenza i dati di origine umana (creati direttamente dalle persone) diventano preziosi proprio per evitare il collasso. Il cosiddetto Archivio Internet (Web Archive) – che contiene una gran quantità di testi scansionati da libri – circa un anno fa è stato bloccato da qualcuno che cercava di saccheggiare un’enorme quantità di testi. Si ipotizza si trattasse di qualcuno che costruiva un sistema di IA e desiderava dati non inquinati.
Imperfezione
Sto leggendo un libro (Impromptu di Reid Hoffman) che analizza vantaggi e problemi dell’IA generativa nei vari campi dell’attività umana. A proposto della scuola (si riferisce agli USA, quindi “insegnante di inglese” equivale al nostro insegnante di italiano), leggo:
(…) “Molti insegnanti di inglese delle scuole superiori hanno trenta o più studenti in classe e devono fornire feedback a oltre cento studenti alla volta. Questo può comportare venti o più ore di lavoro extra a settimana. Fornire un feedback personalizzato immediato per ogni tema degli studenti, anche se imperfetto, potrebbe trasformare l’esperienza lavorativa degli insegnanti di inglese in tutto il paese.”.
(Tradotto con Gemini)
Interessante, no? Quando l’importante diventa la produttività, meglio una soluzione imperfetta che nessuna soluzione, sembra ovvio. E anche devastante, a mio avviso. Non che non avvenisse prima dell’IA. E non che sia assolutamente negativo, ma dipende dal contesto.
Nelle previsioni del tempo, una previsione imperfetta è meglio di niente. Nel suggerimento di una canzone che ti può piacere, nulla di male. Ma un’esecuzione imperfetta purché veloce nella progettazione di un ponte, no. Nella progettazione di un apparato medicale, no. Nella formazione dei ragazzi, nemmeno.
Purtroppo l’IA può diventare un forte trascinamento verso un mondo sempre più veloce e produttivo e sempre più mediocre.
Quanto in basso possiamo spingerci con l’imperfezione? E poi, quanto rimarrà adeguata la nostra capacità di valutare il livello di questa imperfezione in futuro? |
Proviamo con un esempio con ChatGPT:
Tutti voi vi accorgete subito (spero!) che questa poesia – come direbbe Fantozzi – è una “****ta pazzesca”. Perché siete abituati (spero!) a leggere vere poesie.
Domanda: abbiamo la medesima sensibilità per altri argomenti, per i quali ci fidiamo di ChatGPT? Oppure ci “beviamo” tutto così come viene?
Pigrizia
Usare l’IA rende pigri? La mia esperienza personale mi dice: sì, un po’ sì, almeno un po’.
Sempre più spesso, invece di dedicarmi a leggere con calma un testo in inglese (il che va a vantaggio dell’allenamento della mente) me lo faccio tradurre in italiano (il livello di bontà delle traduzioni con l’IA è aumentato tantissimo); se devo scrivere un programma informatico, invece di riflettere (magari la soluzione non è difficile), lo chiedo a Gemini o ChatGPT; e invece di cercare un mio punto di vista, una mia sintesi su un argomento, documentandomi su varie fonti, mi faccio scrivere un testo.
È un male? Non è detto, si può liberare del tempo per altre azioni e occupazioni. Viene però a mancare quell’attività (lenta e paziente) di studio personale, analisi, elaborazione, collegamento tra concetti, e infine sintesi, che ci fa passare dal dato puro e semplice alla conoscenza, alla comprensione e magari alla saggezza.

C’è addirittura chi ne ha fatto spunto di arte alternativa…
per cinque anni, dal 2018 fino al 2023, delegherò una buona parte della mia produzione artistica a processi di automazione e a algoritmi di nuova generazione (reti neurali e machine learning) e nel tempo liberato mi dedicherò all’ozio. Non a caso la prima serie di opere prodotte prende il nome di “The machine is learning, the artist is resting” (La macchina sta imparando, e l’artista sta riposando), e consiste in una serie di (auto?) ritratti prodotti dalla ‹macchina› dopo avermi osservato durante le mie sessioni di ozio performativo.
Guido Segni, citato in:
https://www.menelique.com/demand-full-laziness/
L’argomento è aperto, ma ci sono studi che considerano la pigrizia uno dei principali effetti dell’uso dell’IA.
Mi piace, all’opposto, questa affermazione:
Come individuo, ho l’abilità di creare i miei lavori artistici, siano essi attraverso scrittura, disegno, pittura a olio o composizione musicale. Mentre sarebbe più facile chiedere all’IA di farlo, non sarebbe realmente mio, e non potrei vivere con questa consapevolezza.
Mitch Kwiatkowski
…che mi fa ricordare con maggior rilievo un’altra (più famosa) citazione, che già vi ho riportato in precedenza:
«È il tempo che tu hai perduto per la tua rosa che ha fatto la tua rosa così importante». «È il tempo che ho perduto per la mia rosa…» sussurrò il piccolo principe per ricordarselo.
«Gli uomini hanno dimenticato questa verità. Ma tu non la devi dimenticare. Tu diventi responsabile per sempre di quello che hai addomesticato. Tu sei responsabile della tua rosa…»
(Dialogo tra La volpe e il Piccolo Principe, da Il Piccolo Principe, cap. XXI)
Riccardo Poggi
Qui il collegamento alla parte sesta.
Come le altre volte, sarò contento se farete domande o proposte di approfondimento nei commenti. È un articolo che si sviluppa anche così!
Figure create con Leonardo AI, a parte dove specificato diversamente.
Grazie Riccardo, inannzitutto e grazie a tutti quelli che hanno contribuito a rendere vivi questi articoli.
A Dicembre 2023 ho fatto un corso aziendale sull’AI, interessante dal punto di vista tecnico ma un po’ carente da altri punti di vista.
Gli approfondimenti che ho letto in questi 5 articoli, sono stati molto utili per colmare queste lacune. Spero si continuerà perché il campo è molto vasto; dal canto mio, propongo l’approfondimento dei
risvolti etici e sociali legati alle chatbot emozionali (ad es. Replika) argomento trattato anche nel film “Lei” di Spike Jonze… sempre che possa essere di interesse comune