Eccoci alla terza parte del nostro percorso sull’IA.
Ringrazio tutti quelli che hanno commentato: un commento è uno stimolo ad approfondire e andare avanti. In particolare in questo capitolo prendo spunto dai commenti di Tommaso del 5 marzo e di Marisa dell’11 febbraio; (Oscar, invece, dovrà aspettare ancora…)
Introduzione
Vi ricordo che trovate le parti precedenti a questi collegamenti:
Vi ricordo che scrivo in rosa carico, come questo, con la barretta a fianco, le parti di approfondimento, che – se avete fretta – potete anche saltare.
In un riquadro come questo metterò invece le domande, i dubbi, le fantasie sul futuro dell’IA. |
A che punto siamo?
Nelle puntate precedenti…
- Alcuni esempi ci hanno dato una prima idea di IA;
- Si è capito che non c’è un confine ben delimitato tra cosa è IA e cosa no;
- Abbiamo parlato di ChatGPT, l’IA generativa, perché “genera”, ossia scrive testi
- Perché ChatGPT ci stupisce? Le mie prove con ChatGPT e Leonardo AI, e una spiegazione semplice del loro funzionamento.
Dove andiamo adesso?
Entriamo in un terreno meno tecnico ma, forse, più interessante: che conseguenze può avere l’uso dell’IA, viste le sue caratteristiche?
Ma, prima di andare avanti, anche questa volta un paio di premesse.
Prima premessa: velocità
Nel breve tempo intercorso da quando è uscito l’articolo precedente, molti hanno cominciato a parlare di un ulteriore nuovo sistema IA “tipo ChatGPT” (ossia del tipo “generativo), che si chiama Claude 3. Non sono ancora riuscito a provarlo!
E adesso si sta dicendo che i programmatori software presto saranno inutili, è nato Devin, il programmatore virtuale!
Che voglio dire con questo? L’IA si sviluppa molto velocemente (per di più, chi la sviluppa la utilizza come strumento per migliorarla; quindi, effetto aumentato di velocità!). Ciò che diciamo qui invecchia rapidamente – tenetene conto!
Seconda premessa: incertezza
Provate ad ascoltare i cosiddetti “esperti”: chi è più serio e professionale non esprime un parere definitivo, ma più spesso si fa delle domande (magari a volte chiedendo la risposta… proprio all’IA!).
È una materia così nuova e complessa che anche i più competenti hanno dubbi e interrogativi. A questo si unisce il fatto che il “codice” (ciò che fa funzionare l’IA) è un’area grigia, nota solo a chi la sviluppa.
Quindi anche da me da questo punto in poi aspettatevi stimoli, più che risposte!
Che impatto avrà l’IA sul lavoro e sulla occupazione? Come potremo convivere con strumenti sempre più veloci di noi? L’IA potenzia chi la usa e ha i soldi per acquistare le versioni più potenti: che disuguaglianza si potrà creare? Cosa vuol dire, dal punto di vista etico e di responsabilità, affidare le decisioni ad una macchina? Chi decide come si deve comportare l’IA? Ci sarà un momento in cui saremo “superati” dall’IA? L’IA avrà una coscienza? |
Sistemi esperti e IA
Per entrare nel discorso di oggi prendo lo spunto dalla domanda di Tommaso sulla differenza tra “Sistemi esperti” e “Intelligenza artificiale”.
Dovrò raccontare subito qui sotto una mini-storia dei primordi dell’IA (ho tratto molte parti da questa pubblicazione del 2019). Se preferite, se avete poco tempo, andate direttamente alle Conclusioni.
Chiamo per comodità “Sistemi Esperti” quelli tradizionali, e IA quella che conosciamo adesso. Anche i Sistemi Esperti però potrebbero essere un tipo di IA.
Reti neurali
Le prime idee di realizzazione di programmi di IA sono addirittura degli anni ’40.
Sorprendentemente, l’idea su cui si basavano è quella che oggi fa funzionare ChatGPT!
Qual è l’idea? Il nostro cervello è fatto di neuroni interconnessi. Perché non costruire una rete di neuroni realizzati, in parole povere, con i “bit” del calcolatore? Un cervello artificiale che si comporti come quello naturale, ossia apprendere ed eseguire. Ecco dunque l’idea delle “reti neurali“.
Nel 1958 questa frase ad effetto uscì sul New York Times:
“La Marina [militare] ha svelato l’embrione di un computer elettronico che, secondo le sue aspettative, sarà in grado di camminare, parlare, vedere, scrivere, riprodursi e avere coscienza di sé.”
(Vi ricorda qualcosa?)
L’idea (dopo i primi esperimenti, applicati a soprattutto al mondo delle traduzioni) era però destinata ad essere messa in sordina quando ci si accorse che la potenza delle macchine di allora era assolutamente inadeguata. Fu il cosiddetto “inverno dell’IA”, iniziato dal 1973. Niente più finanziamenti alla ricerca, niente più IA!
Sistemi esperti
Era invece più realistico costruire sistemi programmati con regole, dettate da esperti di un campo della scienza. I Sistemi Esperti, appunto.
I sistemi esperti usano un ragionamento logico per arrivare a conclusioni su determinati argomenti che normalmente richiederebbero un esperto.
L’esperto prepara il sistema creando una base di conoscenza e inserendo regole (lo vediamo dopo con un esempio).
Il sistema esperto ha perciò “in testa” una logica, anche molto complessa (“se… -→ allora”) con cui – in base a certi indizi forniti dall’utilizzatore – deduce le risposte.
In alcuni sistemi esperti è il sistema stesso che pone una serie di domande a chi lo usa, per arrivare alle conclusioni.
Anche i sistemi esperti ebbero il loro “inverno”, quando ci si accorse che le regole diventavano troppo complicate (per esempio gli scacchi hanno regole precise, ma il numero di possibili mosse è immenso) ma il metodo è sopravvissuto per campi tecnici specifici.
L’IA, basata quasi sempre su reti neurali, invece, “auto-apprende dall’esperienza”. Riceve una gran quantità di dati e li elabora, creando una propria “conoscenza”.
Esempio
L’esempio più semplice, che ho trovato in un articolo, è questo.
Supponiamo di voler costruire un sistema esperto che sappia distinguere tra foto di gatti e foto di cani.
Quindi, per esempio inseriremo la logica con questi indizi per il gatto:
- ha dei lunghi baffi?
- ha una coda lunga, sottile e uniforme?
- ha unghie lunghe?
- ha un naso piccolo triangolare?
- … e allo stesso modo per il cane.
Per sapere se una foto è di gatto o di cane risponderemo a una serie di domande. Si può immaginare che le regole dovranno essere molto complesse e molto ricche per tutti i casi particolari. Molti cani hanno una lunga coda sottile e uniforme. E ci sono anche gatti con la coda morbida e spessotta…
Se invece vogliamo fare la stessa cosa con l’IA, forniremo 50 foto di gatto e 50 foto di cane, con la loro etichetta “gatto” e “cane”. Anche 5000, se vogliamo essere più sicuri.
Lasceremo lavorare un po’ il sistema IA perché auto-apprenda.
A questo punto il sistema, per una nuova foto, ci dirà se una foto è di gatto o di cane.
Un altro esempio
Ecco un esempio che ho sperimentato personalmente.
Volevo creare un regalo per mia moglie: un album con una serie di foto di noi due assieme, prendendone alcune per ciascun anno della mia raccolta.
Ho pensato di cercare prima tutte le foto dove compariva lei, e poi selezionare tra queste quelle con noi due assieme. Ma le foto erano più di 30000!
Così, ho “addestrato” un sistema IA di riconoscimento facciale. Mi è bastato fornirgli 5 primi piani di mia moglie; dopo un po’ di elaborazione il programma ha estratto dal PC una quantità di foto dove compariva lei, con pochissimi errori. Tra queste, ho scelto facilmente quelle dove c’ero anch’io. (Per i curiosi: perché non ho usato il programma una seconda volta usando i miei primi piani? Perché per me era più veloce così!)
Volete sapere qual era l’errore più frequente? Nelle foto di gruppo dove lei non c’era, indicava col suo nome il volto di di nostro figlio o di nostra figlia…
Ci si può domandare: perché prima ho parlato di fornire molte immagini di cane e gatto e qui sono bastati solo 5 primi piani? Ho chiesto a Gemini la risposta: la trovate cliccando qui.
Quindi: i sistemi esperti lavorano su regole certe fornite da chi li programma, l’IA lavora su quantità di informazioni nelle quali essa stessa apprende, e trova le regole.
Se volete un esempio diverso della differenza tra sistema esperto e IA, ne ho chiesto un paio a Gemini:
- uno nel campo della medicina → cliccate qui
- un altro su un sistema selezione ristoranti → cliccate qui
Conclusioni
Perché questa lunga premessa sui sistemi esperti e le reti neurali?
Noi siamo abituati ad avere risposte precise da un calcolatore: la radice quadrata di 9 deve essere sempre 3, per esempio. Non è più così con l’IA generativa e simili: non c’è “una” risposta. Anche nella creazione di immagini avrete sempre risultati leggermente diversi.
Mentre (con una ragionevole certezza, se si conosce l’argomento) si può immaginare come un sistema esperto arriva alla sua risposta, è invece pressoché impossibile da capire quali siano i passi che ChatGPT ha fatto per arrivare al testo che ci ha appena sfornato.
Ci sono anche situazioni divertenti. Guardate cosa è successo una volta che ho “fatto notare” un errore in una risposta di Gemini (programma simile a ChatGPT).
Per qualche motivo misterioso, invece di spiegare perché avevo ragione e correggersi, ha cominciato a ripetere all’infinito la frase “Hai ragione”.
ChatGPT cerca di rispondere “simulando una persona”, sulla base del proprio – immenso – “corpo di documenti”.
Alla domanda A non avrò da ChatGPT sempre la risposta B, ma potrò avere di volta in volta le risposte B1, B2, B3… concettualmente simili, ma diverse nello stile, negli esempi, nella presentazione.
C’è una percentuale di aleatorietà, di casualità nelle risposte di ChatGPT, che la rende, appunto, “più umana”.
La “temperatura”Questa percentuale di casualità è voluta, e si chiama “temperatura”. Più bassa è la temperatura, meno sarà casuale la risposta, ma più noioso e ripetitivo sarà l’uso di ChatGPT. Più alta la temperatura, più alta la possibilità di ottenere risposte “folli”.È possibile impostare la temperatura delle risposte dicendolo nella richiesta. Ho ripetuto l’esempio del capitolo 2 (l’esempio del prato!) qui sotto, impostando due temperature diverse:
Ed ecco perché ci troviamo così bene con questi sistemi e ci danno un’impressione così “sensazionale”. Come ha osservato Marisa in un commento, e con questo le rispondo, “sempre mi ha sorpreso la risposta quasi umanizzata“.
Noi istintivamente cerchiamo un “altro umano” e ci sembra di trovarlo in quelle risposte. Pensate un attimo all’enorme successo dei social networks, come FaceBook, Twitter, Instagram…
L’internet esisteva da un pezzo, ma l’adesione in massa avvenne coi “social”, in Italia dopo il 2008, con Facebook. Era l’idea di entrare in contatto con persone – non più con testi e trattati e programmi – a rendere lo strumento così desiderabile.
Allo stesso modo l’impressione “umana” di ChatGPT ci coinvolge, fino al punto che alcuni osservano come venga spontaneo “ringraziare” ChatGPT, o chiedere “per favore”, quando in realtà dall’altra parte ci sono solo dei bit, anche se tantissimi! E ChatGPT ha avuto alla sua uscita un milione di nuovi utenti in 5 giorni!
Conseguenze: anticipazione della prossima puntata
Ritorniamo un attimo a quello che abbiamo visto nella seconda puntata.
I sistemi di AI generativa prendono la loro conoscenza da testi e immagini ricavati da internet e dalle biblioteche. Da qui generano le loro risposte. Questo a me suscita parecchie domande, eccone alcune:
|
Vi lascio con una citazione da “Il piccolo Principe”… Se non si capisce il perché, si capirà più avanti:
«Addio», disse la volpe. «Ecco il mio segreto. È molto semplice: non si vede bene che col cuore. L’essenziale è invisibile agli occhi».
«L’essenziale è invisibile agli occhi», ripeté il piccolo principe, per ricordarselo.
«È il tempo che tu hai perduto per la tua rosa che ha fatto la tua rosa così importante».
«È il tempo che ho perduto per la mia rosa…» sussurrò il piccolo principe per ricordarselo.
«Gli uomini hanno dimenticato questa verità. Ma tu non la devi dimenticare. Tu diventi responsabile per sempre di quello che hai addomesticato. Tu sei responsabile della tua rosa…»
E, seduto sull’erba, piangeva. «Io sono responsabile della mia rosa…» ripeté il piccolo principe per ricordarselo
Riccardo Poggi
Note
- Le immagini sono create con Leonardo Ai.
- Gli esempi sono di ChatGPT e di Gemini.
Grazie Riccardo,
un serie (che speriamo continui) di articoli veramente ben fatti: chiari, equilibrati, informativi, stimolanti, e … intelligenti.
Ho un paio di riflessioni da condividere. Le divido in due commenti separati per tenere separate le tematiche.
La prima riflessione penso catturi molto del messaggio che hai passato.
Ciascuna nuova tecnologia o scoperta scientifica non e’ in se ne buona ne cattiva: dipende da quale uso se ne fa. Pensiamo alla scoperta dell’atomo, che ha portato a tecniche di indagine medica che salvano vite, ma anche alla bomba atomica. Pensiamo al transistor: permette l’esistenza di armi autonome in operazioni di guerra, ma e’ anche alla base dell’esistenza di smartphones.
Quindi la domanda da porsi e’ forse: “Quali sono gli usi “pericolosi” dell’IA e quali siano invece quelli che non lo sono?”
Ad esempio: far fare il lavoro a ChatGPT al posto nostro e’ un uso pericoloso, per le ragioni che hai elencato: di fatto decidiamo di spegnere il nostro cervello e delegarne le funzioni a una macchina. Invece farci aiutare a realizzare una nostra idea, complementando le nostre capacità (che sfruttiamo da soli) con competenze che non abbiamo, e’ invece un modo di migliorarsi e migliorare il risultato.
Quindi la domanda così posta e’ errata, perché dall’esempio si capisce che non c’é una definizione universale di ciò che e’ bene fare con l’IA. Allora riprovo: “Quali sono gli usi dell’IA “pericolosi” PER ME e quali siano invece quelli che non lo sono?”
Un passo avanti, ma con una trappola ben nascosta: gli uomini sono animali sociali (anzi secondo alcuni esistiamo proprio in funzione relazionale) e quindi non possono prescindere dalle relazioni con gli altri. E allora, la domanda si raffina:
“Quali sono gli usi “pericolosi” dell’IA per me E PER COLORO CON CUI MI RELAZIONO e quali siano invece quelli che non lo sono?”
Meglio, dato che si identificano tutti gli utilizzi utilitaristici o da furbetti.
Ma il diavolo sta nei dettagli: l termine “pericolosi” non significa nulla e introduce una altrettanto pericolosa aleatorietà e relativismo che possono portare a giustificare tutto e il contrario di tutto.
E allora: “Quali sono gli usi dell’IA CHE POSSONO DANNEGGIARE, NEL BREVE O NEL LUNGO PERIODO, me e coloro con cui mi relaziono, e quali siano invece quelli che non lo sono?”
I più smaliziati obietteranno che ho sostituito Pericoloso con Danneggiare… vero, non e’ un passo avanti risolutivo.
Per rispondere all’obiezione, la domanda precedente va completata. Vorrei costruirla su una cosa che ha pensato tanti anni fa uno scrittore di fantascienza molto famoso, e precursore del tema – Isaac Asimov. Si tratta delle famose Tre Leggi della Robotica, che stabiliscono cosa un robot intelligente (nel nostro caso un IA) possa o non possa fare.
Se queste regole fossero adattate e adottate per discernere l’uso buono e le possibilità positive di azione dell’IA, allora forse ne prenderemmo il meglio.
Versione da WIkipedia (it.wikipedia.org/wiki/Tre_leggi_della_robotica) che ho modificato per adattarle al caso:
1. Una IA non può recare danno a un essere umano né può permettere che, a causa del suo mancato o errato intervento, un essere umano riceva danno.
2. Una IA deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non vadano in contrasto alla Prima Legge.
3. Una IA deve proteggere la propria esistenza, purché la salvaguardia di essa non contrasti con la Prima o con la Seconda Legge.
Buona riflessione a tutti
Caro Riccardo,
ecco qui la seconda riflessione (meno lunga delle precedente).
Siamo sempre di più bombardati da informazioni. Una delle complessità maggiori e’ capirne l’affidabilità.
Non parlo solo di social media e news, ma anche di dati quantitativi (scientifici e non). Ad esempio: un sindaco deve decidere se chiuder al traffico la sua città e per farlo si appoggia ai dati delle centraline di misurazione della qualità dell’aria. Ma quanto sono affidabili queste informazioni? Qual’ e’ l’impatto (economico e sociale) di informazioni non accurate che portano a decisioni non corrette?
Ecco che negli anni si e’ sviluppata ed è cresciuta sempre più di importanza, una scienza, la metrologia (non meteorologia), che cerca di quantificare l’accuratezza delle informazioni. E’ una scienza molto complessa.
La natura specifica dell’IA, con il suo approccio “a scatola chiusa” crea delle difficoltà quasi insormontabili (spesso insormontabili) alla definizione della precisione (accuratezza) del risultato ottenuto. E quindi ecco che ci troviamo a dover accettare informazioni senza sapere quanto siano accurate.
Un grave rischio.
Ma attenzione: non sto dicendo che l’IA non vada usata.
Sto dicendo invece che devono essere prese delle misure per validare il risultato in modo indipendente dall’IA. Quindi bene usare l’IA, ma lasciando sempre il cervello in controllo e tenendo sempre acceso il nostro sano spirito critico.
Buona riflessione.