2 Risposte a “NOI E L’INTELLIGENZA ARTIFICIALE – Parte terza”

  1. Grazie Riccardo,
    un serie (che speriamo continui) di articoli veramente ben fatti: chiari, equilibrati, informativi, stimolanti, e … intelligenti.
    Ho un paio di riflessioni da condividere. Le divido in due commenti separati per tenere separate le tematiche.

    La prima riflessione penso catturi molto del messaggio che hai passato.
    Ciascuna nuova tecnologia o scoperta scientifica non e’ in se ne buona ne cattiva: dipende da quale uso se ne fa. Pensiamo alla scoperta dell’atomo, che ha portato a tecniche di indagine medica che salvano vite, ma anche alla bomba atomica. Pensiamo al transistor: permette l’esistenza di armi autonome in operazioni di guerra, ma e’ anche alla base dell’esistenza di smartphones.

    Quindi la domanda da porsi e’ forse: “Quali sono gli usi “pericolosi” dell’IA e quali siano invece quelli che non lo sono?”
    Ad esempio: far fare il lavoro a ChatGPT al posto nostro e’ un uso pericoloso, per le ragioni che hai elencato: di fatto decidiamo di spegnere il nostro cervello e delegarne le funzioni a una macchina. Invece farci aiutare a realizzare una nostra idea, complementando le nostre capacità (che sfruttiamo da soli) con competenze che non abbiamo, e’ invece un modo di migliorarsi e migliorare il risultato.

    Quindi la domanda così posta e’ errata, perché dall’esempio si capisce che non c’é una definizione universale di ciò che e’ bene fare con l’IA. Allora riprovo: “Quali sono gli usi dell’IA “pericolosi” PER ME e quali siano invece quelli che non lo sono?”

    Un passo avanti, ma con una trappola ben nascosta: gli uomini sono animali sociali (anzi secondo alcuni esistiamo proprio in funzione relazionale) e quindi non possono prescindere dalle relazioni con gli altri. E allora, la domanda si raffina:
    “Quali sono gli usi “pericolosi” dell’IA per me E PER COLORO CON CUI MI RELAZIONO e quali siano invece quelli che non lo sono?”

    Meglio, dato che si identificano tutti gli utilizzi utilitaristici o da furbetti.
    Ma il diavolo sta nei dettagli: l termine “pericolosi” non significa nulla e introduce una altrettanto pericolosa aleatorietà e relativismo che possono portare a giustificare tutto e il contrario di tutto.
    E allora: “Quali sono gli usi dell’IA CHE POSSONO DANNEGGIARE, NEL BREVE O NEL LUNGO PERIODO, me e coloro con cui mi relaziono, e quali siano invece quelli che non lo sono?”

    I più smaliziati obietteranno che ho sostituito Pericoloso con Danneggiare… vero, non e’ un passo avanti risolutivo.
    Per rispondere all’obiezione, la domanda precedente va completata. Vorrei costruirla su una cosa che ha pensato tanti anni fa uno scrittore di fantascienza molto famoso, e precursore del tema – Isaac Asimov. Si tratta delle famose Tre Leggi della Robotica, che stabiliscono cosa un robot intelligente (nel nostro caso un IA) possa o non possa fare.
    Se queste regole fossero adattate e adottate per discernere l’uso buono e le possibilità positive di azione dell’IA, allora forse ne prenderemmo il meglio.
    Versione da WIkipedia (it.wikipedia.org/wiki/Tre_leggi_della_robotica) che ho modificato per adattarle al caso:
    1. Una IA non può recare danno a un essere umano né può permettere che, a causa del suo mancato o errato intervento, un essere umano riceva danno.
    2. Una IA deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non vadano in contrasto alla Prima Legge.
    3. Una IA deve proteggere la propria esistenza, purché la salvaguardia di essa non contrasti con la Prima o con la Seconda Legge.

    Buona riflessione a tutti

  2. Caro Riccardo,

    ecco qui la seconda riflessione (meno lunga delle precedente).

    Siamo sempre di più bombardati da informazioni. Una delle complessità maggiori e’ capirne l’affidabilità.
    Non parlo solo di social media e news, ma anche di dati quantitativi (scientifici e non). Ad esempio: un sindaco deve decidere se chiuder al traffico la sua città e per farlo si appoggia ai dati delle centraline di misurazione della qualità dell’aria. Ma quanto sono affidabili queste informazioni? Qual’ e’ l’impatto (economico e sociale) di informazioni non accurate che portano a decisioni non corrette?

    Ecco che negli anni si e’ sviluppata ed è cresciuta sempre più di importanza, una scienza, la metrologia (non meteorologia), che cerca di quantificare l’accuratezza delle informazioni. E’ una scienza molto complessa.
    La natura specifica dell’IA, con il suo approccio “a scatola chiusa” crea delle difficoltà quasi insormontabili (spesso insormontabili) alla definizione della precisione (accuratezza) del risultato ottenuto. E quindi ecco che ci troviamo a dover accettare informazioni senza sapere quanto siano accurate.

    Un grave rischio.

    Ma attenzione: non sto dicendo che l’IA non vada usata.
    Sto dicendo invece che devono essere prese delle misure per validare il risultato in modo indipendente dall’IA. Quindi bene usare l’IA, ma lasciando sempre il cervello in controllo e tenendo sempre acceso il nostro sano spirito critico.

    Buona riflessione.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *