Venerdì 9 febbraio scorso almeno un centinaio di partecipanti hanno affollato il salone sottochiesa per seguire l’intervento del prof. Gianni Ferretti con l’obiettivo dichiarato “di farci capire come funziona l’intelligenza artificiale”, impresa non facile per la complessità dell’argomento e la varietà dell’uditorio; eppure il relatore è stato capace di lasciarci i concetti di base necessari per la comprensione delle ragioni e dei meccanismi che governano l’esercizio della IA, utilizzando anche esempi di esperienza.

“L’IA è un po’ come rinunciare al vero amore che è la conoscenza per soddisfare dei bisogni immediati”, ha esordito il prof. Ferretti, tuttavia nessun giudizio sulla IA, come tutte le cose e gli strumenti dipende dall’uso che l’uomo ne fa.

Il relatore ci ha introdotto alle stagioni attraversate dalla IA, che ha avuto alti e bassi, a partire dalla sua nascita riconosciuta nel 1956 in un convegno di informatici americani. A dir la verità, ci dice il prof. Ferretti, si dovrebbe assegnare la paternità del nome ad Alan Turing, britannico, uno dei più grandi matematici del XX secolo tra i padri dell’informatica, morto suicida nel 1954. A Turing, tra l’altro, si deve l’unico test per valutare se una macchina sia in grado di fornire un comportamento intelligente: la macchina A avrà raggiunto l’intelligenza umana qualora la persona C che interagisce con un qualcosa che non sa se essere una macchina o un essere umano (A o B) non riuscisse a distinguerli; a oggi la maggioranza degli scienziati sostiene che il test non è ancora stato superato. L’ultima stagione della IA ha ricevuto un forte impulso ad una crescita esponenziale a partire dal 2013 grazie ad almeno tre fattori; l’aumentata potenza di calcolo delle macchine, la quantità di dati disponibili e l’algoritmo Google.

L’intelligenza artificiale ci fornisce il risultato cercato (output) grazie alla elaborazione di un sufficiente numero di dati (input): senza dover conoscere cosa avviene nella “scatola” del sistema da indagare o dover attraversare i processi o meccanismi sperimentali che determinano il dato ricercato; mediante calcoli iterativi di equazioni o funzioni approssimanti, possibili con la potenza di calcolo ormai disponibile,  la IA restituisce quanto cercato con una previsione sempre più approssimata al dato misurato.

Agli inizi l’intelligenza artificiale funziona grazie all’uomo che le fornisce una sufficiente quantità di dati, insegnandole come lavorare, anche sulla base di prove sperimentali. Ma poi si è smesso di insegnare alla macchina perchè essa stessa può imparare dai dati forniti o acquisiti le relazioni che hanno in sè (si parla di “machine learning”, sottoinsieme della IA) e  quindi può essere in grado di dare soluzioni con un allenamento autonomo. Ma non c’è limite, perchè con il calcolo mediante reti neurali multistrato (cioè particolari funzioni approssimanti) l’apprendimento della macchina si autoalimenta, potendo gestire e acquisire quantità enormi di dati dalla rete (“deep learning”, sottoinsieme del machine learning) e così si arriva alla IA generativa, cioè capace in autonomia di generare immagini, testi, voce, video, musica, molecole, ecc.

Il gatto protagonista della locandina non esiste perchè la sua immagine è generata dalla IA che si è addestrata a riconoscerlo a partire da caratteristiche  immesse tramite testi o da altre immagini di gatti reali o da parametri numerici che codificano forme e colori; si verifica così che l’immagine “falsa” generata non è distinguibile dall’immagine di un  gatto reale; non solo, l’immagine falsa può anche insinuarsi tra le immagini reali.

Due esempi per fare una riflessione: il primo di grande utilità in aiuto del medico con il riconoscimento delle patologie esplorando i referti diagnostici, il secondo, sull’altra faccia della medaglia, con la generazione di falsi come opere d’arte o video che fanno dire menzogne a personaggi di spicco della politica, della società, ecc.

ChatGPT è una intelligenza artificiale generativa pre-addestrata alla quale già molti si affidano per avere risposte su una gamma molto ampia di argomenti, è in grado di generare testi, di analizzarne i sentimenti, di sintetizzare la voce per generare il parlato di un testo e poi un’infinità di altre attività.

Noi aggiungiamo qualche riflessione in margine a quanto ascoltato; non ultima, affiora la preoccupazione che il riconoscimento di immagini possa essere lo strumento del Grande Fratello per tracciare/registrare i nostri movimenti e  la nostra vita, una preoccupazione che sembra non essere più fantascienza.

 

Se consideriamo la quantità spaventosa di informazioni che ogni minuto passano sulla rete e che possono essere “mangiate” dalla IA, ci facciamo un’idea delle straordinarie potenzialità che la tecnologia generativa può mettere in campo; indubbiamente tutti abbiamo in mente grandi vantaggi e aiuti molti utili con la IA, tuttavia è anche opportuno non nascondere molti interrogativi che mettono in gioco la coscienza e la sapienza umana, tra i quali:

  • fin dove arriverà la IA?
  • ci sarà bisogno di mettere dei confini con una governance che rispetti la libertà, la verità, la privacy e la dignità dell’uomo? di chi è la responsabilità di valutare questo?
  • quali devono essere i nostri comportamenti utilizzando la IA? come cambiano i nostri stili di vita?
  • può diventare una questione etica? lo è già?
  • gli scienziati stanno tenendo conto di questo? quale controllo serve?

 

 

Il parroco don Giulio ha chiuso l’incontro e, ringraziando il prof. Ferretti, ha richiamato l’importanza di approfondire anche le questioni etiche e si è augurato che ci possano essere altri incontri come questo su temi sociali, scientifici, ecc. per poter condividere nella comunità domande, conoscenze ed esperienze su quanto accade nel mondo.

foto concessa da diocesidicremona.it

Guarda il video con la relazione del prof. Ferretti