“Umano poco umano - Esercizi spirituali contro l’Intelligenza artificiale”
di
Mauro Crippa, laureato in filosofia e giornalista professionista, è attualmente Direttore generale dell’informazione del Gruppo Mediaset, oltre a ricoprire altri incarichi connessi con il mondo giornalistico e editoriale tra cui la partecipazione al Comitato Scientifico del Master in giornalismo dell’Università IULM.
Giuseppe Girgenti insegna Storia della filosofia antica all’Università Vita e Salute San Raffaele, lavorando al contempo al Centro Ricerche di Metafisica dell’Università cattolica di Milano dove si è formato sotto la direzione di Giovanni Reale. Nei suoi studi ha approfondito la storia del platonismo pagano e cristiano, in un terreno di confine tra antichità e medioevo, filosofia e teologia.
Stralci della relazione a cura di Tiziana Orsini
“Governare l’intelligenza artificiale non è un problema di scienza ma di sapienza”.
La relazione si snoda attraverso le domande della moderatrice, la giornalista Martina Maltagliati che sollecita gli autori a ripercorrere alcuni temi trattati nel libro sulle trasformazioni già in atto nella vita professionale e sociale provocate dall’IA e che suscitano inquietanti interrogativi.
IA e editoria
In questo settore le conseguenze possono essere nell’immediato molto gravi: dagli USA all’Asia passando per l’Europa la rivoluzione è già iniziata.
Paradigmatico il caso del Berrow’s Worcester Journal, testata ancora in attività dal 1690 che per sopravvivere sta implementando tecnologie di IA per potenziare e accelerare il lavoro redazionale.
I giornalisti diventano “provider “del loro stesso giornale fornendo il materiale per gli articoli che vengono scritti dall’IA.
I volti delle conduttrici vengono sostituiti da volti generati dall’IA e anche la radio non si sottrae all’”aggressione” dell’IA con, ad esempio, la creazione di DJ virtuali a partire dalla voce di una vera DJ, …..una inedita moltiplicazione della forza lavoro.
Nel nostro paese l’editore tedesco Axel Springer rivoluziona l’app internazionale di notizie Upday e chiude la redazione italiana, licenziandone i redattori e sostituendoli con l’IA: un caso su presente e futuro dell'informazione.
La sopravvivenza del giornalismo intelligente e critico dipende dai ricavi e dalla riduzione dei costi: il giornalismo cartaceo è finito e ciò vale anche per la fisicità della redazione.
IA e formazione
Afferma Giuseppe Girgenti che, dopo un‘entusiastica iniziale accettazione di ChatGPT, si è chiesto, non senza preoccupazione in quanto docente, quale poteva essere l’impatto sulla scuola e sull’Università.
E’ evidente che nella scuola basta che i ragazzi comunichino ad esempio il titolo di un tema a ChatGPT e in brevissimo tempo hanno lo svolgimento che devono solo copiare; si rischia di avere prodotti perfetti e produttori ignoranti ma il compito della scuola è di formare uomini, coscienze, abituarli a pensare, scrivere, avere padronanza del linguaggio…..
Per quanto riguarda l’Università fino a qualche tempo fa c’erano tutti gli strumenti anti plagio per identificare capitoli di tesi copiati: adesso è impossibile perché un capitolo di una tesi di laurea scritto da ChatGPT è UNICO.
Non resta che affidarsi all’esperienza del docente che può giustamente dubitare della perfezione di
un testo presentato la prima volta.
I possibili rischi
Le fonti utilizzate per la scrittura del libro sono tra le più autorevoli nel campo scientifico e pedagogico e i più preoccupati sono risultati essere proprio gli ingegneri dell’IA che in alcune occasioni manifestavano la preoccupazione che la probabilità statistica della macchina venisse superata da una imprevedibilità delle sue logiche.
“La regolamentazione sarà fondamentale e ci vorrà del tempo per capirlo. Sebbene gli strumenti di intelligenza artificiale della generazione attuale non siano molto spaventosi, penso che potenzialmente non siamo così lontani da quelli potenzialmente pericolosi»: queste le parole dell’inventore di ChatGPT Sam Altman.
Da recenti ricerche emerge che, in particolare in Italia, l’opinione pubblica non sia consapevole dei potenziali effetti negativi della pervasività dell’IA fino a che, - continua il Professore – non sarà la realtà a metterci di fronte alla perdita di posti di lavoro e alla perdita di certezza circa l’autenticità o meno di prodotti intellettuali e culturali.
Emblematico il caso annunciato da Paul McCartney che ha annunciato una nuova canzone con la voce di John Lennon estrapolata da una vecchia audiocassetta che conteneva un piccolo brano inedito; l'operazione pare sia stata resa possibile dall'uso dell' IA alla quale è stato chiesto di separare la voce dal pianoforte.
Un esempio di manipolazione della realtà che potrebbe avere delle conseguenze piuttosto inquietanti; al momento però l’IA non ha coscienza di sé, è una intelligenza senza anima, una mente senza coscienza, sentimenti, paura, emozioni, dolore.
Siamo noi che abbiamo l’illusione di parlare con un’altra persona e attribuiamo ad un software delle caratteristiche umane instaurando dialoghi…. anche con defunti….
“Così abbiamo dato vita a CHATGRC un portale aperto a tutti, basato su elementi di intelligenza artificiale, attraverso cui è possibile chattare con Gianroberto Casaleggio. Abbiamo chiesto all’IA di leggere alcuni dei suoi libri e dei suoi pensieri. E adesso è possibile avere una conversazione direttamente con lui. Certo, non è ancora perfetta, ma la renderemo sempre più performante. …….” dice il figlio Davide.
IA e la guerra
Nella guerra in atto nella Striscia di Gaza l’esercito israeliano ha fatto ricorso a un programma basato sull’ IA denominato “Lavender”, che nelle prime settimane di conflitto ha individuato fino a 37.000 palestinesi come sospetti militanti per possibili attacchi aerei. Dall’inchiesta è emerso che durante le prime fasi della guerra, l’esercito ha approvato il ricorso alle liste di obiettivi di Lavender senza richiedere verifiche più approfondite sui motivi della designazione o analisi dei dati grezzi di intelligence su cui si basavano. Una fonte ha affermato che il personale umano spesso fungeva solo da “timbro” per le decisioni della macchina, aggiungendo che, normalmente, avrebbe dedicato personalmente solo circa “20 secondi” a ciascun obiettivo prima di autorizzare un bombardamento, per assicurarsi che l’obiettivo fosse maschio.
Henry Kissinger che negli ultimi tempi era letteralmente ossessionato dalla IA sosteneva che “i sistemi di intelligenza artificiale possano trasformare in modo radicale la guerra del futuro, svuotando l’armamentario della diplomazia mondiale, perché quei sistemi sono in grado di compiere mosse che nessun essere umano prenderebbe in considerazione”.
Il tema della responsabilità in cui deve essere chiaro chi è “il mandante” e chi è invece il veicolo di una certa azione, sottolinea Mauro Crippa, si contrasta potenziando l’IO non solo nelle sue facoltà cognitive e affettive, ma anche nelle sue capacità decisionali cioè nell’esercizio del libero arbitrio.
Secondo Bill Gates tra pochi anni gli attuali motori di ricerca saranno sostituiti da un assistente virtuale personale in grado di assisterci e anticipare le nostre scelte perché avrà acquisito una conoscenza di noi stessi anche superiore alla nostra.
Ecco perché è fondamentale la conoscenza di sé, le relazioni con gli altri e non abdicare alla nostra capacità decisionale compresa anche la libertà di sbagliare.
IA e il gioco
A quasi 25 anni dalla storica vittoria di IBM contro Kasparov, le probabilità che una persona batta un computer sulla scacchiera sono pari a zero da quando l' IA ha fatto irruzione anche negli scacchi.
Fabrizio Falchi, ricercatore presso ISTI-CNR ed esperto di visione e intuizione dei sistemi di IA spiega che “Gli algoritmi dotati di intelligenza artificiale imparano da soli a giocare dopo aver visto tanti esempi di partite del passato e averne giocate altre a loro volta, anche contro sè stessi”, Il tutto avviene in tempi molto rapidi. In questo modo, riescono a mettere da parte un’esperienza che un essere umano non riuscirebbe mai ad accumulare nella propria vita. E diventano anche intuitivi.
Così cambia il modo di giocare. L’esperienza li guida a non vagliare tutte le possibili mosse, come faceva Deep Blue (IBM), ma selezionare solo quelle più probabili e a calcolare la più vantaggiosa da un punto di vista matematico”.
IA e il sistema sanitario
L’utilizzo dell’IA in radiologia ha mostrato grandi successi nel rilevare e classificare anomalie su radiografie, scansioni tomografiche computerizzate (CT) e di risonanza magnetica (RM), portando a diagnosi più accurate e ad una maggiore efficienza dei processi decisionali.
La maggior parte dei radiologi si aspetta cambiamenti sostanziali nella professione entro la prossima decade e crede che l’IA dovrebbe avere un ruolo come “copilota”, agendo come secondo lettore e migliorando la gestione del flusso di lavoro.
Tuttavia, a causa della complessità dei contesti diagnostici e ai possibili errori tecnici di un’automazione troppo spinta, sinora la convinzione comune tra gli addetti ai lavori è sempre stata quella della assoluta necessità di una supervisione umana.
Ancora, l’ampliamento delle frontiere dei dati che possono essere utilizzati per inferire lo stato di salute individuale, così come coloro che possono accedervi, solleva preoccupazioni riguardo alla nostra autonomia e riservatezza.
Un esempio di ciò è l’utilizzo dei dati sanitari da parte di aziende farmaceutiche e tecnologiche per fini commerciali.
IA il vero, il falso, i sistemi di raccomandazione
Secondo i relatori per evitare una deriva totalitaria è essenziale mantenere la differenza tra i fatti, ciò che è reale, e le ideologie.
Questo discrimine oggi è in qualche modo violato perché la differenza tra ciò che è vero e ciò che non lo è sembra essere irrilevante. L’interesse sta nella gratificazione e nella conferma delle proprie idee dove non esiste la verità dei fatti, perché ciascuno ha selezionato e riceve solo le notizie e i commenti con i quali concorda a priori "echo chambers".
Il sistema ci rassicura, ci premia, lavora al posto nostro, ci evita fatica e trasforma il processo di acquisto o la ricerca di contenuti in un’esperienza unica, che però non sempre è positiva.
Uno degli esempi negativi più eclatanti è il rilancio del terrapiattismo, teoria cospirazionista praticamente scomparsa alla fine degli anni 80, avvenuta attraverso l’algoritmo di raccomandazione che ha creato un ecosistema in grado di autoalimentarsi ed ha favorito la viralità dei contenuti complottisti. Secondo una ricerca di YouGov oggi circa 30 milioni di cittadini americani credono che la terra sia piatta, non perché ne abbiano le prove, ma semplicemente perché credono al contenuto che gli è stato proposto in maniera incessante, o perché questo contenuto è stato condiviso da persone di cui si fidano e per le quali non ritengono necessaria alcuna verifica. In poche parole, gli algoritmi di deep learning utilizzati nei sistemi di raccomandazione sono in grado di polarizzare le preferenze degli utenti che restituiscono feedback positivi i quali a loro volta tornano ad alimentare il sistema di autoapprendimento in un ciclo infinito.
Le conclusioni
Questa tecnologia è diversa da tutte le altre perché trasforma forse anche i nostri modi sia di percepire il mondo, sia di pensare, sia di avere relazioni con le persone - ha spiegato Mauro Crippa.
In conclusione per scongiurare la sostituzione tecnica dell’IA sull’uomo serve una resistenza psicologica e culturale supportata dalla forza dei classici della filosofia, da Socrate a Sant’Agostino perché è nei classici che troviamo i fondamenti dell’identità umana, dell’IO inteso come individuo, ma anche della nostra identità collettiva, spiega Giuseppe Girgenti.
Nove sono gli «esercizi spirituali» che in forma di capitolo scandiscono il volume e Socrate, Platone, Aristotele, Epicuro, Sant'Agostino, Galeno, Omero, Eraclito, Sant'Ignazio di Loyola sono i maestri chiamati a raccolta per insegnarci come vivere, e quindi amare, giocare, avere cura di sé e degli altri, raccontare ed insegnare, nonché come morire.