<< indietro


Pro Intelligenza Artificiale
15 maggio 2023

Contro la “kainofobia”: Rivista UCT, aprile 2023, p. 30 s.
CON L’INTELLIGENZA ARTIFICIALE L’UMANITÀ POTRÀ «AUTOSUPERARSI»

-di Nicola Zoller
(in sintesi sul giornale l’ADIGE, 13 maggio 2023, p.47)

Intelligenza naturale o intelligenza artificiale? La risposta pare essere gentile col nostro destino umano, anche se problematica. Non è solo Jeremy Rifkin – autore de L'età della resilienza (Mondadori, 2022), studioso del rapporto fra l'evoluzione della tecnologia e lo sviluppo economico, ambientale e culturale – a sostenere che «il futuro non verrà dalle macchine, ma dall’uomo». Ma è anche l’ex manager di Huawei, George Zhao, a sostenere che bisogna passare «da una visione tecno-centrica ad una che metta l’uomo al centro». Insomma, l’intelligenza artificiale «non sostituisce l’essere umano, ma ad oggi si limita a potenziarne la produttività» e non sarà mai come l’intelligenza umana. Esemplifica Maurizio Ferraris su “La Lettura” del 26 febbraio 2023: «il termostato non ha alcuna 'intenzione' di regolare la temperatura, mentre il cucciolo di qualunque mammifero ha 'intenzione' di nutrirsi, vuole farlo, ne ha bisogno, come ha bisogno di dormire o di respirare».
Cos’è l’intelligenza artificiale?
Intanto, cos’è l’intelligenza artificiale? Lo spiega l’informatico e scrittore di Taiwan, Kai-Fu Lee, nell’ Introduzione a “Ai 2041. Scenari dal futuro dell’intelligenza artificiale” (Luiss University Press, Roma, 2023): «L’intelligenza artificiale (AI) è un software e hardware intelligente in grado di eseguire compiti che solitamente richiederebbero intelligenza umana. La AI è la delucidazione del processo umano di apprendimento, la sua quantificazione, l’esplicazione del comportamento umano e la comprensione di ciò che rende possibile l’intelligenza. È il passo finale dell’umanità lungo il cammino della comprensione di se stessa». Non ci sarà sostituzione ma «l’interazione tra uomo e macchina rivoluzionerà l’intera scienza medica, modificherà i metodi di approfondimento nell’istruzione pubblica, cambierà il modo di fare comunicazione e intrattenimento».
Era stato lo scienziato informatico John McCarthy fin dal 1956 a coniare per primo il termine «intelligenza artificiale» all’Università di Dartmouth (Usa), ma da allora erano seguite poche applicazioni concrete. Solo negli ultimi cinque anni la AI è diventata la tecnologia più in voga nel mondo, osserva Kai-Fu Lee. Non solo nel campo dei giochi, dove primeggia nel Go (un gioco da tavolo più complesso degli scacchi di miliardi di volte), del poker, del gioco degli scacchi imparato in sole quattro ore; ma ben più utilmente la AI nel 2020 ha risolto un annoso enigma chiamato ripiegamento biologico, eccelle nel riconoscimento vocale e degli oggetti, ha creato umani digitali dallo straordinario realismo sia nelle apparenze che nella parlata, ha ottenuto il punteggio massimo agli esami di ammissione all’Università e di licenza medica. La AI supera in prestazioni i giudici per l’equità e la coerenza delle loro sentenze e i radiologi nella diagnosi del cancro ai polmoni, così come alimenta i droni che cambieranno il futuro delle consegne, dell’agricoltura e della guerra; per non parlare della creazione di veicoli autonomi – conclude Kai-Fu Lee – che guidano in autostrada in grande sicurezza. A queste straordinarie applicazioni, si aggiunge quella annunciata dalla professoressa Paola Pisano, ex ministro per l’Innovazione Tecnologica: il “Predictivity Diplomacy” per sostenere l’attività dei diplomatici, in grado di identificare l’arrivo di un conflitto prima che si verifichi: «Il nostro algoritmo – spiega Pisano – ha riconosciuto una situazione di pre-conflitto in Ucraina 84 giorni prima dell’inizio della guerra e in Burkina Faso oltre 8 mesi prima dell’avvenuto colpo di stato». Va menzionata anche l’avionica che progetta software per il pilotaggio automatico degli aerei, riducendo lo spazio per l’errore umano. Altro campo di immensa portata riguarda le opere d’arte: con la AI ognuno di noi può diventare un’artista servendosi della creazione tecnologica di opere d’arte; in questo campo già tanti giornali e riviste usano la AI per creare immagini.
L’applicazione più coinvolgente: ChatGPT
E ora giungiamo alla applicazione più coinvolgente: è ChatGPT, chat Generative Pre-trained Transformer, cioè il trasformatore pre-istruito generatore di conversazioni. È il software intelligente di OpenAI, attivato a novembre 2022. Chiarisce Gianna Fregonara sulla rivista “Sette”: «Non è soltanto un motore di ricerca come Google, che ordina i risultati trovati nel web. Riesce a scrivere testi, generare report, inventare poesie, risolvere problemi complessi e molto altro 'pescando' nell’enciclopedia universale che è la rete ed elaborandoli secondo le indicazioni ricevute»; tra il «molto altro» tradurre brani in altre lingue e risolvere esercizi matematici, insomma produrre quanto è richiesto agli studenti: ChatGPT è come un bibliotecario che ha letto tutti i libri. Per questo molte scuole di New York hanno messo al bando questa applicazione. Ma è una cosa vana: il web è da tempo colmo di App che traducono e risolvono problemi. Peraltro – rammenta Fregonara – sia la Commissione Europea che il ministero italiano dello Sviluppo Economico hanno steso un piano per «riprogettare il curriculum delle scuole affinché includa gli apprendimenti nel campo dell’intelligenza artificiale favorendo l’aggiornamento delle competenze degli studenti e del corpo docente». Viene suggerito dunque di non applicare forme di proibizionismo controproducenti: piuttosto occorrerebbero delle regole che sviluppino il senso critico degli studenti aiutandoli a «utilizzare gli algoritmi senza esserne schiavi: perché usarli come scorciatoie – suggerisce Cristina Dell’Acqua sul “Corriere della Sera” del 4 marzo 2023 – è una forma di schiavitù mentale, mentre conoscere rende liberi; le informazioni reperibili in poco tempo sono un vantaggio se usate come base di confronti e per dibattere in classe sull’oggi comparando idee e valori che arrivano dal passato».
L’azione dell’insegnante per usare con intelligenza umana l’intelligenza artificiale
E qui diventa essenziale il ruolo dell’insegnante in grado di stimolare l’intelligenza naturale degli studenti; ripetiamo che le innovazioni non vanno respinte ma «capite, integrate e governate». Kalley Huang su “The New York Times” ha manifestato il proprio apprezzamento per quei professori che rendendosi conto della forza dilagante di ChatGPT «hanno scelto di riprogettare completamente i loro corsi, apportando modifiche che includono più esami orali, più lavoro di gruppo, più valutazioni scritte a mano, riducendo quanto più possibile i compiti da fare a casa e sforzandosi di offrire agli studenti domande più difficili, meno alla portata della creatività di un algoritmo e di introdurre in ogni corso delle lezioni utili ad usare con intelligenza umana l’intelligenza artificiale». Anche puntare sulle emozioni, sui sentimenti, sui pensieri che l’intelligenza artificiale non può avere è la direzione giusta per favorire la creatività dello studente.
E poi se si vuole proprio controllare l’inventiva degli studenti è la stessa AI che può offrire degli strumenti: contro i copiatori seriali il dottorando alla Standford in California, Eric A. Mitchell, ha creato GptDetect, un software che li smaschera; ma anche in Italia all’Università Cattolica il direttore dell’Humane Technology Lab, Giorgio Riva, ha scoperto con un software gli allievi che avevano presentato tesine copiate pari pari dal computer.
Non si possono fermare le nuove tecnologie, che ci aiuteranno anche contro le fake news
Dunque, se non si possono fermare le nuove tecnologie, tanto vale studiarle a scuola spiegan-done i pericoli, controllandole e frenandone l’uso spregiudicato e sostitutivo delle qualità umane. Sempre il professor Giorgio Riva avverte il problema di fondo: «ChatGPT risponde alle domande citando nelle sue relazioni una riga di questo, una di un altro. Ma non comprende quello che risponde. Il limite più importante, soprattutto pensando ad un uso scolastico, è che non dice dove ha tratto la propria conoscenza e non distingue la qualità delle fonti». Trae il suo sapere da una infinità di testi e di autori, tra i quali quelli autorevoli sono inevitabilmente limitati, mentre le informazioni imprecise se non false, le fake news, possono statisticamente abbondare. Di qui la necessità di una verifica critica: nella scienza e anche in letteratura non esiste una info che valga l’altra, come non esiste 'uno che valga uno'. Ecco la ragione fondamentale per non perdere interesse per la conoscenza consapevole, confrontata e documentata, per non abbandonarsi alla pigrizia grazie all’uso acritico del web. Ma anche qui la AI – in sinergia con le abilità umane – potrà venirci straordinariamente in soccorso contro le fake news, aiutandoci a controllare il web, anziché a farci traviare: in tal senso l’Unione Europea ha finanziato il progetto AI4Trust – al quale partecipa anche la FBK di Trento – per opporsi alla disinformazione che viaggia online. FBK ha spiegato che sarà realizzata una piattaforma che combinerà l’apporto dell’intelligenza artificiale e quello di esperti fact-checker impegnati nella verifica dei fatti. Il sistema monitorerà diversi social media e fonti di informazione in tempo pressoché reale, utilizzando gli algoritmi di intelligenza artificiale più recenti, per analizzare testi, audio e video in sette lingue diverse. Sarà, quindi, in grado di selezionare i contenuti con un alto rischio di disinformazione in modo da segnalarli per la revisione a fact-checker professionisti, il cui contributo fornirà ulteriori informazioni per il miglioramento degli algoritmi stessi. «La disinformazione – ha spiegato Riccardo Gallotti di FBK – può indurre le persone a mettere in dubbio la veridicità dei fatti e delle notizie, rendendo più difficile prendere decisioni informate, a scapito della partecipazione civica e di un trasparente funzionamento della società; il nostro obiettivo – continua – è creare un ambiente online affidabile, che favorisca la promozione di una cultura dell'informazione critica e veritiera basata su fonti verificate e sui fatti, contrastando in questo modo la disinformazione e preservando la fiducia nei media e nelle istituzioni democratiche».
Il futuro dell’intelligenza artificiale: un impatto positivo sulla nostra società
In quest’ultima parte torniamo all’informatico Kai-Fu Lee e al suo libro, che si chiede cosa ci riserverà la AI in futuro e anche nel periodo breve di 5/10/20 anni. «Alcuni pensano – rileva l’esperto – che ci troviamo nel mezzo di una 'bolla' della AI che alla fine esploderà, o almeno si raffredderà. Chi ha visioni più drastiche crede a scenari che vanno dai colossi della AI che ci ''sequestreranno la mente'' e daranno vita a una nuova razza di ''cyborg umani'', fino all’avvento di una apocalisse causata dalla AI». L’autore di “Ai 2041” reputa questi scenari come speculazioni eccessive, frutto di informazioni derivate dalla fantascienza e da resoconti mediatici costruiti per attirare lettori. Peraltro – aggiungiamo noi – le precauzioni sono sempre importanti e ci sono state segnalate da autori e filosofi di alto livello, come Norberto Bobbio (1909-2004) che fin dagli anni Cinquanta dello scorso secolo intravedeva il pericolo di un assolutismo tecnocratico che con la standardizzazione tecnologica proverà a livellare coscienze e cervelli, sfaldando silenziosamente la democrazia; o come Martin Heidegger (1889-1976) – che è stato il massimo critico della tecnica – ammoniva che «il mondo si trasforma in un completo dominio della tecnica» appunto, mentre «l’uomo smarrisce la propria essenza». Kai-Fu Lee ammette la necessità di una nostra attenta cautela, ma sottolinea che è importante bilanciare queste preoccupazioni osservando il quadro generale e il potenziale positivo di questa tecnologia. «L’intelligenza artificiale, come la maggior parte delle tecnologie, non è intrinsecamente né buona né cattiva, ma essa finirà per avere un impatto più positivo che negativo. Pensate ai grandiosi effetti benefici dell’elettricità, dei telefoni cellulari e di internet. Nel corso della storia abbiamo spesso avuto paura di nuove tecnologie che sovvertivano lo status quo, ma poi i timori sono scomparsi ed esse hanno migliorato il nostro standard di vita».
La kainofobia nella storia
Al proposito Massimo Sideri, responsabile del “Corriere Innovazione”, racconta un fatto storico significativo: quando nella prima metà del 1400 «arrivò la stampa a caratteri mobili di Gutenberg – oggi universalmente accettata come il più potente strumento di diffusione della cultura e della scrittura nella storia dell’uomo – venne accolta da critiche feroci e dubbi malevoli». E conclude con ironia: «Venne chiamata Ars Scribendi Artificialiter. Artificiale. Un caso?». Giovanni Lo Storto – direttore generale dell' Università Luiss – aggiunge analoghe osservazioni sulla kainofobia, la paura del nuovo: «Spesso la tecnologia e i suoi derivati vengono vissuti, anche negli ambienti accademici, con disagio e paura. Ogni progresso tecnologico, dalla stampa a caratteri mobili ai telai meccanici, dal telefono alle automobili, è stato dapprima visto come minaccia potenziale da cui difendersi». Ma questa sorta di rifiuto luddista del progresso (con riferimento al movimento britannico che nei primi decenni del 1800 si oppose con violenza all'introduzione delle macchine nell’industria) è destinato ad essere superato. «Ormai sappiamo tutti – rammenta con efficacia il direttore della Luiss – che avere una calcolatrice sul banco di lavoro o di studio non significa barare, ma utilizzare uno strumento che agevola nello svolgimento dei calcoli senza intaccare le conoscenze e le competenze di chi la usa. Così pure siamo tutti concordi nel ritenere i motori di ricerca, come Google, un formidabile strumento che permette di accedere con un solo clic a una gamma di informazioni. Altri strumenti come ChatGPT riuscirà presto a essere ammesso nell’olimpo delle forme di apprendimento sostenibile».
La AI ci aiuterà a ridurre fame e povertà, a restituirci il tempo perduto e… ad «autosuperarci»
Ha più di una ragione dunque Kai-Fu Lee a concludere la sua Introduzione a “Ai 2041” con uno scenario di miglioramento profondo della nostra società: «Prima di tutto AI creerà una incredibile ricchezza – stimata in migliaia di miliardi entro il 2030 – che aiuterà a ridurre fame e povertà». Inoltre e soprattutto «la AI creerà dei servizi efficienti che ci restituiranno la nostra risorsa più preziosa: il tempo. Si farà carico dei compiti più ripetitivi e ci permetterà di fare lavori più stimolanti e impegnativi».
Quanto all’obiettivo di tenere l’umanità al centro e di creare sistemi di AI rispettosi dell’etica della società e degli esseri umani, è la preoccupazioni sia di Paola Inverardi, rettrice del Gran Sasso Science Institute, che del tecnologo Massimo Chiriatti. Quest’ultimo in un resoconto su “Il Sole 24 Ore” del 12 febbraio 2023, sotto il titolo «Siano gli umani a guidare l’intelligenza artificiale», scrive: «La tecnologia migliora il nostro mondo, espande i nostri orizzonti, ci concede vite più lunghe… Ma noi a differenza dell’intelligenza artificiale, siamo responsabili e coscienti e ci facciamo infinite domande» che AI non riesce a farsi. Per questo le persone rimangono indispensabili, senza temere l’impiego di qualsiasi tecnologia, ma restando pronti – quando serve – a mitigarne i rischi per gli utenti. «Non c’è il timore che le macchine ci superino, ma c’è la convinzione che noi, grazie a loro, ci autosupereremo».




torna in alto




Powered by Web Wiz Site News version 3.06
Copyright ©2001-2002 Web Wiz Guide