ANIMA DIGITALE: La Chiesa alla prova dell'Intelligenza Artificiale

Capitolo I: INTELLIGENZA ARTIFICIALE: A CHE PUNTO SIAMO

  • L'IA è il presente delle nostre esistenze e non si può smettere di indagare su di essa.

  • Di fronte alle macchine, è importante collaudare il fatto di "essere uomini", il che implica una domanda etica.

  • Lo stato dell'arte delle riflessioni sull'IA deve indagare le discussioni più recenti in letteratura, evidenziando questioni concrete che coinvolgono diverse discipline e una speculazione intellettuale ad ampio raggio.

  • È inevitabile porsi la "questione etica" di fondo e constatare che quantomeno a livello delle discipline umanistiche si prova a riflettere sulle conseguenze della rivoluzione tecnologica.

  • Gli Stati e le organizzazioni interstatali si trovano di fronte a una realtà nuova che evolve velocemente, ma scontano la farraginosità di processi burocratici tipici di organismi nati da esperienze e culture diverse.

  • Il capitolo guarda all'IA non da una prospettiva tecnica o tecnologica, ma per accennare al "fin qui" evolutivo raggiunto, attingendo ad alcune delle più recenti pubblicazioni.

  • Viene delineato quali sono le ultime innovazioni che incidono sulla vita dell'uomo dal punto di vista pratico, i temi che queste pubblicazioni avanzano, gli effetti delle scoperte tecnologiche sulla società e la domanda etica che sottintende a tutti questi processi e dinamiche.

  • Nella seconda parte si offre uno sguardo alla discussione sull'IA che sta avvenendo nell'ambito degli Stati nazionali, guardando ad alcune scelte compiute dall'Organizzazione per la Cooperazione e lo Sviluppo Economico (OCSE) e dalla Commissione Europea, con un breve accenno anche alle esperienze provenienti dall'Asia.

1.1 Spunti e temi dalla letteratura recente
  • Ogni analisi sull'Intelligenza Artificiale (IA) parte inevitabilmente dal "test" di Alan Turing del 1950, un metodo per valutare l'intelligenza delle macchine rispetto a quella umana.

  • Il test prevede che un esaminatore ponga domande attraverso una telescrivente a un uomo e a un computer, situati in due stanze chiuse e distinte.

  • Se l'esaminatore non è in grado di identificare quale sia l'uomo e quale sia il computer, le capacità di interazione linguistica del computer dovranno essere considerate come non distinguibili da quelle umane, e il computer dovrà dunque essere considerato intelligente.

  • L'altro padre dell'intelligenza artificiale è il matematico e informatico Marvin Minsky.

  • Già settant'anni fa, i dibattiti sulle interazioni tra macchine ed essere umano tentavano di rispondere alla domanda se le prime fossero in grado di "pensare" e avere una "intelligenza" propria.

  • Le successive riflessioni e gli studi hanno riguardato le previsioni su come sarebbero evoluti i processi interattivi uomo-macchina.

  • Gli scienziati computazionali dei primi anni '80 erano interessati a scoprire come lavora il cervello umano per creare potenti apparati tecnologici che potessero creare dei "sosia della mente di un uomo".

  • Era presente il tema della "coscienza" e la domanda se un calcolatore o un robot potesse essere veramente cosciente.

  • Gli sforzi degli scienziati sono andati nella direzione di ridurre il divario tra le simulazioni di IA e l'intenzionalità soggettiva e cognitiva di ogni soggetto umano.

  • Roger C. Schank, capo del laboratorio di Intelligenza Artificiale dell'Università di Yale, affermava che il livello di completa empatia della comprensione "sembra essere del tutto fuori tiro del computer per la semplice ragione che il computer non è una persona".

  • John Searle sostenne che le macchine non possono pensare poiché sono incapaci di recepire i significati e sono prive di intenzionalità.

  • Tutte le ricerche successive hanno cercato di smentire queste considerazioni puntando a quella che è stata poi definita in gergo come IA di tipo "forte", con la possibilità di riprodurre le attività intelligenti che caratterizzano il comportamento umano in tutte le sue svariate forme.

1.1.1 I temi
  • Già negli anni '80 erano presenti le tematiche principali dell'impatto delle tecnologie evolute sull'uomo e sulla società.

  • Ardigò tematizzava la necessità di riflettere sulle implicazioni di ciò che la sociologia denomina come "controllo sociale", avanzando tre ipotesi su questo legame: l'IA come causa, effetto o correlata del controllo sociale.

  • Altri temi delle speculazioni di quegli anni affrontano già l'utilizzo dei "sistemi esperti" nel campo della "salute" (sia socio-sanitario che di ausili medici strumentali e di diagnostica) e anche sul piano della "generatività", intesa come capacità di questi sistemi di ristrutturarsi internamente.

  • La rivista "Aggiornamenti sociali" nel 1988 indica quattro possibili realizzazioni della disciplina sull'IA: comprensione del linguaggio umano, risoluzione di problemi complessi, manipolazione di oggetti (robotica) e riconoscimento di forme (visione).

  • Si accenna alle "reti neurali" e ai primi sistemi di apprendimento che simulano il comportamento del cervello umano.

  • Si conclude che tutti questi avanzamenti nel campo delle applicazioni dell'IA erano ancora fermi al livello di laboratorio perché non raggiungono quel grado di affidabilità, continuità di prestazioni e semplicità d'uso necessario per divenire operative.

  • La domanda non è più se queste applicazioni tecnologiche saranno in grado di passare all'ambito operativo, ma se le persone non abbiano piuttosto ceduto ad esse il monopolio delle proprie esistenze, creando agli uomini non pochi problemi o sfide.

  • Di fronte alla pervasività di tutti gli strumenti tecnologici che abitano il nostro presente, gli interrogativi di fondo riguardano il "che ne sarà dell'uomo": sarà più libero o più schiavo, più umanizzato o più alienato, più socializzato o più solo, comprenderà di più o sarà ancora più smarrito?

  • Sono stati accesi i riflettori su nuove tematiche, tra cui la pervasività degli assistenti vocali, i veicoli a guida autonoma, la "digital agriculture", le più sofisticate "armi letali" autonome e le conseguenze sul mondo del lavoro.

  • Di fronte agli sviluppi nel campo dell'efficienza e dell'innovazione, si fa pressante la domanda legata alla responsabilità - che poi del resto è sempre personale, individuale e mai tecnica o artificiale - e alla necessità di "governare" questi strumenti.

1.1.2 Gli sviluppi speculativi
  • Massimo Chiriatti, tecnologo e dirigente informatico, assegna all'intelligenza artificiale il nome di "Iasima", concedendole una certa personificazione.

  • Non abbiamo più dunque apparati che eseguono dei compiti specifici grazie all'intervento umano, ma realtà che possono assumere iniziativa in "prima persona", a volte decidendo anche al posto dello stesso individuo.

  • Si apre un problema filosofico, dato che un qualcosa sta diventando qualcuno.

  • A lungo termine questa situazione potrebbe sfuggirci di mano, soprattutto se l'uomo dovesse abdicare a un computer la presa di decisioni in base alle previsioni trasmesse.

  • Individuo e tecnologie stanno progredendo insieme, quasi simbioticamente, dentro un processo co-evolutivo.

  • Chiriatti parla di processo di "complementarietà", per cui mentre l'essere umano utilizza un oggetto per potenziare la sua creatività, ora sta accadendo che l'oggetto sta usando la creatività umana per potenziare le sue previsioni.

  • L'uomo possiede una "coscienza", con tutte le sue sfumature, che è poi l'ultimo elemento che mancherà a un manufatto tecnologico per essere davvero intelligente.

  • Sarà difficile che una macchina sappia anche spiegare le modalità con cui ha scelto di fare qualcosa, oltre ad essere sempre manchevole del dato biologico.

  • Il filosofo Luciano Floridi spiega che l'accostamento tra "intelligenza" e "artificiale" trae in inganno, essendo elementi divergenti.

  • Il problema si pone quando le persone svendono la loro autonomia in ragione di procedure più efficienti e la soluzione sta nel ripensare all'"eccezionalismo" dell'essere umano.

  • La coscienza non è solo memoria di chi siamo, ma anche consapevolezza di noi stessi mentre siamo ciò che siamo.

  • Le previsioni del passato che ipotizzavano la diffusione di macchine dotate di intelligenza generale dell'uomo sono andate deluse.

  • Oggi i pronostici dilatano molto più in là i primi accenni di vera competizione sul lato intellettivo e siamo ancora ai "giochi di prestigio algoritmici".

  • Piero Angela ricordava come da sempre la tecnologia abbia avuto il doppio ruolo di essere creativa e distruttiva al tempo stesso.

  • La differenza con i moderni sviluppi nell'ambito dell'IA è dovuta ad ulteriore maggiore velocità e alla necessità di un adeguamento ancora più rapido.

  • I computer sono macchine straordinarie, ma da soli non possono funzionare e l'IA da sola non può fare miracoli, essendo pur sempre l'espressione di programmi immaginati e costruiti da una mente umana.

1.1.3 La domanda etica
  • A partire dagli anni Cinquanta del secolo scorso, la rivoluzione digitale ha cominciato a mutare non solo l'organizzazione della società, ma la concezione stessa del "chi siamo" umano.

  • Viviamo interconnessi in un ambiente globale ricco di strumenti che agevolano le nostre relazioni (la cosiddetta "infosfera") e qui sorge la "domanda etica" che porta a chiederci come possiamo porci di fronte a queste scoperte che inevitabilmente ci condizionano.

  • Quali "strategie" dobbiamo adottare per non cedere alle lusinghe della tecnica avanzata a scapito dalle nostre libertà e indipendenza di pensiero?

  • Siamo di fronte a riflessioni filosofiche che vanno assolutamente impostate e approfondite.

  • La società ha iniziato a porsi interrogativi guardando ai rischi, alle conseguenze e agli eventuali usi malevoli delle tecnologie avanzate.

  • Un gruppo di ricercatori dell'ETH di Zurigo ha pubblicato uno studio che restituisce una mappatura dell'insieme di principi e linee guida sulla cosiddetta "IA etica", promosse da organizzazioni sia del settore pubblico che privato. Ciò che resta chiaro è che non si tratta di norme legali, ma piuttosto di iniziative dal valore persuasivo.

  • Dall'indagine emerge una convergenza globale attorno a cinque principi etici generali: trasparenza, giustizia ed equità, non maleficenza, responsabilità, privacy.

  • Non sempre traspare uniformità a livello di interpretazione, grado di importanza o modalità di raggiungimento dell'obiettivo, a dimostrazione della necessità di uno sforzo congiunto per arrivare ad applicazioni condivise.

  • Trasparenza: aumentare la "spiegabilità", l'"interpretabilità", gli atti di comunicazione e divulgazione dei dati, le finalità di utilizzo per consentire la partecipazione democratica e diffondere "fiducia".

  • Giustizia ed equità: correttezza, prevenzione, monitoraggio e mitigazione dei pregiudizi indesiderati e delle discriminazioni.

  • Non maleficenza: sicurezza e il fatto che l'IA non dovrebbe mai causare danni intenzionali o prevedibili.

  • Responsabilità: agire con "integrità" e garantire che sia sempre possibile individuare i responsabili dell'IA.

  • Privacy: salvaguardare la privacy in ambito IA, intesa come un valore da difendere e un diritto da tutelare.

  • Al di là degli aspetti "strutturali" legati all'utilizzo dell'IA, le domande che emergono riguardano la necessità generale di trattare le persone sempre come fini e mai come mezzi.

  • Il potere predittivo di queste tecnologie dovrà potenziare l'autonomia dell'uomo, non sostituirla o manipolarla.

  • L'IA sia veramente un vantaggio per l'uomo e per il pianeta sul piano dell'impatto ambientale, delle crisi finanziarie, della criminalità, del terrorismo e delle varie disuguaglianze.

  • Sul piano della tutela dell'individuo, c'è chi ha avanzato una proposta di regolamentazione nel caso in cui l'IA possa provocare degli "impatti rilevanti" sulla persona, prendendo spunto dall'industria farmaceutica.

1.1.4 In prospettiva: dal modello linguistico avanzato all'IA Generale
  • L'idea di concepire macchine simili in tutto e per tutto all'uomo è presente tra gli scienziati almeno dall'inizio delle speculazioni sull'IA, ma resta non del tutto realizzata.

  • Ci sono le tre qualità tipiche dell'uomo: la generalizzazione, l'astrazione e il buon senso e il campo delle capacità.

  • Due evoluzioni ulteriori stanno cercando di mettere assieme questi tasselli, per fare in modo che gli algoritmi riescano a gestire anche gli scenari maggiormente imprevedibili della vita ordinaria, compresa la possibilità di svolgere più compiti contemporaneamente.

  • GPT-3 (Generative Pre-trained Transformer 3):

    • Modello linguistico avanzato sviluppato da OpenAI.

    • In grado di generare un testo scritto indistinguibile rispetto a quello prodotto da un essere umano.

    • Si basa su un modello statistico che calcola la distribuzione di probabilità su una sequenza di parole.

    • È stato alimentato con un enorme set di dati.

    • Rischi: simulazione, contenuti inappropriati o ingannevoli, apprendimento non legato a ciò che accade nel mondo.

  • AGI (Intelligenza Artificiale Generale):

    • Alternativa all'IA "debole" e all'IA "forte".

    • Punta ad una macchina che sappia finalmente ragionare come un umano, quindi svolgere contemporaneamente funzioni complesse, avendo molteplici abilità, compreso il riconoscimento del rapporto tra causa ed effetto.

    • Tecniche adottate: deep learning, machine learning, reinforcement learning.

    • Complessità della struttura umana ancora difficile da tradurre nella sua completezza in algoritmi.

    • Importanza dell'impatto etico.

1.2 L'interesse degli Stati nazionali
  • Di fronte a scoperte che hanno forti incidenze e inevitabili conseguenze sull'uomo, si rende necessario definire dei paletti entro cui queste innovazioni possano muoversi.

  • Gli unici in grado di commissionare, organizzare e definire regole di "buona innovazione" sono gli Stati od organizzazioni tra Stati.

1.2.1 Organizzazione per la Cooperazione e lo Sviluppo Economico (OCSE)
  • L'OCSE è un organismo composto da 38 stati membri con sistema di governo democratico e basati su un'economia di mercato.

  • Principi e raccomandazioni (2019):

    • L'IA deve innanzitutto favorire inclusività, sviluppo sostenibile e benessere.

    • Il modo di progettare i sistemi di IA deve essere rispettoso dello stato di diritto, dei diritti umani, dei valori democratici e della diversità.

    • Tutti devono poter accedere alla comprensione dei risultati basati sull'IA.

    • Il funzionamento dei sistemi di IA deve essere sicuro e sottoposto a continui controlli lungo tutto il loro ciclo di vita.

    • La responsabilità del corretto funzionamento dei sistemi di IA resta in capo alle organizzazioni e agli individui che li sviluppano.

  • Raccomandazioni agli Stati nazionali:

    • Agevolare gli investimenti pubblici e privati nella ricerca e nello sviluppo per garantire un'innovazione affidabile nel campo dell'IA.

    • Favorire ecosistemi di IA accessibili con infrastrutture e tecnologie digitali in grado di garantire la massima condivisione di dati e conoscenze.

    • Facilitare la nascita di un ambiente politico che possa aprire la strada alla diffusione di tecnologie affidabili.

    • Fornire ai singoli individui opportune competenze per beneficiare dei vantaggi che derivano dall'uso dell'IA e accompagnare i lavoratori in una transizione equa delle conoscenze.

    • Stimolare la cooperazione internazionale e tra settori per la condivisione di informazioni e lo sviluppo di norme che aiutino nella gestione responsabile dell'IA.

  • OCSE Framework for the Classification of AI Systems (2022):

    • Aiutare a valutare le opportunità e le sfide politiche nel settore dell'IA.

    • Si pone in continuità con le precedenti linee guida del 2019.

    • Promuovere una comprensione comune dei meccanismi dell'IA, in modo da aiutare i governi ad adottare politiche coerenti.

    • Suddiviso in cinque dimensioni: People & Planet, Economic Context, Data & Input, AI Model, Task & Output.

1.2.2 Commissione europea
  • La Commissione europea si occupa di proporre nuove leggi da adottare presentandole al Parlamento e al Consiglio.

  • Orientamenti etici per un'IA affidabile (2019):

    • Promuovere un'IA affidabile basata su legalità, eticità e robustezza.

    • Rispettare l'autonomia umana, prevenire i danni e garantire equità ed esplicabilità.

    • Prestare attenzione alle persone vulnerabili e riconoscere gli eventuali rischi con effetti negativi su democrazia.

    • Sette requisiti che i sistemi di IA dovrebbero soddisfare: intervento e la sorveglianza umani, la robustezza tecnica e la sicurezza, la riservatezza e la governance dei dati, la trasparenza, la non discriminazione, il benessere - sociale e ambientale, e l'accountability.

  • Regolamento sull'Intelligenza artificiale (2021):

    • L'IA dovrebbe rappresentare uno strumento per le persone e un fattore positivo per la società.

    • Stabilisce strumenti che siano di beneficio per i singoli individui e per la società, tutelandone i diritti fondamentali.

    • Facilita il raggiungimento di quattro specifici obiettivi: utilizzo di sistemi sicuri, facilitazione degli investimenti, chiarezza su gestione e applicazione effettiva delle leggi e agevolare la nascita di un mercato unico per applicazioni di IA sicure.

    • Impostazione incentrata sulla classificazione di pratiche generali e impieghi specifici dell'IA in determinati settori, valutandone il grado di rischio.

    • Vietate pratiche di IA che utilizzino tecniche subliminali o sfruttino le vulnerabilità, usino sistemi di social scoring o adottino sistemi di identificazione biometrica remota.

    • Regole per i sistemi considerati "ad alto rischio" su cui occorre legiferare: obbligo di dotarsi di un sistema di gestione dei rischi, trasparenza, sorveglianza umana, e garanzia di attendibilità.

1.2.3 L'esperienza asiatica
  • Lo scopo del legislatore cinese è quello di regolare gli effetti degli algoritmi sulla vita e sull'esperienza web degli utenti e imporre maggiore trasparenza agli operatori del settore in un mercato concorrenziale.

  • Cybersecurity Law (CSL), Data Security Law (DSL), Personal Information Protection Law (PIPL).

  • Algorithm Regulation (2022):

    • Salvaguardia della sicurezza nazionale.

    • Divieto di utilizzare sistemi che possano eludere il controllo governativo o minaccino la concorrenza.

    • Divieto di concedere informazioni non autorizzate e non vanno diffuse "fake news" agli utenti.

    • Ogni utilizzo degli algoritmi di raccomandazione venga accompagnato da una "trasparenza informativa" verso gli utenti.

    • Possibilità concessa agli utenti di controllare gli algoritmi.

    • Tutela degli utenti anziani e minori.

    • Promozione di "algorithms for good", rivolti cioè al bene comune, oltre al già citato interesse nazionale della Repubblica Popolare.