(Foto Unsplash/Igor Omilaev)

Europa e IA: una nuova visione del mondo?

Il voto per il Parlamento di Strasburgo porta in primo piano, tra i vari temi, quello delle nuove tecnologie, come suggerisce anche il volantino di CdO. Ecco cosa ne pensa Fabio Mercorio, ordinario di Informatica all’Università Bicocca di Milano
Luca Fiore

Il giorno in cui ho aperto il mio profilo Twitter, era il giugno 2008, mai avrei pensato che nel giro di pochi anni un presidente degli Stati Uniti potesse usarlo come strumento per esprimere quotidianamente il proprio pensiero. Oppure quando ho creato la mia pagina Facebook mai mi sarei immaginato che quella piattaforma sarebbe stata usata per organizzare le rivoluzioni della Primavera araba o le mobilitazioni di Kiev. Sono strumenti che hanno non solo cambiato la mia vita quotidiana, ma anche inciso nel corso della storia. La rivoluzione annunciata con lo sviluppo dei primi programmi di intelligenza artificiale generativa potrebbe avere conseguenze ancora più profonde. Ed è comprensibile che sia uno dei punti di attenzione segnalati dal documento della Compagnia delle Opere in vista delle elezioni europee. In particolare, si fa riferimento all’EU Artificial Intelligence Act, regolamento approvato il 24 maggio 2024 che entrerà in vigore entro i prossimi due anni. Per la CdO è giusto proseguire sulla strada delineata da questo documento (l’Unione europea è la sola realtà nazionale o sovrannazionale a essersi dotata di un regolamento su questo tema); contemporaneamente, la CdO ritiene che sia «necessario poi investire in un’adeguata formazione professionale per permettere alle imprese di affrontare le enormi sfide dell’intelligenza artificiale e della trasformazione digitale». Per approfondire questi temi abbiamo chiesto aiuto a Fabio Mercorio, professore ordinario di Informatica all’Università Bicocca di Milano, esperto in sistemi di intelligenza artificiale.

Che cos’è EU Artificial Intelligence Act e che cosa regola?
È un regolamento che norma l’uso dell’AI tra i Paesi europei, definendo il rischio nell’uso dei sistemi di AI, come la probabilità di subire un danno e la severità delle conseguenze che tale danno può arrecare alla società. Definisce quattro livelli di rischio: minimo, come nel caso dei sistemi di filtri dello spam per le email; limitato, come l’uso dei chatbot nei siti web per interagire con gli utenti; alto, legato a sistemi che impattano sull’occupazione, la salute, i diritti fondamentali, eccetera; infine, c’è quello considerato inaccettabile, legato a usi subliminali o manipolativi come i sistemi di sorveglianza di massa.

Qual è il valore di un regolamento del genere?
È certamente positivo che le autorità provino a regolamentare l’uso dell’AI in Europa, oggi “schiacciata” a Est e a Ovest da potenze che affrontano il tema con sensibilità culturalmente diverse. Negli Stati Uniti c’è più attenzione alle opportunità economiche che l’AI comporta, mentre in Cina già da tempo si fa uso massivo dell’AI nella società, come i sistemi di social credit, ma dobbiamo essere realisti nel riconoscere che non saranno i divieti europei a impedire un uso improprio dell’intelligenza artificiale anche su di noi.

È dunque inutile tentare di regolare il fenomeno?
No, è doveroso farlo. Ma dobbiamo evitare che le giuste preoccupazioni per le conseguenze ci impediscano di sviluppare e proporre al mondo sistemi che siano frutto del comune sentire europeo e della nostra cultura. È come se, dopo l’invenzione dell’auto, l’Europa - animata dal desiderio di ridurre gli incidenti - avesse impiegato le risorse a costruire guardrail e a normare la viabilità, anziché sviluppare l’industria automobilistica che producesse macchine più belle, efficienti e sicure. Non giocare come Europa un ruolo da protagonisti significherebbe rimanere indietro e subire gli inevitabili sviluppi altrui, venendo meno anche alla missione principale dell’Unione europea, perché l’unità e la pace tra i popoli sono in funzione dello sviluppo della società. Dietro a un sistema di AI c’è la visione del mondo di chi l’ha pensato e dei dati che ha usato per addestrarlo.

Fabio Mercorio

Facciamo un esempio concreto.
Pensiamo ai programmi che in futuro decideranno l’accesso al credito per conto degli istituti finanziari. Un algoritmo addestrato sui dati (storici o sintetici) avrebbe come criterio ultimo il fine: ridurre il rischio per l’istituto di credito, indipendentemente dal come. Quindi l’algoritmo potrebbe concedere o meno il credito sulla base di criteri oggi inaccettabili (ad esempio un livello di educazione inferiore da parte del richiedente, o la sua provenienza geografica). Sono discriminazioni oggi deprecabili, ma che un algoritmo non “comprende” nella sua importanza morale. Verificare queste “discriminazioni algoritmiche” è in capo all’organizzazione che sviluppa il modello. Su questo l’AI Act richiede quattro caratteristiche: la decisione deve garantire equità, essere comprensibile all’essere umano, assicurare la qualità del dato usato e coinvolgere l’essere umano, a cui spetta l’ultima decisione.

Mi pare stia dicendo che un buon regolamento non comporta la risoluzione del problema.
Esatto. L’AI Act è competenza del legislatore, ma l’avvento di questi sistemi ci riguarda tutti: manager, imprenditori, educatori, genitori. Qual è la sfida per il cittadino? Credo che sia, innanzitutto, non fuggire il confronto con questa nuova realtà e coltivare il senso critico. Per un imprenditore significa tendere a un uso dell’AI quanto più possibile efficiente e complementare al lavoro umano. Per un insegnante significa sapere che i propri allievi useranno l’AI generativa per creare opere o svolgere attività: vietarla o denigrarla servirà solo ad aumentarne l’aura di intelligenza superiore; invece, conoscerla e capire come può aiutare il processo creativo e dove invece la genialità umana entra in gioco ancora in maniera unica è la chiave per rimanere in contatto con lo studente. Per un genitore, si tratta di aiutare i figli a capire che questi strumenti, soprattutto i social, sono un surrogato della realtà: i contenuti che ascoltiamo, leggiamo o guardiano - oggi tutti mediati da algoritmi di AI - sono raccomandati per compiacerci e mantenerci in contatto con la piattaforma che li eroga. Il rischio, qui, è che non guardiamo più ciò che ci piace, ma che ci piaccia solo ciò che guardiamo. È una inversione pericolosa che si combatte solo con l’educazione, cui un genitore non può sottrarsi.

Ma la tecnologia è neutra e occorre imparare a usarla bene, oppure non è neutra e cambia il nostro modo di rapportarci alla realtà? Pensi ai social network: annunciati meno di vent’anni fa come nuova frontiera della democrazia, oggi sembrano all’origine di tanti mali della nostra società. E facciamo fatica a farne a meno.
La tecnologia non è neutra, perché altera la nostra interazione con realtà mediante la neuroplasticità: caratteristica evolutiva del nostro cervello che ci permette di adattarci in base agli stimoli a cui è sottoposto dall’ambiente. Un esempio per tutti riguarda le conseguenze di Google Maps sulla nostra capacità di orientarci, senza considerare quanto questo ci porti ad affidarci completamente alle sue indicazioni non temendo che possa condurci in un dirupo. Il progresso, infatti, ci fa acquisire nuove competenze a svantaggio di altre che vanno perdute. Ma l’AI introduce una differenza rispetto al passato: fino ad oggi abbiamo creato oggetti, con uno scopo chiaro ed implicito, il bicchiere, l’automobile, l’elettricità… Oggi l’AI non è uno strumento, ma un’entità - con tutti i limiti attuali - con cui “dialoghiamo”. Questa è la novità: l’interazione con qualcosa che ha una visione della realtà diversa dalla nostra, estremamente efficace nei compiti che svolge e, dunque, capace di intimorirci, perché il risultato è così ben fatto che aumenta la nostra percezione dell’intelligenza della macchina mentre riduce la stima sulla nostra. Ciononostante, la sua intelligenza è parziale - non ha l’intelligenza emotiva, o interpersonale - ed è assai lontana da quella umana per tantissimi aspetti. Nella comunità scientifica è fonte di dibattito non il come funzioni l’algoritmo (il metodo) che addestra la macchina, ma su cosa la macchina apprenda davvero.

LEGGI ANCHE - Un'Europa da costruire "cuore a cuore"

Il volantino della CdO parla di un’adeguata formazione professionale. Cosa si intende per “adeguata”?
Il tema della formazione - e dell’educazione - è importante almeno quanto l’aspetto normativo, e non solo per gli addetti ai lavori. Siamo la prima generazione che “insegnerà” all’AI una visione del mondo: la visione di chi? Stiamo addestrando l’AI a svolgere attività che oggi erano esclusivamente umane, per complessità, sensibilità e livello di “intelligenza” richieste. Se non crediamo fermamente nello sviluppo dell’AI come opportunità - perché eccessivamente spaventati dai rischi o troppo preoccupati a regolamentare - altri lo faranno imponendo la propria visione culturale del mondo, e abbiamo visto cosa questo voglia dire… Perciò il fronte tecnologico è strategico per lo sviluppo economico, ma anche perché la pervasività dell’AI nella società, nell’educazione e nel lavoro segnerà definitivamente la nostra cultura, la visione che abbiamo dell’essere umano e quindi il mondo in cui i nostri figli vivranno.