L'incontro sull'Intelligenza artificiale al Centro Internazionale di CL a Roma (Foto Romano Siciliani/Fraternità CL)

Per non barattare la realtà

Un incontro dedicato all'Intelligenza artificiale al Centro internazionale di CL a Roma. Le nuove tecnologie sono «risorse promettenti», che aprono domande e dubbi. E sfidano la libertà di ciascuno
Angelo Picariello

Se l’uomo è solo una macchina, se nel suo relazionarsi con gli altri si priva della conoscenza affettiva, tolto il cuore, resta solo il cervello, in balìa di uno strumento poderoso da poco sulla scena. Il tema è la “sfida” dell’intelligenza artificiale all’incontro organizzato martedì 23 aprile dal Centro Internazionale di Comunione e Liberazione su Il progresso tecnologico e il rischio di un «cuore artificiale».

Colpisce, come annota il direttore del Centro Internazionale, don Andrea D’Auria, che Papa Francesco abbia dedicato a questo tema l’intero messaggio per la Giornata della Pace. «Le conseguenze non possono essere valutate “a priori”, ci ha detto il Papa», ricorda don D’Auria. Ci sono insidie da non sottovalutare, ma «in realtà la problematica insidiosa sottesa a tutto questo dibattito consiste nel fatto che l’uomo ha sempre coltivato la tentazione e l’ambizione di poter controllare, imbrigliare e comprendere tutto».

In realtà controllati lo siamo già, interviene Piero Vietti, di Tempi, da giornalista che si è dedicato all’argomento. «Le notizie non le cerchiamo noi, ma ci inciampiamo dentro. L’IA ce l’abbiamo già sul navigatore satellitare e ogni piattaforma che apriamo già sa che cosa ci è piaciuto e ce lo ripropone». Così ogni profilo social è diverso dall’altro, con diverse scelte di contenuti o diverse letture di una stessa notizia. «Il punto è che le notizie che ci arrivano, inciampandoci, non siamo in grado di sapere se sono vere o false». Fanno la loro comparsa sulla scena le “allucinazioni”, le fake-news di ultima generazione, «frasi false ma verosimili», spiega Vietti. Esempio? ChatGPT, strumento al servizio di un’intelligenza artificiale “amichevole”. «È come un’arma nucleare, se non controllata c’è il rischio che distrugga tutto. Serve un nuovo criterio di autorevolezza - conclude Vietti - che può essere valutata solo in una relazione fra persone».



«Capito il rischio enorme il mondo è stato capace di rallentare quel processo», il professor Andrea Simoncini, docente di Diritto costituzionale a Firenze, riprende l’inquietante similitudine della bomba atomica virtuale. «Ma non è che stiamo un po’ esagerando?», si pone il dubbio. Forse sì, forse no, di sicuro «si tratta della risorsa più promettente per la crescita mondiale, in grado di far risparmiare tempo e fatica». Ma non è una evoluzione tecnologica come le altre, «perché ora permettiamo alla tecnologia anche di decidere al nostro posto, come il navigatore che sceglie lui la strada migliore, e quando perdiamo il satellite non siamo nemmeno più capaci di fare da soli». Così il radiologo che valuta la radiografia. La questione ha anche una rilevanza giuridica, sul piano della responsabilità personale: «Ci sarà ancora un medico in grado di prendere una decisione da solo? E in un incidente stradale, senza conducente, a chi daremo la colpa?». Si tratta di intervenire, allora, anche per legge. «Perché la libertà è come un muscolo: se non lo uso, se qualcun altro decide al mio posto, c’è il rischio che si atrofizzi». In Italia, sostiene Simoncini, «c’è ancora grande arretratezza nella conoscenza digitale». Ben vengano, allora, le iniziative che sta assumendo l’Europa: «È un tentativo “ironico”, vedo molto scetticismo, ma secondo me va appoggiata questa idea di porre un limite. Chi se non l’Europa può provare a farlo, visto che i colossi sono tutti cinesi o americani?».

L'incontro sull'Intelligenza artificiale al Centro Internazionale di CL a Roma (Foto Romano Siciliani/Fraternità CL)

Da studioso della materia, Alberto Chierici, ricercatore della New York University di Abu Dhabi, si chiede se tutto ciò sia stato davvero un progresso: «Forse funzionavano meglio le catene telefoniche, almeno c’era qualcuno che organizzava, rispetto alla confusione delle chat di WhatsApp» e confessa di avere un po’ di nostalgia nel vedere i film ambientati negli anni Novanta, in cui si telefonava ancora via cavo. Cita la Caritas in veritate di Benedetto XVI: «Nella tecnica si esprime e si conferma la signoria dello spirito sulla materia». Si tratta però di fare i conti, ora, con questa nuova realtà. «Ci eravamo abituati alla robotica, che agiva dentro un preciso “involucro digitale”, mentre ora ad esempio di fronte all’autopilota non sappiamo come comportarci». Cita il caso di una Tesla con la guida automatica che, vedendo l’ostacolo di una macchina, ha “inchiodato” ed è stata tamponata. «Per le regole del Codice della strada non c’è dubbio, la colpa è di chi era dietro e non ha osservato la distanza. Eppure qualche dubbio mi viene, perché quell’ostacolo io l’avrei evitato, non avrei “inchiodato”».

LEGGI ANCHE - Biennale. Dalla bellezza non si può evadere

E allora la domanda diventa un’altra: «Quanta realtà siamo disposti a barattare per farne un involucro digitale?». Dalla quale ne scaturisce un’altra ancora: «Qual è oggi l’involucro culturale che consente a questi sistemi di avere tanto successo?». In altre parole: che cosa ci rende così vulnerabili? «Se una persona è solo quel che avviene nel nostro cervello, se l’uomo è una macchina, nessuno potrà impedire di trattarlo come tale». La stessa Caritas in veritate indica la necessità di una «formazione alla responsabilità etica nell'uso della tecnica». Lo stesso vale per gli insegnanti che saranno «sostituibili solo se considerati burocratici dispensatori di nozioni». Per Chierici occorre allora una «educazione alla libertà, alla relazionalità e alla trascendenza, altrimenti siamo destinati a essere usati». Serve la «dignità antropologica» alla quale ci richiama la Dignitas infinita del Papa. E così l’affermazione di Mustafa Suleyman che ha detto che l’Ia è all of us (tutti noi) «ci costringe a definire che cosa è per noi l’uomo».