Intelligenza artificiale: opportunità o rischio?

Dettaglio di Chroma V, opera di Yunchul Kim. Biennale Venezia 2022, Padiglione Repubblica di Corea, Gyre - Curatore: Youngchul Lee - Commissario: Arts Council Korea (Foto E.R./nev)

Roma (NEV), 12 giugno 2023 – Anno 2054. Zero omicidi a Washington, grazie al sistema Precrimine che si basa sulle premonizioni di tre individui dotati di poteri extrasensoriali. La polizia interviene in anticipo e arresta i potenziali “colpevoli”. È la trama di Minority Report, film con Tom Cruise diretto da Steven Spielberg tratto dall’omonimo racconto di fantascienza di Philip K. Dick.

Anno 2023. Italia. Il Ministero dell’Interno vorrebbe dare in dotazione alle questure di tutta Italia “Giove”, un nuovo sistema di polizia predittiva (il 7 giugno è stata depositata in Senato un’interrogazione parlamentare sul tema).  Si tratta di un software basato su un algoritmo di intelligenza artificiale che, utilizzando banche dati delle forze dell’ordine, prova a calcolare la probabilità di un reato.

L’Intelligenza artificiale suscita interesse, attrazione e paura. Ne abbiamo parlato con Gianluca Fiusco, recentemente eletto nel Comitato esecutivo europeo dell’Associazione mondiale per la comunicazione cristiana (World Association for Christian Communication/WACC), e con Stefano Frache, ingegnere e traduttore, fra i curatori delle Linee guida del progetto “Wellbeing of digitalized societies and workplaces” promosso dalla rete “Church Action on Labour and Life” (Azione delle chiese per il lavoro e la vita). Fiusco e Frache ci restituiscono una panoramica sulla complessità e sul fascino dell’intelligenza artificiale (e di quella umana), parte del nostro vivere quotidiano. Sono temi che ci interpellano come cittadinanza e come istituzioni, anche religiose.

“Oggi assistiamo alla polarizzazione tra chi si fida della tecnologia e chi ne diffida. Ma questo approccio non fa altro che alimentare un dualismo funzionale al sistema binario: 1-0. Gli algoritmi tendono a raggruppare le persone simili tenendo i gruppi distinti e distanti tra loro in bolle virtuali. Così non si sviluppa la contaminazione, le idee rimangono confinate nell’ambito dove sono state pensate ed il pensiero non matura, non evolve. Le voci critiche vengono esposte alle tifoserie, all’odio e zittite. Accade persino nei Parlamenti e anche nelle chiese – afferma Fiusco –. Come esseri umani siamo tuttavia molto più complessi e articolati rispetto alla metrica binaria. Ricondurre le nostre vite dentro mappe e algoritmi rischia di produrre effetti imprevedibili non solo sulla nostra struttura mentale e neurale, ma sulle nostre società. La riscrittura dei ‘codici’ umani, di convivenza sociale, di vita democratica sono temi importanti tanto quanto il cambiamento climatico” dice Gianluca Fiusco, che ricorda inoltre l’impegno della WACC nell’elaborazione di contenuti su algoritmi, discriminazioni, polarizzazione e divario digitale. “Gli algoritmi sviluppati secondo criteri soggettivi riflettono gli effetti del colonialismo, del razzismo e degli squilibri di potere sistemici e aggravano le disuguaglianze e le discriminazioni esistenti” si legge nel Manifesto per la giustizia digitale elaborato dal Simposio “Comunicazione per la giustizia sociale nell’era digitale” organizzato dalla WACC e dal Consiglio ecumenico delle chiese (CEC) nel 2021.

Audre Lorde scriveva “Gli strumenti del padrone non smantelleranno mai la casa del padrone. Possono permetterci di batterlo temporaneamente al suo stesso gioco, ma non ci permetteranno mai di realizzare un vero cambiamento”. A partire da questo ammonimento, dice Fiusco, “la WACC ha avuto modo di riflettere quanto gli strumenti dell’oppressione non possono essere applicati efficacemente per contrastare l’oppressione stessa”. Oppressore che spesso coincide con “maschio, bianco, ricco”. Fiusco ricorda inoltre di come le chiese, durante la pandemia “spesso si riunivano virtualmente su piattaforme finanziate dalle lobby hi-tech, che utilizzano una tecnologia simile se non uguale a quella dei sistemi di riconoscimento facciale o di puntamento delle armi… il problema della distanza e della mancanza di pastori è stato risolto accendendo una webcam”. Non si può e non si deve avere paura dello sviluppo tecnologico, sostiene Fiusco, “ma le chiese, forse più di altre organizzazioni, hanno il dovere di chiedersi se è questo il modello di comunità che si vuol favorire. Se, cioè la fede oggi, parafrasando l’epistola ai Romani, nasca più che dall’ascolto, dalla connessione. Alcune realtà ecclesiastiche (avventisti, luterani, pentecostali) hanno da tempo avviato un processo di riflessione e sperimentazione avanzato sull’animazione digitale per le comunità. Si tratta quindi di avere la volontà e la convinzione di ideare e sperimentare un modello di cambiamento nel quale le chiese si sentano chiamate in causa: capaci di investire tempo, teologia, risorse, visione, domande. Nella consapevolezza di essere già in ritardo”.

Fa eco Stefano Frache: “L’IA può sembrarci programmata per fare cose inquietanti, tuttavia possiamo analizzare i suoi risvolti da varie prospettive. Esiste un funzionamento interno, non facile da spiegare, e un effetto esterno. Gli scenari che dipingono l’IA come mostruosamente autonoma non tengono conto del fatto che dietro agli aggregati di dati e informazioni ci sono tante persone. L’elaborazione può essere potenziata, nel senso della generalizzazione, ma questi sistemi non sintetizzano il pensiero, non estraggono il senso. Questa è una forma di abilità che non richiede sviluppare un algoritmo, parlare di IA in questo modo è fuorviante. Vedo un rischio maggiore per quanto riguarda la privacy e la gestione e manipolabilità delle informazioni. L’ostracismo tecnologico non è una risposta, è velleitaria. Non possiamo mettere sullo stesso piano una fionda e una testata missilistica…”. Continua Frache: “Con le elezioni americane del 2016 abbiamo assistito al primo caso riconosciuto in modo bipartisan di ingerenza nei processi di formazione dell’opinione pubblica. Se con la IA si possono influenzare le opinioni, è chiaro che ci servono strumenti per difenderci, anche perché nel futuro lo scontro sarà fra sistemi sempre più evoluti. Sempre in tema di film, pensiamo tipicamente a Wargames… ma cose del genere succedono tutti i giorni, a vari livelli, con diversi strumenti. La deterrenza si costruisce, smettere di sviluppare è dannoso e pericoloso…”

C’è, ancora, il tema etico, che si intreccia inevitabilmente con quello degli affari: “Totalitarismi e visioni imperialistiche non sono appetiti sedati. Dove circolano affari e denaro bisogna tenere gli occhi aperti. La paura in questo non aiuta, perché se siamo spaventati non siamo in grado di capire come possiamo difenderci. Vale anche per le truffe. Sempre più vittime, non solo (più) fra le persone anziane. Non si tratta di essere maliziosi, ma di smaliziarsi per non essere fregati. E per farlo servono innovazione, ricerca e consapevolezza” prosegue Stefano Frache. E conclude: “Occorre costruire e comprendere l’attendibilità dell’informazione. Abbiamo paura dell’IA, ma non abbiamo paura di quella tecnologia che abbiamo in tasca tutti i giorni e di cui non parla nessuno. Ricordiamoci che il cambiamento si influenza anche con le scelte di comportamento e con le scelte di acquisto. Bisogna risalire nella stratificazione della tecnologia, che dai sistemi operativi, alle piattaforme, arriva poi ai consumatori, passando per i rider sfruttati, solo per fare un esempio. Tuttavia, le multinazionali sono influenzate dal 3% dei consumatori, non dal 50%… vedi il caso Chiquita. È bastato poco meno del 3% di abbandono per cambiare le condizioni di sfruttamento dei coltivatori. Quando una massa piccola ma coerente cambia il suo comportamento, il cambiamento è già innescato. Pensare di essere irrilevanti perché in minoranza può essere una pericolosa scusa per tirarsi fuori, bisogna invece mantenere una forte motivazione e non arrendersi”.