L’AI è un’opportunità, purché non eroda la nostra capacità di decidere – Intervista a Luciano Floridi

A cura di Enrico Sbandi

Aprile 22, 2024

Intervista a Luciano Floridi - Logon odv

L’etica, la regolamentazione, le fake news, il lavoro. La visione a tutto campo e le indicazioni del filosofo Luciano Floridi, una delle voci più autorevoli a livello mondiale.

Viviamo onlife, sommersi dai dati, al punto da aver “datificato” la realtà. Poi arriva l’IA che trasforma i dati in informazione: crea grandi vantaggi, ma determina una serie di insidie, che dobbiamo conoscere per saperle affrontare. Erosione della capacità di decidere, modifica del lavoro, necessità di scrivere nuove regole senza abbandonarsi a indigestioni normative. È difficile sintetizzare un’intervista con Luciano Floridi, partita per contestualizzare il tema della consulenza finanziaria sul quotidiano MF, proseguita raccogliendo le parole di un recente intervento dal vivo a Roma, all’Auditorium Parco della Musica per il congresso Anasf: si resterebbe per ore ad ascoltare il filosofo, professore alla Yale University, Usa, dove ha fondato e dirige il Digital Ethics Center, una delle menti più lucide e autorevoli del nostro tempo nell’affrontare il rapporto con l’Intelligenza Artificiale.

Avverte subito: “Il termine è figlio del marketing. Ne parla per la prima volta John Mc Carthy negli anni 50, provano varie denominazioni, ‘studio di sistemi complessi…’, ma non faceva presa. John, che ho conosciuto quando era in tarda età, disse: chiamiamola Artificial Intelligence e tutti ci daranno retta. Aveva ragione”.

Professore, partiamo dai dati, quelli che sono alla base delle scelte finanziarie, ma non solo?

“Mai ce ne sono stati tanti disponibili, prima d’ora: li abbiamo tutti creati noi, la generazione vivente, siamo ancora un po’ storditi da questa sovrabbondanza. Ci stiamo abituando a vivere ‘onlife’, tutti connessi, la tentazione ormai naturale, spontanea, è di trattare tutto come se fosse una sorta di grumo, di coacervo di dati”.

Un rischio o un’opportunità?

“La datificazione di tutto, di una casa, di un servizio, di un cliente, di una famiglia, di un’azienda, di una strategia industriale, tutto porta quasi spontaneamente e senza cattiveria, che è un po’ la nostra cultura, a chiedere quasi compulsivamente: dove sono i dati? È certamente un’opportunità, sapendoli sfruttare e avendo le tecnologie per farlo, se ci si ricorda che dietro ai dati c’è un cliente, una famiglia, un’azienda, magari una Regione, un’unità ministeriale. Poi ci sono i rischi, molteplici”.

Quali?

“Un esempio ce lo ha dato il Covid. Abbiamo cominciato a proteggere più i dati che le persone alle quali i dati appartenevano; per la privacy abbiamo sviluppato discorsi che davano l’impressione di aver dimenticato che la protezione sia a tutela delle persone alle quali i dati appartengono, e non dei dati stessi: non sono come il Colosseo, per il quale dico ‘devo proteggere il Colosseo dall’inquinamento’, che è un bene in sé; i dati hanno un valore perché dietro di loro c’è qualcuno al quale appartengono o fanno riferimento. Poi ci sono problemi di mantenimento, di sicurezza, di gestione. Immaginiamo cosa deve fare, ad esempio, la finanza ogni volta che cambia una tecnologia, oppure c’è un attacco cyber, o un settore viene chiuso e bisogna spostare i dati: problemi di sincronizzazione, di compliance, di pulizia. La enorme quantità, in crescita, di dati è uno degli assi, degli elementi di complessità”.

Poi a maneggiarli e usufruirne è arrivata l’Intelligenza Artificiale…

“…che è una sorta di meccanismo, un motore straordinariamente potente nel trasformare i dati in informazione. Tanti elementi che elencati magari non significano nulla, messi insieme ci danno un’informazione che può servire a prendere una decisione, indirizzare una scelta, magari a fare qualcosa e non qualcos’altro; a dirci qual è il prossimo film che vogliamo vedere oppure se aprire o meno un conto in banca o se concedere o meno un mutuo. Questo grande motore, con il suo arrivo, ha trasformato gli altri due problemi in problemi ancora più intensi, perché incamera i dati e produce altre straordinarie quantità di dati e di informazioni: di fatto moltiplica le questioni relative al management dei dati e, ovviamente, intensifica la stratificazione della realtà, riportandola in termini di grafici, diagrammi, statistiche, numeri. La datificazione della realtà”.

Che complica o semplifica le cose?

“Inizialmente, inasprisce la difficoltà. Risolvibili, però, con un risvolto enormemente positivo: più dati, più informazioni, significa poter prendere più decisioni a ragion veduta. Datificare la realtà, se fatto bene, può voler dire avere, per esempio, modelli sui quali poter lavorare senza dover lavorare sulle cose stesse: penso ai modelli digitali delle città, il twin city, invece di bloccare un po’ di strade a Roma e vedere che succede, lo faccio in versione modello e ho i risultati dalla simulazione. E così anche nel mondo della medicina, posso studiare tutto in versione simulata. Questo è il lato positivo, bello, sul quale vogliamo investire. A condizione che riusciamo ad avvalerci dell’IA per navigare su questo mare in crescita, sempre più ricco e complesso, di dati. Questo va enfatizzato, guardare all’Intelligenza Artificiale, ai suoi sviluppi, non come un modo per prendere scorciatoie, ma – tornando sulla metafora della navigazione – per navigare bene, sapendo dove puntare. Uno strumento a nostra disposizione, nelle nostre mani, per fare bene”.

L’AI fa paura per gli abusi che rende possibili. Basta un AI Act per creare argini adeguati?

“Le norme vanno considerate rispetto ai tempi. Quelli della giurisprudenza, un po’ come per la filosofia, sono lunghi. Nei due anni per l’attuazione dell’AI Act riesce difficile immaginare dove arriverà la tecnologia: due anni fa, non c’era ChatGPT. Una buona legislazione, con simili incerti orizzonti, deve essere ‘future proof’, capace di reggere la prova del futuro, mantenere il suo valore di fronte ai cambiamenti. Ci sono punti dell’AI Act su cui occorre riflettere. A livello europeo si è dovuto raggiungere un accordo, che non è affatto cattivo. Quando occorre trovare una sintesi fra posizioni molto lontane fra loro, via via si alza il livello della vaghezza, come accade in un condominio: a un certo punto tutti firmano lo stesso documento, poi ciascuno lo interpreta a modo proprio e le litigate magari avverranno dopo, ma intanto l’accordo è stato firmato. Con l’AI Act è andata un po’ in questo modo, nel condominio UE abbiamo steso un testo che lascia molto da interpretare a ciascun Paese membro, c’è da sperare che questa interpretazione renda il nostro Paese ‘business friendly’, cioè aperto all’interazione con le grandi aziende.

L’applicazione delle regole porta dritti all’etica, e si avverte la sensazione che se ne senta parlare un po’ troppo e pure a sproposito, intorno all’AI. Che rischio c’è di sconfinare in una vernice, come quella verde del greenwashing?

Cambiano nome e colore: qui è bluewashing, ma l’eccesso esiste. L’etica dell’AI è un tema delicato. Guardi a quanto è successo negli ultimi cinque anni, in mancanza di un quadro normativo, mi ricorda Paperino che riempiva la valigia, la chiudeva, poi con le forbici tagliava le parti rimaste fuori. Piccoli e soprattutto grandi, hanno sfornato princìpi etici per l’AI, finendo per copiarseli a vicenda, ma rivendicandone originalità: in realtà incorniciando quello che stavano già facendo. Lo hanno fatto tutti, c’è stata una finestra di autoregolamentazione aperta, priva di legislazione, in cui c’era soltanto l’etica e sono stati sfornate tonnellate di princìpi di tutti i tipi. La legislazione che sta arrivando, non solo in Europa, sta modificando la situazione e trasforma le questioni etiche. Ma chi continua a parlare di stabilire principi etici, anche a livelli elevati, dà l’impressione di farlo senza sapere dove siamo arrivati”.

Sta dicendo che il discorso “occorre l’etica dell’AI” è datato?

“Più che datato, è compiuto. È stato affrontato, anche di recente, e tutto il lavoro portato avanti con il gruppo di esperti a Bruxelles è servito a dare le fondamenta etiche che l’AI Act riporta nelle sue premesse. L’etica com’era intesa cinque anni fa ormai ha dato il suo frutto. Ora c’è da fare l’etica post compliance, che è ben diversa, che richiede di capire da che parte andare. Continuare a parlare in quei termini è come continuare a discutere dell’intelligenza artificiale com’era cinque anni fa, dimenticandoci che le cose sono evolute. Le regole adesso ci sono, le aziende devono rispettarle, essere compliant. Scrivere altri princìpi etici non serve. Il che non significa che l’etica vada accantonata, ci sono ancora ambiti non ancora coperti.

Quali, restando nel tema?

“Etica equivale a calarsi nel contesto. Per esempio c’è tutto il settore della difesa e della sicurezza, che volutamente l’AI Act non tocca. Lì o si lavora con l’etica, oppure non c’è compliance. Quali regole etiche possono essere messe in campo quando si usano droni in zone civili di conflitto? Normative internazionali su questa materia non ce ne sono ancora. Tornando poi all’AI Act, essendo flessibile, quindi interpretabile, da qui a qualche anno è facile prevedere che insorgeranno questioni legali, controversie che finiranno alla Corte di Giustizia Europea, le cui valutazioni non potranno basarsi sulla legge esistente, che è quella messa in questione, finendo per rifarsi ai princìpi etici quali i diritti umani, la dignità umana, questioni che rientrano nel quadro etico. È qui che l’etica sarà centrale, non nel richiamo su temi ormai inquadrati che servirà solo a fare bluewashing”.

Nell’anno delle global election il potere di condizionamento attraverso l’AI suscita allarme e non sarà l’AI Act a fermare le fake news…

“Credo che siamo su un percorso simile a quando abbiamo virus e antivirus nei computer. Ci sarà una barriera tecnologica, l’IA stessa sarà funzionale allo scopo, e un innalzamento del livello di consapevolezza, lo stesso che ha portato i più a identificare come un artefatto la foto del Papa col piumino. Temo di più un fenomeno di cui poco si parla, l’erosione progressiva della nostra autonomia che avviene attraverso i meccanismi di persuasione in rete. Colpisce soprattutto gli sprovveduti, con messaggi sottili, trasversali, reiterati che agiscono come una goccia che scava la roccia. Un martellamento costante, capace di cambiare la visione del mondo, determinare le scelte. Occorre diffondere consapevolezza di questo, salverebbe molte rocce. E, poi, va chiuso un po’ il rubinetto delle gocce. Formazione e legislazione. Per esempio, con il mio gruppo di ricerca stiamo mostrando che i recommender-systems non possono essere considerati freedom speech negli Usa, ma una forma di pubblicità e come tale regolamentata”.

L’AI incide sul lavoro e si sostituisce in molti campi agli essere umani. Quanto c’è realmente da preoccuparsi?

“Non suggerirei a un giovane di studiare lingue per fare il traduttore di testi commerciali, ormai per quello provvedeva già Google traduttore, poi l’AI ha perfezionato. Ma non affiderei alla tecnologia la traduzione di Proust. Banalizzo, ma dalla ruota in poi l’umanità si è sempre riorganizzata rispetto al progresso. Attualmente c’è un problema di velocità, la trasformazione tecnologica è molto rapida, sta tagliando fuori fasce di popolazione e probabilmente sarà indispensabile su queste, difficilmente ricollocabili, agire con il welfare. La separazione fra processi, creazione di contenuti, creazione di servizi automatizzati a scarso valore, renderà il mondo molto più aperto ad aree di business che non erano toccabili, perché scarsamente redditizie, in realtà crea un’area occupabile di un mercato perché adesso costano poco; dall’altra si possono avere servizi a valore aggiunto di grandissima qualità. Significa che continueremo a emozionarci con i musicisti dal vivo anche se potremo comporre una musica con un prompt su Chat GPT. Allo stesso modo in cui la pizza surgelata, che tante volte anche io trovo una comoda soluzione, non ci priverà del piacere di una margherita fumante in pizzeria”.

Enrico Sbandi

Giornalista professionista, studioso e consulente di crossmedialità, dalla macchina per scrivere all’AI e ritorno

Cosa succede su Instagram?

Articoli correlati

La rappresentazione di genere attraverso i media

La rappresentazione di genere attraverso i media

Il genere è una questione di differenze costruite socialmente tra uomini e donne; nelle parole di Goffman “un’orchestrazione” intricata di ruoli, relazioni e anche potere. Fin da piccoli, i confini che differenziano maschile e femminile hanno un ruolo rilevante nella formazione dei nostri mondi quotidiani, riflettendosi anche sul sistema dei media. 

read more