INTELLIGENZA ARTIFICIALE. L’avv. Francesco Cucci, esperto in cyber-security: “L’IA ci regala tante nuove possibilità, ma ci espone anche a gravi problemi”
Cinquantotto secondi di video per far capire come il futuro potrebbe essere ricco di pericoli.
Sono quelli pubblicati dall’avvocato Francesco Cucci, consulente privacy, Data Protection Officer certificato U.N.I., esperto in cyber-security e cyber-risk management, sul suo profilo Facebook. Un annuncio fatto utilizzando un inglese perfetto. Peccato che di quel discorso, Cucci, non abbia praticamente detto nulla. Tre minuti di registrazione con l’Intelligenza Artificiale a tradurre e sincronizzare il tutto facendo credere che sia proprio l’avvocato a parlare.
Avvocato, secondo lei quali sono i rischi, se ce ne sono, per le persone dall’attuale pervasività dell’IA, in particolare dal suo ampio impiego su internet?
“L’Intelligenza Artificiale sarà causa di una nuova rivoluzione culturale, sociale ed economica, come avvenne per Internet, e, come in quel caso, oltre ad offrire all’umanità un enorme ventaglio di nuove possibilità, rischia di aggravare la già esistente divisione tra privilegiati e non privilegiati, di erodere le libertà individuali attraverso una sorveglianza onnipresente e di sostituire il pensiero e il giudizio indipendente tramite un controllo automatizzato”.
Quali le potenzialità e quali i rischi, allora?
“L’IA in realtà, pervade già le nostre vite da anni. Viaggia da tempo insieme a noi a bordo nelle nostre auto e noi lasciamo che l’algoritmo ci sposti a destra o a sinistra mentre andiamo ai 130 km/h in autostrada, o anticipi la nostra frenata, mentre otto anni fa due ricercatori americani sono riusciti ad hackerare da internet la centralina di un Suv condotto da un loro collaboratore mandandolo fuori strada (qui il video: https://www.youtube. com/watch?v=MK0SrxBC1xs).
Per non parlare delle applicazioni che se ne sta facendo con ottimi risultati in ambito medico. Capisce bene che l’IA può già impattare la nostra sfera fisica. L’IA, ha il grandissimo merito di riuscire ad elaborare in un tempo ridottissimo una enorme mole di informazioni, tanto da ‘incenerire’ le corrispondenti capacità dell’essere umano, e quindi può davvero costituire un nuovo super-potere per l’intera umanità, ma serba in seno anche rischi molto seri, destando molta preoccupazione per come influenzerà il significato stesso di essere ‘umano’, dotato di ‘libero arbitrio’, come evidenzia la ricerca condotta tra circa mille esperti nel 2018 dal Pew Research Center di Washington D.C.”.
Sotto quest’ultimo aspetto può spiegarci meglio come potrebbe impattare?
“Il significato di ‘essere umano’ verrà modificato dal nuovo tipo di esperienze che l’IA permetterà di vivere e dalla loro qualità immersiva, da come gli esseri umani si connetteranno e comunicheranno tra loro, da come apprenderanno, da come si accudiranno, in un ambiente e in una modalità che non saranno più solamente fisici. La preoccupazione per lo sviluppo di un libero pensiero deriva dalla considerazione che l’IA con la sua potenza di elaborazione consentirà per la prima volta nella storia dell’umanità l’analisi di una quantità di informazioni mai processata prima d’ora: i cosiddetti big data, cioè le informazioni prodotte non solo dai quasi cinque miliardi e mezzo di esseri umani che oggi navigano su Internet o interagiscono sui social, ma anche dagli oggetti rientranti nella loro ‘sfera’ personale (come i nostri telefoni, i nostri smartwatch, le etichette RFID presenti nei nostri abiti, le nostre auto, le nostre carte di credito o fedeltà, la domotica delle nostre case, i macchinari delle nostre aziende, ecc…).
Questa spaventosa massa di informazioni oggi può essere analizzata, combinata e confrontata con una velocità, precisione e granularità impensabile anche solo pochi anni fa. Grazie all’IA organizzazioni come le c.d. ‘big-tech’ ( Google, Amazon, Apple, Facebook-Meta e Microsoft) che già oggi sanno tutto di noi, sapranno sempre di più e sempre più velocemente, potendo fruire anche di informazioni nuove, ‘dedotte’ per la prima volta dall’IA tramite il raffronto e l’elaborazione ‘creativa’ di quelle già presenti nel big-data, per cui verranno a sapere cose sul nostro conto che neppure noi sappiamo”.
Un po’ quel che viene descritto nel video ‘Pizzeria Google’ (link: https://www.youtube. com/watch?v=84Cy5fTM0fY).
“L’IA possiede la capacità di processare un’enorme mole di informazioni in tempo quasi reale, proprio come avviene nel famoso video che si può trovare su Youtube chiamato ‘Pizzeria Google’. Una situazione certamente ‘caricata’ ma che non è lontana dalla nostra realtà”
L’ha visto?
“Sì, l’ho visto. Magari è un po’ ‘caricato’, ma il senso è proprio quello.
Nel video si presume che Google possa accedere direttamente anche ai nostri dati sanitari e fiscali, cosa che ancora non è, anche se può certamente inferirne una notevole quantità combinando altre informazioni sul nostro conto.
Quel che mi preoccupa maggiormente della profilazione automatica, è che, oltre a prevedere i nostri bisogni e le nostre preferenze, come evidenziato nel video, ci proporrà contenuti culturali e social (libri, video, musica, film, stampa, post, ecc…) sempre più corrispondenti ai nostri gusti e al nostro modo di pensare, facendo leva su modi di ‘funzionare’ del nostro cervello di cui neppure noi siamo consapevoli. Questo creerà cosiddette ‘bolle informative’ o ‘effetti filtro’ che opereranno, come peraltro già accade, come veri e propri bias cognitivi, cioè come una sorta di cortocircuiti nelle nostre menti e nelle nostre convinzioni, derivanti dal fatto che il nostro pensiero non potrà più confrontarsi liberamente con un diverso pensiero producendo nuove idee, ma verremo continuamente rinforzati nelle nostre credenze e convincimenti. Ciò avverrà in modo sempre più subdolo, in quanto l’IA consentirà a chi la possiederà ed utilizzerà, di agire ad un livello di cui i destinatari difficilmente potranno avvedersi, inducendo, cosa che peraltro già avviene, a percepire chi esprime un’idea differente dalla nostra, e da quella del cluster in cui qualcun altro ci ha inserito, come una sorta di marziano, con cui è inutile discutere, stante l’abisso che ci separa, e con il quale ci si potrà solo scontrare. Ciò conduce alla radicalizzazione delle posizioni e fa temere una pilotabilità del pensiero da parte di chi ha accesso e controlla i big-data. Capisce bene l’impatto che potrebbe avere sullo stesso esercizio della democrazia”.
Come difendersi da tutto questo?
“Attualmente lo sviluppo dell’IA è spinto da motivazioni di carattere economico e militare che poco si curano dei diritti delle persone. C’è un interessantissimo contributo di Kate Jones, membro di Chatham House, che evidenzia come chi sviluppa l’IA, al più, si ‘autolimiti’ facendo un mero esercizio stilistico sull’eticità dell’algoritmo, dimenticando che esiste già, codificato da almeno ottant’anni, la Carta dei ‘diritti umani’ che neppure l’IA può ledere. L’invito della Jones è quello di tenere sempre quelli come riferimento di fattibilità e ha lamentato che, invece, quasi nessuna nazione o organizzazione internazionale, eccetto l’Unione Europea, sta tenendo in considerazione i diritti umani come limite che lo sviluppo dell’IA non può oltrepassare”.
Cosa sta facendo l’Unione Europea in merito?
“Nel dicembre scorso il Parlamento e il Consiglio Europeo hanno raggiunto un accordo sulla prima bozza di normativa europea sull’Intelligenza Artificiale che detterà le regole su come svilupparla, che saranno le prime al mondo! Venerdì 2 febbraio, i rappresentanti degli stati membri dell’Unione, hanno votato all’unanimità di far proseguire l’iter legislativo verso l’approvazione del regolamento”.
Sarà un Regolamento la soluzione del problema?
“Certamente no, così come per la privacy il Regolamento 2016/679 (il GDPR) non ha risolto tutti i problemi: ma almeno li ha posti e ha suscitato riflessioni, sanzioni ed emulazioni in tutto il mondo. Senza alcuna regola si va nel ‘Far-West’. In merito le posizioni sono due: c’è chi dice «Tanto oramai i giochi sono fatti ed i buoi sono scappati» e chi dice, come me: «No, proviamo a tenere alta la guardia»”.