IA (2). Secondo incontro sull’intelligenza artificiale con il prof. Mario Alai dell’Università di Urbino, sui rischi di una IA che sviluppi la volontà di dominarci
Prosegue il dibattito attorno al tema dell’intelligenza artificiale, argomento centrale di questa epoca storica e che diventerà sempre più rilevante nel prossimo futuro. A Rimini un ricco approfondimento è quello reso possibile dalla Fondazione Igino Righetti, che ha affrontato il dibattito a 360 gradi in due incontri dal titolo L’intelligenza artificiale. Cos’è, come funziona e quali effetti produce. Dopo aver illustrato i temi del primo incontro (sullo scorso numero de ilPonte) riportiamo ora quanto emerso nel secondo appuntamento, grazie alle questioni affrontate dal professor Mario Alai, docente di Epistemologia e di Filosofia del Linguaggio all’Università di Urbino.
Professore, nello scorso incontro si è ammessa la possibilità che possa nascere una vera intelligenza artificiale, detta ‘generale’, ossia assimilabile a quella umana e con capacità nettamente superiori alle nostre. Possibilità ammissibile in linea teorica, ma estremamente complessa da realizzare nella pratica. Quali sono le vie percorribili?
“Per arrivare alla creazione di quella che potremmo definire una ‘super-IA’ si stanno mettendo in campo diverse strategie, che sono però tutte limitate da problemi di importante rilevanza. Una possibilità è quella di proseguire sulla strada che già stiamo percorrendo, continuando a insegnare alle macchine tutto quello che ancora non sanno fare. Un processo, però, che potrebbe andare avanti all’infinito. Un’altra ipotesi è quella di replicare in tutto e per tutto il cervello umano, neurone per neurone, sinapsi per sinapsi. Il problema, in questo caso, è che noi stessi ancora non conosciamo a fondo il nostro cervello e, d’altra parte, con le tecnologie attuali sarebbe un’impresa talmente complessa da essere pressoché impossibile.
Inoltre, c’è chi ipotizza la possibilità di creare una IA ‘neonata’, per poi farla crescere e maturare attraverso l’esperienza, in modo che si evolva come abbiamo fatto noi umani dotando le macchine, a questo scopo, anche di organi di senso e un corpo artificiale. Il limite, però, è intuitivo: in questo modo, già complesso da realizzare, l’IA non avrebbe tutte quelle conoscenze che in noi sono innate grazie a milioni di anni di evoluzione”.
E poi c’è l’ipotesi più
dibattuta, a causa dei suoi risvolti ‘inquietanti’.
“È stata elaborata l’idea di costruire una macchina che sia in grado di studiare il proprio stesso programma al fine di migliorarlo, auto-evolvendo sempre di più fino ad arrivare al momento del sorpasso dell’intelligenza umana, che viene definito come ‘singolarità’.
Un momento che l’informatico ed esperto Raymond Kurzveil, tra i più noti saggisti sul tema, prevede possa avvenire già entro l’anno 2045. Una data molto vicina, che ovviamente ha suscitato dibattito, in particolare
perché Kurzveil è piuttosto attendibile, essendosi già reso protagonista di previsioni relative al mondo della tecnologia che poi si sono effettivamente verificate. Tra le obiezioni a questa ipotesi c’è chi sostiene che la possibilità di una tecnologia di auto-evolvere non sia realizzabile, secondo l’immagine di un uomo che prova ad alzarsi da terra tirando i lacci delle proprie scarpe; oppure chiamando in causa il fatto che in natura tutto ciò che ha avuto nella storia una crescita esponenziale si è poi stabilizzato. La stessa cosa, dunque, si applicherebbe all’evoluzione delle IA”.
Andiamo, però, oltre. Ipotizziamo che, nonostante le grandi difficoltà, si arrivasse davvero alla creazione di una super-IA, superiore all’intelligenza umana.
Correremmo davvero il rischio di essere sottomessi? E soprattutto: se questo rischio esiste, non dovremmo interrompere da subito di percorrere questa strada?
“Non è semplice rispondere a quest’ultima domanda, perché rinunciare allo sviluppo dell’IA significa anche precluderci importanti benefici. Sono molti, infatti, gli autori fortemente ottimisti sul fatto che una eventuale super-IA non rappresenterebbe un rischio per l’umanità, ma sarebbe solo fonte di enormi opportunità (pensiamo, ad esempio, ai nanobot, minuscoli ‘robot’ che potrebbero essere utilizzati per entrare nelle nostre cellule e curare le malattie).
Inoltre, uno scenario in cui l’uomo viene assogettato alle macchine presuppone che queste non solo sviluppino una propria volontà, ma che questa sia orientata al dominio.
Poiché ancora oggi non sappiamo come nasca in noi il libero arbitrio, è davvero complicato ragionare sull’eventualità che possa svilupparsi nell’IA. Certo, rimane ragionevole vagliare tutti gli scenari, compresa l’ipotesi peggiore”.
Ossia un’umanità schiava delle macchine. Nonostante appaia come uno scenario da fantascienza, come possiamo difenderci da tale rischio?
“In realtà il problema di evitare che un potere dispotico prenda il controllo della nostra società non nasce certo con l’arrivo dell’IA, ed è stato affrontato e risolto in modo piuttosto efficace tra il ’600 e il ’900 con lo sviluppo delle democrazie liberali. Per logica, dunque, un modo per proteggerci è quello di sottomettere un’eventuale IA in grado di governare a vincoli riconducibili a quelli delle istituzioni democratiche. Ma non solo: una super-IA non rappresenterebbe un rischio solo di per sé, ma anche come strumento utilizzabile da uomini per dominare. Per questo gli Stati democratici dovranno attuare una vigilanza sempre rigorosa per evitare che l’IA cada in mani sbagliate”.
Uscendo dagli scenari ipotetici e tornando alla
realtà attuale, quali sono i rischi correlati alla intelligenza artificiale già presenti oggi?
“Sono di diverso tipo e sono tutti complessi. C’è, innanzitutto, il rischio di perdita di posti di lavoro, così come avviene in seguito a qualsiasi progresso tecnologico.
C’è il problema, già noto e diffuso, dei cosiddetti ‘deepfake’, ossia immagini e fotografie estremamente realistiche di eventi mai avvenuti, che diminuiscono l’attendibilità delle informazioni, come già sta avvenendo con i social network.
Non solo: è reale e concreto il rischio di accentuare le disparità etniche e razziali, poiché l’IA si evolve elaborando dati che non crea autonomamente, ma che ottiene da noi, con tutti i vizi annessi e connessi, compresi i pregiudizi.
Ci sono poi i già noti problemi di privacy e di trasparenza su chi effettivamente raccolga i dati, come li utilizzi e a quale scopo. E, infine, lo sviluppo dell’IA accentua un problema già reale, ossia il fatto che si tratti di una risorsa i cui vantaggi e le cui potenzialità di potere sono concentrati nella mani di un solo Paese, gli Stati Uniti, e di pochissime aziende. E si tratta di un potere potenzialmente più forte di quello politico, perché non sottoposto al controllo elettorale.
C’è l’esigenza, dunque, di una regolamentazione già da oggi: un passo in avanti in tal senso è quello compiuto dall’Unione Europea nel marzo scorso, con l’approvazione del primo Regolamento sull’intelligenza artificiale. Stare in guardia, dunque, proseguendo con riflessioni non solo tecniche, ma anche etiche e sociologiche, ragionando come comunità”.