Carefin24

Il nuovo sovrano Algoritmo e le incognite del diritto

Interessante, il collegamento fatto dal prof Giovanni Guzzetta al convegno Intelligenza Artificiale e responsabilità umana tenutosi il 7 maggio scorso a Roma, fra l’inconoscibilità dei meccanismi algoritmici che governano la AI e un modello costituzionale assolutistico. 

Il nuovo algoritmo sovrano che processa miliardi di dati effettivamente costringe a rimodulare alcuni istituti giuridici –e anche la filosofia che sta alla loro base, come spiega il professor Stefano Preziosi, Ordinario di Diritto penale e Coordinatore scientifico del Centro di Ricerca Intelligenza Artificiale e Diritto (C.R.I.A.D.) nell’Università di Roma Tor Vergata. 

«Il pensiero moderno costituzionale si articola sulla conoscenza dei meccanismi decisionali e sull’idea di fondo che alla base della Costituzione ci sia la libera scelta delle opinioni e degli orientamenti politici dei cittadini –osserva il docente- sulla base di un principio di uguaglianza che contempera le opinioni di minoranza e maggioranza».

L’algoritmo è neutrale? Implicazioni giuridiche della AI

Qui, come ci fa giustamente notare il professor Preziosi, il tema è ontologico, oltre che giuridico.  E riguarda la neutralità della legge, «che veniva contestata dall’ideologia nazionalsocialista e dai suoi seguaci sin dal principio del terzo Reich, quando si volle affermare ed imporre il fondamento etico assoluto della legge, contro il liberalismo politico e giuridico ritenuto imbelle e destinato alla sconfitta».

Ma l’algoritmo è neutrale? Non è un mistero che il corpus a cui l’AI attinge (175 miliardi di parametri e circa 300 miliardi di parole), non sia controllabile nella sua totalità. Ed è proprio quella che Preziosi definisce la “opacità dei meccanismi algoritmici” ad avere implicazioni giuridiche e processuali, oltre che costituzionali. Ci sono poi questioni che attengono al tema della responsabilità penale. Quali sono i modelli di responsabilità che possiamo utilizzare?

«Cruciale è il tema della responsabilità che scaturisce da un impiego illecito dell’Intelligenza Artificiale. La discussione è molto ampia ed articolata, coinvolge numerosi istituti, soprattutto relativi alla responsabilità oggettiva e per fatto altrui».

Un nuovo modello di pensiero con implicazioni umane e giuridiche

Emergono due questioni distinte. 

«La prima è la possibilità per chi applica la norma di verificare come ha funzionato il meccanismo algoritmico. Fino a oggi ci siamo basati sulla conoscenza e ostensibilità dei meccanismi preposti a decidere le regole di convivenza. Ma i meccanismi algoritmici si basano su connessioni che sfuggono alla spiegazione di ciò che accade secondo la ragione umana». 

Poi, vi è l’aspetto dei presidi precauzionali che consentono di ridurre i rischi di output negativi e che devono basarsi sulla qualità e sulla selezione dei dati che alimentano il sistema. 

«Intendo riferirmi a presidi che evitino bias, pregiudizi, deviazioni che portano ad output arbitrari». 

 

Infine, ma non certo ultimo in termini di importanza, rimane il tema filosofico ed etico della centralità umana: «l’AI non ha coscienza di sé, non sa di sapere, cosa che rappresenta l’atto fondativo della ragione umana. Come ha detto Faggin (lo scienziato che ha inventato il microchip), l’AI è uno strumento umano e come tale non è artefice di nulla, l’artefice rimane l’uomo. Esiste qualcosa che può essere migliore dell’uomo e sostituirlo? O va preservato l’essere umano per la sua dignità, accettando il rischio di potenziali fallimenti? Siamo innamorati dell’uomo, con i suoi errori ed orrori, o siamo più innamorati della tecnoscienza che egli ha prodotto e che, in ipotesi, potrebbe essere “migliore” di lui?» 

Il tema della giustizia predittiva e i rischi a esso connessi

«Il sistema può selezionare una massa enorme di dati usando l’auto apprendimento, non è detto che sia stato il programmatore a immetterli. Perciò è plausibile che alcuni soggetti vengano ritenuti inclini a commettere aggressioni o illeciti senza che venga spiegato il nesso causale sulla base del quale si elabora la previsione»

In questo, dovrebbe essere dirimente il regolamento Europeo di recente emanazione: «Se vuole intervenire in modo regolatorio, il legislatore dovrebbe prevedere delle regole di contenimento per i sistemi ad alto rischio»

Altra cosa importante, secondo il docente, è il tema del “rischio consentito” e fino a quale punto ammetterlo per il bene comune. L’esempio che rende l’idea è quello sui sistemi di guida autonoma: se ci garantissero che essa abbatta del 90% le vittime della strada, potremmo accettare che il pedone reo di attraversare lontano dalle strisce venga investito come effetto collaterale? Fino a che punto si può parlare di rischio consentito?

Il Regolamento europeo e il disegno di legge e di legge delega sulla AI

La normativa europea in materia di Intelligenza Artificiale, che ha l’obiettivo di proteggere i diritti fondamentali, lo Stato di diritto e la sostenibilità dei sistemi ad alto rischio, è stata approvata dal Parlamento europeo lo scorso marzo. «Il regolamento europeo ha riflessi in materia penale ma non ci sono previsioni specifiche, si fa riferimento a sanzioni da adottare in caso di violazioni di regole. Però le ricadute ci saranno e saranno molte». 

Inoltre, il 23 aprile scorso il Consiglio dei Ministri ha approvato il disegno di legge e di legge delega sulla AI, attendiamo l’iter parlamentare. «Emergono nuove fattispecie di reato anche se non sempre ricorrere allo strumento penalistico è la scelta idonea. Certo, nel caso di conseguenze lesive di diritti della persona le fattispecie penalistiche possono trovare applicazione».

Il Centro di Ricerca Intelligenza Artificiale e Diritto (C.R.I.A.D) dell’Università di Tor Vergata e i suoi propositi

Proprio per volgersi all’orizzonte AI in tutta la sua complessità filosofica, giuridica, politica, nasce C.R.I.A.D., un centro con molteplici finalità. 

In primis, «sviluppare attività di studio, raccogliendo atti di convegni, forum, dibattiti, ma anche sviluppando temi specifici a supporto di realtà che abbiano necessità di elaborare linee guida e basi giuridiche su cui intraprendere attività che impiegano sistemi AI in campi specifici. Ad esempio, pensiamo ad assicurazioni, società sportive, mercati finanziari. 

Al pari, intendiamo sviluppare progetti di ricerca e formazione: attiveremo un Master e vorremmo introdurre elementi di didattica su questo tema anche all’interno dei nostri corsi universitari».

POTREBBE INTERESSARTI