Machine learning: Etica dell’intervento della Regolazione e la realizzazione dell’Infrastruttura giuridica

Tecnologia e Nuove tecnologie Nuove economie, Nuovi diritti.

di Stefano Crisci*

 

Da tempo parliamo dello sviluppo tecnologico e del suo sviluppo esponenziale nel periodo di cambiamento d’epoca che stiamo vivendo. L’orribile pandemia ha funzionato come una enorme wake up call in tutte le parti del globo. Così siamo oggi tutti più consapevoli della necessità del fenomeno. Alcuni ne sono spaventati, altri attratti, ma molti rifiutano psicologicamente di generare quella fiducia nel progresso che invece dovremmo velocemente metabolizzare e indirizzare le nostre energie verso la conoscenza. Come dico sempre io prendendo in prestito il titolo del libro di luca Tomassini, uno dei nostri imprenditori più lungimiranti che di recente è stato insignito del titolo di Cavaliere del lavoro dal Presidente della Repubblica, “l’innovazione non chiede permesso” (Costruire il Domani Digitale edizioni Franco Angeli). Altra frase significativa di Stephen Hawkings che è alla base della mia ricerca continua è “la forza dell’Intelligenza artificiale è la sua conoscenza” Ciò che dobbiamo apprezzare sono gli enormi vantaggi della innovazione, del machine learning, del deep learning, nell’ambito delle reti neurali che sono e saranno sempre più presenti in ogni campo ed in ogni settore merceologico e dell’economia.

Così come si sono creati dei “nuovi Diritti”, sono nate e vanno sviluppandosi delle c.d. “Nuove Economie”. Ciò anche a causa della pandemia che ci costringe a ripensare processi e paradigmi e ad inventare ogni giorno un modo nuovo di offrire un servizio, un prodotto, sviluppando una capacità ed una “resilienza trasformativa” non indifferente, ponendo in essere atteggiamenti completamente disruptive.

Quel fenomeno che ci piace definire “Intelligenza Artificiale”, ma che potrebbe essere tranquillamente essere definita in tanti altri modi, ad esempio “Processo Decisionale Automatizzato” (per usare le parole del Parlamento Europeo), serve sostanzialmente per sollevare l’uomo da due compiti: le azioni complesse; quelle cioè che non riuscirebbe a compiere senza l’ausilio della macchina che ha capacità incredibilmente maggiori dell’uomo di processare dati e sviluppare risultati e quella di sollevarlo da azioni scomode e ripetitive.

Sorge tuttavia la necessità di verificare se le azioni complesse o ripetitive siano debitamente impostate; se cioè  l’algoritmo che le governa e che informa tutto il procedimento di messa in correlazione dei dati per fornire un risultato simile a quello che darebbe la mente dell’uomo, sia  correttamente impostato; a tal proposito rinvio ai miei precedenti scritti in merito a controllo etico dell’algoritmo (nonché, ovviamente, alla soft law europea sino ad ora emanata) e si sia svolto nel rispetto dei diritti fondamentali dell’uomo. Altra caratteristica irrinunciabile a mio avviso è quella della qualità dei dati forniti al processo di elaborazione “neurale” che li metterà in correlazione e che ne estrarrà il risultato desiderato. I dati utilizzati come “cibo” di cui la macchina è avida divoratrice, devono essere corretti e verificati o comunque sempre verificabili.

Tralasciando per il momento ogni approfondimento in merito a quanto sopra detto e rinviando la trattazione dei nuovi diritti e delle nuove economie a successivi scritti, ciò che preme in questa sede rilevare è che il legislatore europeo sta velocemente passando dalla soft law alla regolazione vera e propria. Da un approccio sostanzialmente di raccomandazione frutto del lavoro di commissioni di esperti, si giunge a vere e proprie risoluzioni del Parlamento Europeo recanti “Raccomandazioni alla Commissione Europea”.

Parliamo delle recenti raccomandazioni del Parlamento Europeo in merito al regime di responsabilità civile (A9-178/2020) per l’Intelligenza Artificiale”, cui si sono aggiunte altre due Risoluzioni; la A9-186/2020 sui principi etici per lo sviluppo e la diffusione dell’intelligenza artificiale, della robotica e delle tecnologie correlate e la A9-176/2020 sulla proprietà intellettuale.

Si osserva quindi un graduale passaggio da un sistema di raccomandazioni semplici, ad un quadro coordinato e complesso che porterà velocemente mi auguro ad una infrastruttura regolatoria che sia in grado di confermare il ruolo di custodi del diritto e della democrazia che ci siamo guadagnati come sistema Europa, anche e soprattutto nel campo della Digital economy.

Del resto ciò è irrinunciabile ed ineludibile considerando la nascita ed il proliferare delle Nuove economie cui facevo riferimento prima. Ne deve quindi scaturire uno slancio nella definizione dei nuovi diritti e nella loro perimetrazione nell’ambito di una cornice legislativa e regolatoria che, lungi dall’imbrigliare la libertà di impresa all’interno di angusti limiti, al contrario, costituisca e rafforzi l’accountability da parte di tutte le parti sociali e consenta il giusto esplicarsi dell’attività economica nel corretto bilanciamento degli interessi e nella tutela dei diritti fondamentali.

Per questo nello schema di proposte del Parlamento alla Commissione europea dianzi citate e nella bozza di regolamento per la responsabilità civile per danni e pregiudizi arrecati da sistemi di IA di cui vogliamo accennare in questa sede, troviamo indicazioni volte al mantenimento dell’impianto preesistente, costituito dalla direttiva 2001/95/CE del Parlamento europeo e del Consiglio, corroborato da prescrizioni e suggerimenti che dovrebbero sfociare nell’adozione di un regolamento la cui bozza è allegata.

Tar i fattori veramente interessanti da rilevare in questa sede, come emerge chiaramente dai contenuti delle premesse e dei consideranda che precedono le raccomandazioni e la bozza di regolamento proposta dal Parlamento europeo citato, è lo sforzo di individuazione del duplice ruolo conferito al concetto di “responsabilità”. Da una parte, la garanzia che la persona offesa abbia un diritto di ottenere un risarcimento e dall’altra quella che la parte produttrice di un prodotto che contenga utilizzi “processi decisionali automatizzati” sia incentivata fin dall’inizio ad evitare di causare danni o pregiudizi di qualsivoglia genere.

 

Un’ulteriore considerazione effettuata nello sforzo di fornire un quadro regolatorio certo, è proprio il tentativo ben riuscito a mio avviso, di infondere fiducia nella sicurezza, affidabilità e coerenza di prodotti e servizi dotati di tecnologia digitale.

Nell’eterna lotta di equilibrio fra il diritto costituzionalmente garantito di libertà di iniziativa privata ed i suoi limiti, che siano o meno inseriti espressamente nel precetto costituzionale, la garanzia della certezza del diritto assume preminenza assoluta.

Di qui, in considerazione della potenziale opacità nella individuazione del nesso eziologico nell’individuazione del determinismo causale dell’evento dannoso, di cui potrebbe essere affetto taluno dei sistemi di IA utilizzati lo sforzo del legislatore europeo sarà quello di spostare l’asse da una responsabilità soggettiva ed allargare gradatamente il campo fino a giungere ad una responsabilità oggettiva.

Militano, a favore di questa impostazione, ragioni eminentemente di tutela delle vittime dell’evento dannoso, ma anche, si ripete, di necessità di fornire un quadro di certezza del diritto per consentire lo sviluppo sempre maggiore di tecnologie basate sull’IA in considerazione degli enormi vantaggi che esse possono portare all’essere umano. Si pensi alla difficoltà che si potrebbe incontrare nell’individuazione del responsabile di un incidente determinato nell’ambito dell’utilizzo  di un veicolo automatizzato di guida autonoma in una infrastruttura legata ad un sistema complesso di sensoristica stradale ed infrastrutturale in cui interagiscono diverse tecnologie di software forniti dalle più svariate case produttrici in un sistema di IOT permeato da rischi di malware e di incursioni di hackers non adeguatamente protetti da sistemi di cyber security. In quel caso risulterebbe estremamente difficile dimostrare che il guidatore, rectius l’utilizzatore del veicolo sia realmente responsabile dell’evento dannoso. Stessa cosa potrebbe dirsi del produttore del veicolo e/o del gestore dell’infrastruttura stradale e così avanti nella catena delle responsabilità. Ma chi ne farebbe le spese? Sicuramente l’incolpevole vittima che a questo punto rischierebbe di non avere adeguata tutela.

Quindi, in considerazione della gamma diversificata dei rischi che la tecnologia dotata di sistemi di IA comporta, ed al contempo della necessità che dette tecnologie ci consentano di sfruttare appieno i vantaggi da esse apportati in ogni settore della sfera personale, collettiva e globale, lo sforzo del legislatore consisterà nell’oggettivizzazione delle responsabilità in tutti quei casi in cui sia difficile stabilire la diretta responsabilità dell’autore. Questo processo non deve però come detto, disincentivare la libera iniziativa economica.

Di qui l’esigenza di un regolamento che contenga norme comuni per i sistemi di IA e che, inglobando la direttiva sulla responsabilità per danni da prodotti difettosi e adattandola al mondo digitale, consenta la migliore tutela ed efficace protezione dei consumatori e delle vittime potenziali di questi beni e servizi.

Ciò comporterà, oltre alla citata responsabilità oggettiva, anche una sorta di inversione dell’onere della pr prova, che supplisca alla difficoltà oggettiva di individuazione di un potenziale terzo autore o causatore del danno. In tali casi la responsabilità si sposterà nei confronti dell’operatore di un sistema di IA. Ciò in considerazione del fatto che tale persona sta controllando il rischio associato a detto sistema in modo analogo al proprietario di un’automobile e che detto operatore, sarà il primo punto di contatto visibile per la persona interessata. Ciò comporta la necessità di definizione del concetto di operatore che abbia una portata più ampia di quanto si potrebbe pensare secondo quanto dianzi detto. Si pensi infatti ad attività che si svolgono in ampi spazi pubblici e che possono comportare rischi per una moltitudine di persone che potrebbero avere difficoltà a dimostrare la responsabilità per colpa dell’operatore. Di qui una ulteriore sofisticazione del concetto di operatore ivi includendo in taluni casi, quella non solo di front end, ma anche quella di back end, che potrebbe essere costituita da più di un operatore. In queste situazioni avremo una sorta di solidarietà della responsabilità degli operatori, con un contestuale diritto di reciproca rivalsa geometricamente proporzionale al grado di controllo sul rischio di funzionamento del sistema.

Quindi, sopra e accanto a questi dati, deve essere unito un sistema di c.d. tracing back che consenta di ampliare la possibilità di individuazione di tutta la filiera degli operatori sui quali è possibile rivalersi.

Ciò non ostante sarà necessario sia impedire clausole di limitazione di responsabilità, ma anche al contempo, individuare un nuovo sistema di assicurazioni obbligatorie con modelli innovativi che conducano alla creazione di polizze adeguate alla dinamicità del settore.

Valuteremo nel dettaglio la realizzazione e l’applicazione del regolamento in via di adozione, per verificarne la portata reale al fine di stabilirne l’efficacia vìs à vìs lo sviluppo della tecnologia in corso.

Parleremo in seguito delle altre Raccomandazioni citate e segnatamente, quella relativa al regolamento sui principi etici per lo sviluppo diffusione ed utilizzo dell’Intelligenza Artificiale della robotica e delle tecnologie correlate che prevede tra le varie “attenzioni”, un ruolo di coordinamento e sostegno rafforzato da parte della Commissione europea ed una competenza specifica assegnata all’ “Autorità di controllo” di ciascun paese membro (vedremo se si tratterà di istituire una vera e propria Autorità indipendente nel settore che si coordini con le altre esistenti, o di conferire ad esse sezioni poteri e know how differenziati).

Il tutto sempre con un approccio antropocentrico e di controllo che garantisca sicurezza trasparenza e difesa contro situazioni di asimmetrie nella tutela dei diritti fondamentali.

 

 

  • Avvocato Cassazionista. Professore Aggregato presso l’Università “La Sapienza” di Roma, facoltà di Economia. Titolare delle cattedre di “Market Regulation” e di “Health Law and Public Procurement in the health sector” in lingua Inglese. Titolare della cattedra di “Diritto del Turismo”, Digital legal advisor, AI expert. Fondatore dello Studio legale Crisci e del network Key Legal (KL), studio diffuso di cui fanno parte avvocati indipendenti nazionali ed internazionali. Autore di numerose pubblicazioni su tematiche correlate al Diritto Amministrativo e all’Intelligenza Artificiale.

fonte: https://fiscolexnews.online/tecnologia-e-machine-learning-linfrastruttura-giuridica/