Verso la regolazione della robotica: la risoluzione della Commissione giuridica del Parlamento europeo (18.01.2017)

“Ho paura, Drobot-1650649_1920avid.”

(L’elaboratore HAL 9000 in 2001: Odissea nello Spazio).

Il 12 gennaio è stata approvata la proposta di relazione recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica (2015/2103(INL)) in seno alla Commissione giuridica del Parlamento europeo. La relatrice della proposta è stata Mady Delvaux del gruppo dei Socialisti e Democratici e, benché il testo approvato non sia ancora disponibile, si propone un breve commento alla proposta di risoluzione poiché, come riportato da diverse fonti, non sono state apportate sostanziali modifiche. Esso è suddiviso in tre parti: la prima in cui è contenuta la proposta di risoluzione; la seconda, con dettagli sul contenuto della proposta e con le opzioni regolative a disposizione della Commissione; la terza, concernente la motivazione dell’atto della Commissione giuridica.
Si tratta, evidentemente, di un tema spinoso con ripercussioni sociali potenzialmente incalcolabili e su cui il dibattito filosofico e giuridico si è particolarmente intensificato negli ultimi anni. In particolare, il gruppo di lavoro è stato istituito nel gennaio del 2015 ed ha dovuto affrontare una prima e molto dibattuta questione: è veramente necessario regolare la robotica? Secondo numerosi autori il rischio principale derivante dalla regolazione del settore è quello di ritardarne lo sviluppo, disincentivando l’innovazione e gli investimenti. A ben vedere, l’argomentazione è simile a quella utilizzata prima negli Stati Uniti e, in seguito, nell’allora Comunità economica europea dai gruppi di interesse vicini ai produttori sull’affermazione di un regime di responsabilità oggettiva per danno da prodotto difettoso. In realtà, la scelta tra regolare e non regolare è illusoria. Come è stato sottolineato, nel momento in cui un robot si materializza esso è già regolato da norme in vigore (si v. A. Bertolini, 2014). Si pensi al fatto che un robot, da considerarsi come un prodotto, sarà sottoposto alla direttiva 85/374/CEE sulla responsabilità del produttore ed alla direttiva 2001/95/CE sulla sicurezza dei prodotti. Paradossalmente, quindi, anche senza adottare norme specifiche per il settore, la robotica ricadrebbe nell’ambito di operatività di norme già esistenti. Per questo, secondo molti autori, adottare un quadro giuridico ad hoc per la robotica non sarebbe solo necessario, alla luce dello sviluppo esponenziale che il settore ha vissuto negli ultimi anni, ma potrebbe anche portare dei benefici in termini economici.
La relazione della Commissione giuridica adotta diversi argomenti per giungere alla conclusione che un quadro giuridico per la robotica è necessario ed è auspicabile che esso sia uniforme a livello europeo. Anzitutto, si rimarca lo sviluppo attuale e potenziale del settore in termini economici. In secondo luogo, la relazione evidenzia alcuni rischi che la robotica porta con sé, riguardanti segnatamente l’occupazione ed il mercato del lavoro, la salute e la sicurezza, la protezione dei dati personali, la dignità umana ed i diritti fondamentali. In un passaggio del documento, per un verso evocativo di narrazioni considerate ancora oggi fantascientifiche, per un altro allarmante e dall’afflato distopico, si afferma che: «è possibile che nel giro di pochi decenni l’intelligenza artificiale superi la capacità intellettuale umana al punto che, se non saremo preparati, potrebbe mettere a repentaglio la capacità degli umani di controllare ciò che hanno creato e, di conseguenza, anche la loro capacità di essere responsabili del proprio destino e garantire la sopravvivenza della specie». Altrettanto inquietante è quanto riportato nella parte III del documento sotto la rubrica “La robotica e l’intelligenza artificiale nel contesto sociale”. In questo contesto, si afferma che dal contatto con i robot, specialmente quelli funzionali all’assistenza, potrebbero in futuro derivare «sentimenti e attaccamento» da parte degli esseri umani ed il fenomeno dovrà essere oggetto di monitoraggio ed attenzione (sul punto si veda anche l’intervista alla relatrice della risoluzione Mady Delvaux). Nella risoluzione si fa riferimento più volte alla possibilità che i robot assumano via via maggiore autonomia e consapevolezza di sé al punto di non poter più essere considerati «meri strumenti nelle mani di altri attori». Il problema non sarà quindi solo quello di allocare la responsabilità (produttore, proprietario, detentore) per gli atti compiuti dai robot ma diventa quello di capire se attribuire al robot uno status giuridico e, a quel punto, applicare allo stesso le Leggi di Asimov (riportate con completezza nel romanzo Circolo Vizioso del 1942)[1]. Si comprende bene come il creare la “persona elettronica o robotica”, ossia una «nuova categoria con caratteristiche specifiche proprie e implicazioni per quanto riguarda l’attribuzione di diritti e doveri», apre scenari del tutto sconosciuti. Uno studio presentato alla Commissione giuridica nell’ottobre del 2016 e condotto da Nathalie Nevejans, esperta di diritto ed etica della robotica, è critico non solo sulla possibilità di considerare il robot un centro di imputazione di diritti e doveri e sul richiamo alle Leggi di Asimov ma, più in generale, sulla stessa definizione di robot adottata dalla relazione[2]. Secondo lo studio, l’idea di una personalità robotica è priva di utilità ed inappropriata: «da un punto di vista scientifico, giuridico, persino etico – si legge – è impossibile e probabilmente lo sarà per molto tempo che un robot prenda parte alla vita giuridica senza un essere umano che lo controlli». Si tratta, in sostanza, di un’idea ispirata più a qualche ciclo cinematografico e narrativo che allo sviluppo tecnologico attuale che, tuttavia, non è privo di conseguenze negative: come si legge in un pregevole passaggio dello studio, introdurre una personalità robotica «po[rrebbe] in discussione la radice umanista dell’Europa. […] I robot devono servire l’umanità e non dovrebbero avere altri ruoli, eccetto che nella finzione cinematografica».
Come anticipato, può destare perplessità la raccomandazione di adottare una definizione di robot. Infatti, come suggerito da precedenti studi in materia, fornire una definizione onnicomprensiva di robot è praticamente impossibile. Per questo, alcuni autori hanno, in tempi recenti, proposto di evitare l’adozione di una definizione se non per scopi meramente descrittivi e, in ogni caso, il più ampia possibile. Ogni definizione avrebbe infatti la conseguenza di essere o eccessivamente vaga o, peggio, incompleta. Meglio sarebbe adottare un approccio funzionale che miri alle differenti applicazioni della robotica e ne regolamenti i singoli aspetti. Anche in questo caso, l’idea che esista “il robot” è frutto di suggestioni letterarie mentre, adottando una prospettiva scientifica, sarebbe opportuno adottare un case-by-case approach, sulla base delle diverse applicazioni che la robotica conosce e che si prevede possa trovare nei prossimi anni. Nella relazione, se, come si è visto, si tenta di dare una definizione generale di robot intelligente, non mancano specifiche raccomandazioni su veicoli autonomi («il settore automobilistico sia quello in cui è sentita con maggiore urgenza la necessità di norme a livello europeo e mondiale»), robot impiegati per l’assistenza, robot medici, interventi riparativi e migliorativi del corpo umano, droni.
Ad ogni modo, due sembrano essere gli aspetti più interessanti del documento: la responsabilità civile e la proposta di una Carta sulla robotica. Per quanto riguarda il primo aspetto, si raccomanda di non porre un tetto all’ammontare del danno risarcibile causato dai robot né limitare le forme di danno e di istituire una responsabilità oggettiva in cui il danneggiato sia onerato dal provare esclusivamente il rapporto di causalità tra comportamento del robot e danno. Si suggerisce inoltre di istituire un regime di assicurazione obbligatoria per i produttori, integrato da un fondo per il risarcimento dei danni. In merito alla Carta sulla robotica, essa è presentata come «un quadro etico di orientamento […] contenente un codice etico-deontologico degli ingegneri robotici, un codice per i comitati etici di ricerca per il loro lavoro di revisione dei protocolli di robotica, e modelli di licenze per progettisti e utenti». Si tratta, in sostanza, di tradurre i principi fondamentali contenuti nella Carta dei diritti fondamentali dell’UE ed i valori di riferimento dell’Unione di cui all’art. 2 del TUE nel settore della robotica, facendo in modo che lo sviluppo del settore ed il diffondersi della tecnologia avvenga nel rispetto degli stessi.
In conclusione, può affermarsi la necessità che, data la portata e l’importanza delle questioni trattate, prima e dopo la presentazione di una proposta normativa da parte della Commissione europea, il dibattito sia il più possibile approfondito, trasparente ed aperto ad ogni tipo di contributo. Ci sono sicuramente elementi positivi nella risoluzione della Commissione giuridica del Parlamento mentre alcuni aspetti, tutt’altro che secondari, vanno maggiormente ponderati per arrivare a soluzioni accettabili e condivise, in linea con i principi e valori dell’Unione e degli ordinamenti degli Stati membri.

Federico Di Dario

[1] Il testo delle tre Leggi recita: Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno. (2) Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge. (3) Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima o con la Seconda Legge.
[2] La definizione sembra essere circoscritta ai robot autonomi e intelligenti cioè quelli che hanno le seguenti caratteristiche: «acquisizione di autonomia grazie a sensori e/o mediante lo scambio di dati con il proprio ambiente (interconnettività) e scambio e analisi di tali dati; capacità di autoapprendimento (criterio facoltativo); presenza di supporto fisico; adeguamento del comportamento e delle azioni all’ambiente».

Per approfondimenti:
– A. Bertolini, Robolaw, Why and how to regulate robotics, in Robohub.org, 2014;
– A. Bertolini, E. Palmerini, Regulating Robotics: A Challenge for Europe, in Workshop for the Juri Committee, 2014, 167 ss.
– N. Nevejans, European Civil Law Rules in Robotics, Study for the Jury Committee, 2016.
– Rise of the robots: Mady Delvaux on why their use should be regulated, in europarl.europa.eu, 12 gennaio 2017.

Comments are closed.