Italiano

Intelligenza Artificiale e diritto, tra etica delle robotica e tutele giuridiche.

Con l’avanzamento tecnologico delle applicazioni legate all’Intelligenza Artificiale, si aprono nuove domande ed esigenze anche nei campi del diritto e delle tutele giuridiche: in uno scenario dove l’AI e la robotica diventano sempre più rilevanti ed evolute c’è da chiedersi come si evolverà il concetto di responsabilità.

 Di questo tema tanto se ne sta parlando e tanto se ne parlerà ancora, finché non verranno emanate norme in grado rispondere a tutte le possibili domande che l’evoluzione tecnologica porterà. Nel campo dell’industria automobilistica, per esempio, ci si prepara alla cosiddetta guida autonoma: una vera e propria scelta strategica delle grandi compagnie, in grado di aprire inedite sfide sul piano delle tutele legali ed assicurative. Le sfide tecnologiche del futuro si sposteranno quindi sul campo dell’etica: la robotica, infatti,  sta acquisendo progressivamente, sempre più spazi; dall’applicazione nella medicina operatoria, a tutte quelle aree di più prossima e quotidiana consuetudine. Il tempo è quindi maturo per un’attenta riflessione in materia di relazioni tra Diritto ed ‘artificial intelligence’ con riguardo, in particolare, ai problemi di mediazione giuridica posti dalle nascenti tecniche di robotica avanzata. E da più voci, anche a livello europeo, si richiede la necessità di nuove norme e nuove categorie giuridiche al fine di regolare tali scenari innovativi che stanno per sbarcare nella nostra vita quotidiana.

La questione può essere analizzata  sotto due diversi punti di vista: da una parte considerando l’AI come un nuovo mondo da regolare, dall’altra come strumento che incide anche sulla modalità del diritto di dare regole.

Uno degli aspetti più interessanti rimane comunque legato alla “soggettività giuridica” dei sistemi intelligenti. Basti pensare che l’Arabia Saudita proprio pochi giorni fa ha concesso per la prima volta nella sua, e nostra, storia la cittadinanza a Sophia, un evoluto robot umanoide (con i tratti estetici di Audrey Hepburn per dirla tutta) prodotto dall’azienda americana Hanson Robotics.

Tramite l’AI Sophia imita perfettamente i gesti umani, replica 62 espressioni facciali e riesce ad intrattenere conversazioni semplici con l’interlocutore. Dopotutto in Arabia Saudita hanno preso così seriamente l’innovazione tecnologica da creare un apposito dicastero per l’Intelligenza Artificiale (nominando Ministro un giovane 27 enne, già vicedirettore del “Dipartimento per il Futuro”). Il tema del ruolo delle macchine nella nostra società, pur senza arrivare per ora a concederne il diritto di voto e la piena libertà di parola come in Arabia, è entrato anche nell’agenda del Parlamento Europeo. Capire quale “riconoscimento giuridico” potranno avere i robot del futuro è un tema affascinante quanto ancora inesplorato.

Ritornando poi alle auto senza conducente, nel caso di incidente stradale a chi andrebbe la responsabilità dell’accaduto? Al costruttore, al programmatore o direttamente alla macchina? Si potrebbe ipotizzare infatti che queste complesse interazioni tra uomo e macchina richiederanno l’attribuzione di qualche particolare forma di riconoscimento giuridico proprio alle intelligenze artificiali; un discorso totalmente in divenire e dove nulla di concreto è stato però ancora scritto.

Ancora più “scottante” risulterebbe poi il tema delle cosiddette “armi intelligenti” che già oggi sono al centro di importanti discussioni portate avanti da grandi scienziati ed inventori affinché il proliferare di “robot killer” sia il prima possibile bandito o perlomeno definito legalmente attraverso accordi politici scritti tra gli Stati. Al momento però, nonostante la richiesta di mobilitare l’Onu e le altre convenzioni internazionali, nulla è stato ancora definito.

Dal 1950, anno in cui Alan Turing chiedeva nel suo articolo sulla rivista Mind Computing machinery and intelligence se i robot potessero pensare, le cose sono molto cambiate e anche se probabilmente la risposta è,  ancora no, non è detto che questa rimanga tale negli anni a venire.

Da un lato, vi è chi vede questa evoluzione come un necessario passo per un futuro migliore, dall’altro c’è chi come Stephen Hawking, in diverse occasioni, si è detto pessimista sulle sue applicazioni, dichiarando pochi giorni fa che “Non possiamo sapere se l’Intelligenza Artificiale ci aiuterà o ci distruggerà”.

Occorre, dunque, più che commentare i vari giudizi, favorevoli o contrari che siano,  fare davvero il punto della situazione considerando che attualmente un quadro organico a livello europeo in materia non esiste.

I principi generali del nostro ordinamento, pur sempre applicabili, non sono senz’altro sufficienti a gestire le situazioni che andremo sicuramente ad affrontare.

Le questioni di “robolaw” (termine che si riferisce ad una nuova disciplina ancora da definire e avente ad oggetto principi e regole per le tecniche di robotica avanzata e di “intelligenza artificiale”) sono globali, poiché travalicano i confini nazionali e le diversità di culture giuridiche, ma l’unitarietà del fenomeno esige unità di disciplina.

Occorre, quindi, evitare la frammentazione normativa, sovente causa di problemi e di una più lenta diffusione del progresso.

Le “leggi della robotica” create negli anni Quaranta del passato secolo dallo scrittore russo, naturalizzato americano, Isaac Asimov, che per primo sentì l’esigenza di parlare di regole scritte per i robot umanoidi, non bastano più dal momento che la fantascienza sta diventando, più velocemente del previsto, realtà.

Accanto alle norme giuridiche che dovranno regole gli umanoidi del futuro si inizia a parlare,  inoltre, della necessità di un’etica anche nel mondo della robotica.

In definitiva essere pronti al futuro che ci aspetta, con regole capaci di regolarlo, è un bisogno ed un obbligo a cui tutti noi siamo chiamati ad adempiere il prima possibile.

 

Notaio Camillo Verde

Intelligenza Artificiale e diritto, tra etica delle robotica e tutele giuridiche