Leggi di robotica

Le leggi della Robotica sono un insieme di leggi, regole o principi, che sono intesi come un quadro fondamentale per sostenere il comportamento di robot progettati per avere un certo grado di autonomia. I robot di questo livello di complessità non esistono ancora, ma sono stati ampiamente anticipati nella fantascienza, nei film e sono un argomento di ricerca e sviluppo attivo nel campo della robotica e dell’intelligenza artificiale.

Le serie di leggi più conosciute sono quelle scritte da Isaac Asimov negli anni ’40 o basate su di esse, ma da allora i ricercatori hanno proposto altre serie di leggi.

“Tre leggi della robotica” di Isaac Asimov
Il set di leggi più noto sono le “Tre leggi della robotica” di Isaac Asimov. Questi sono stati introdotti nel suo racconto “Runaround” del 1942, sebbene fossero stati prefigurati in alcune storie precedenti. Le tre leggi sono:

Un robot non può ferire un essere umano o, attraverso l’inazione, permettere a un essere umano di venire a fare del male.
Un robot deve obbedire agli ordini dati dagli esseri umani, eccetto laddove tali ordini siano in conflitto con la Prima Legge.
Un robot deve proteggere la propria esistenza finché tale protezione non è in conflitto con la prima o la seconda legge.

Verso la fine del suo libro Foundation and Earth, è stata introdotta una legge zeroth:

0. Un robot non può ferire l’umanità, o, per inerzia, permettere all’umanità di venire a fare del male.

Esistono adattamenti ed estensioni basate su questo quadro. A partire dal 2011 rimangono un “dispositivo immaginario”.

Principi di robotica EPSRC / AHRC
Nel 2011, il Consiglio di ricerca di ingegneria e scienze fisiche (EPSRC) e il Consiglio di ricerca per le arti e le scienze umane (AHRC) della Gran Bretagna hanno pubblicato insieme una serie di cinque “principi etici per progettisti, costruttori e utenti di robot” nel mondo reale, con sette “messaggi di alto livello” destinati a essere trasmessi, sulla base di un seminario di ricerca del settembre 2010:

I robot non dovrebbero essere progettati esclusivamente o principalmente per uccidere o danneggiare gli esseri umani.
Gli umani, non i robot, sono agenti responsabili. I robot sono strumenti progettati per raggiungere obiettivi umani.
I robot dovrebbero essere progettati in modo da garantire la loro sicurezza e protezione.
I robot sono artefatti; non dovrebbero essere progettati per sfruttare gli utenti vulnerabili evocando una risposta emotiva o dipendenza. Dovrebbe essere sempre possibile dire a un robot da un essere umano.
Dovrebbe sempre essere possibile scoprire chi è legalmente responsabile di un robot.

I messaggi che intendevano essere trasmessi erano:

Riteniamo che i robot abbiano il potenziale per fornire un impatto positivo immenso alla società. Vogliamo incoraggiare la ricerca responsabile sui robot.
La cattiva pratica ci ferisce tutti.
Affrontare le ovvie preoccupazioni pubbliche ci aiuterà a fare progressi.
È importante dimostrare che noi, in quanto roboticisti, siamo impegnati nei migliori standard di pratica possibili.
Per comprendere il contesto e le conseguenze della nostra ricerca, dovremmo lavorare con esperti di altre discipline, tra cui: scienze sociali, diritto, filosofia e arte.
Dovremmo considerare l’etica della trasparenza: ci sono dei limiti a ciò che dovrebbe essere apertamente disponibile?
Quando vediamo testimonianze errate sulla stampa, ci impegniamo a prendere il tempo per contattare i giornalisti segnalanti.

I principi EPSRC sono ampiamente riconosciuti come utile punto di partenza. Nel 2016 Tony Prescott ha organizzato un workshop per rivedere questi principi, ad es. per differenziare i principi etici da quelli legali.

Sviluppo giudiziario
Un’altra codificazione terminologica completa per la valutazione legale degli sviluppi tecnologici nel settore della robotica è già iniziata principalmente nei paesi asiatici. Questo progresso rappresenta una reinterpretazione contemporanea della legge (e dell’etica) nel campo della robotica, un’interpretazione che presuppone un ripensamento delle costellazioni giuridiche tradizionali. Questi includono principalmente problemi di responsabilità legale in diritto civile e penale.

Le leggi di Satya Nadella
Nel giugno 2016, Satya Nadella, un CEO di Microsoft Corporation all’epoca, ha avuto un’intervista con la rivista Slate e ha abbozzato approssimativamente cinque regole per le intelligenze artificiali che devono essere osservate dai loro progettisti:

“A.I. deve essere progettato per aiutare l’umanità”, il che significa che l’autonomia umana deve essere rispettata.
“A.I. deve essere trasparente” significa che gli umani dovrebbero conoscere ed essere in grado di capire come funzionano.
“A.I. deve massimizzare l’efficienza senza distruggere la dignità delle persone”.
“A.I. deve essere progettato per la privacy intelligente”, il che significa che guadagna fiducia proteggendo le loro informazioni.
“A.I deve avere una responsabilità algoritmica in modo che gli esseri umani possano annullare i danni involontari”.
“A.Io devo evitare pregiudizi” in modo che non debbano discriminare le persone.

Le “leggi della robotica” di Tilden
Mark W. Tilden è un fisico robotico che è stato un pioniere nello sviluppo di robotica semplice. I suoi tre principi guida / regole per i robot sono:

Un robot deve proteggere la sua esistenza a tutti i costi.
Un robot deve ottenere e mantenere l’accesso alla propria fonte di energia.
Un robot deve continuamente cercare fonti di energia migliori.
Ciò che è degno di nota in queste tre regole è che queste sono fondamentalmente regole per la vita “selvaggia”, quindi in sostanza quello che Tilden affermava era che “cercava di trasformare una specie di silicio in senziente, ma con il pieno controllo delle specifiche. Non sono animali. Qualcos’altro. “