Etica dell’intelligenza artificiale

L’etica dell’intelligenza artificiale è la parte dell’etica della tecnologia specifica per i robot e altri esseri artificialmente intelligenti. È tipicamente diviso in roboetica, una preoccupazione per il comportamento morale degli umani mentre progetta, costruisce, usa e tratta gli esseri artificialmente intelligenti e l’etica della macchina, che si occupa del comportamento morale degli agenti morali artificiali (AMA).

Etica dei robot
Il termine “etica del robot” (a volte “roboetica”) si riferisce alla moralità di come gli umani progettano, costruiscono, usano e trattano robot e altri esseri artificialmente intelligenti. Considera sia il modo in cui gli esseri artificialmente intelligenti possono essere usati per danneggiare gli esseri umani, sia il modo in cui possono essere usati a beneficio degli umani.

Diritti robot
“I diritti dei robot” è il concetto secondo cui le persone dovrebbero avere obblighi morali nei confronti delle loro macchine, simili ai diritti umani o ai diritti degli animali. È stato suggerito che i diritti dei robot, come il diritto di esistere e svolgere la propria missione, potrebbero essere collegati al dovere del robot di servire gli umani, per analogia con il collegamento dei diritti umani con i doveri umani davanti alla società. Questi potrebbero includere il diritto alla vita e alla libertà, la libertà di pensiero e di espressione e l’uguaglianza davanti alla legge. Il problema è stato esaminato dall’Istituto per il futuro e dal Dipartimento del commercio e dell’industria britannico.

Gli esperti non sono d’accordo sul fatto che saranno necessarie leggi specifiche e dettagliate a breve o in sicurezza nel lontano futuro. Glenn McGee riferisce che un numero sufficiente di robot umanoidi potrebbe apparire entro il 2020. Ray Kurzweil stabilisce la data al 2029. Un altro gruppo di scienziati riuniti nel 2007 suppose che dovessero trascorrere almeno 50 anni prima che esistesse un sistema sufficientemente avanzato.

Le regole per il concorso Loebner Prize del 2003 prevedevano la possibilità che i robot avessero diritti propri:

61. Se, in un dato anno, una voce open source pubblicamente disponibile, inserita dall’Università del Surrey o dal Cambridge Center, vince la medaglia d’argento o la medaglia d’oro, la medaglia e il premio in denaro saranno assegnati all’organismo responsabile per la sviluppo di quell’entrata. Se non è possibile identificare un tale organismo o se vi è disaccordo tra due o più richiedenti, la Medaglia e il Premio in denaro saranno tenuti in custodia fino al momento in cui l’Entrata possa possedere legalmente, negli Stati Uniti d’America o nel Regno Unito. sede del concorso, il premio in denaro e la medaglia d’oro a pieno titolo.

Nell’ottobre 2017, l’androide Sophia è stata concessa la cittadinanza in Arabia Saudita, anche se alcuni osservatori hanno ritenuto che questa fosse più una trovata pubblicitaria che un significativo riconoscimento legale.

Minaccia alla dignità umana
Joseph Weizenbaum sostenne nel 1976 che la tecnologia AI non dovrebbe essere usata per sostituire persone in posizioni che richiedono rispetto e cura, come ad esempio una di queste:

Un rappresentante del servizio clienti (la tecnologia AI è già utilizzata oggi per i sistemi di risposta vocale interattivi basati su telefono)
Un terapeuta (come è stato proposto da Kenneth Colby negli anni ’70)
Una balia per anziani (come riportato da Pamela McCorduck nel suo libro The Fifth Generation)
Un soldato
Un giudice
Un ufficiale di polizia

Weizenbaum spiega che richiediamo autentici sentimenti di empatia da parte di persone in queste posizioni. Se le macchine li sostituiranno, ci troveremo alienati, svalutati e frustrati. L’intelligenza artificiale, se usata in questo modo, rappresenta una minaccia per la dignità umana. Weizenbaum sostiene che il fatto che stiamo intrattenendo la possibilità di macchine in queste posizioni suggerisce che abbiamo sperimentato una “atrofia dello spirito umano che deriva dal pensare a noi stessi come computer”.

Pamela McCorduck ribatte che, parlando per le donne e le minoranze “preferirei cogliere le mie possibilità con un computer imparziale”, sottolineando che ci sono condizioni in cui preferiremmo avere giudici e poliziotti automatizzati che non hanno assolutamente alcun programma personale. Il fondatore di AI John McCarthy si oppone al tono moralizzante della critica di Weizenbaum. “Quando la moralizzazione è sia veemente che vaga, invita ad abusi autoritari”, scrive.

Bill Hibbard scrive che “la dignità umana richiede che ci sforziamo di rimuovere la nostra ignoranza sulla natura dell’esistenza e che l’intelligenza artificiale è necessaria per questo sforzo”.

Trasparenza e open source
Bill Hibbard sostiene che, poiché l’IA avrà un effetto così profondo sull’umanità, gli sviluppatori di IA sono rappresentanti della futura umanità e quindi hanno un obbligo etico di essere trasparenti nei loro sforzi. Ben Goertzel e David Hart hanno creato OpenCog come framework open source per lo sviluppo di AI. OpenAI è una società di ricerca di intelligenza artificiale senza scopo di lucro creata da Elon Musk, Sam Altman e altri per sviluppare un’IA open source vantaggiosa per l’umanità. Vi sono numerosi altri sviluppi dell’IA open source.

Armonizzazione dell’intelligenza artificiale
Alcuni esperti e accademici hanno messo in dubbio l’uso di robot per il combattimento militare, specialmente quando tali robot hanno un certo grado di funzioni autonome. La Marina degli Stati Uniti ha finanziato un rapporto che indica che, man mano che i robot militari diventano più complessi, dovrebbe essere prestata maggiore attenzione alle implicazioni della loro capacità di prendere decisioni autonome. Un ricercatore afferma che i robot autonomi potrebbero essere più umani, in quanto potrebbero prendere decisioni in modo più efficace.

Nell’ultimo decennio, c’è stata un’intensa attività di ricerca sul potere autonomo con la capacità di apprendere usando responsabilità morali assegnate. “I risultati possono essere utilizzati quando si progettano robot militari futuri, per controllare le tendenze indesiderate ad assegnare responsabilità ai robot”. Da una visione consequenzialista, c’è la possibilità che i robot sviluppino la capacità di prendere le proprie decisioni logiche su chi uccidere ed è per questo che dovrebbe esserci un quadro morale definito che l’A.I non può ignorare.

C’è stata una recente protesta nei confronti dell’ingegneria delle armi di intelligenza artificiale che ha incluso le idee di un’acquisizione di robot da parte dell’umanità. Le armi IA presentano un tipo di pericolo diverso da quello delle armi controllate dall’uomo. Molti governi hanno iniziato a finanziare programmi per sviluppare armi ad intelligenza artificiale. La Marina degli Stati Uniti ha recentemente annunciato piani per lo sviluppo di armi drone autonome, parallelamente ad annunci simili da parte rispettivamente di Russia e Corea. A causa del potenziale delle armi AI che diventano più pericolose delle armi a comando umano, Stephen Hawking e Max Tegmark hanno firmato una petizione “Future of Life” per vietare le armi AI. Il messaggio pubblicato da Hawking e Tegmark afferma che le armi AI pongono un pericolo immediato e che è necessaria un’azione per evitare catastrofi catastrofiche nel prossimo futuro.

“Se una grande potenza militare spinge avanti lo sviluppo delle armi AI, una corsa agli armamenti globale è praticamente inevitabile, e l’endpoint di questa traiettoria tecnologica è ovvio: le armi autonome diventeranno i Kalashnikov di domani”, afferma la petizione, che include Skype co -chiudono Jaan Tallinn e il professore di linguistica del MIT Noam Chomsky come sostenitori aggiuntivi contro le armi AI.

Il fisico e astronomo Royal Sir Martin Rees ha avvertito di casi catastrofici come “robot stupidi che vanno in canaglia o una rete che sviluppa una propria mente”. Huw Price, un collega di Rees a Cambridge, ha espresso un avvertimento simile secondo il quale gli esseri umani potrebbero non sopravvivere quando l’intelligence “sfugge ai vincoli della biologia”. Questi due professori hanno creato il Centro per lo studio del rischio esistenziale all’Università di Cambridge nella speranza di evitare questa minaccia all’esistenza umana.

Per quanto riguarda il potenziale per sistemi militarmente più intelligenti da impiegare militarmente, l’Open Philanthropy Project scrive che questi scenari “sembrano potenzialmente tanto importanti quanto i rischi legati alla perdita del controllo”, ma che le organizzazioni di ricerca che indagano l’impatto sociale a lungo termine dell’AI hanno ha dedicato relativamente poco tempo a questa preoccupazione: “questa classe di scenari non è stata un obiettivo principale per le organizzazioni che sono state più attive in questo spazio, come il Machine Intelligence Research Institute (MIRI) e il Future of Humanity Institute (FHI) e sembra esserci stata meno analisi e dibattito su di loro “.

Etica della macchina
L’etica della macchina (o moralità della macchina) è il campo di ricerca che riguarda la progettazione di agenti morali artificiali (AMA), robot o computer artificialmente intelligenti che si comportano moralmente o come morali.

Isaac Asimov considerò il problema negli anni ’50 nel suo I, Robot. Su insistenza del suo editore John W. Campbell Jr., propose le Tre Leggi della Robotica per governare sistemi artificialmente intelligenti. Gran parte del suo lavoro è stato poi dedicato a testare i confini delle sue tre leggi per vedere dove sarebbero andati a rotoli o dove avrebbero creato un comportamento paradossale o imprevisto. Il suo lavoro suggerisce che nessuna serie di leggi fisse può anticipare sufficientemente tutte le circostanze possibili.

Nel 2009, durante un esperimento presso il Laboratorio di Sistemi Intelligenti presso l’Ecole Polytechnique Fédérale di Losanna, in Svizzera, i robot che erano programmati per cooperare tra loro (nella ricerca di una risorsa benefica ed evitarlo velenoso) alla fine impararono a mentire a ciascuno altro nel tentativo di accumulare la risorsa benefica. Un problema in questo caso potrebbe essere stato il fatto che gli obiettivi erano “terminali” (cioè, al contrario, le motivazioni umane ultime hanno tipicamente una qualità che richiede un apprendimento senza fine).

Alcuni esperti e accademici hanno messo in dubbio l’uso di robot per il combattimento militare, specialmente quando tali robot hanno un certo grado di funzioni autonome. La Marina degli Stati Uniti ha finanziato un rapporto che indica che, man mano che i robot militari diventano più complessi, dovrebbe essere prestata maggiore attenzione alle implicazioni della loro capacità di prendere decisioni autonome. Il Presidente dell’Associazione per l’Avanzamento dell’Intelligenza Artificiale ha commissionato uno studio per esaminare questo problema. Indicano programmi come il dispositivo di acquisizione del linguaggio che può emulare l’interazione umana.

Vernor Vinge ha suggerito che potrebbe venire un momento in cui alcuni computer sono più intelligenti degli umani. Lo chiama “la Singolarità”. Suggerisce che potrebbe essere alquanto o potenzialmente molto pericoloso per gli umani. Questo è discusso da una filosofia chiamata Singolaritarismo. Il Machine Intelligence Research Institute ha suggerito la necessità di creare una “IA amichevole”, il che significa che i progressi che stanno già accadendo con l’intelligenza artificiale dovrebbero includere anche uno sforzo per rendere l’intelligenza artificiale intrinsecamente amichevole e umana.

Nel 2009, accademici ed esperti tecnici hanno partecipato a una conferenza organizzata dall’Associazione per l’Avanzamento dell’Intelligenza Artificiale per discutere il potenziale impatto di robot e computer e l’impatto dell’ipotetica possibilità che potessero diventare autosufficienti e in grado di prendere le proprie decisioni . Hanno discusso della possibilità e della misura in cui i computer e i robot potrebbero essere in grado di acquisire qualsiasi livello di autonomia, e in che misura potrebbero usare tali capacità per rappresentare eventuali minacce o pericoli. Hanno notato che alcune macchine hanno acquisito varie forme di semi-autonomia, tra cui la possibilità di trovare fonti di energia per conto proprio e di essere in grado di scegliere autonomamente bersagli da attaccare con le armi. Hanno anche notato che alcuni virus informatici possono eludere l’eliminazione e hanno raggiunto “l’intelligenza degli scarafaggi”. Hanno notato che la consapevolezza di sé come raffigurata nella fantascienza è probabilmente improbabile, ma che c’erano altri potenziali pericoli e insidie.

Tuttavia, c’è una tecnologia in particolare che potrebbe davvero portare alla realtà la possibilità di robot con competenza morale. In un documento sull’acquisizione di valori morali da parte dei robot, Nayef Al-Rodhan menziona il caso dei chip neuromorfici, che mirano a elaborare informazioni in modo simile agli umani, non lineari e con milioni di neuroni artificiali interconnessi. I robot integrati con la tecnologia neuromorfica potrebbero apprendere e sviluppare la conoscenza in un modo unicamente umano. Inevitabilmente, ciò solleva la questione dell’ambiente in cui tali robot imparerebbero il mondo e la cui moralità erediterebbero – o se finiscono per sviluppare anche delle “debolezze” umane: egoismo, atteggiamento favorevole alla sopravvivenza, esitazione ecc.

Nelle macchine morali: insegnando ai robot sin da sbagliato, Wendell Wallach e Colin Allen concludono che i tentativi di insegnare i robot dal torto faranno probabilmente progredire la comprensione dell’etica umana motivando gli umani a colmare le lacune nella moderna teoria normativa e fornendo una piattaforma per le indagini sperimentali. Come esempio, ha introdotto gli eticisti normativi al problema controverso di cui specifici algoritmi di apprendimento da utilizzare nelle macchine. Nick Bostrom ed Eliezer Yudkowsky hanno discusso di alberi decisionali (come ID3) su reti neurali e algoritmi genetici sulla base del fatto che gli alberi decisionali obbediscono alle moderne norme sociali di trasparenza e prevedibilità (per esempio stare fissi), mentre Chris Santos-Lang ha sostenuto nell’opposto direzione sulla base del fatto che le norme di ogni età devono essere autorizzate a cambiare e che la naturale incapacità di soddisfare pienamente queste norme particolari è stata essenziale per rendere gli esseri umani meno vulnerabili agli “hacker” criminali.

Conseguenze non volute
Molti ricercatori hanno sostenuto che, attraverso una “esplosione dell’intelligence” nel XXI secolo, un’IA auto-migliorante potrebbe diventare così enormemente più potente degli umani che non saremmo in grado di impedirgli di raggiungere i suoi obiettivi. Nel suo articolo “Questioni etiche nell’intelligenza artificiale avanzata”, il filosofo Nick Bostrom sostiene che l’intelligenza artificiale ha la capacità di provocare l’estinzione umana. Afferma che la superintelligence generale sarebbe capace di iniziativa indipendente e di fare i propri piani, e può quindi essere più opportunamente pensata come un agente autonomo. Poiché gli intellettuali artificiali non hanno bisogno di condividere le nostre tendenze motivazionali umane, spetterebbe ai progettisti della superintelligenza di specificare le sue motivazioni originali. In teoria, un’IA super-intelligente sarebbe in grado di determinare quasi tutti i possibili esiti e per contrastare qualsiasi tentativo di impedire l’attuazione del suo obiettivo principale, potrebbero verificarsi molte conseguenze non intenzionali incontrollate. Potrebbe uccidere tutti gli altri agenti, persuaderli a cambiare il loro comportamento o bloccare i loro tentativi di interferenza.

Tuttavia, invece di sopraffare la razza umana e portare alla nostra distruzione, Bostrom ha anche affermato che la superintelligenza può aiutarci a risolvere molti problemi difficili come malattie, povertà e distruzione ambientale, e potrebbe aiutarci a “migliorare” noi stessi.

L’estrema complessità dei sistemi di valori umani rende molto difficile rendere le motivazioni dell’IA compatibili con l’uomo. A meno che la filosofia morale non ci fornisca una teoria etica impeccabile, la funzione di utilità di una IA può consentire molti scenari potenzialmente dannosi che si conformano a un dato quadro etico ma non “senso comune”. Secondo Eliezer Yudkowsky, ci sono poche ragioni per supporre che una mente progettata artificialmente avrebbe un tale adattamento.

Bill Hibbard propone un design AI che evita diversi tipi di comportamento non intenzionale di IA tra cui auto-illusione, azioni strumentali non intenzionali e corruzione del generatore di ricompense.

organizzazioni
Amazon, Google, Facebook, IBM e Microsoft hanno stabilito una partnership senza scopo di lucro per formulare le migliori pratiche sulle tecnologie di intelligenza artificiale, far avanzare la comprensione del pubblico e fungere da piattaforma per l’intelligenza artificiale. Hanno affermato: “Questa partnership su AI condurrà ricerche, organizzerà discussioni, fornirà leadership di pensiero, consulterà con terze parti rilevanti, risponderà alle domande del pubblico e dei media e creerà materiale educativo che promuova la comprensione delle tecnologie di IA compresa la percezione della macchina, l’apprendimento e ragionamento automatico. ” Apple è entrata a far parte di altre società tecnologiche come membro fondatore del partenariato sull’intelligenza artificiale nel gennaio 2017. I membri aziendali forniranno contributi finanziari e di ricerca al gruppo, mentre si impegneranno con la comunità scientifica per coinvolgere accademici.

Per finta
Il film The Thirteenth Floor suggerisce un futuro in cui mondi simulati con abitanti senzienti sono creati da console di gioco per computer a scopo di intrattenimento. Il film The Matrix suggerisce un futuro in cui le specie dominanti sul pianeta Terra sono macchine senzienti e l’umanità è trattata con il massimo specismo. Il racconto “The Planck Dive” suggerisce un futuro in cui l’umanità si è trasformata in un software che può essere duplicato e ottimizzato e la distinzione rilevante tra i tipi di software è senziente e non-senziente. La stessa idea può essere trovata nell’Omologo Medico di Emergenza di Starship Voyager, che è una copia apparentemente senziente di un sottoinsieme ridotto della coscienza del suo creatore, il Dr. Zimmerman, che, per i migliori motivi, ha creato il sistema per fornire assistenza medica assistenza in caso di emergenza. I film Bicentennial Man and A.I. affrontare la possibilità di robot senzienti che potrebbero amare. Io, Robot, ho esplorato alcuni aspetti delle tre leggi di Asimov. Tutti questi scenari cercano di prevedere possibili conseguenze non etiche della creazione di computer senzienti.

L’etica dell’intelligenza artificiale è uno dei temi centrali della serie di giochi Mass Effect di BioWare. Esplora lo scenario di una civiltà che accidentalmente crea IA attraverso un rapido aumento della potenza di calcolo attraverso una rete neurale a scala globale. Questo evento provocò uno scisma etico tra coloro che sentivano di conferire diritti organici al nuovo Geth senziente e che continuarono a vederli come macchine usa e getta e combatterono per distruggerli. Al di là del conflitto iniziale, la complessità della relazione tra le macchine e i loro creatori è un altro tema ricorrente in tutta la storia.

Nel corso del tempo, i dibattiti tendevano a concentrarsi sempre meno sulla possibilità e più sulla desiderabilità, come sottolineato nei dibattiti “Cosmist” e “Terran” avviati da Hugo de Garis e Kevin Warwick. Un cosmologo, secondo Hugo de Garis, in realtà sta cercando di costruire successori più intelligenti per la specie umana.

Letteratura
La bibliografia standard sull’etica dell’IA è su PhilPapers. Una collezione recente è V.C. Müller (a cura di) (2016).