인공 지능의 윤리

인공 지능의 윤리는 로봇 및 기타 인위적으로 지능있는 존재에 특유한 기술 윤리의 일부입니다. 인공 지능 요원 (AMA)의 도덕적 행동에 관심을 갖는 인공 지능 존재와 기계 윤리를 고안하고, 구성하고, 사용하고, 취급하는 인간의 도덕적 행동에 대한 우려 인 로봇 윤리 (roboethics)로 나누어집니다.

로봇 윤리
“로봇 윤리”(때로는 “로봇 윤리”)는 인간이 로봇 및 기타 인위적으로 지적인 존재를 어떻게 설계, 구성, 사용 및 취급하는지에 대한 도덕성을 의미합니다. 그것은 인위적으로 지적인 존재가 인간을 해치는 데 어떻게 사용될 수 있는지 그리고 인간이 인간에게 유익을 줄 수있는 방법을 모두 고려합니다.

로봇 권리
“로봇 권리”는 인권 또는 동물 권리와 마찬가지로 사람들이 기계에 대한 도덕적 의무를 가져야한다는 개념입니다. 존재할 수있는 권리와 자신의 사명을 수행하는 것과 같은 로봇의 권리는 인간의 권리를 인간의 의무와 사회와 연결시키는 것으로 비유하여 인간을 위해 봉사하는 로봇의 의무와 연결될 수 있다고 제안되었습니다. 여기에는 생명과 자유에 대한 권리, 사상과 표현의 자유, 그리고 법 앞에 평등이 포함될 수 있습니다. 이 문제는 미래 연구소와 영국 무역 산업부가 검토했습니다.

전문가들은 먼 미래에 구체적이고 상세한 법률이 곧 또는 안전하게 요구되는지 여부에 동의하지 않습니다. 글렌 맥기 (Glenn McGee)는 충분한 휴머노이드 로봇이 2020 년까지 등장 할 것이라고보고했다. 레이 커즈와일 (Ray Kurzweil)은 2029 년에 날짜를 정한다. 2007 년에 만난 또 다른 과학자 그룹은 충분히 발전된 시스템이 존재하기 전에 최소한 50 년이 지나야한다고 생각했다.

2003 Loebner Prize competition의 규칙은 로봇이 자신의 권리를 가질 수있는 가능성을 염두에 뒀습니다.

61. 주어진 연도에 서리 대학교 (Surrey University) 또는 캠브리지 센터 (Cambridge Center)가 입력 한 공개적으로 사용 가능한 오픈 소스 출품작이 은메달 또는 금메달을 획득하면 메달 및 현금 보너스가 해당 조직의 책임자에게 수여됩니다. 저 엔트리의 개발. 그러한 단체가 식별 될 수 없거나 둘 이상의 청구자간에 불일치가있는 경우, 메달 및 현금 보너스는 합법적으로 보유 할 수있는 시점까지 미국 또는 경연 대회 개최지, 현금 상 (Cash Award), 금메달 (Gold Medal) 등이 있습니다.

2017 년 10 월, 안드로이드 소피아는 사우디 아라비아에서 시민권을 받았다. 일부 관찰자들은 이것이 의미있는 법적 인식보다는 홍보 스턴트로 더 중요하다고 판명했다.

인간의 존엄성에 대한 위협
Joseph Weizenbaum은 1976 년에 다음과 같이 존중과 보살핌이 필요한 입장의 사람들을 AI 기술로 대체해서는 안된다고 주장했습니다.

고객 서비스 담당자 (AI 기술은 현재 전화 기반 대화식 음성 응답 시스템에 사용됨)
치료사 (1970 년대 케네스 콜비 (Kenneth Colby)가 제안한 치료사)
노인을위한 보육원 (Pamela McCorduck이 그녀의 저서 “The Fifth Generation”에서보고 한 바와 같이)
군인
판사
경찰

Weizenbaum은 우리가 이러한 입장에있는 사람들의 공감의 진정한 느낌을 요구한다고 설명합니다. 기계가 그들을 대체한다면, 우리는 스스로 소외되고 평가 절하되고 좌절하게 될 것입니다. 인공 지능은 이러한 방식으로 사용되는 경우 인간의 존엄성에 대한 위협이됩니다. Weizenbaum은 우리가 이러한 입장에서 기계의 가능성을 즐겁게하고 있다는 사실은 우리가 컴퓨터로서의 생각에서 오는 인간 정신의 위축을 경험했다는 것을 암시합니다.

파멜라 맥코더크 (Pamela McCorduck)는 여성과 소수 민족을 대상으로 “공정한 컴퓨터로 차라리 기회를 잡을 것”이라고 말하면서 개인적인 의제가없는 자동 판사와 경찰을 선호하는 조건이 있음을 지적했다. AI 설립자 인 존 맥카시는 Weizenbaum의 비판의 도덕적 인 음색에 반대합니다. “도덕화가 격렬하고 모호 할 때, 그것은 권위주의적인 학대를 불러 일으킨다.

Bill Hibbard는 “인간의 존엄성은 우리가 존재의 본질에 대한 우리의 무지 함을 제거하기 위해 노력할 것을 요구하며 AI는 그러한 노력을 위해 필요합니다.”

투명성과 오픈 소스
Bill Hibbard는 인공 지능이 인류에 중대한 영향을 미칠 것이기 때문에 인공 지능 개발자는 미래의 인류의 대표자이므로 자신의 노력에 투명해질 윤리적 의무가 있다고 주장합니다. Ben Goertzel과 David Hart는 AI 개발을위한 오픈 소스 프레임 워크로서 OpenCog를 만들었습니다. OpenAI는 Elon Musk, Sam Altman 및 다른 사람들이 인류에게 유익한 오픈 소스 AI를 개발하기 위해 만든 비영리 인공 지능 연구 회사입니다. 수많은 다른 오픈 소스 AI 개발이 있습니다.

인공 지능의 무기화
일부 전문가와 학계에서는 군대 전투에 로봇을 사용하는 것에 의문을 제기했습니다. 특히 이러한 로봇에 어느 정도의 자율 기능이 부여되었을 때 더욱 그렇습니다. 미 해군은 군사 로봇이 더욱 복잡 해짐에 따라 자율적 인 결정을 내릴 수 있음을 시사하는 보고서에 자금을 지원했습니다. 한 연구원은 자율 로봇이 결정을보다 효과적으로 내릴 수 있기 때문에 자비로운 로봇이 될 수 있다고 말합니다.

지난 10 년 동안, 할당 된 도덕적 책임을 사용하여 학습 할 수있는 자율권에 대한 집중적 인 연구가있었습니다. “결과는 미래의 군용 로봇을 설계하고, 로봇에 책임을 지우려는 원치 않는 경향을 제어하기 위해 사용될 수 있습니다.” 결과 론적 관점에서 볼 때, 로봇이 누가 죽일 지에 대한 논리적 결정을 내릴 수있는 능력을 개발할 수있는 기회가 생겨서 A.I가 대체 할 수없는 정해진 도덕적 틀이 있어야합니다.

인류의 로봇 탈취에 대한 아이디어가 포함 된 인공 지능 무기의 엔지니어링에 관한 최근의 비난이있었습니다. AI 무기는 인간이 통제하는 무기와는 다른 종류의 위험을 나타냅니다. 많은 정부가 AI 무기를 개발하기위한 프로그램에 자금을 지원하기 시작했습니다. 미국 해군은 최근 러시아와 한국이 각각 발표 한 것과 유사한 자동 무인기 무기 개발 계획을 발표했다. AI 무기가 인간이 운영하는 무기보다 더 위험해질 가능성이 있기 때문에 Stephen Hawking과 Max Tegmark는 AI 무기를 금지하기 위해 “Future of Life”탄원서에 서명했습니다. 호킹 (Hawking)과 테그 마크 (Tegmark)가 게시 한 메시지에 따르면 인공 지능 무기는 즉각적인 위험을 제기하며 조만간 재앙을 피할 수있는 조치가 필요합니다.

“어떤 주요 군사력이 AI 무기 개발을 추진한다면 세계 무기 경쟁은 사실상 피할 수 없으며,이 기술 궤적의 종말점은 분명합니다. 자율 무기는 내일의 칼라 쉬니 코프가 될 것입니다.”Skype co Jaan 탈린 (Jaan Tallinn) 설립자이자 MIT의 언어학 교수 인 노엄 촘스키 (Noam Chomsky) 교수는 AI 무기에 대한 추가 지지자입니다.

물리학 자이자 천문학자인 마틴리스 (Martin Rees) 왕은 “멍청한 로봇이 나 자신의 생각을 발전시키는 네트워크”와 같은 비극적 인 사건을 경고했다. 캠브리지에있는 Rees의 동료 인 Huw Price는 정보가 “생물학적 제약을 피할 때”인간이 살아남지 못할 수도 있다는 유사한 경고를 표명했다. 이 두 교수는 인간 존재에 대한 위협을 피하기 위해 캠브리지 대학에 존재 위험 연구 센터를 설립했습니다.

인간보다 더 똑똑한 시스템이 군사적으로 고용 될 수있는 가능성에 관해서 열린 자선 사업 (Open Philanthropy Project)은 이러한 시나리오가 잠재적으로 통제 상실과 관련된 위험 요소만큼 중요하다고 생각하지만 AI의 오랜 사회적 영향을 조사하는 연구 조직은 “MIRI (Machine Intelligence Research Institute) 및 FHI (Humanity Institute)의 미래와 같은이 공간에서 가장 활발하게 활동해온 조직에서는 이러한 종류의 시나리오가 주요 초점이 아니 었습니다. 그리고 그들에 관한 분석과 논쟁이 덜한 것으로 보인다. ”

기계 윤리
기계 윤리 (또는 기계 도덕)는 도덕적으로 또는 도덕적으로 행동하는 인공 도덕 에이전트 (AMA), 로봇 또는 인공 지능 컴퓨터를 설계하는 데 관련된 연구 분야입니다.

Isaac Asimov는 1950 년대 I, Robot에서이 문제를 고려했습니다. 그의 편집장 존 W. 캠벨 주니어 (John W. Campbell Jr.)의 주장에 따라, 그는 인공적으로 지능 시스템을 통제하는 로보틱스의 3 가지 법칙을 제안했습니다. 그의 작업 중 많은 부분이 세 법칙의 경계를 테스트하여 어디에서 붕괴되는지, 역설적 인 또는 예상치 못한 행동을 일으키는지를 확인하는 데 사용되었습니다. 그의 연구는 모든 고정 된 법률이 모든 가능한 상황을 충분히 예상 할 수는 없다는 것을 제시합니다.

2009 년 스위스 로잔의 Ecole Polytechnique Fédérale 지능 시스템 실험실에서 서로 협력하도록 프로그램 된 로봇 (유익한 자원을 찾아 유독 한 로봇을 피하는)은 마침내 각자에게 거짓말하는 법을 배웠습니다. 유익한 자원을 축적하려는 시도에서 이 경우 한 가지 문제는 목표가 “종착역”(즉, 궁극적 인 인간 동기는 전형적으로 끝없는 학습을 요구하는 품질을 가짐) 이었다는 것일 수 있습니다.

일부 전문가와 학계에서는 군대 전투에 로봇을 사용하는 것에 의문을 제기했습니다. 특히 이러한 로봇에 어느 정도의 자율 기능이 부여되었을 때 더욱 그렇습니다. 미 해군은 군사 로봇이 더욱 복잡 해짐에 따라 자율적 인 결정을 내릴 수 있음을 시사하는 보고서에 자금을 지원했습니다. 인공 지능 향상 협회 회장은이 문제를 조사하기위한 연구를 의뢰했습니다. 그들은 인간 상호 작용을 에뮬레이션 할 수있는 언어 획득 장치 (Language Acquisition Device) 같은 프로그램을 가리 킵니다.

Vernor Vinge는 일부 컴퓨터가 인간보다 더 똑똑한 순간이 올 것이라고 제안했습니다. 그는 이것을 “특이점”이라고 부릅니다. 그는 인간에게 다소 위험 할 수도 있고 아마도 매우 위험 할 수도 있다고 제안합니다. 이것은 Singularitarianism이라고 불리는 철학에 의해 논의됩니다. AI (Machine Intelligence Research Institute)는 이미 AI와 함께 발생하고있는 진보에는 AI가 본질적으로 우호적이고 인도적이되도록하기위한 노력이 포함되어야 함을 의미하는 “Friendly AI”를 구축해야한다고 제안했습니다.

2009 년 학계와 기술 전문가들은 인공 지능 향상 협회가 주최 한 컨퍼런스에 참석하여 로봇과 컴퓨터의 잠재적 인 영향과 자체적으로 결정을 내릴 수있는 가설 가능성의 영향에 대해 논의했습니다. . 그들은 컴퓨터와 로봇이 어느 수준의 자치권을 획득 할 수 있는지, 그리고 어느 정도까지 그러한 능력을 사용하여 위협이나 위험을 제기 할 수 있는지에 대해 논의했습니다. 그들은 일부 기계가 자체적으로 전원을 찾고 무기로 공격 할 대상을 독립적으로 선택할 수 있다는 등 다양한 형태의 반 자율성을 획득했다고 언급했다. 그들은 또한 일부 컴퓨터 바이러스가 제거를 피할 수 있고 “바퀴벌레 정보”를 획득했다고 지적했다. 그들은 과학 소설에 묘사 된대로 자기 인식이 가능하지 않겠지 만 다른 잠재적 인 위험 요소와 함정이 있음을 지적했습니다.

그러나 도덕적 역량을 갖춘 로봇의 가능성을 실제로 실현시킬 수있는 기술이 특히 있습니다. Nayef Al-Rodhan은 인간과 마찬가지로 정보를 비선형 적으로 그리고 수백만 개의 상호 연결된 인공 뉴런으로 처리하는 것을 목표로하는 신경 미세 칩의 사례를 로봇에 의한 도덕적 가치 획득에 관한 논문에서 언급합니다. neuromorphic 기술로 임베디드 된 로봇은 인간과 같은 방식으로 지식을 배우고 발전시킬 수 있습니다. 필연적으로, 이것은 로봇이 세계에 대해 배우고 도덕적으로 상속받을 환경의 문제를 제기한다. – 인간의 약점을 개발하게된다면 : 이기심, 생존 태도, 망설임 등.

도덕적 인 기계에서 틀린 로봇을 올바르게 가르치는 Wendell Wallach와 Colin Allen은 로봇을 잘못된 방향에서 가르치는 시도는 현대 규범 이론의 틈을 처리하고 실험적 조사를위한 플랫폼을 제공함으로써 인간이 동기 부여함으로써 인간 윤리에 대한 이해를 향상시킬 것이라고 결론 지었다. 한 예로, 그것은 기계에서 사용하는 특정 학습 알고리즘에 대한 논란의 문제에 규범 적 윤리 학자를 도입했습니다. Nick Bostrom과 Eliezer Yudkowsky는 의사 결정 나무가 투명성과 예측 성의 현대 사회 규범에 순종한다는 근거에서 신경망과 유전자 알고리즘에 대한 의사 결정 나무 (ID3 등)를 주장했으며 Chris Santos-Lang은 반대 어떤 나이의 규범도 변화시켜야하며 이러한 특정 규범을 완전히 충족시키지 못한다면 인간을 범죄자 “해커”에 덜 취약하게 만드는 것이 필수적이라는 이유로

의도하지 않은 결과
많은 연구자들은 21 세기 언젠가 “인텔리전스 폭발”을 통해 자기 개선 AI가 인간보다 훨씬 강력 해져 목표 달성을 막을 수는 없다고 주장했습니다. 그의 논문 “고급 인공 지능의 윤리적 문제”에서 철학자 닉 보 스톰 (Nick Bostrom)은 인공 지능은 인간의 멸종을 가져올 수있는 능력이 있다고 주장합니다. 그는 일반 슈퍼 인텔리전스가 독립적 인 계획을 세울 수 있고 자신의 계획을 세울 수 있다고 주장하며 따라서 자율적 인 에이전트라고 생각할 수 있습니다. 인공 지능은 인간의 동기 부여 경향을 공유 할 필요가 없으므로 원래의 동기를 지정하는 것은 슈퍼 인텔리전스 설계자의 몫입니다. 이론 상으로는 수퍼 인텔리전트 AI가 거의 모든 가능한 결과를 이끌어 내고 최고 목표를 달성하지 못하게하려는 시도를 저지 할 수 있습니다. 많은 통제되지 않은 의도하지 않은 결과가 발생할 수 있습니다. 그것은 다른 모든 요원을 죽이거나, 행동을 바꾸도록 설득하거나, 간섭 시도를 차단할 수 있습니다.

그러나 인류를 압도하고 파멸로 이끄는 대신에 보스 트롬은 슈퍼 인텔리전스가 질병, 빈곤 및 환경 파괴와 같은 많은 어려운 문제를 해결하는 데 도움이 될 수 있으며 우리가 자신을 “강화”할 수 있다고 주장했습니다.

인간 가치 시스템의 단순한 복잡성으로 인해 AI의 동기 부여를 인간 친화적으로 만드는 것은 매우 어렵습니다. 도덕 철학이 우리에게 흠 잡을 데없는 윤리적 이론을 제공하지 않는다면, AI의 유틸리티 기능은 주어진 윤리적 틀에 부합하지만 “상식”이 아닌 잠재적으로 해로운 시나리오를 허용 할 수 있습니다. Eliezer Yudkowsky에 따르면 인위적으로 설계된 마음이 그러한 적응을한다고 가정 할 이유는 거의 없습니다.

빌 히 버드 (Bill Hibbard)는 자기 망상, 고의가 아닌 수단 행동, 보상 생성자 손상 등 여러 가지 유형의 의도하지 않은 AI 행동을 피하는 인공 지능 디자인을 제안합니다.

단체
Amazon, Google, Facebook, IBM 및 Microsoft는 인공 지능 기술에 대한 모범 사례를 공식화하고 대중의 이해를 증진하며 인공 지능에 대한 플랫폼 역할을하는 비영리 파트너십을 수립했습니다. 그들은 “AI와의 파트너십은 연구를 수행하고, 토론을 구성하고, 사고 리더십을 제공하고, 관련 제 3 자와상의하고, 대중과 미디어의 질문에 응답하고, 기계 인식, 학습 등 인공 지능 기술에 대한 이해를 증진시키는 교육 자료를 만듭니다. , 그리고 자동화 된 추론. ” 애플은 2017 년 1 월 인공 지능 파트너십의 창립 멤버로서 다른 기술 회사들과 합류했다. 기업 회원들은 학계를 학계에 데려 오기 위해 과학 공동체와 협력하면서 그룹에 재정 및 연구 기여를 할 것이다.

허구
영화 The Thirteenth Floor는 엔터테인먼트를 목적으로 컴퓨터 게임 콘솔에 의해 감각적 인 주민들과 함께 시뮬레이션 된 세계가 만들어지는 미래를 제시합니다. 영화 The Matrix는 행성 지구에서 지배적 인 종들이 지각력있는 기계이고 인류가 최대한의 종학 적 성향을 지닌 미래를 제시합니다. 단편 “플랑크 다이브 (Planck Dive)”는 인류가 복제되고 최적화 될 수있는 소프트웨어로 변해가는 미래를 제시하며, 소프트웨어 유형 간의 관련성있는 구분은 지각 적이며 비 지각 적입니다. 똑같은 생각은 Starship Voyager의 응급 의료 홀로그램에서 발견 할 수 있습니다.이 호랑이는 창조자 인 짐머만 (Zimmerman)의 의식의 감소 된 부분 집합의 외관상으로 감각적 인 복사본입니다. 짐머만 (Zimmerman)은 최선의 동기에 따라 의료를 제공하는 시스템을 만들었습니다 응급 상황시 도움. 영화 ‘이백 개 맨’과 A. 사랑할 수있는 지각 로봇의 가능성을 다루십시오. 나, 로봇은 아시모프의 세 가지 법칙을 탐구했다. 이러한 모든 시나리오는 지각있는 컴퓨터 생성의 비 윤리적 인 결과를 예측하려고합니다.

인공 지능의 윤리는 BioWare의 매스 이펙트 (Mass Effect) 시리즈 게임의 핵심 핵심 주제 중 하나입니다. 글로벌 규모의 신경망을 통해 계산 능력이 급속히 증가하면서 실수로 인공 지능을 만들어내는 문명 시나리오를 탐구합니다. 이 사건은 새로 감각적 인 Geth에게 유기적 권리를 부여하려는 사람들과 그들을 처분 할 수있는 기계로 간주하고 그들을 파괴하기 위해 싸운 사람들 사이에서 윤리적 인 분열을 일으켰다. 최초의 갈등을 넘어서는, 기계와 제작자 간의 관계의 복잡성은 스토리 전체에서 또 다른 지속적인 주제입니다.

시간이 지남에 따라 휴고 데 가리스 (Hugo de Garis)와 케빈 워릭 (Kevin Warwick)이 시작한 “코스 믹 (Cosmist)”과 “테란 (Terran)”논쟁에서 강조된 바와 같이 논쟁은 가능성과 가능성에 점점 더 집중하는 경향이있다. 휴고 드 가리스 (Hugo de Garis)에 따르면 우주 론자 (Cosmist)는 실제로 인간 종에 대한보다 지능적인 후계자를 건설하려고하고있다.

문학
AI의 윤리에 대한 표준 참고 문헌은 PhilPapers에 있습니다. 최근 컬렉션은 V.C입니다. Müller (ed.) (2016).