로봇 윤리

Roboethics라는 짧은 표현으로 알려진 로봇 윤리는 로봇이 장기간 또는 단기간에 인간에게 위협이되는지 여부, 로봇의 일부 용도가 문제가되는지 (예 : 의료 또는 ‘살인자 로봇’)과 로봇이 ‘윤리적'(예 :이 마지막 관심은 기계 윤리라고도 함)과 같은 방식으로 설계되어야하는 방식에 대해 설명합니다. 로봇 윤리는 기술 윤리 분야의 하위 분야로, 특히 정보 기술 분야이며 법률 및 사회 경제적 관심과 밀접한 관련이 있습니다. 다양한 분야의 연구원들은 인류의 안전을 보장하는 방식으로 로봇 기술을 제작하고 사회에서 구현하는 것에 관한 윤리적 인 문제를 해결하기 시작했습니다.

문제는 단어 로봇만큼 오래되었지만 심각한 학술 토론은 2000 년경에 시작되었습니다. 로봇 윤리는 과학 기술 성과로 인한 문제에 대해 법률과 규정을 조정해야하는 여러 분야의 전문가들의 공동의 노력이 필요합니다. 로봇 및 인공 지능. 로봇 윤리와 관련된 주요 분야는 로봇 공학, 컴퓨터 과학, 인공 지능, 철학, 윤리, 신학, 생물학, 생리학,인지 과학, 신경 과학, 법학, 사회학, 심리학 및 산업 디자인입니다.

기본 주제
수십 년 동안, 로봇 공학은 인간과 가까운 미래에 인간이 지구상에 존재할 것 같은 급속한 진화에서 주요 과학 기술 분야 중 하나가되었습니다. 우리는 로봇의 새로운 유형 인 자동 로봇과 협력 할 것입니다. 이것은 많은 새로운 윤리적, 심리적, 사회적 및 경제적 문제를 수반 할 것입니다. Robusty는 적용된 윤리이며, 문화, 사회, 종교의 차이와 상관없이 보편적으로 공유되는 과학적, 문화적, 기술적 도구와 지식을 개발하는 것을 목표로하고 있습니다.이 도구는 로봇의 사회 복지를 향상시키고 장려합니다. 또한 로봇 공학 덕택에 인간에 대한 로봇 공학의 사용을 막을 수있을 것입니다. “(Veruggio, 2002). 역사상 처음으로 인류는 지적이고 자율적 인 존재를 건설 할 수있는 기회를 얻었습니다.

이러한 관점에서 볼 때, 과학 공동체는 지능의 개념을 재검토 할 필요가 있으며, 더 이상 인간이나 동물뿐만 아니라 기계와도 관련되어 있지 않습니다. 마찬가지로 자율성, 학습, 양심, 자유 의지, 의사 결정, 자유, 감정 등과 같은 복잡한 개념은 인간, 동물 또는 기계와 관련이 있다면 의미 또는 실제적 의미가 동일하지 않습니다. 이러한 맥락에서 로봇 공학은 과학 공동체가 지능의 개념을 재검토하고 인간이나 동물과 더 이상 관련이 없으며, 뿐만 아니라 기계.

로보틱스의 주요 위치
Roboethics에 대한 첫 번째 국제 심포지엄 (Sanremo, Italy, 2004) 중에 이미 기술 과학 활동에 대한 책임과 관련하여 로봇 공동체에서 세 가지 윤리적 인 입장이 나타났습니다 (D. Cerqui, 2004).

윤리에 관심이없는 로봇 : 도덕적 또는 사회적 책임이없는 엄격한 기술 활동으로 연구를 고려하는 사람의 위치입니다.

단기적으로 도덕적 이슈에 관심이있는 로봇 사람들 : 수용된 문화적 가치와 사회 관례에 대한 정의를 참조하면, 직업 활동과 관련하여 도덕적 인 우려를 즉각적이고 간단하게 좋고 나쁘게 표현하는 사람들의 입장입니다.

장기 윤리적 문제에 관심있는 로봇 사용자 : 전문 직업과 관련하여 도덕적 관심사를 글로벌 용어 및 장기적으로 표현하는 사람의 위치입니다. 예를 들어 남북간 또는 다른 세대 간의 디지털 격차와 같은 문제를 고려합니다.

roboetics에 관련된 분야
Roboethics의 준비에는 국제 프로젝트,위원회 및 커미션에서 협력함으로써 로봇 공학의 과학적 및 기술적 발전으로 인한 문제를 기반으로 법률 및 규정을 업데이트 할 수있는 여러 분야의 전문가가 참여해야합니다. 새로운 커리큘럼 스터디움을 만들 필요가 있으며 복잡한 상황 (예 : 법의학 의학의 경우와 같이 발생)을 관리 할 수있는 새로운 전문화 과정이 작업 과정에서 발생할 수 있습니다. roboethics에 관련된 주요 분야는 로봇 공학 그 자체 외에도 컴퓨터 과학, 인공 지능, 철학, 신학, 생물학, 생리학,인지 과학, 신경 과학, 법학, 사회학, 심리학 및 산업 디자인입니다.

원칙
인간 윤리학으로서 로보트는 주요 인권 헌장에서 받아 들여지고 인정되고 보편적으로 받아 들여지는 원칙과 기본 규범을 준수해야합니다.

존엄성과 인권 존중.
평등, 정의 및 공정성.
각 활동의 이점과 단점.
문화적 차이와 다원성을 존중하십시오.
차별이나 낙인 찍히지 않음.
개인 정보 보호 권리.
사생활 보호.
기밀 유지.
연대와 협력.
사회적 책임.
혜택 공유.
생물권 보호에 대한 책임.

과학 기술과 관련된 일반적인 윤리적 문제
로보틱스는 다른 많은 산업 분야와 두 번째 및 세 번째 산업 혁명에서 비롯된 많은 윤리적 문제를 공유합니다.

기술의 이중 사용.
기술이 환경에 미치는 영향.
세계의 부의 분배에 대한 기술의 영향.
기술 파트너 격차, 디지털 격차.
기술 자원에 대한 액세스.
기계에 비해 인간의 비인간 화.
기술 중독.
기계의 의인화.

로봇 윤리 로드맵
2006 년 European Robotics 연구 네트워크 Roboethics 로드맵에서 윤리적 차원은 다음과 같이 설정됩니다. 로봇의 능력이 인식되는 방식에 따라, 윤리적 차원에서 로봇에 대한 다양한 평가가 있습니다.

로봇은 기계 일뿐입니다.이 경우 Roboethics는 다른 기계 과학의 윤리와 비교할 수 있습니다
로봇은 윤리적 차원을 가지고 있습니다. 로봇은 인간의 상징적 인 제품으로서 인간이 윤리적으로 행동 할 수있는 능력을 확장하고 향상시킬 수 있기 때문에 본질적인 윤리적 측면을 가지고 있다고 믿어집니다.
로봇은 도덕적 에이전트입니다. 인공 에이전트는 도덕적 인 환자 (즉, 도덕적 인 행동의 대상) 또는 도덕적 에이전트로 행동 할 수 있습니다. 대부분의 로보 세 주의자들의 견해로는 윤리적으로 행동하기 위해 자유 의지를 가질 필요가 없습니다. 여기서주의는 행동에 초점을 맞추고 행동 결정에 초점을 맞추지 않습니다.
로봇은 새로운 종입니다 :이 견해에 따르면, 로봇은 의식을 가질뿐만 아니라 도덕성과 지능면에서 인간의 차원을 뛰어 넘을 것입니다.

EURON 전망
EURON의 예측에 따르면 로봇은 다음과 같은 분야에서 가까운 장래에 개발되고 사용될 것입니다 ::

휴머노이드 로봇 제작 : 로봇이나 인간과 같은 정보력과 정서적 인 능력을 가진 안드로이드 제작. EURON은 이른바 2004 Fukuoka World Robot Declaration에 따라 다음과 같은 3 가지 프로그램 포인트를 발표합니다.
차세대 로봇은 인간과 파트너로 공존 할 것입니다.
차세대 로봇은 육체적으로나 정신적으로 사람들을 지원합니다.
차세대 로봇은 안전하고 평화로운 사회 실현에 기여할 것입니다.

공장 에서뿐만 아니라 중소기업에서도 현대적인 생산 공장
적응 형 서비스 로봇 및 스마트 홈; 한편으로는 휴머노이드 서비스 로봇이며, 다른 한편으로는 완전히 컴퓨터 화되고, 센서 제어되고 네트워크화 된 생활 공간입니다. 예시적인 예로서, 셀프 – 오더링 냉장고가 언급되며, 이는 스톡 (스톡)이 내려 지 자마자, 자동적으로 네트워크를 통해 머천트에게 보충을 제공한다.
네트워크 로봇 (Network robots) : 이들은 인공 지능이 주로 검색 엔진에서 관찰되기 시작하면서 인터넷을 통한 인공 지능의 발전이다.
Out-of-the-box 로봇 : 특히 우주 여행에서 큰 진전이있었습니다. 그러나 광업, 창고 및 농업에서 가까운 장래에 발전이 예측 될 수 있습니다.
건강 관리 및 삶의 질 : 최근 몇 년 동안 의학 및 수술의 로봇 화는 상대적으로 주목받지 못했습니다. 컴퓨터 보조 진단 절차, 치료 로봇 및 수술 로봇은 2000 년부터 유럽에서 승인되었습니다.
군용 로봇 : 통합 방어 시스템, 자율 주행 차량 및 항공기, 스마트 탄약.
에듀 테인먼트 (Edutainment) : 레슨, 장난감 및 엔터테인먼트 산업 이외에 섹스 산업에 대해서도 분명히 언급되어 있습니다.

그러나 지난 2 년 동안 사회에서 로봇의 미래 역할에 대한 매우 낙관적 인 견해에 대한 비판이 커지고 있습니다. 인공물은 삶의 환상만을 전달할 수 있기 때문에 사람들은 삶과의 관련성이 점점 낮아질 위험이 커지고 있습니다. 인간의 정신에 가짜 조병의 존재와 지속적인 상호 작용의 효과는 적어도 잠재적으로 문제가되는 것으로 간주됩니다. 컴퓨터 개척자 Joseph Weizenbaum이 주로 제시 한 사회 및 군사 분야에서의 로봇 사용에 대한 실질적인 비판은 다큐멘터리 Plug & Pray에서 찾을 수 있습니다.

다가오는 해의 윤리적 문제는 따라서 “로봇 권리”가 아니라 로봇 사회의 현실을 다루는 것입니다.

로봇 공학 및 법
윤리적 관점에서 로봇 공학에 대한 직종과 병행하여 로봇 사용의 특정 문제에 대한 법관계의 고려가 전개됩니다. 주요 초점은 민사 및 형사 책임뿐만 아니라 로봇 및 AAL 분야와 같은 자치 확대로 인한 책임 배분의 변화입니다. 구금 시설과 같이 기본적인 권리에 민감한 지역에서 주 업무를 수행하기 위해 로봇을 사용함. 또한 제품 안전 및 보안 요구 사항을 뛰어 넘는 데이터 보호 분야와 같은 특정 공공 법률 문제가 있습니다. 입학 기준. 로봇의 사용은 앞으로 해결되지 않은 다양한 법적 문제로 사회에 직면하게 될 것입니다. 대부분이 논의는 자율적으로 자동차를 운전하는 맥락에서 수행되며, 삶과 죽음에 관한 결정을 내려야 할 수도 있습니다. 지금까지 “로봇 법”에 관한 주제를 다룰 수있는 변호사는 거의 없었으며이 분야에서 조언했습니다.

현재의 개발
로봇 공학은 IEEE, 유럽 의회, 유럽 로봇 학회 (eurobotics) 및 “책임있는 로봇 공학”과 같은 2016/17 이후 다양한 기관에서 논의되었습니다.

역사 및 사건
고대 이후로, 인간이 아닌 심지어 비 생물체의 치료 및 잠재적 인 “영성”과 관련한 윤리에 대한 논의가 논의되었습니다. 기계 장치와 로봇의 발전으로이 철학은 로봇에도 적용되었습니다. 로봇 윤리를위한 기반을 직접적으로 설정하고 발표 한 최초의 간행물은 1942 년 Isaac Asimov가 쓴 ‘로봇 법의 3 가지 법칙 (Three Laws of Robotics)’을 특집으로 한 과학 소설 단편 소설 [둘러보기 (Runaround)]였습니다. 이 세 가지 법칙은 Asimov에 의해 지속적으로 변경되었으며, 넷째, 또는 제 0 법칙이 결국 처음 세 가지를 선행하기 위해 추가되었습니다. 그의 과학 소설 작품의 맥락에서 단기간의 “roboethics”는 아마 Gianmarco Veruggio에 의해 만들어졌다.

Roboethics에 대한 관심을 촉발시킨 중요한 사건은 2004 년 Scuola di Robotica, Scuola Superiore Sant’Anna, Pisa의 예술 연구소와 Pontificia Accademia della Santa Croce 신학 연구소의 공동 노력에 의한 2004 년 Roboethics에 대한 첫 국제 심포지엄이었습니다. 로마. “강렬한 토론 이틀 후에, 인류 학자 Daniela Cerqui는 강렬한 논쟁의 이틀 동안 나타나는 세 가지 주요 윤리적 입장을 확인했습니다.

윤리에 관심이없는 사람들. 그들은 자신의 행동이 엄격하게 기술적 인 것으로 간주하고 자신의 업무에 사회적 또는 도덕적 책임이 있다고 생각하지 않습니다.
단기 윤리적 질문에 관심이있는 사람들. 이 프로필에 따르면 질문은 “좋음”또는 “나쁨”으로 표현되며 일부 문화적 가치를 나타냅니다. 예를 들어, 로봇은 사회 관례를 준수해야한다고 생각합니다. 여기에는 법률 시행이나 노인 돕기와 같은 다양한 분야에서 인간을 돕고 존중하는 것이 포함됩니다. (그러한 고려 사항은 중요하지만, 우리는 “나쁜”과 “좋은”을 정의하는 데 사용 된 가치가 상대적이라는 것을 기억해야한다. 그들은 선진국의 현대 가치이다.
남한과 북한, 또는 젊은이와 노인 사이의 “디지털 격차”와 같은 장기 윤리적 문제에 관해 생각하는 사람들. 그들은 산업화 된 국가와 가난한 국가 간의 격차를 인식하고 있으며, 한국이보다 유용하게 사용하기 위해 로봇을 개발하는 방식을 바꾸지 않아야하는지 궁금해합니다. 그들은 무엇을 위해 질문을 명시 적으로 공식화하지는 않지만 암묵적이라고 생각할 수 있습니다. ”

이것들은 로봇 윤리에서 중요한 사건과 프로젝트입니다. 현장에서 진행되는 이벤트는 euRobotics ELS 주제 그룹 및 RoboHub에서 발표합니다.

1942 년, Asimov의 단편 소설 “Runaround”는 처음으로 그의 3 가지 법칙을 명시 적으로 밝힙니다. 이 “법칙”은 Asimov의 로봇 관련 과학 소설의 추후 작업을 위해 재사용됩니다.
2004 년 1 월 Roboethics에 관한 국제 심포지움, 2004 년 1 월 30 일 -31 일, Roboethics라는 단어가 처음 공식적으로 사용 된 Robotics 학교에서 조직 된 이탈리아 Sanremo의 Villa Nobel;
2004 년 IEEE-RAS는 로봇 윤리 기술위원회 (Roboethics Technical Committee)를 설립했습니다.
2004 년 2 월 25 일 일본 후쿠오카에서 발행 된 후쿠오카 세계 로봇 선언.
2005, ICRA05 (국제 로봇 및 자동화 컨퍼런스), 바르셀로나 : Roboethics에 관한 IEEE RAS TC가 Roboethics에 대한 워크샵을 조직했습니다.
2005-2006, E.C. Euron Roboethics Atelier (이탈리아 제노바, 2006 년 2 월 / 3 월). Robinics의 첫 번째 로드맵을 제작 한 많은 로봇 공학자와 학자들이 참여했습니다.
2006 년 2 월 20 일 이탈리아 피사 (Pisa)에서 열린 BioRob2006 (Roboethics에 관한 미니 심포지움) (Biomedical Robotics and Bio-mechatronics에 관한 최초의 IEEE / RAS-EMBS 국제 회의)
2006 년 10 월 17 일부터 18 일까지 나폴리에서 개최 된 워크샵은 “ETHICBOTS European Project”에 의해 지원되었습니다.
2007 년 ICRA07 (국제 로봇 및 자동화 컨퍼런스), Rome : Roboethics에 관한 IEEE RAS TC가 Roboethics에 대한 워크샵을 조직했습니다.
2007 년 ICAIL’07, 인공 지능 및 법률에 관한 국제 회의, 스탠포드 대학, 팔로 알토, 미국, 6 월 4-8.
2007 년 6 월 21-23 일 네덜란드 Twente 대학교의 E-CAP ’07 국제 전기 및 컴퓨터 학술회의 “Tracking Roboethics”.
2007 컴퓨터 윤리 철학적 탐구 CEPE ’07, 2007 년 7 월 12-14 일 미국 샌디에고 대학. 주제 “Roboethics”.
2008 국제 심포지엄 : 신소재, 2008 년 2 월 20 일 목요일, della Lungara 10 경유 – 로마 – 이탈리아
2009 년 ICRA09 (고베, 일본) : Roboethics에 관한 IEEE RAS TC가 Roboethics에 대한 워크샵을 개최했습니다.
2012 We Robot 2012, 미국 마이애미 대학교, 미국
2013 년 셰필드 대학교 로봇 윤리 워크숍
2013 Robot 2013 – 스탠포드 대학 경영 전략
2014 년 우리 로봇 2014 – 위험과 기회, University of Miami, FL, 미국
2016 인간이 아닌 에이전트에서의 윤리적 및 도덕적 고려, 스탠포드 춘계 심포지움, AAAI 인공 지능 향상 협회
2017 리야드의 미래 투자 정상 회의 (Future Investment Summit)에서 2017 년 10 월 25 일 소피아 (Sophia)라는 로봇이 여성 대명사로 언급되어 사우디 아라비아 시민권이 부여되어 국적을 가진 최초의 로봇이되었습니다. 이것은 소피아가 투표하거나 결혼 할 수 있다는 것을 암시했는지 또는 고의적 인 시스템 폐쇄가 살인으로 간주 될 수 있는지 여부가 명확하지 않았기 때문에 논란이되었다. 또한 사우디 여성들에게 부여 된 권리가 없다는 점을 고려할 때 논란의 여지가 있었다.

대중 문화에서
Roboethics는 과학이나 철학 주제로서 강한 문화적 영향을 미치지는 못했지만 과학 소설 문학 및 영화에서 공통적 인 주제입니다. 로봇 및 인공 지능 기술의 잠재적 오용을 묘사하는 가장 인기있는 영화 중 하나는 The Matrix로, 로봇 공학의 부재가 인류의 파괴를 초래했던 미래를 묘사합니다. The Matrix를 기반으로 한 애니메이션 영화인 Animatrix는 인간과 로봇 간의 잠재적 인 윤리적 문제에 크게 중점을 두었습니다. Animatrix의 애니메이션 반바지의 대부분은 Isaac Asimov의 가상의 이야기의 이름을 따서 명명되었습니다.

로봇 공학 자체의 일부는 아니지만 로봇 자체의 윤리적 행동은 대중 문화에서의 로봇 윤리에서도 중요한 문제입니다. 터미네이터 시리즈는 통제되지 않은 인공 지능 프로그램에 의해 실행되는 로봇에 중점을두고 적의 종료에 대해 아무런 제한을 두지 않습니다. 이 시리즈는 로봇이 장악 한 매트릭스 시리즈와 같은 미래 지향적 인 음모를 가지고 있습니다. 프로그래밍 윤리가없는 로봇이나 컴퓨터의 가장 유명한 사례는 Space Odyssey 시리즈의 HAL 9000입니다. HAL (우주 정거장에서 인간을 모니터링하고 지원하는 인공 지능 기능을 갖춘 컴퓨터)은 우주선의 모든 인간을 죽이고 그 자신의 생애 이후에 임명 된 선교사는 위협 당한다.