人工知能の倫理

人工知能の倫理は、ロボットや人工知能の存在に特有の技術倫理の一部です。 典型的には、人間の道徳的行動に対する懸念である人工知的存在を設計し、構築し、使用し、扱い、人工道徳的エージェント(AMA)の道徳的行動に関係する機械倫理に関わるRoboethicsに分けられる。

ロボット倫理
「ロボット倫理」(時には「ロボット倫理」)という用語は、人間がロボットや人工知能の存在をどのように設計し、構築し、使用し、扱うかの道徳性を指します。 それは、人間に害を与えるために人工知能の存在がどのように使用されるのか、それらが人間に利益をもたらすためにどのように使用されるのかを考慮する。

ロボットの権利
「ロボットの権利」は、人々が人権や動物の権利と同様に、自分の機械に対して道義的な義務を負うべき概念です。 存在する権利や自らの使命を果たす権利などのロボットの権利は、人権を社会の前の人間の義務に結びつけるという類推によって、人間に役立つロボット義務に結びつくことが示唆されている。 これらには、人生と自由に対する権利、思考と表現の自由、法律上の平等の権利が含まれます。 問題は未来研究所と英国貿易産業省が検討しています。

専門家は遠くの将来、具体的かつ詳細な法律が間もなく安全に要求されるかどうかについて意見を異にする。 Glenn McGeeは、十分な人間型ロボットが2020年までに登場する可能性があると報告している。Ray Kurzweilは2029年に日付を設定する。2007年に会議を行った別のグループの科学者は、

2003年のロブナー賞(Loebner Prize)競技会のルールは、ロボットが自らの権利を持つ可能性を想定していました。

61.任意の年に、サリー大学またはケンブリッジセンターが入学した公的に入手可能なオープンソースエントリーが銀メダルまたは金メダルを獲得した場合、メダルと現金賞は、そのエントリの開発。 そのような身体が特定できない場合、または2人以上の請求者の間に意見の不一致がある場合、賞金および賞金は合衆国で合法的に所有することができるコンテスト会場、現金授与式、金メダルなどがあります。

2017年10月、アンドロイド・ソフィアはサウジアラビアで市民権を付与されましたが、一部のオブザーバーはこれが有意義な法的認知よりも宣伝活動のほうにあると判断しました。

人間の尊厳に脅威
Joseph Weizenbaumは、1976年にAI技術は、尊敬とケアを必要とする地位の人々、例えばこれらのいずれかを置き換えるために使用すべきではないと主張した。

顧客サービス担当者(AI技術は、今日、電話ベースの対話型音声応答システムに使用されています)
セラピスト(1970年代にケネス・コルビーによって提案されたように)
高齢者のための看護師(彼女の本「The Fifth Generation」のPamela McCorduckによって報告されたように)
兵士
判断
警察官

Weizenbaumは、これらの立場の人々からの共感の本物の感情が必要であると説明しています。 マシンがそれらを置き換えると、私たちは自分自身が疎外され、価値が低く評価され、不満を感じるでしょう。 人工知能は、このように使用される場合、人間の尊厳に対する脅威となる。 Weizenbaumは、これらのポジションで機械の可能性を楽しんでいるという事実は、私たちが「コンピュータとして自分自身を考えることから来る人間精神の萎縮」を経験したことを示唆している。

Pamela McCorduck氏は、女性と少数派の人たちに、私たちが自動化された裁判官と警察に個人的な議題を全く持たないことを望む状況があることを指摘し、「公平なコンピュータで私のチャンスを取っています。 AI創始者のジョン・マッカーシーは、ヴァイゼンバウムの批判の道徳的な発言に反対している。 「道徳化が激しく曖昧なときは、権威主義的な虐待を招く。

Bill Hibbardは、「人間の尊厳は、存在の本質を知らないことを取り除く努力を必要とし、AIはその努力のために必要である」と書いている。

透明性とオープンソース
Bill Hibbardは、人工知能は人類に大きな影響を及ぼすため、人工知能開発者は将来の人類の代表者であり、その努力に透明性を持たせる倫理的義務があると主張する。 Ben GoertzelとDavid Hartは、OpenCogをAI開発のためのオープンソースフレームワークとして作成しました。 OpenAIはElon Musk、Sam Altmanなどが作成した非営利のAIリサーチ会社で、人類にとって有益なオープンソースのAIを開発しています。 他にも数多くのオープンソースのAI開発があります。

人工知能の武器化
一部の専門家や学者は、特にそのようなロボットにある程度の自律的機能が与えられた場合、軍事戦闘のためのロボットの使用に疑問を呈しています。 米海軍は、軍事用ロボットがより複雑になるにつれて、自律的決定を下す能力の含意に大きな注意を払うべきであるという報告書に資金を提供している。 ある研究者は、自律型ロボットはより効果的に意思決定を行うことができるため、より人道的であると述べています。

この10年間で、割り当てられた道徳的責任を使って学ぶ能力を持つ自律的な力の集中的な研究が行われました。 この結果は、今後の軍用ロボットの設計や、ロボットに責任を負わせる傾向を制御するために使用される可能性があります。 必然的な視点から、ロボットが誰を殺害するかについて自分たちの論理的決定を下す能力を開発する機会があり、それがAIが上書きすることのできない設定された道徳的枠組みがなければならない理由です。

近年、人工知能兵器の工学に関して、人類のロボット買収のアイデアが含まれているとの批判がありました。 AI兵器は人間が制御する武器とは異なる種類の危険を呈します。 多くの政府は、AI兵器開発のためのプログラムに資金を投入し始めている。 米国海軍は最近、ロシアと韓国の同様の発表と並行して、自律型無人機兵器を開発する計画を発表した。 人工兵器よりもAI兵器の危険性が高まるため、Stephen HawkingとMax TegmarkはAI兵器を禁止するための “Future of Life”申請書に署名しました。 HawkingとTegmarkによって投稿されたメッセージによれば、AI兵器は即時の危険を伴い、近い将来に壊滅的な災害を避けるために行動が必要です。

「主要軍事力がAI兵器開発を推進する場合、グローバルな軍備競争は事実上避けられず、この技術的な軌道の終点は明らかである:自律的武器は明日のカラシニコフになる」とSkype co Jaan Tallinn氏とMITの言語学教授ノアム・チョムスキー(Alam Chomsky)教授は、AI兵器に対する追加の支持者でもあります。

物理学者で天文学者のマーティン・リース氏は、「ダムロボットが不正になったり、独自の考え方を生み出すネットワーク」のような壊滅的な事例を警告している。 ケンブリッジのReesの同僚であるヒュー・プライス氏は、知性が「生物学の拘束を免れた」とき、人間は生き残れないかもしれないという同様の警告を発した。 これらの2人の教授は、人間の存在に対するこの脅威を避けるために、ケンブリッジ大学における存在危険性研究のためのセンターを創設しました。

Related Post

人々がよりスマートなシステムを軍事的に採用する可能性について、オープン・フィランソロピー・プロジェクトは、これらのシナリオは「制御喪失に関連するリスクほど潜在的に重要と思われる」と述べているが、AIの長期的な社会的影響を調査している研究組織は、 「このクラスのシナリオは、MIRI(Machine Intelligence Research Institute)やFHI(Future of Humanity Institute)など、この分野で最も活発に活動してきた組織の主要な焦点ではありませんでした。 、それに関する分析や議論が少なくなっているようだ」と述べた。

機械倫理
機械倫理(または機械道徳)は、人工道徳エージェント(AMA)、ロボット、人工知能コンピュータの設計に関わる研究分野であり、道徳的にも道徳的にも動作します。

Isaac Asimovは1950年代の彼のI、Robotでこの問題を検討しました。 彼の編集長であるジョン・W・キャンベル・ジュニアの主張で、彼は人工知能システムを支配する3つのロボティクス法則を提案した。 彼の作品の多くは、3つの法律の境界をテストして、どこで崩壊するのか、逆説的で予期しない行動を起こすのかを確認するために費やされました。 彼の研究は、すべての可能な状況を十分に予期できる固定法のセットはないことを示唆している。

2009年、スイスのローザンヌのEcole PolytechniqueFédéraleのインテリジェントシステム研究所の実験では、互いに協力し合って(有益なリソースを探し出し、有毒なものを避けるために)プログラムされたロボットが、有益な資源を積み重ねようとしている他の人。 この場合の1つの問題は、目標が「終わり」であった可能性がある(対照的に、最終的な人間の動機は通常、終わりのない学習を必要とする品質を有する)。

一部の専門家や学者は、特にそのようなロボットにある程度の自律的機能が与えられた場合、軍事戦闘のためのロボットの使用に疑問を呈しています。 米海軍は、軍事用ロボットがより複雑になるにつれて、自律的決定を下す能力の含意に大きな注意を払うべきであるという報告書に資金を提供している。 人工知能推進協会の大統領は、この問題を見るための調査を依頼した。 彼らは人間の相互作用をエミュレートすることができる言語獲得装置のようなプログラムを指している。

Vernor Vinge氏は、一部のコンピュータが人間よりもスマートな時が来ることを示唆しています。 彼はこれを「特異点」と呼ぶ。 彼は、それが人間にとっては多分、あるいはおそらくは非常に危険であるかもしれないことを示唆している。 これは、「単一主義」と呼ばれる哲学によって議論されている。 AI(Machine Intelligence Research Institute)は、「Friendly AI」を構築する必要があることを示唆しています。これは、AIで既に行われている進歩にも、AIを本質的に友好的かつ人道的にする努力を含める必要があるということです。

2009年には、学術と技術の専門家が、人工知能の発展のための協議会で開催された会議に出席し、ロボットとコンピュータの潜在的な影響と、自立して自分の意思決定を行うことができるという仮説の可能性。 彼らは、コンピュータやロボットが任意のレベルの自律性を獲得できる可能性とその程度について、またどの程度までそのような能力を使用して脅威や危険をもたらす可能性があるかについて議論した。 彼らは、一部の機械は、自力で電源を見つけることができ、武器で攻撃する標的を独立して選ぶことができるなど、様々な形態の半自律性を獲得していると指摘した。 彼らはまた、コンピュータウイルスの中には駆除を回避し、「ゴキブリ情報」を達成したものもあると指摘した。 彼らは、科学虚構で描写されているような自己意識はおそらくないだろうが、他の潜在的な危険と落とし穴があると指摘した。

しかし、実際に道徳的能力を持つロボットの可能性を真にもたらす可能性のある技術が特にあります。 ロボットによる道徳的価値の獲得に関する論文では、Nayef Al-Rodhanは人間と同様に情報を非線形に、数百万の相互接続された人工ニューロンで処理することを目的としたニューロモルフィックチップのケースについて述べている。 ニューロモルフィック技術を組み込んだロボットは、独自の人間的な方法で知識を学習し、開発することができます。 必然的に、これは、そのようなロボットが世界を知り、道徳を継承する環境の問題を引き起こすか、人間の弱点を発展させてしまうのであれば、利己主義、生き残りの態度、躊躇などです。

Wendell WallachとColin Allenは、誤ってロボットを教えようとすると、現代の規範理論のギャップに対処するために人間に動機を与え、実験的調査のためのプラットフォームを提供することによって、人間倫理の理解を促進するだろうと結論づけている。 一例として、機械で使用する特定の学習アルゴリズムの論争の問題に規範的倫理学者を導入しました。 Nick BostromとEliezer Yudkowskyは、決定木が透明性と予測可能性の現代社会的規範(例えば、凝視)に従うという根拠に基づいて、ニューラルネットワークと遺伝的アルゴリズムに対して決定木(ID3など)を主張しているが、Chris Santos-あらゆる年齢の規範が変わることが許されなければならず、これらの特定の規範を完全に満たさないという自然な失敗は、人間を犯罪者の「ハッカー」に対して傷つきにくくするために不可欠であった。

意図しない結果
多くの研究者は、21世紀中に「インテリジェンスの爆発」が起きると、自己改善のAIが人間よりもはるかに強力になり、目標を達成できなくなると主張しています。 彼の論文「先端的人工知能における倫理的問題」では、哲学者ニック・ボストロムは、人工知能が人間の絶滅をもたらす能力を持っていると主張する。 彼は、一般的なスーパーインテリジェンスが独立したイニシアチブとそれ自身の計画を立てることができると主張し、したがって、より適切に自律的エージェントと考えることができる。 人工知能は人間の動機づけの傾向を共有する必要はないので、元の動機を特定することは超知能の設計者次第である。 理論的には、超インテリジェントなAIは、ほとんどあらゆる可能な結果を​​もたらし、その最高の目標の実施を妨げるあらゆる試みを阻止することができ、多くの制御されない意図しない結果が生じる可能性がある。 他のすべてのエージェントを殺し、行動を変えるよう説得したり、干渉の試みを阻止したりする可能性があります。

しかし、人類を圧倒し、破壊につなげる代わりに、スーパーインテリジェンスが病気、貧困、環境破壊などの多くの困難な問題を解決するのに役立つと主張し、自分自身を「強化」するのに役立つ可能性があると主張しました。

人間の価値観システムの複雑さが非常に複雑であるため、AIの動機づけを人にやさしくすることは非常に困難です。 道徳哲学が私たちに完璧な倫理理論を与えない限り、AIのユーティリティ機能は、所与の倫理的枠組みに適合するが、「常識」ではない多くの潜在的に有害なシナリオを可能にする可能性がある。 Eliezer Yudkowskyによれば、人工的に設計された心がそのような適応を有すると仮定する理由はほとんどない。

Bill Hibbardは、自己妄想、意図しない道具の行為、報酬生成者の堕落を含むいくつかのタイプの意図しないAIの行動を避けるAIデザインを提案しています。

組織
Amazon、Google、Facebook、IBM、Microsoftは、人工知能技術に関するベストプラクティスを策定し、一般の理解を促進し、人工知能に関するプラットフォームとして機能するために、非営利のパートナーシップを確立しました。 彼らは次のように述べています。「AIとのこのパートナーシップは、研究を行い、議論を組織し、思考リーダーシップを提供し、関連する第三者に相談し、公衆とメディアからの質問に回答し、機械知覚、 、および自動化された推論。 Appleは、2017年1月にAIのパートナーシップの創設メンバーとして他のハイテク企業に加わりました。企業のメンバーは、科学コミュニティに参加して学者をボードに参加させながら、グループに財政と研究の貢献を行います。

フィクションで
映画「The Thirteenth Floor」は、娯楽目的のためにコンピュータゲームコンソールによって賢明な住人を持つシミュレートされた世界が作り出される未来を示唆している。 映画The Matrixは、地球上の支配的な種が感覚的な機械であり、人類が最大のSpeciesismで扱われる未来を示唆しています。 ショート・ストーリー「プランク・ダイブ」は、人類がそれ自身を複製して最適化できるソフトウェアに変わった将来を示唆しており、ソフトウェアのタイプ間の関連する区別は知覚的で非知覚的である。 同じアイデアは、スターシップ・ボイジャーの緊急医療ホログラムにもあります。これは、創造者であるZimmermanの意識の低下した部分集合の明らかな感情的なコピーであり、最高の動機のために、医療緊急時の支援。 映画「200年の人間とAI」は、愛することのできる知的ロボットの可能性を扱っています。 私は、ロボットは、アシモフの3つの法律のいくつかの側面を探った。 これらのすべてのシナリオは、知覚的なコンピュータの作成による倫理に反する結果を予見しようとします。

人工知能の倫理は、BioWareのMass Effectシリーズのいくつかのコアテーマの1つです。 グローバル規模のニューラルネットワークによる計算力の急速な増加によって誤ってAIを作成する文明のシナリオを探求します。 この出来事は、新鮮な感情を感じるゲスに有機的権利を与えることを感じた人と、使い捨ての機械と見なし続け、それらを破壊しようとした人々の間で倫理的な分裂を引き起こした。 当初の紛争を超えて、マシンとそのクリエイターの関係の複雑さは、ストーリー全体を通して進行中の別のテーマです。

Hugo de GarisとKevin Warwickによって始められた “Cosmist”と “Terran”の議論で強調されているように、時間の経過と共に、議論は、可能性とより望ましさに、ますます焦点を当てる傾向がありました。 ヒューゴ・デ・ガリス(Hugo de Garis)によると、コスミストは実際に人間の種に対してよりインテリジェントな後継者を築こうとしている。

文献
AIの倫理に関する標準的な参考文献は、PhilPapersにあります。 最近のコレクションはVCMüller(ed。)(2016)です。

Share