人工知能の哲学

人工知能はいくつかの概念を共有しており、知性、行動、意識、認識論、さらには自由意志を含んでいるため、哲学と密接に関連している。 さらに、この技術は人工動物や人工的な人(または少なくとも人工の生き物)の創造に関係しているので、訓練は哲学者にとってかなり興味深いものです。 これらの要因は人工知能の哲学の出現に寄与した。 いくつかの学者は、AI共同体の哲学の解体は有害であると主張している。

人工知能の哲学は、以下のような質問に答えようとしている。

機械が知的に行動できるか? 考えることで人が解決できる問題を解決することはできますか?
人間の知能と機械知能は同じですか? 人間の脳は基本的にコンピューターですか?
人間ができるのと同じように、機械は心、精神状態、意識を持つことができますか? 物事はどのように感じることができますか?

これら3つの質問は、AI研究者、言語学者、認知科学者、哲学者のそれぞれの分岐的な利益を反映しています。 これらの質問に対する科学的な答えは、「知性」と「意識」の定義と、正確にはどの機械が議論されているかによって決まります。

AIの哲学における重要な命題には、

チューリングの “丁寧なコンベンション”:マシンが人間として知的に振る舞うならば、それは人間のように知的です。
ダートマスの提案:「学習のあらゆる面や他のインテリジェンスの要素を正確に記述することで、マシンをシミュレートすることができる」
ニューエルとサイモンの身体的象徴体系仮説:「身体的象徴体系は、一般的な知的行動の必要十分な手段を持っている」
Searleの強力なAI仮説:「適切な入力と出力を持つ適切にプログラムされたコンピュータは、それによって、人間が心を持っているのとまったく同じ意味で心を持っています。
ホッブズの仕組み:「「理由」のために…「マーキング」と「思考」を表すために合意された一般名の結果の加減算である「計算」だけである…

マシンは一般的なインテリジェンスを表示できますか?
人間が知能を使って解決するすべての問題を解決できるマシンを作ることは可能でしょうか? この質問は、将来どのような機械ができるのかを定義し、AI研究の方向性を導くものです。 心理学者、認知科学者、哲学者に関心のある問題は無視し、機械の動作にのみ関係します。 この質問に答えるために、マシンが実際に(人間が思っているように)思考しているのか、それとも思考しているように動いているのかは関係ありません。

ほとんどのAI研究者の基本的な位置は、1956年のダートマス・ワークショップの提案に現れたこの声明で要約されている。

学習のあらゆる面やインテリジェンスの他の機能を正確に記述することで、マシンをシミュレートすることができます。
基本的な前提に反する議論は、コンピュータの能力にいくらかの実用的な限界があるか、思考のために必要であるが人間の心の特別な品質があるが、 (または現在のAI研究の方法によって)。 基本的な前提を支持する議論は、そのようなシステムが可能であることを示さなければならない。

質問に答えるための第一歩は、「知性」を明確に定義することです。

インテリジェンス

チューリングテスト
Alan Turingは、知性を定義するという問題を、会話についての簡単な質問にまで減らしました。 彼は次のように示唆している。マシンがそれに付された質問に答えることができれば、普通の人間と同じ言葉を使って、そのマシンを知的なものと呼ぶかもしれない。 彼の実験デザインの現代版はオンラインチャットルームを使用し、参加者の1人は本物の人であり、参加者の1人はコンピュータプログラムである。 2人の参加者のどれが人間であるか誰にも分からない場合は、テストに合格します。 チューリングは、誰も(哲学者を除いて)誰もが “人々は考えることができるか?” 彼は「この点について絶え間なく議論するのではなく、誰もが考える丁寧なコンベンションを持つのが普通です」と書いています。 Turingのテストは、この丁寧なコンベンションをマシンに拡張します。

機械が人間として知的に働くならば、それは人間のように知的です。
チューリング試験の批判の1つは、それが明白に擬人化されているということです。 ラッセルとノービッヒは、「航空工学のテキストは彼らの目標を定義するものではありません」と書いています。 「まるでハトのように飛ぶ機械を作って、他のハトを欺くことができる」

インテリジェントなエージェント定義

最近のAI研究は知能エージェントの観点から知性を定義している。 「エージェント」は、環境内で認識して行動するものです。 「パフォーマンス尺度」は、エージェントにとって何が成功とみなされるかを定義します。

エージェントが過去の経験と知識に基づいてパフォーマンス指標の期待値を最大にするように行動する場合、エージェントはインテリジェントです。
このような定義は、知性の本質を捕らえようとします。 彼らは、チューリングテストとは違って、侮辱される能力や疑わしい話題を抱く誘惑のような、知的な考えをしたくない人間の特性についてもテストしないという利点があります。 彼らには、「思考するもの」と「しないもの」との間の常識を区別するときに失敗するという欠点があります。 この定義によって、サーモスタットでさえ初歩的な知性があります。

マシンが一般的な情報を表示することができる引数

脳をシミュレートすることができます
ヒューバート・ドレイファスは、この主張を、「神経系が物理学と化学の法則に従うならば、それがそうすると思われるあらゆる理由があるなら、我々は…いくつかの物理的なデバイスを持つ神経系 “。 この議論は、1943年に最初に導入され、1988年にハンズ・モラベックによって鮮明に記述され、未来の科学者レイ・カズワイルと関連づけられており、コンピュータのパワーは、2029年までに完全な脳シミュレーションに十分であると見積もっている。人間の脳(1011ニューロン)の大きさを持つ視床皮質モデルのシミュレーションが2005年に行われ、27個のプロセッサーのクラスターで1秒の脳力学をシミュレートするのに50日かかった。

ヒューバート・ドレイファスやジョン・サールのようなAIの批評家でさえ、脳のシミュレーションは理論的に可能であると[数量化する]意見は一致しない。 しかし、Searleは、原則として、コンピュータで何かをシミュレートできることを指摘しています。 したがって、その定義をその破壊点にもたらすことは、どのプロセスも技術的に「計算」とみなすことができるという結論につながる。 「私たちが知りたかったのは、サーモスタットや肝臓から心を区別することです」と彼は書いています。 したがって、単に脳の機能を模倣するだけで、知性と心の性質に関する無知を認めることになります。

人間の思考はシンボル処理です
1963年、Allen NewellとHerbert A. Simonは、「記号操作」は人間と機械の知性の本質であると提唱しました。 彼らが書きました:

物理的な記号システムは、一般的な知的行動の必要十分な手段を有する。
この主張は非常に強く、人間の思考はシンボル操作の一種であり(シンボルシステムはインテリジェンスに必要であるため)、マシンはインテリジェントになることを意味します。 この地位の別のバージョンは、それを「心理的前提」と呼んだ哲学者、ヒューベルト・ドレイファスによって記述されています。

心は、正式な規則に従って情報のビット上で動作するデバイスと見ることができる。
のような世界のオブジェクトに直接対応する高水準のシンボルと、マシンの中に存在するより複雑なシンボルとの区別は、通常、[誰によって]行われますか?ニューラルネットワーク。 ジョン・ハウグランドの「古き良き人工知能」(GOFAI)と呼ばれる初期のAI研究は、こうした高レベルのシンボルに焦点を当てていました。

シンボル処理に対する引数
これらの議論は、人間の思考は高水準の記号操作から成り立っていないことを示している。 人工知能が不可能であることを示すものではなく、シンボル処理以上のものが必要です。

ゲーデル人の反メカニスト論争
1931年、KurtGödelは不完全性定理を証明して、与えられた一貫した正式な論理システム(高水準記号操作プログラムなど)が証明できなかった「Gödelステートメント」を構築することは常に可能であると証明した。 真の声明であるにもかかわらず、構築されたゲデルのステートメントは、与えられたシステムでは証明できません。 (構築されたGödelステートメントの真実は、与えられたシステムの一貫性に左右されます;同じプロセスを微妙に矛盾するシステムに適用すると成功するように見えますが、代わりに実際には「Gödelステートメント」をfalseにします)人間の心は最終的に正当な根拠のある数学的声明(あらゆる可能なゲデル声明を含む)の真実または虚偽を最終的に決定することができ、したがって人間の心の力はメカニズムに還元できない。 哲学者のジョン・ルーカス(1961年以来)とロジャー・ペンローズ(1989年以来)は、この哲学的な反メカニスト論を支持してきた。 ゲーデルの反メカニスト論は、人間の数学者のシステム(または人間の数学者の理想化)が一貫して(完全に自由である)、完全にその一貫性を信じているGödel声明の信念を含む、それ自身の一貫性から続く推論)。 これは、チューリングマシン(非公式の拡張によって、既知のタイプの機械式コンピュータ)が行うことは不可能です。 したがって、ゲッデル人は、人間の推論があまりにも強力で、機械[疑わしい議論]に捕らえられると結論づけている。

しかし、科学的および数学的共同体における現代のコンセンサスは、実際の人間の推論は矛盾しているということである。 人間の推論の一貫した「理想化されたバージョン」Hは、論理的にはHの一貫性について健全だが直感的でオープンな懐疑論を採用することを強制されるだろう(そうでなければHは不確実性がある)。 ゲーデルの定理は、人間が数学的な推論能力を持っているという正当な論拠につながりません。 ゴデルアンの反メカニスト論争が失敗するのは、人工知能において、「計算理論学者の論文を攻撃するために(ゲーデルの不完全性の結果)を利用しようとする試みは、計算主義者とかなり一致しているため、論文。”

もっと実用的には、ラッセルとノービヒは、ゲデルの議論は、理論的に証明できるものにのみ適用され、無限の記憶と時間を与えられていることに注意している。 実際には、実際の機械(人間を含む)は有限の資源を持っており、多くの定理を証明することが困難です。 インテリジェントにするためにすべてを証明する必要はありません。

より公式ではないが、ダグラス・ホフシュタッターはピューリッツァー賞を受賞した著書「ゲデル、エッシャー、バッハ:永遠の黄金の編組」で、これらの「ゲーデル – ステートメント」は常にシステムそのものを指し、エピメニデスのパラドックスは「この声明は間違っている」や「私は嘘をついている」など、自分自身を参照してください。 しかしもちろん、Epimenidesのパラドックスは、機械であろうと人間であろうと、ルーカス自身であっても、言明を行うものに適用されます。 検討してください:

ルーカスはこの声明の真実を主張することはできません。
このステートメントは真ですが、Lucasによってアサートされることはありません。 これは、ルーカス自身がすべての人々と同じように、彼が機械について述べたのと同じ制限を受けていることを示しているので、ルーカスの議論は無意味です。

人間の推論が計算不可能であると結論した後、ペンローズは、量子力学的状態の崩壊を含む何らかの仮説的な計算不可能なプロセスが人間に既存のコンピュータに対して特別な利点を与えると論争し続けた。 既存の量子コンピュータは、計算可能なタスクをチューリングするだけの複雑さを減らすことができ、チューリングマシンの範囲内のタスクに制限されています。 ペンローズとルーカスの議論では、既存の量子コンピュータでは十分ではない[なぜ?]、ペンローズは新しい物理学を含むいくつかの他のプロセス、例えば自発的にプランク質量のスケールで新しい物理を現す量子重力を求めている波動関数の量子崩壊。 彼が示唆したこれらの状態は、ニューロン内と、複数のニューロンにまたがって発生します。 しかし、他の科学者たちは、量子計算を利用するための脳には有機的メカニズムはないと指摘し、量子デコヒーレンスのタイムスケールはニューロンの発火に影響を与えるには速すぎると考えている。

ドレイファス:無意識のスキルの優位性
Hubert Dreyfusは、人間の知能と専門知識は意識的な象徴的な操作ではなく、無意識の本能に主に依存していると主張し、これらの無意識の技能は正式な規則で決して捕らえられないと主張した。

Dreyfusの議論は、彼が1950年のComputing machine and intelligenceの論文でTuringによって予想されていたところで、これを「行動の非公式からの議論」と分類した。 チューリングは、複雑な行動を支配するルールがわからないという理由で、このようなルールが存在しないということを意味するわけではありません。 彼は次のように書いています: “私たちは、行動の完全な法則がないことを自分自身で簡単に確信することはできません…そのような法律を見つけるために私たちが知っている唯一の方法は科学的観察です。そのような法律はない」と述べた。

RussellとNorvigは、Dreyfusが彼の批評を発表して以来、無意識的な推論を支配する “規則”を発見することに進展してきたことを指摘している。 ロボット研究における位置付けられた動きは、認識と注意で無意識のスキルを取り込もうとします。 ニューラルネットや進化アルゴリズムなどの計算知能のパラダイムは、主に疑似無意識の推論と学習に向けられています。 AIに対する統計的アプローチは、人間の直感的推測の精度に近づく予測を行うことができる。 常識的知識の研究は、知識の「背景」や文脈を再現することに焦点を当てている。 実際、人工知能の研究は一般に、高レベルの記号操作または「ゴファイ」から、無意識的な推論をより多く獲得するための新しいモデルに移行しています。 歴史家でAI研究者のダニエル・クレビー氏は、「ドレイファスの発言の正確さと知覚性が証明されているが、それほど積極的に策定していないと示唆している建設的行動は、

マシンは心、意識、精神状態を持つことができますか?
これは、他の心の問題と意識の困難な問題に関連する哲学的な問題です。 質問はJohn Searleが「強力なAI」と定義した位置を中心に展開されています。

物理的なシンボルシステムは心と精神状態を持つことができます。
Searleはこの位置を「弱いAI」と区別しました。

物理的な記号システムは知的に作用することができます。
Searleは弱いAIから強力なAIを分離するための条件を導入したので、より興味深く議論の余地のある問題であると考えたものに集中することができました。 彼は、人間の心のように機能するコンピュータプログラムを持っていると仮定しても、答えが必要な難しい哲学的な質問が残っていると主張した。

Searleの2つの立場のどちらもAI研究にとって大きな懸念事項ではない。なぜなら、彼らは「機械が一般情報を表示できるか」という問いに直接答えないからである。 (意識が知性のために必要であることも示されていない限り)。 チューリングは、「私は意識に関する謎はないと思う印象を与えたくない…マシンが考えることができるかどうかの質問に答えるには、これらの謎を解決する必要はないと思う」 RussellとNorvigは次のように同意します。「ほとんどのAI研究者は、弱いAI仮説を当然受け入れており、強いAI仮説については気にしません。

イゴール・アレクサンダー、スタン・フランクリン、ロン・サン、ペンティ・ハイコネンのような意識はインテリジェンスにとって不可欠な要素だと信じている研究者は少なくないが、「意識」の定義は「知性」に非常に近い。 (人工意識を参照してください。)

この質問に答える前に、「心」、「精神状態」、「意識」の意味を明確にしなければなりません。

意識、心、精神状態、意味
「心」と「意識」という言葉は、さまざまな方法でさまざまなコミュニティで使用されています。 いくつかの新しい時代の思想家は、例えば、「意識」という言葉を使って、ベルグソンの「élanvital」に似た何かを描いています。 サイエンスフィクションの作家は、私たちを人間にするいくつかの本質的な特性を記述するためにこの言葉を使用しています。機械や宇宙人が「意識的」であれば、知性、欲望、意志、洞察力、誇りなどを備えた完全な人間性が示されます。 (サイエンスフィクションの作家はまた、この本質的な人間の財産を説明するために、「感情」、「忍耐」、「自己認識」または「ゴースト」という言葉をシェルのマンガとアニメシリーズのように使用する)。 他の人たちにとって、「心」または「意識」という言葉は、魂の世俗的な類義語の一種として使われています。

哲学者、神経科学者、認知科学者にとって、この言葉は、より正確でより平凡な方法で使用されています。彼らは、知覚、夢、私たちが何かを知っているか、何かを意味する、あるいは何かを理解していることに気付いています。 “意識の常識的な定義を与えるのは難しいことではない”と哲学者John Searleは観察する。 神秘的で魅力的なものはそれが何であるかではなく、どのようにそうですか:脂肪組織と電気の塊が、知覚、意味、または思考のこの(身近な)経験を生み出す方法は?

哲学者はこれを意識の難しい問題と呼んでいます。 それは、心の哲学における古典的な問題の最新バージョンであり、「心身の問題」と呼ばれています。 関連する問題は、(哲学者が「意図的」と呼ぶ)意味や理解の問題です。私たちの思考と私たちが考えているもの(すなわち、世界の物体や状況)との関係は何ですか? 第3の問題は、経験(または「現象論」)の問題です。もし2人の人が同じことを見ても、同じ経験をしていますか? あるいは人と人の違いがある「頭の中にあるもの」(「クオリア」と呼ばれる)がありますか?

Searle’s Chinese room
John Searleは、思考実験を検討するように私たちに依頼します.Turingテストに合格し、「一般的な知的行動」を示すコンピュータプログラムを作成したとします。 具体的には、プログラムが流暢な中国語で会話できるとします。 3×5カードにプログラムを書いて、中国語を話せない普通の人にそれらを与える。 人を部屋に閉じ込めさせ、カードの指示に従わせる。 彼は漢字をコピーして、スロットを通して部屋の内外に通す。 外から見ると、中国語の部屋には、中国語を話す完全に知的な人がいます。 問題はこれです:中国語を理解する部屋に誰か(または何か)がいますか? つまり、精神的な理解のあるものや、中国語で何が議論されているのかを意識しているものはありますか? 男は明らかに気づいていない。 部屋は気づかない。 カードは確かに認識していません。 Searleは、中国の部屋やその他の物理的なシンボルシステムは気にすることはできないと結論づけています。

Searleは、実際の精神状態と意識が「実際の人間の脳の実際の物理化学的性質を必要とする(まだ記述されていない)」と主張している。 彼は、頭脳を引き起こす脳とニューロンの特別な「因果的性質」があると主張しています。彼の言葉では「頭脳は心を引き起こします。

Gottfried Leibnizは、1714年にSearleと本質的に同じ議論をしました。 1974年、ローレンス・デイビスは電話回線と人員が雇用された脳の複製を想起し、1978年にはネッド・ブロックがこのような脳シミュレーションに関与する中国全人口を想定しました。 この思考実験は「中国国家」または「中国ジム」と呼ばれています。 Ned Blockは、Blockhead議論を提案しました。これは、プログラムを「これを参照してください」という形式の単純なルールセットに再考された中国語のバージョンです。プログラムからすべての謎を取り除きます。

中国の部屋への反応
中国の部屋への反応は、いくつかの異なる点を強調している。

システムは返答し、仮想マインドは返答する:この返答は、人間、プログラム、部屋、カードを含むシステムは、中国語を理解するものであると主張する。 Searleは、部屋の中の人間は、おそらく「思いついた」か「理解する」ことができる唯一のものだと主張しているが、同じ物理的な場所に2つの心が存在する可能性がある一台の物理マシン(Macintoshのようなもの)と一つの「仮想マシン」(ワードプロセッサのようなもの)の2台のコンピュータを同時に「同時に」使用することができます。
スピード、パワー、そして複雑さの答え:いくつかの批評家は、部屋の男性は簡単な質問に答えるのに何百年もかかると指摘し、天文学的な割合の「ファイリングキャビネット」を必要とします。 これにより、Searleの直感がはっきりと疑わしいものになります。
ロボットの返事:本当に理解するために、中国語ルームは目と手が必要だと信じている人もいます。 Hans Moravecは次のように書いています。「ロボットを推論プログラムに移植することができれば、人間はもはや意味を提供する必要はありません。
Brain simulator reply:実際の中国語話者の実際の脳のシナプスで神経発火のシーケンスをシミュレートするとどうなりますか? 部屋の中の男は実際の脳をシミュレートするでしょう。 これは、 “システム”が人間の脳のようにはっきりと動作するようになったため、より説得力のある “システム応答”のバリエーションであり、部屋の中に中国語を理解できる人がいるという直感が強化されます。
他の心は返答し、エピフェノメナは返答する:いくつかの人々は、Searleの主張は機械に適用される他の心の問題の単なるバージョンであることに気付いた。 人々が「実際に」考えているかどうかを判断することは難しいので、マシンに関する同じ質問に答えることは難しいとは思わないでください。

思考は一種の計算ですか?
心の計算理論や「計算主義」は、心と脳の関係が、実行中のプログラムとコンピュータの関係と(同じでなければ)似ていると主張する。 このアイデアはホッブズ(理性は「推測以外のもの」と主張していた)、ライプニッツ(ヒューマンアイデアの論理的計算を試みた)、ヒューム(ヒューマンは知覚を「原子の印象」に減らすことができると思っていた)、カント(正式な規則によって制御されるすべての経験を分析した)でも。 最新のバージョンは、哲学者のヒラリー・パトナムとジェリー・フォドーに関連しています。

この疑問は私たちの以前の質問にあります。もし人間の脳が一種のコンピュータなら、コンピュータはAIの実用的で哲学的な質問に答えることができ、知性と意識の両方があります。 AIの実用的な問題(機械が一般情報を表示することはできますか?)に関しては、計算主義のいくつかのバージョンが(Hobbesが書いたように)主張をしています。

推理は推測だけです
言い換えれば、私たちの知性は算術に似た計算の形から導かれます。 これは上で議論された物理的シンボルシステム仮説であり、人工知能が可能であることを意味する。 AIの哲学的な問題(「機械は心、精神状態、意識を持つことができますか?」)では、計算主義のほとんどのバージョンは(Stevan Harnadがそれを特徴付けている)

精神状態は、(右の)コンピュータプログラムの実装です
これは上で議論したJohn Searleの「強いAI」であり、それは中国の部屋の議論の本当の目標です(Harnadによると)。

その他の関連する質問
Alan Turingは、 “マシンは決してXをしません”という形式の議論が多いことに気づきました。ここでXは、

親切で、巧みで、美しく、フレンドリーで、イニシアチブを持ち、ユーモアのセンスを持ち、間違って正しいことを伝え、間違いを犯し、恋に落ち、イチゴとクリームを楽しみ、誰かが恋に落ちるようにし、経験から学び、適切に言葉を使う自分の思考の対象となり、男と同じくらい多様な行動をし、本当に新しいことをしてください。

マシンに感情がありますか?
「感情」が行動への影響または生物体内での機能についてのみ定義されている場合、感情は、その行動の有用性を最大化するために知的エージェントが使用するメカニズムとみなすことができます。 ハンス・モラベックは、この感情の定義を前提に、「ロボットは一般に素敵な人であることについてかなり感情的になる」と考えています。 恐怖は緊急の原因です。 共感は、人間のコンピュータとの良好な対話のために必要な要素です。 彼は、ロボットがこのような肯定的な強化からスリルを得るため、明らかに無私のやり方であなたを喜ばせようとしていると言います。これを一種の愛と解釈することができます。 Daniel Crevierは、「Moravecのポイントは、感情は、自分の種の生き残りに有益な方向に行動を導くためのデバイスに過ぎないということです。

しかし、感情は感情を持つように感じるものの主観的な質の観点から定義することもできます。 マシンが実際に感情を感じているのか、感情を感じているかのように動いているのかという疑問は、「マシンは意識していますか?」という哲学的な質問です。 別の形で。

マシンが自己認識できるか?
上で述べたように、「自己認識」は、人格を完全に人間にする本質的な人間の財産の名前として、時々SF小説作家によって使用されます。 チューリングは、人間の他のすべての特性を取り去り、「機械を自分の考えの対象にすることができますか? 自分自身について考えることはできますか? このようにして、デバッガなどの内部状態をレポートできるプログラムを作成することができます。 間違いなく自己意識はしばしばもう少し能力を前提としている。 意味を何らかの形で自分の国家だけでなく、一般的に確固とした回答なしに疑問を提起しているマシン、つまりその存在の文脈的性質。 それが過去の状態や将来の計画、その作業成果物の限界と価値、どのように他の人と比較してそのパフォーマンスを評価するかを比較する方法。

マシンはオリジナルでもクリエイティブでもかまいませんか?
Turingはこれを、マシンが「驚かせる」ことができるかどうかという疑問に還元し、プログラマが証明できるように、これが明らかに真実であると主張する。 彼は、十分な記憶容量があれば、コンピュータは天文学的に異なる方法で動作することができると指摘する。 新しい方法でそれらを組み合わせるアイデアを表すことができるコンピュータのために、それは自明であっても、可能でなければならない。 (ダグラス・レナートの自動数学者、一例として、新しい数学的真理を発見するためのアイデアを組み合わせたもの)。

2009年、ウェールズのアベリストウィス大学と英国のケンブリッジ大学の科学者たちは、新しい科学的知見を独自に考案した最初の機械であると信じているアダムというロボットを設計しました。 また、2009年に、コーネルの研究者は、振り​​子の動きから運動の法則を見つけるなど、入力されたデータにフィットする式を外挿するコンピュータプログラムであるEureqaを開発しました。

機械は慈悲深く、敵対的であることはできますか?
この質問(人工知能の哲学の多くの他のものと同様)は、2つの形式で提示することができます。 「敵意」は、機能や行動の観点から定義することができ、その場合、「敵対的」は「危険」と同義になる。 または、それは意図の観点から定義することができます:機械を “意図的に”害を及ぼすために立ち上げることができますか? 後者は「機械が意識状態を持つことができるか」という質問です。 (意図など)を別の形式で入力します。

高度に知的で完全に自律的な機械が危険にさらされるかどうかの問題は、未来派(Singularity Instituteなど)によって詳細に検討されている。 (ドラマの明白な要素は、対象がサイエンスフィクションでも人気を博した。インテリジェントマシンが人類に脅威を与えるさまざまなシナリオが考えられている)

1つの問題は、機械が非常に迅速に危険であることが要求される自律性と知性を獲得できることです。 Vernor Vingeは、ほんの数年のうちにコンピュータが突然人類よりも数千倍または数百万倍も知的になることを示唆しています。 彼はこれを「特異点」と呼ぶ。 彼は、それが人間にとっては多分、あるいはおそらくは非常に危険であるかもしれないことを示唆している。 これは、「単一主義」と呼ばれる哲学によって議論されている。

一部の専門家や学者は、特にそのようなロボットにある程度の自律的機能が与えられた場合、軍事戦闘のためのロボットの使用に疑問を呈しています。 米海軍は、軍事用ロボットがより複雑になるにつれて、自律的決定を下す能力の含意に大きな注意を払うべきであるという報告書に資金を提供している。

人工知能推進協会の大統領は、この問題を見るための調査を依頼した。 彼らは人間の相互作用をエミュレートすることができる言語獲得装置のようなプログラムを指している。

ある人は、「Friendly AI」を構築する必要性を示唆しています。これは、AIですでに発生している進歩にも、AIを本質的にフレンドリーで人道的なものにする努力を含める必要があることを意味します。

機械に魂があるのだろうか?
最後に、魂の存在を信じる者は、「思考は人間の不滅の魂の関数である」と主張するかもしれない。 アラン・チューリングはこれを「神学的異論」と呼んだ。 彼は書く

このような機械を作ろうとすると、私たちは子供の誕生にまつわるものではなく、魂を創造する彼の力をむやみに奪い去るべきではありません。どちらの場合でも、創造する魂のための邸宅を提供する手段です。

哲学の役割についての見解
いくつかの学者は、AI共同体の哲学の解体は有害であると主張している。 スタンフォード哲学百科事典では、哲学者の中には、AIにおける哲学の役割が過小評価されていると主張している人もいる。物理学者のDavid Deutschは、哲学やその概念を理解することなく、AIの発展には進歩がないと主張している。

参考文献と会議
参考文献の主要な参考文献は、いくつかのサブセクションで、PhilPapersに

掲載されています。この問題に関する主要な会議シリーズは、Vincent C.Müllerが運営する「AIの哲学と理論」