人工知能

人工知能(AI)(時には機械知能と呼ばれる)は、人間や他の動物によって表示される自然知能とは対照的に、機械によって示される知性である。 コンピュータサイエンスでは、AI研究は「知的エージェント」の研究として定義されています。それは、環境を認識し、目標を達成するチャンスを最大化する行動をとるデバイスです。 言い換えれば、「人工知能」という用語は、人間が他の人間の心に「学習」や「問題解決」などの「認知」機能を模倣している場合に適用されます。

AIの範囲は論争されています。マシンがますます能力を発揮するにつれて、「インテリジェンス」を必要とするタスクはしばしば定義から除かれます。これはAI効果として知られている現象で、「AIはまだ行われていないことです”[引用は見つかりません]たとえば、光学式文字認識は、しばしば「人工知能」から除外され、日常的な技術となっています。 AIとして分類される現代の機械能力は、人間の発言をうまく理解し、戦略的ゲームシステム(チェスやゴーなど)、自律的に運転する自動車、コンテンツ配信ネットワークと軍事シミュレーションにおけるインテリジェントなルーティングで最高レベルで競合することを含む。

人工知能は1956年に学問分野として設立され、その後いくつかの楽観主義を経験し、失望と資金喪失(AI冬と呼ばれる)、新たなアプローチ、成功、そして新たな資金調達。 AI研究の歴史の大部分は、AI研究が互いに通信できないことが多いサブフィールドに分かれています。 これらのサブフィールドは、特定の目標(例えば、「ロボット工学」や「機械学習」)、特定のツール(「論理」または人工ニューラルネットワーク)の使用、または深い哲学的差異などの技術的考察に基づいています。 サブフィールドはまた、社会的要因(特定の機関や特定の研究者の仕事)に基づいている。

AI研究の従来の問題(または目標)には、推論、知識表現、計画、学習、自然言語処理、知覚、およびオブジェクトの移動および操作の能力が含まれる。 一般的な情報は、フィールドの長期目標の1つです。 アプローチには、統計的方法、計算知能、および伝統的な記号AIが含まれます。 検索や数学的最適化のバージョン、人工ニューラルネットワーク、統計、確率、経済学に基づく方法など、多くのツールがAIで使用されています。 AI分野は、コンピュータサイエンス、情報工学、数学、心理学、言語学、哲学など多くの分野を取り上げています。

この分野は、人間の知性が「機械をシミュレートするように正確に記述できる」という主張に基づいています。 これは、古代から神話、フィクション、哲学によって探究されてきた問題である、人のような知性を持つ人工的な存在を創造する心と倫理の性質に関する哲学的議論を提起する。 AIが人類にとって危険であると考える人もいます。 AIは、これまでの技術革新とは異なり、大量失業のリスクを生み出すと考えている人もいます。しかし、Googleは人類にとって有益なAIを開発するためのグローバルなコンテストを開催しています

21世紀にAI技術は、コンピュータの能力、大量のデータ、理論的な理解の同時進行に伴って復活を経験しました。 AI技術は、コンピュータサイエンス、ソフトウェアエンジニアリング、およびオペレーションリサーチにおける多くの困難な問題を解決するのに役立つ、テクノロジー業界の不可欠な部分となっています。

アプローチ
AI研究を導く統一理論やパラダイムは確立されていない。 研究者は多くの問題について意見を異にしている。 人工知能は、心理学や神経生物学を研究することによって自然知能をシミュレートするべきかどうかは未だに解明されていない、 あるいは鳥の生物学が航空工学のためのAI研究とは無関係な人間の生物学ですか? インテリジェントな振る舞いは、シンプルで洗練された原理(ロジックや最適化など)を使って記述できますか? それとも、まったく無関係な問題を多数解決する必要がありますか?

サイバネティックスと脳のシミュレーション
1940年代から1950年代にかけて、多くの研究者が神経生物学、情報理論、サイバネティックスの関係を探っていました。 その中には、W.グレイ・ウォルターのカメやジョンズ・ホプキンス・ビーストのような、初歩的な知性を発揮するために電子ネットワークを使ったマシンもあります。 これらの研究者の多くは、Princeton UniversityのTeleology SocietyとEnglandのRatio Clubの会議に集まりました。 1960年までに、このアプローチは大部分放棄されたが、その要素は1980年代に復活するだろう。

シンボリック
1950年代の中頃にデジタルコンピュータへのアクセスが可能になったとき、人工知能をシンボル操作に還元できる可能性を探るようになった。 この研究は、カーネギーメロン大学、スタンフォード大学、およびMITの3つの機関に集中しており、以下に説明するように、それぞれ独自の研究スタイルを開発しました。 John Haugelandは、これらの象徴的アプローチをAI「good old fashioned AI」または「GOFAI」に命名しました。 1960年代、シンボリックアプローチは、小さなデモンストレーションプログラムで高レベルの思考をシミュレートすることで大きな成功を収めました。 サイバネティックスや人工ニューラルネットワークに基づくアプローチは放棄されたか、バックグラウンドに押し込まれました。 1960年代と1970年代の研究者たちは、象徴的アプローチが最終的には人工総合知能を持つ機械をつくることに成功し、これを彼らの分野の目標と考えると確信していた。

認知シミュレーション
エコノミストのハーバート・サイモン(Herbert Simon)とアレン・ニューエル(Allen Newell)は、人間の問題解決スキルを学び、それらを正式化しようと試みました。彼らの研究は、人工知能分野の基盤、認知科学、オペレーションズ・リサーチ、マネジメント・サイエンスでした。 彼らの研究チームは、心理実験の結果を使用して、人々が問題を解決するために使用した技術をシミュレートしたプログラムを開発しました。 カーネギーメロン大学を中心としたこの伝統は、結局、1980年代半ばのSoar建築の発展に絶頂を迎えました。

論理ベース
SimonとNewellとは異なり、John McCarthyはマシンが人間の思考をシミュレートする必要はないと感じましたが、同じアルゴリズムを使用しているかどうかにかかわらず、抽象的な推論と問題解決の本質を見つけようとしました。 スタンフォード大学の研究室(SAIL)は、知識表現、計画、学習など、さまざまな問題を解決するために正式な論理を使用することに重点を置いていました。 ロジックはまた、エジンバラ大学やヨーロッパの他の地域で、プログラミング言語Prologの開発と論理プログラミングの科学につながった仕事の焦点でした。

アンチロジックまたは厄介な
MITの研究者(Marvin MinskyやSeymour Papertなど)は、視覚や自然言語処理における困難な問題を解決するには、アドホックな解決策が必要であることを発見しました。彼らは、ロジックのような単純で一般的な原則は知的行動。 ロジャー・シャンクは、彼らの「反論理」アプローチを「厄介な」(CMUとスタンフォードの「きちんとした」パラダイムとは対照的に)と説明した。 コモンセンスの知識ベース(Doug Lenat’s Cycなど)は、一度に複雑なコンセプトを手作業で構築する必要があるため、「手の込んだ」AIの一例です。

知識ベース
大規模な記憶を持つコンピュータが1970年頃に利用可能になったとき、3つの伝統のすべての研究者がAIアプリケーションへの知識を構築し始めました。 この「知識革命」は、AIソフトウェアの最初の成功形態であるエキスパートシステム(Edward Feigenbaumによって導入された)の開発と展開をもたらしました。 すべてのエキスパートシステムのシステムアーキテクチャの主要コンポーネントは、ナレッジベースで、AIを示すファクトとルールが格納されています。 知識革命は、多くの単純なAIアプリケーションでは膨大な量の知識が必要になることを認識しています。

サブシンボリック
1980年代には、象徴的なAIの進歩が止まったように見え、多くの人が象徴的なシステムが人間の認知、特に知覚、ロボット工学、学習、パターン認識のすべての過程を真似ることができないと信じていました。 いくつかの研究者が特定のAI問題に対する「サブシンボリック」アプローチを検討し始めました。 サブシンボリックな方法は、知識の具体的な表現なしに知性に近づくことができます。

実装されたインテリジェンス
これには、具体化された、位置づけられた、行動ベースの、そしてノーベルなAIが含まれる。 Rodney Brooksなどのロボット関連分野の研究者は、象徴的なAIを拒絶し、ロボットの移動や生存を可能にする基本的な工学的問題に焦点を当てました。 彼らの研究は、1950年代の初期サイバネティックス研究者の非象徴的な視点を復活させ、AIに制御理論を再導入しました。 これは、認知科学の関連分野における具体化された心理学の論文の開発と一致しています。身体の側面(動き、知覚、視覚化など)がより高度な知能に必要であるという考え方。

発達的なロボットの中では、自律的な自己探求、人間の教師との社会的なやりとり、指導の仕組み(能動的な学習、成熟、運動の相乗効果など)を通じて、ロボットが新しい技能のレパートリーを蓄積できるように、

計算知能とソフトコンピューティング
ニューラルネットワークへの関心と「コネクショニズム」は、1980年代半ばにDavid Rumelhartらによって復活されました。 人工ニューラルネットワークは、ソフトコンピューティングの一例であり、完全な論理的確実性では解決できない問題に対する解決策であり、近似解が十分である場合が多い。 AIに対する他のソフトコンピューティングアプローチには、ファジィシステム、進化的計算、および多くの統計ツールが含まれる。 AIへのソフトコンピューティングの応用は、計算知能の新たな規律によってまとめて研究されている。

統計学習
伝統的なGOFAIの多くは、独自のおもちゃモデルで動作する象徴的な計算に臨時パッチを当てていたが、実際の結果に一般化することはできなかった。 しかし、AI研究者は1990年代に、隠れマルコフモデル(HMM)、情報理論、規範的なベイジアン決定論などの洗練された数学的ツールを採用して、競合するアーキテクチャを比較したり統一したりしました。 共有された数学的言語は、より確立された分野(数学、経済、またはオペレーションズリサーチなど)との高いレベルのコラボレーションを可能にしました。 GOFAIと比較して、HMMやニューラルネットワークなどの新しい「統計的学習」技術は、データマイニングなどの多くの実用的な領域で、データセットの意味論的理解を必ずしも獲得することなく、高い精度を得ていました。 実世界データの成功の増加は、共有テストデータに対する異なるアプローチを比較することに重点を置くようになり、具体的な玩具モデルによって提供されるアプローチよりも広範な状況においてどのアプローチが最もよく実施されたかを調べた。 AI研究はより科学的になっていました。 現在、実験の結果はしばしば厳密に測定可能であり、時には(難しい)再現性がある。 さまざまな統計的学習手法には異なる制限があります。 例えば、基本HMMは自然言語の無限の可能な組み合わせをモデル化することはできない。 批評家は、GOFAIから統計学習への移行は、しばしばExplainable AIからの移行であることにも注意しています。 AGIの研究では、一部の学者は統計的学習に対する過度の依存に注意し、GOFAIへの継続的な研究はまだ一般的な知性を達成するために必要であると主張する。

アプローチの統合

インテリジェントエージェントのパラダイム
インテリジェントエージェントとは、その環境を認識し、成功の可能性を最大限に引き出すアクションをとるシステムです。 最も単純なインテリジェントエージェントは、特定の問題を解決するプログラムです。 より複雑なエージェントには、人間や企業の組織などがあります。 このパラダイムは、研究者が特定の「目標機能」を最大化するのに最適なエージェントを尋ねることによって、孤立した問題に対するさまざまなアプローチを直接比較したり組み合わせたりすることを可能にします。 特定の問題を解決するエージェントは、動作するすべてのアプローチを使用することができます。エージェントの中には象徴的で論理的なものもあれば、サブシンボリックな人工ニューラルネットワークや新しいアプローチを使用するエージェントもあります。 このパラダイムはまた、研究者に抽象的なエージェントの概念を使用する意思決定理論や経済学などの他の分野とコミュニケーションするための共通言語を提供します。 完全なエージェントを構築するには、現実的な統合の問題に取り組む必要があります。 例えば、感覚システムは環境に関する不確かな情報を提供するため、計画システムは不確実性の存在下で機能しなければならない。 知的エージェントのパラダイムは1990年代に広く受け入れられた。
エージェントアーキテクチャと認知アーキテクチャ
研究者は、マルチエージェントシステムでインテリジェントなシステムをインテリジェントなエージェントから構築するシステムを設計しました。 階層的な制御システムは、最低レベルの反応レベルでのサブシンボリックAIとその最高レベルでの伝統的なシンボリックAIとの間に橋渡しを提供し、緩和された時間制約により計画と世界のモデリングが可能になります。 狭い問題を解決するために、いくつかの認知的なアーキテクチャがカスタム構築されています。 Soarなどの他のものは、人間の認知を模倣し、一般的な知性についての洞察を提供するように設計されています。 Soarの最新の拡張は、シンボリックコンポーネントとサブシンボリックコンポーネントの両方を含むハイブリッドインテリジェントシステムです。

ツール

AIは、コンピュータサイエンスで最も困難な問題を解決するために、多数のツールを開発しました。 これらの方法の中で最も一般的なもののいくつかを以下に説明します。

検索と最適化
AIにおける多くの問題は、多くの可能な解決法を知的に探索することによって理論的に解決することができる。推論は検索を実行することに減らすことができる。 例えば、論理的証明は、各ステップが推論ルールの適用である、前提から結論に至る経路を探索するものと見ることができる。 計画アルゴリズムは、目標と目標の樹木を探索し、目標目標への道筋を見つけようとするもので、平均 – 終点分析と呼ばれるプロセスです。 手足を移動させて物体をつかむためのロボットアルゴリズムは、構成空間内の局所探索を使用する。 多くの学習アルゴリズムは、最適化に基づく検索アルゴリズムを使用します。

実際のほとんどの問題では単純な徹底的な検索ではほとんど満足ではありません。検索スペース(検索する場所の数)はすぐに天文学的な数字に成長します。 その結果、検索が遅すぎたり、完了しなかったりします。 解決策は、多くの問題に対して、目標に到達する可能性の高いものに優先して選択肢を優先させ、短いステップでそうするように、「経験則」または「経験則」を使用することです。 いくつかの検索方法論では、ヒューリスティックは、目標につながる可能性の低い選択肢を完全に排除する役割も果たします(「検索ツリーのプルーニング」と呼ばれます)。 ヒューリスティックスは、解決策が存在する経路に対して「最良の推測」をプログラムに提供します。 ヒューリスティックは、ソリューションの検索をより小さなサンプルサイズに制限します。

1990年代には、数学的な最適化理論に基づいて、まったく異なる種類の検索が目立つようになりました。 多くの問題に対して、推測の何らかの形で検索を開始し、それ以上の洗練ができなくなるまで推測で段階的に修正することが可能です。 これらのアルゴリズムは、盲ヒルクライミングとして視覚化することができます。ランドスケープのランダムなポイントで検索を開始し、ジャンプやステップで、上に到達するまで上り坂を推測し続けます。 他の最適化アルゴリズムは、シミュレーテッドアニーリング、ビーム探索およびランダム最適化である。

進化的計算は一種の最適化検索を使用します。 例えば、生物の集団(推測)から始まり、突然変異と再結合を許し、各世代で生き残るために最も適切なものだけを選択する(推測を精緻化する)かもしれない。 古典的な進化的アルゴリズムには、遺伝的アルゴリズム、遺伝子発現プログラミング、および遺伝子プログラミングが含まれる。 あるいは、分散探索プロセスは、群知能アルゴリズムを介して調整することができる。 検索に使用される2つの一般的な群アルゴリズムは、パーティクル群の最適化(鳥の群れに影響を受けている)とアリのコロニー最適化(アリの軌跡に触発されている)です。

論理
ロジックは知識の表現や問題解決に使用されますが、他の問題にも適用できます。 例えば、サプランアルゴリズムは、計画のための論理を使用し、誘導論理プログラミングは、学習のための方法である。

AI研究では、いくつかの異なる形式の論理が使用されています。 命題論理は、「or」や「not」などの真理関数を含む。 一次論理は、量子と述語を追加し、オブジェクト、そのプロパティ、およびそれらの関係についての事実を表現することができます。 ファジィ集合理論は、「真実度」(0と1との間)を、「Alice is old」(富裕層、背の高い、または飢えている)などのあいまいな記述に割り当てます。 ファジー論理は、制御システムで首尾よく使用され、専門家が「行き先の駅に近く、速く動いて列車のブレーキ圧力を上げる」などのあいまいなルールを提供することができます。 これらの曖昧なルールは、システム内で数値的に洗練されます。 ファジー論理はナレッジベースでの拡張がうまくいかない。 AI研究者の多くは、ファジー論理推論の連鎖の妥当性について疑問を投げかけている。

デフォルト論理、非単調論理および外接は、デフォルト推論および適格性問題を助けるために設計された論理形式です。 特定の知識分野を扱うために、記述論理; 状況計算、事象計算、流暢計算(事象と時間を表す) 因果計算; 信念計算; モーダル論理。

全体として、質的なシンボリックロジックは脆弱であり、ノイズやその他の不確実性の存在下ではうまく調整できません。 ルールの例外は数多くあり、論理システムが矛盾したルールの下で機能することは困難です。

不確かな推論の確率的方法
AIの多くの問題(推論、計画、学習、知覚、ロボット工学)は、エージェントが不完全で不確かな情報を操作する必要があります。 AI研究者は、確率論や経済学の手法を用いて、これらの問題を解決するための強力なツールを考案しました。

ベイジアンネットワークは、推論(ベイジアン推論アルゴリズムを使用)、学習(期待最大化アルゴリズムを使用)、計画(決定ネットワークを使用)、知覚(動的ベイジアンネットワークを使用)の多くの問題に使用できる非常に一般的なツールです)。 確率的アルゴリズムは、データストリームの説明をフィルタリング、予測、平滑化、および発見するために使用することもでき、認識システムが時間とともに発生するプロセス(例えば、隠れマルコフモデルまたはカルマンフィルタ)を分析するのを助ける。 シンボリック論理と比較して、正式なベイジアン推論は計算上高価です。 推論が取り扱いやすいものであるためには、ほとんどの観察は互いに条件的に独立していなければならない。 ダイヤモンドや他の “ループ”(無向サイクル)の複雑なグラフは、マルコフ連鎖モンテカルロのような洗練された方法を必要とする可能性があり、ベイズネットワーク全体にランダムウォーカーのアンサンブルを広げ、条件付き確率の評価に集中しようとします。 ベイジアンネットワークは、プレイヤーを評価してマッチさせるためにXbox Liveで使用されます。 勝敗はプレーヤーがどれほど良いかという「証拠」です。 AdSenseは、どの広告を配信するかを知るために、3億以上のエッジを持つベイジアンネットワークを使用しています。

経済学の重要な概念は、「有用性」です。インテリジェントエージェントにとって価値のあるものの尺度です。 意思決定理論、決定分析、および情報価値理論を使用して、エージェントが選択と計画をどのように行うことができるかを分析する、正確な数学的ツールが開発されました。 これらのツールには、マルコフ決定プロセス、動的決定ネットワーク、ゲーム理論、メカニズム設計などのモデルが含まれます。

分類子と統計学習の方法
最も単純なAIアプリケーションは、クラシファイア(「光沢のあるダイヤモンド」の場合)とコントローラ(「光っている場合はピックアップする」)の2種類に分けることができます。 しかし、コントローラはアクションを推測する前に条件を分類するため、分類は多くのAIシステムの中心的な部分を形成します。 分類子は、パターンマッチングを使用して最も近いものを決定する関数です。 これらは例に従ってチューニングすることができ、AIでの使用に非常に魅力的です。 これらの例は、観測またはパターンとして知られています。 教師あり学習では、各パターンは所定の所定のクラスに属する。 クラスは、行わなければならない決定として見ることができます。 クラスラベルと組み合わせたすべての観測は、データセットと呼ばれます。 新しい観測が受信されると、その観測は以前の経験に基づいて分類されます。

分類器は様々な方法で訓練することができます。 多くの統計的および機械的学習アプローチが存在する。 意思決定ツリーはおそらく最も広く使われている機械学習アルゴリズムです。 他の広く使用される分類器は、ニューラルネットワーク、k-最近傍アルゴリズム、サポートベクトルマシン(SVM)、ガウス混合モデル、非常に普及したナイーブベイズ分類器などのカーネル方法である。 クラシファイアのパフォーマンスは、データセットのサイズ、次元、ノイズのレベルなど、分類されるデータの特性に大きく依存します。 モデルベースの分類器は、仮定されたモデルが実際のデータに非常によく適合している場合に良好に機能します。 そうでなければ、一致するモデルが利用可能でなく、正確さ(速度またはスケーラビリティではなく)が唯一の関心事であるならば、従来の知恵は、差別的な分類子(特にSVM)が「ナイーブベイズ」などのモデルベースの分類子よりも、最も実用的なデータセットで

人工ニューラルネットワーク
ニューラルネットワーク、すなわちニューラルネットは、人間の脳内のニューロンのアーキテクチャに触発されました。 単純な「ニューロン」Nは、複数の他のニューロンからの入力を受け入れ、各ニューロンは、活性化されると、ニューロンNがそれ自体活性化すべきかどうかを重み付けした「投票」する。 学習にはトレーニングデータに基づいてこれらの重みを調整するアルゴリズムが必要です。 1つの単純なアルゴリズム(「一緒に火を付ける」と呼ばれる)は、接続された2つのニューロン間の重みを増やして、1つの活性化が別のニューロンの活性化をトリガーするときです。 一緒に発火する傾向のある共有ニューロンのサブネットワークに分散されるネットは、「概念」を形成する。 「足」を意味する概念は、「足」のための音を含む「足」を意味するサブネットワークと結合されてもよい。 ニューロンは活性化の連続スペクトルを有する。 さらに、ニューロンは、直接的な票を重み付けするのではなく、非線形の方法で入力を処理することができます。 現代のニューラルネットは、連続的な機能と意外なことにデジタル論理演算の両方を学ぶことができます。 ニューラルネットワークの初期の成功には、株式市場の予測と(1995年の)主に自家用車の予測が含まれていました。 2010年代、ディープ・ラーニングを用いたニューラル・ネットワークの進歩はAIを広範な市民意識に押し進め、企業のAI支出の大幅なアップシフトに貢献しました。 例えば、2017年のAI関連のM&Aは2015年の25倍を超えていた。

非学習人工ニューラルネットワークの研究は、ウォルターピッツ(Walter Pitts)とウォーレン・マククロウチ(Warren McCullouch)の研究で、AI研究の分野が創設される数十年前に始まった。 Frank Rosenblattは、従来の線形回帰の概念と同様に、単一層の学習ネットワークであるパー​​セプトロンを発明しました。 初期のパイオニアとしては、Alexey Grigorevich Ivakhnenko、Teuvo Kohonen、Stephen Grossberg、Fukushima Kunihiko、Christoph von der Malsburg、David Willshaw、Amari Shun-Ichi、Bernard Widrow、John Hopfield、Eduardo R. Caianielloなどがあります。

ネットワークの主なカテゴリーは、非周期的またはフィードフォワードのニューラルネットワーク(信号が一方向のみを通過する)およびリカレントニューラルネットワーク(フィードバックおよび以前の入力イベントの短期記憶を可能にする)である。 最も一般的なフィードフォワードネットワークには、パーセプトロン、多層パーセプトロン、ラジアルベースネットワークがあります。 ニューラルネットワークは、ヘブライ語学習(「火災共存」、「GMDH」または競争的学習)などの技術を使用して、知的制御(ロボット工学用)または学習の問題に適用できます。

今日、ニューラルネットワークは、Seppo Linnainmaaによって出版された自動判別の逆モードとして、1970年頃から行われていたバックプロパゲーションアルゴリズムによって訓練され、Paul Werbosによってニューラルネットワークに導入されました。

階層的時間的記憶は、新皮質の構造的およびアルゴリズム的特性のいくつかをモデル化するアプローチである。

手短に言えば、ほとんどのニューラルネットワークは、手で作成されたニューロトポロジである種の勾配降下を使用します。 しかしながら、Uberのようないくつかの研究グループは、新しいニューラルネットワークのトポロジーと重みを変化させる単純な神経進化が、洗練された勾配降下アプローチと競合するかもしれないと主張する。 神経進化の利点の1つは、「行き止まり」に巻き込まれにくいということです。

ディープフィードフォワードニューラルネットワーク
ディープ・ラーニングとは、人為的なリンクの長い連鎖を学習できる人工的なニューラル・ネットワークです。 例えば、6つの隠れ層を有するフィードフォワードネットワークは、7リンクの因果連鎖(6つの隠れ層+出力層)を学習することができ、「クレジット割り当て経路」(CAP)深さは7である。 多くの深い学習システムでは、10個以上の因果関係のリンクが長さで学習できる必要があります。 深い学習は、コンピュータビジョン、音声認識、自然言語処理など、人工知能の多くの重要なサブフィールドを変えました。

ある概要によれば、1986年にRina Dechterによって「Deep Learning」という表現がMachine Learningコミュニティに導入され、Igor Aizenbergらが2000年にArtificial Neural Networksに導入した後、牽引力を得ました。最初の機能的なDeep Learningネットワークは、Alexey Grigorevich IvakhnenkoとVG Lapaが1965年に設立されました。[page needed]これらのネットワークは一度に1層ずつ訓練されています。 Ivakhnenkoの1971年の論文は、多くの後のネットワークよりもはるかに深い、8層の深いフィードフォワード多層パーセプトロンの学習について記述しています。 2006年にGeoffrey HintonとRuslan Salakhutdinovが発行した出版物では、一度に1階層ずつ複数階層のフィードフォワードニューラルネットワーク(FNN)を事前にトレーニングし、各層を監督されていない制限付きボルツマンマシンとして順番に処理し、次に監督付きバックプロパゲーション微調整。 深いニューラルネットワークは、浅い人工ニューラルネットワークと同様に、複雑な非線形関係をモデル化することができます。 ここ数年、機械学習アルゴリズムとコンピュータハードウェアの進歩により、数多くの非線形隠れ単位の層と非常に大きな出力層を含む深いニューラルネットワークを訓練するためのより効率的な方法が得られました。

ディープ・ラーニングは、畳み込みニューラル・ネットワーク(CNN)を使用することが多く、1980年に福島邦彦によって導入されたネオコグニトロンに由来しています。1989年、Yann LeCunらは、このようなアーキテクチャにバックプロパゲーションを適用しました。 2000年代の初め、工業用アプリケーションでは、CNNは既に米国で書かれた小切手のうち推定10〜20%を処理していました。 2011年以来、GPU上のCNNの高速実装は、多くの視覚パターン認識競争に勝っています。

12畳み込みレイヤーを持つCNNは、Deepmindの「AlphaGo Lee」による強化学習と組み合わせて使用​​されました。このプログラムは、2016年にGo Goチャンピオンを倒すプログラムです。

深いリカレントニューラルネットワーク
初期段階では、理論的にチューリングが完了し、任意のプログラムを実行して任意の入力シーケンスを処理できるリカレントニューラルネットワーク(RNN)によるシーケンス学習にも深い学習が適用されました。 RNNの深度は無制限であり、入力シーケンスの長さに依存します。 したがって、RNNは深い学習の一例です。 RNNは勾配降下によって訓練することができるが、勾配の消失の問題がある。 1992年には、リカレントニューラルネットワークのスタックの監督されていない事前トレーニングが、深刻なシーケンシャル問題のその後の監督された学習をスピードアップできることが示されました。

多くの研究者は、1997年にHochreiter&Schmidhuberによって出版されたLSTM(long-term-term memory)ネットワークと呼ばれる深刻な学習反復NNの変種を使用しています。LSTMはしばしばConnectionist Temporal Classification(CTC)によって訓練されます。 Google、Microsoft、Baiduでは、このアプローチが音声認識に革命をもたらしました。 たとえば、2015年にGoogleの音声認識では、CTCでトレーニングされたLSTMを使用して49%という劇的な性能向上を達成しました.LSTMは現在、Google Voiceを通じて数十億のスマートフォンユーザーに提供されています。 Googleでは、機械翻訳、言語モデリング、多言語処理の改善にLSTMを使用しました。 LSTMとCNNを組み合わせることで、自動画像キャプションや他の多くのアプリケーションも改善されました。

進捗の評価
AIは、電気や蒸気機関のように、汎用技術です。 AIがどんな仕事をするのかをどのように特徴づけるかについては、コンセンサスがありません。 AlphaZeroのようなプロジェクトは独自の知識をゼロから作成することに成功しましたが、他の多くの機械学習プロジェクトでは大規模なトレーニングデータセットが必要です。 研究者Andrew Ngは、「非常に不完全な経験則」として、「典型的な人間が約1秒未満の精神的思考でできることはほとんど、現在または近い将来AIを使用して自動化することができる」と提案しています。 Moravecのパラドックスは、人間の脳が具体的に進化してうまくいくという多くの作業でAIが人間に遅れることを示唆しています。

ゲームは、進歩率を評価するためのよく知られたベンチマークを提供します。 2016年ごろのAlphaGoは、古典的なボードゲームのベンチマークの時代を近づけました。 不完全な知識のゲームは、ゲーム理論の領域でAIに新たな課題をもたらします。 スタークラフトなどのEスポーツは、引き続きパブリックベンチマークを追加提供しています。 人工知能の研究を促進するために、Imagenet Challengeのような多くの競技や賞があります。 競争の主な分野には、一般的な機械知能、会話行動、データマイニング、ロボット車、ロボットサッカー、従来のゲームなどがあります。

“模倣ゲーム”(コンピュータを人間が模倣できるかどうかを評価する1950年のチューリングテストの解釈)は、今日でも有意義なベンチマークとなるほど悪用可能であると考えられている。 チューリングテストの派生物は、完全に自動化された公共チューリングテストであり、コンピュータと人間を区別するためのものです(CAPTCHA)。 名前が示すように、これは、ユーザーが実際の人間であり、人間として姿を現しているコンピュータではないと判断するのに役立ちます。 標準的なチューリングテストとは対照的に、CAPTCHAはマシンによって管理され、人間によって管理されるのではなく、人間をターゲットとし、マシンをターゲットとします。コンピュータは、ユーザに簡単なテストを完了するように尋ね、そのテストのグレードを生成する。コンピュータは問題を解決することができないため、正しい解決策は、テストを受けた人の結果であるとみなされます。一般的なタイプのCAPTCHAは、コンピュータによって解読不可能な画像に現れる歪んだ文字、数字または記号のタイプ入力を必要とするテストです。

提案された「ユニバーサルインテリジェンス」テストは、マシン、人間、さらには人間以外の動物でさえも、可能な限り一般的な問題のセットでどれだけうまく動作するかを比較することを目的としています。極端な場合、テストスイートには、Kolmogorovの複雑さによって重み付けされた、考えられるすべての問題を含めることができます。残念なことに、これらの問題セットは、調整されたAIが人間のパフォーマンスレベルを簡単に超えることができる貧困パターンマッチング訓練によって支配される傾向があります。