인공 지능

인공 지능 (인공 지능) (인공 지능)은 때로는 기계 지능이라고도하며 인간이나 다른 동물에 의해 나타나는 자연 지능과는 달리 기계에 의해 입증 된 지능입니다. 컴퓨터 과학에서 인공 지능 연구는 “지능형 에이전트”의 연구로 정의됩니다. 즉, 환경을 인식하고 목표를 성공적으로 달성 할 수있는 기회를 최대화하는 장치입니다. 말하자면, “인공 지능”이라는 용어는 인간이 “학습”과 “문제 해결”과 같은 다른 인간의 마음과 관련시키는 “인지”기능을 모방 할 때 적용됩니다.

인공 지능의 범위는 논쟁의 여지가 있습니다. 기계가 점점 더 유용 해짐에 따라, “지능”을 필요로하는 것으로 간주되는 작업은 종종 인공 지능으로 알려진 현상에서 제거되어 “AI는 아직 수행되지 않은 작업입니다. “예를 들어, 광학 문자 인식은 종종”인공 지능 “에서 제외되어 일상적인 기술이되었습니다. 일반적으로 인공 지능으로 분류 된 현대 기계 기능은 인간의 말을 성공적으로 이해하고, 전략적인 게임 시스템 (예 : 체스와 고 등)에서 최고 수준으로 경쟁하고, 자율적으로 운행하는 차량과, 컨텐츠 전달 네트워크 및 군사 시뮬레이션에서 인텔리전트 라우팅을 포함합니다.

인공 지능은 1956 년에 학문 분야로 창립되었으며 그 이후로 낙천주의의 여러 파동을 겪은 후 실망과 자금 부족 ( “AI 겨울”이라고 함), 새로운 접근법, 성공 및 재원 조달 . AI 연구의 역사는 대부분 서로 통신하지 못하는 하위 필드로 나뉘어져 있습니다. 이 하위 필드는 특정 목표 (예 : “로봇 공학”또는 “기계 학습”), 특정 도구 ( “논리”또는 인공 신경망) 사용 또는 심오한 철학적 차이와 같은 기술적 고려 사항을 기반으로합니다. 하위 필드는 또한 사회적 요인 (특정 기관 또는 특정 연구자의 작업)을 기반으로합니다.

인공 지능 연구의 전통적인 문제 (또는 목표)에는 추론, 지식 표현, 계획, 학습, 자연어 처리, 인식 및 객체 이동 및 조작 기능이 포함됩니다. 일반 정보는 현장의 장기 목표 중 하나입니다. 접근법에는 통계적 방법, 전산 지능 및 전통적인 기호 AI가 포함됩니다. 검색 및 수학적 최적화 버전, 인공 신경망 및 통계, 확률 및 경제성에 기반한 방법을 비롯한 많은 도구가 인공 지능에서 사용됩니다. 인공 지능 분야는 컴퓨터 과학, 정보 공학, 수학, 심리학, 언어학, 철학 등 많은 분야에서 활용됩니다.

이 분야는 인간의 지능이 “정확하게 기계를 시뮬레이션 할 수 있도록 기술 될 수있다”는 주장에 근거를두고 있습니다. 이것은 고대의 신화, 허구 및 철학에 의해 탐구 된 문제와 같은 인간의 지성으로 부여 된 인공 존재를 창조하는 마음과 윤리의 본질에 관한 철학적 주장을 제기한다. AI가 인류에게 위험 할 수도 있다고 생각하는 사람들도 있습니다. 다른 사람들은 AI가 이전의 기술 혁명과 달리 대량 실업의 위험을 초래할 것이라고 믿습니다. 그러나 Google은 인류에게 유익한 AI를 개발하기위한 글로벌 콘테스트를 개최하고 있습니다

21 세기에 인공 지능 기법은 컴퓨터 성능, 많은 양의 데이터 및 이론적 이해의 동시 발전에 따라 부활을 경험했습니다. 인공 지능 기술은 컴퓨터 과학, 소프트웨어 엔지니어링 및 운영 연구에서 많은 문제를 해결하는 데 도움이되는 기술 산업의 필수 부분이되었습니다.

구혼
AI 연구를 안내하는 통합 된 이론이나 패러다임은 없다. 연구원들은 많은 논점에 동의하지 않습니다. 인공 지능이 심리학이나 신경 생리학을 연구하여 자연 지능을 시뮬레이션해야합니까? 답을 찾지 못했습니다. 또는 조류 생물학이 항공 공학과 관련되어 있기 때문에 AI 연구와 관련이없는 인간 생물학입니까? 지능적인 동작을 간단하고 우아한 원칙 (예 : 논리 또는 최적화)을 사용하여 설명 할 수 있습니까? 또는 완전히 관련이없는 수많은 문제를 해결해야 할 필요가 있습니까?

인공 두뇌와 뇌 시뮬레이션
1940 년대와 1950 년대에, 많은 연구자들이 신경 생물학, 정보 이론, 사이버네틱스와의 관계를 탐구했다. 그들 중 일부는 W. Gray Walter의 거북이와 Johns Hopkins Beast와 같은 기초 지식을 전시하기 위해 전자 네트워크를 사용하는 기계를 만들었습니다. 이 연구원 중 많은 수는 Princeton University의 Teleological Society와 영국의 Ratio Club에서 모였습니다. 1960 년까지이 접근법은 크게 포기되었지만 1980 년대에 그 요소가 되살아났다.

상징적 인
1950 년대 중반에 디지털 컴퓨터에 대한 액세스가 가능 해지자 인공 지능 연구는 인간의 지능을 기호 조작으로 줄일 수있는 가능성을 탐구하기 시작했습니다. 이 연구는 카네기 멜론 대학 (Carnegie Mellon University), 스탠포드 대학 (Stanford University), MIT 대학 (MIT)의 3 개 기관을 중심으로 이루어졌으며, 아래에 설명 된대로 각 기관마다 자체 연구 스타일이 개발되었습니다. John Haugeland는 AI에 대한 상징적 인 접근 방법을 “good old fashioned AI”또는 “GOFAI”로 명명했습니다. 1960 년대에 상징적 인 접근법은 소규모 데모 프로그램에서 고차원 적 사고를 시뮬레이션 할 때 큰 성공을 거두었습니다. 사이 버네 틱스 (cybernetics) 또는 인공 신경망 (artificial neural network)을 기반으로 한 접근법은 버려 졌거나 배경으로 밀려났다. 1960 년대와 1970 년대의 연구원들은 상징적 인 접근법이 궁극적으로 인공 일반 정보를 가진 기계를 만드는 데 성공할 것이라고 확신하고이를 자신의 분야의 목표로 간주했습니다.

인지 시뮬레이션
이코노미스트 인 허버트 사이먼 (Herbert Simon)과 알렌 뉴웰 (Allen Newell)은 인간의 문제 해결 능력을 연구하고이를 공식화하려고 시도했으며, 그들의 작업은인지 과학, 운영 연구 및 관리 과학은 물론 인공 지능 분야의 토대를 마련했습니다. 연구팀은 심리적 실험 결과를 사용하여 사람들이 문제를 해결하는 데 사용한 기술을 시뮬레이션 한 프로그램을 개발했습니다. 카네기 멜론 대학 (Carnegie Mellon University)을 중심으로 한이 전통은 결국 1980 년대 중반에 Soar 건축의 발전으로 절정에 이르렀습니다.

논리 기반
Simon과 Newell과는 달리 John McCarthy는 기계가 인간의 생각을 시뮬레이트 할 필요가 없다고 느꼈지만 사람들이 동일한 알고리즘을 사용했는지 여부에 관계없이 추상적 인 추론과 문제 해결의 본질을 찾아야했습니다. 스탠포드 (SAIL)의 그의 연구소는 공식적인 논리를 사용하여 지식 표현, 계획 및 학습과 같은 다양한 문제를 해결하는 데 주력했습니다. 로직은 또한 에딘버러 대학과 유럽의 다른 곳에서 프로 그래 밍 언어 인 프롤로그 (Prolog)의 개발과 논리 프로그래밍 과학으로 이어진 작업의 초점이었습니다.

반대로 논리 또는 초라한
Marvin Minsky와 Seymour Papert와 같은 MIT의 연구자들은 시각과 자연 언어 처리에서 어려운 문제를 해결하는 데는 임시 솔루션이 필요하다는 것을 발견했습니다. 그들은 모든 측면을 포착 할 수있는 단순하고 일반적인 원칙 (논리처럼)이 없다고 주장했습니다. 지능적인 행동. 로저 샴크 (Roger Schank)는 그들의 “논리적”접근법을 CMU와 스탠포드의 “깔끔한”패러다임과는 달리 “초라한”것으로 묘사했다. Doug Lenat의 Cyc와 같은 상식적인 지식 기반은 한 번에 하나의 복잡한 개념으로 손으로 만들어야하기 때문에 “지저분한”인공 지능의 예입니다.

지식 기반
대용량 메모리를 갖춘 컴퓨터가 1970 년경에 사용 가능 해지자, 세 가지 전통의 연구원들이 AI 응용 프로그램에 대한 지식을 쌓기 시작했습니다. 이 “지식 혁명”은 AI 소프트웨어의 진정으로 성공적인 형태 인 전문가 시스템 (Edward Feigenbaum이 소개 한)의 개발 및 배포를 이끌었습니다. 모든 전문가 시스템에 대한 시스템 아키텍처의 핵심 구성 요소는 지식 기반이며 AI를 설명하는 사실과 규칙을 저장합니다. 지식 혁명은 또한 많은 AI 응용 프로그램에서 엄청난 양의 지식을 필요로한다는 것을 깨닫기 시작했습니다.

서브 상징적 인
1980 년대에 AI의 진보가 멈추는 것처럼 보였고 많은 사람들이 상징 시스템이 인간 인식, 특히 인식, 로봇 공학, 학습 및 패턴 인식의 모든 과정을 모방하지 못할 것이라고 많은 사람들이 믿었습니다. 많은 연구원들이 특정 인공 지능 문제에 대한 “하위 상징적”접근법을 조사하기 시작했습니다. 하위 상징적 인 방법은 지식의 특정 표현없이 지능에 접근 할 수 있습니다.

구현 된 인텔리전스
여기에는 구체화되고, 위치하고, 행동을 기반으로하며, 누벨 인공 지능이 포함됩니다. 로드니 브룩스 (Rodney Brooks)와 같은 로봇 분야의 연구자들은 상징적 인공 지능을 거부하고 로봇이 움직이고 생존 할 수 있도록하는 기본적인 공학 문제에 중점을 두었다. 그들의 연구는 1950 년대의 초기 사이버네틱스 연구자들의 비 상징적 인 관점을 되살려 냈고 인공 지능에서 제어 이론의 사용을 재 도입했다. 이것은인지 과학의 관련 분야에서 구현 된 마음 논문의 발전과 일치합니다 : 신체의 측면 (움직임, 인식 및 시각화와 같은)이 더 높은 지능에 필요하다는 생각.

발달 로봇에서 발달 학습 접근법은 로봇이 자율적 인 탐험, 인간 교사와의 사회적 상호 작용, 안내 메커니즘 (능동적 인 학습, 성숙, 운동 시너지 등)을 통해 새로운 기술의 레퍼토리를 축적 할 수 있도록 해줍니다.

전산 지능 및 소프트 컴퓨팅
신경망에 대한 관심과 “연결주의”는 1980 년대 중반에 David Rumelhart와 다른 사람들에 의해 부활되었습니다. 인공 신경 네트워크는 소프트 컴퓨팅의 한 예입니다.이 알고리즘은 완전한 논리적 확실성으로 해결할 수없는 문제에 대한 솔루션이며, 대략적인 솔루션으로는 충분합니다. AI에 대한 다른 소프트 컴퓨팅 접근법에는 퍼지 시스템, 진화 연산 및 많은 통계 도구가 포함됩니다. 인공 지능에 대한 소프트 컴퓨팅의 응용은 컴퓨터 지능의 떠오르는 분야에 의해 집합 적으로 연구됩니다.

통계 학습
전통적인 GOFAI의 상당 부분은 자신의 완구 모델에서 작동하지만 실제 결과로 일반화되지 않은 상징적 인 계산에 임시 패치가 붙어 있습니다. 그러나 1990 년대 경 AI 연구원은 경쟁 아키텍처를 비교하거나 통합하기 위해 숨겨진 Markov 모델 (HMM), 정보 이론 및 규범적인 베이지안 결정 이론과 같은 정교한 수학적 도구를 채택했습니다. 공유 된 수학 언어는 수학, 경제 또는 운영 연구와 같은보다 확고한 분야와의 높은 수준의 협력을 가능하게했습니다. GOFAI와 비교할 때, HMM 및 신경망과 같은 새로운 “통계적 학습”기술은 데이터 마이닝과 같은 많은 실제 영역에서 정확성을 얻고 있었지만 반드시 데이터 집합의 의미 론적 이해를 얻지 못했습니다. 실제 데이터의 증가 된 성공은 공유 테스트 데이터에 대한 다양한 접근 방식을 비교하는 데 중점을 두었습니다. 어떤 접근 방식이 특이한 장난감 모델이 제공하는 것보다 광범위한 상황에서 가장 잘 수행되었는지 확인합니다. 인공 지능 연구는 더욱 과학적으로 이루어졌습니다. 요즘의 실험 결과는 종종 엄격하게 측정 할 수 있으며 때로는 재현하기가 어렵습니다. 다른 통계적 학습 기법에는 다른 한계가 있습니다. 예를 들어 기본 HMM은 자연 언어의 무한한 가능한 조합을 모델링 할 수 없습니다. 비평가들은 GOFAI에서 통계 학습으로 전환하는 것이 Explainable AI에서 벗어나는 경우가 많음을 지적합니다. AGI 연구에서 일부 학자들은 통계 학습에 대한 과도한 의존에 대해주의를 기울이고 GOFAI에 대한 지속적인 연구가 일반 지능을 얻기 위해서는 여전히 필요하다고 주장한다.

접근 방식 통합

지능형 에이전트 패러다임
지능형 에이전트는 환경을 인식하고 성공 가능성을 최대화하는 조치를 취하는 시스템입니다. 가장 단순한 지능형 에이전트는 특정 문제를 해결하는 프로그램입니다. 더 복잡한 에이전트에는 인간과 조직 (예 : 기업)이 ​​포함됩니다. 이 패러다임을 통해 연구자는 주어진 “목표 기능”을 극대화하는 데 가장 적합한 에이전트를 묻는 방법으로 고립 된 문제에 대한 서로 다른 접근법을 직접 비교하거나 결합 할 수 있습니다. 특정 문제를 해결하는 에이전트는 작동하는 모든 접근법을 사용할 수 있습니다. 일부 에이전트는 상징적이고 논리적이고 일부는 상징적 인 인공 신경 네트워크이며 다른 에이전트는 새로운 접근법을 사용할 수 있습니다. 이 패러다임은 또한 연구자들에게 의사 결정 이론과 경제학과 같은 다른 분야와 의사 소통 할 수있는 공통 언어를 제공하며 추상 에이전트의 개념을 사용합니다. 완벽한 에이전트를 구축하려면 연구자가 현실적인 통합 문제를 해결해야합니다. 예를 들어, 감각 시스템은 환경에 관한 불확실한 정보를 제공하기 때문에, 계획 시스템은 불확실성이 존재할 때 기능 할 수 있어야합니다. 지능형 에이전트 패러다임은 1990 년대에 널리 받아 들여졌습니다.
에이전트 아키텍처 및인지 아키텍처
연구원은 다중 에이전트 시스템에서 상호 작용하는 지능형 에이전트로 지능형 시스템을 구축 할 수있는 시스템을 설계했습니다. 계층 적 제어 시스템은 가장 낮고 반응성이 높은 수준의 하위 상징적 AI와 최고 수준의 전통적인 상징적 AI 사이의 다리 역할을하며 여유있는 시간 제약으로 계획 및 세계 모델링이 가능합니다. 일부인지 아키텍처는 좁은 문제를 해결하기 위해 맞춤형으로 제작되었습니다. Soar와 같은 다른 것들은 인간의인지를 모방하고 일반 정보에 대한 통찰력을 제공하도록 설계되었습니다. Soar의 최신 확장은 상징적 요소와 부 상징적 요소를 모두 포함하는 하이브리드 지능형 시스템입니다.

도구들

인공 지능은 컴퓨터 과학에서 가장 어려운 문제를 해결할 수있는 많은 도구를 개발했습니다. 이러한 방법 중 가장 일반적인 몇 가지 방법은 아래에서 설명합니다.

검색 및 최적화
인공 지능의 많은 문제는 가능한 많은 솔루션을 통해 지능적으로 검색하여 이론적으로 해결할 수 있습니다. 추론을 검색 수행으로 줄일 수 있습니다. 예를 들어, 논리적 증거는 전제에서 결론으로 ​​이어지는 경로를 검색하는 것으로 볼 수 있습니다. 여기서 각 단계는 유추 규칙의 적용입니다. 계획 알고리즘은 목표 및 부 목표의 나무를 탐색하고 목표 목표에 대한 경로를 찾으려는 시도, 평균 – 종료 분석이라고하는 프로세스를 검색합니다. 팔다리를 움직이거나 물건을 쥐는 로보틱스 알고리즘은 구성 공간에서 지역 검색을 사용합니다. 많은 학습 알고리즘은 최적화에 기반한 검색 알고리즘을 사용합니다.

단순한 철저한 검색만으로는 대부분의 실제 문제에 거의 충분하지 않습니다. 검색 공간 (검색 할 위치의 수)은 빠르게 천문학적 숫자로 증가합니다. 그 결과 검색 속도가 너무 느리거나 완료되지 않습니다. 이 솔루션은 많은 문제에있어 목표에 도달 할 확률이 더 높은 단계를 선택하고 더 짧은 단계에서 선택을 우선시하는 “경험적 방법”또는 “경험 법칙”을 사용합니다. 일부 검색 방법론에서 발견 적 방법은 목표로 이어지지 않을 가능성이있는 선택 사항을 완전히 없애는 역할을합니다 ( “검색 트리 제거”). 경험적 방법은 솔루션이 놓여있는 경로에 대해 “최상의 추측”을 프로그램에 제공합니다. 발견 적 방법은 솔루션 검색을 더 작은 샘플 크기로 제한합니다.

최적화의 수학적 이론에 근거하여 1990 년대에 매우 다른 종류의 검색이 눈에 띄었다. 많은 문제에서 추측의 형태로 검색을 시작한 다음 더 세분화 할 수 없을 때까지 점차적으로 추측을 수정할 수 있습니다. 이러한 알고리즘은 시각 장애인 언덕 등반과 같이 시각화 할 수 있습니다. 우리는 조경의 임의 지점에서 검색을 시작한 다음 점프 또는 단계를 통해 위로 올라갈 때까지 오르막을 계속 움직입니다. 다른 최적화 알고리즘은 시뮬레이트 된 어닐링, 빔 탐색 및 랜덤 최적화입니다.

진화 연산은 최적화 검색의 한 형태를 사용합니다. 예를 들어, 그들은 유기체 집단 (추측)에서 시작하여 돌연변이와 재결합을 허용하고, 각 세대에서 살아남을 수있는 가장 적절한 것만을 선택합니다 (추측을 다듬습니다). 고전적인 진화 알고리즘은 유전 알고리즘, 유전자 발현 프로그래밍 및 유전 프로그래밍을 포함합니다. 또는 분산 검색 프로세스는 스웜 인텔리전스 알고리즘을 통해 조정할 수 있습니다. 검색에 사용되는 두 가지 인기있는 득실 거리는 알고리즘은 입자 무리 최적화 (조류 몰려 치기에서 영감을 얻음)와 개미 식민지 최적화 (개미 산책로에서 영감을 얻음)입니다.

논리
논리는 지식 표현 및 문제 해결에 사용되지만 다른 문제에도 적용될 수 있습니다. 예를 들어, satplan 알고리즘은 계획을위한 논리를 사용하고 유도 논리 프로그래밍은 학습을위한 방법입니다.

인공 지능 연구에 여러 가지 다른 형태의 논리가 사용됩니다. 명제 논리는 “또는”과 같은 진리 기능을 포함합니다. 1 차 논리는 ​​한정사와 술어를 추가하고 객체, 객체의 속성 및 서로의 관계에 대한 사실을 표현할 수 있습니다. 퍼지 집합 이론은 “Alice is old”(부자, 키가 크거나 굶주린)와 같이 모호하거나 언어 적으로 부정확하여 완전한 진실 또는 거짓이라는 모호한 진술에 “진리의 정도”(0과 1 사이)를 부여합니다. 퍼지 논리는 제어 시스템에서 성공적으로 사용되어 전문가가 “대상국에 가깝고 빠르게 움직이는 경우 열차의 브레이크 압력을 높입니다.”와 같이 막연한 규칙을 적용 할 수 있습니다. 이러한 모호한 규칙은 시스템 내에서 수치 적으로 정제 될 수 있습니다. 퍼지 논리가 지식 기반에서 제대로 확장되지 않습니다. 많은 AI 연구자들은 연쇄 퍼지 논리 추론의 타당성에 의문을 제기하고있다.

기본 논리, 비 단조 논리 및 외접은 기본 추론 및 자격 문제를 돕기 위해 고안된 논리 형식입니다. 기술 논리와 같은 지식의 특정 영역을 처리하기 위해 여러 가지 논리 확장이 설계되었습니다. 상황 미적분, 사건 미적분 및 유창한 미적분 (사건과 시간을 나타내는); 인과 적 미적분; 신념 계산법; 모달 로직.

전반적으로, 품질 기호 논리는 취성이 있고 잡음이나 기타 불확실성이있는 경우 제대로 조정되지 않습니다. 규칙에 대한 예외는 수없이 많으며 논리적 인 시스템이 모순 된 규칙이있는 경우에도 기능하기가 어렵습니다.

불확실한 추론을위한 확률 론적 방법
AI의 많은 문제 (추론, 계획, 학습, 지각 및 로봇 공학)는 에이전트가 불완전하거나 불확실한 정보로 작동해야합니다. 인공 지능 연구원은 확률 이론과 경제학의 방법을 사용하여 이러한 문제를 해결할 수있는 강력한 도구를 고안했습니다.

베이지안 네트워크는 추론 (베이지안 유추 알고리즘 사용), 학습 (기대 최대화 알고리즘 사용), 계획 (의사 결정 네트워크 사용) 및 인식 (동적 베이지안 네트워크 사용)과 같은 많은 문제에 사용할 수있는 매우 일반적인 도구입니다. ). 확률 론적 알고리즘은 또한 필터링, 예측, 평활화 및 데이터 스트림에 대한 설명을 찾는 데 사용될 수있어 지각 시스템이 시간 경과에 따라 발생하는 프로세스 (예 : 숨겨진 마르코프 모델 또는 칼만 필터)를 분석하도록 지원합니다. 기호 논리와 비교할 때, 공식적인 베이지안 추론은 계산 상으로 비쌉니다. 추측이 다루기 쉽도록 대부분의 관찰은 조건부로 서로 독립적이어야합니다. 다이아몬드 또는 다른 “루프”(방향이없는 사이클)가있는 복잡한 그래프는 마르코프 체인 몬테 카를로와 같은 정교한 방법을 요구할 수 있습니다.이 몬테카를로는 베이지안 네트워크 전체에 무작위 워커의 앙상블을 펼치고 조건부 확률 평가에 수렴하려고합니다. 베이지안 네트워크는 Xbox Live에서 플레이어를 평가하고 일치시키는 데 사용됩니다. 승리와 패배는 플레이어가 얼마나 좋은지에 대한 “증거”입니다. 애드 센스는 3 억 개가 넘는 가장자리가있는 베이지안 네트워크를 사용하여 게재 할 광고를 확인합니다.

경제학의 핵심 개념은 “유용성 (utility)”입니다. 즉 가치있는 것의 가치가 지능형 에이전트에게 얼마나 중요한지를 측정합니다. 의사 결정 이론, 의사 결정 분석 및 정보 가치 이론을 사용하여 상담원이 선택 및 계획을 수립 할 수있는 방법을 분석하는 정확한 수학 도구가 개발되었습니다. 이러한 도구에는 Markov 결정 프로세스, 동적 결정 네트워크, 게임 이론 및 메커니즘 설계와 같은 모델이 포함됩니다.

분류 자 및 통계 학습 방법
가장 단순한 AI 응용 프로그램은 분류 자 ​​( “반짝이는 다이아몬드이면”)와 컨트롤러 ( “반짝이는 경우에는 픽업”)의 두 가지 유형으로 나눌 수 있습니다. 그러나 컨트롤러는 행동을 추론하기 전에 조건을 분류하기 때문에 분류는 많은 AI 시스템의 핵심 부분을 형성합니다. 분류 자 (Classifier)는 가장 일치하는 것을 판별하기 위해 패턴 일치를 사용하는 함수입니다. 예제에 따라 튜닝하여 AI에서 사용하기에 매우 적합합니다. 이러한 예는 관측이나 패턴으로 알려져 있습니다. 감독 학습에서 각 패턴은 미리 정의 된 특정 클래스에 속합니다. 수업은 결정을 내리는 것으로 볼 수 있습니다. 클래스 레이블과 결합 된 모든 관측치를 데이터 세트라고합니다. 새로운 관찰이 수신되면, 그 관찰은 이전의 경험을 바탕으로 분류됩니다.

분류기는 다양한 방법으로 훈련 될 수 있습니다. 많은 통계 및 기계 학습 방법이 있습니다. 의사 결정 트리는 아마도 가장 널리 사용되는 기계 학습 알고리즘 일 것입니다. 다른 널리 사용되는 분류기는 신경망, k- 최근 접 이웃 알고리즘, SVM (Support Vector Machine), Gaussian 혼합 모델 및 매우 대중적인 순진 베이 즈 분류기와 같은 커널 메소드입니다. 분류 자 성능은 데이터 집합 크기, 차원 및 노이즈 수준과 같이 분류 할 데이터의 특성에 크게 의존합니다. 모델 기반 분류기는 가정 된 모델이 실제 데이터에 매우 적합하면 잘 수행됩니다. 그렇지 않은 경우, 일치하는 모델을 사용할 수없고 정확성 (속도 또는 확장 성보다는)이 유일한 관심사 인 경우, 기존의 지혜는 차별적 분류기 (특히 SVM)가 “순진한 베이 즈 (naive Bayes)”와 같은 모델 기반 분류기보다 더 정확 해지는 경향이 있다는 것입니다 가장 실용적인 데이터 세트.

인공 신경 네트워크
신경 네트워크 또는 신경망은 인간 두뇌의 뉴런 구조에 의해 영향을 받았습니다. 간단한 “뉴런”N은 여러 개의 다른 뉴런으로부터 입력을 받아들입니다. 각 뉴런은 활성화 (또는 “실행”) 될 때 뉴런 N이 활성화되어야하는지 여부에 대해 가중치가 적용된 “투표”를 수행합니다. 학습에는 학습 데이터를 기반으로 이러한 가중치를 조정하는 알고리즘이 필요합니다. 하나의 간단한 알고리즘 ( “함께 파이어 링, 와이어”라고 함)은 하나의 활성화가 다른 하나의 활성화를 트리거 할 때 연결된 두 뉴런 사이의 가중치를 증가시키는 것입니다. 그물은 함께 발생하는 공유 뉴런의 서브 네트워크 사이에 분포 된 “개념”을 형성합니다. “다리”를 의미하는 개념은 “발”을위한 소리를 포함하는 “발”을 의미하는 서브 네트워크와 결합 될 수 있습니다. 뉴런은 지속적으로 활성화됩니다. 또한 뉴런은 직접적인 표의 무게를 측정하는 대신 비선형 방식으로 입력을 처리 할 수 ​​있습니다. 현대 신경망은 지속적인 기능과 놀라 울 정도로 디지털 논리 연산을 학습 할 수 있습니다. 뉴럴 네트워크의 초기 성공에는 주식 시장과 (1995 년에) 대부분자가 운전하는 자동차를 예측하는 것이 포함되었습니다. 2010 년에는 깊은 학습을 사용하는 신경 네트워크의 발전으로 AI가 대중의 의식을 넓히고 기업의 AI 지출에 엄청난 변화를 가져 왔습니다. 예를 들어 2017 년 인공 지능 관련 M & A는 2015 년의 25 배가 넘었습니다.

비 – 학습 인공 신경 네트워크에 대한 연구는 Walter Pitts와 Warren McCullouch의 연구에서 인공 지능 연구가 시작되기 10 여년 전부터 시작되었습니다. 프랭크 로젠 블랏 (Frank Rosenblatt)은 기존의 선형 회귀 개념과 비슷한 단일 레이어의 학습 네트워크 인 퍼셉트론 (perceptron)을 발명했습니다. 초기 개척자에는 Alexey Grigorevich Ivakhnenko, Teuvo Kohonen, Stephen Grossberg, Kunihiko Fukushima, Christoph von der Malsburg, David Willshaw, Amun Shun-Ichi, Bernard Widrow, John Hopfield, Eduardo R. Caianiello 등이 있습니다.

네트워크의 주요 범주는 비순환 또는 피드 포워드 신경망 (신호가 한 방향으로 만 전달되는)과 반복적 인 신경망 (이전 입력 이벤트에 대한 피드백과 단기 기억을 허용)입니다. 가장 널리 사용되는 피드 포워드 네트워크로는 퍼셉트론 (perceptron), 멀티 레이어 퍼셉트론 (multi-layer perceptron) 및 래디얼 기반 네트워크 (radial basis network)가 있습니다. 신경 회로망은 Hebbian learning ( “함께 불, 연결”), GMDH 또는 경쟁 학습과 같은 기술을 사용하여 지능형 제어 (로봇 용) 또는 학습의 문제에 적용될 수 있습니다.

오늘날, 신경망은 1970 년 이후 Seppo Linnainmaa가 발표 한 자동 차별화의 역방향 모드로 사용 되어온 폴 프로 웍스 (Paul Werbos)의 신경 네트워크에 도입 된 역 전파 알고리즘 (backpropagation algorithm)으로 훈련됩니다.

계층 적 임시 메모리는 신피질의 구조적 및 알고리즘 적 속성 중 일부를 모델링하는 접근법입니다.

간단히 말해서, 대부분의 신경망은 수작업으로 만들어진 신경 토폴로지에서 어떤 형태의 그래디언트 디센트를 사용합니다. 그러나 Uber와 같은 일부 연구 그룹은 새로운 신경 네트워크 토폴로지와 가중치를 변경하는 간단한 신경 진화가 정교한 그래디언트 강하 접근법과 경쟁 할 수 있다고 주장합니다. 신경 진화의 한 가지 이점은 “막 다른 골목들”에서 잡히지 않는 경향이 있다는 것입니다.

깊은 피드 포워드 신경 네트워크
딥 학습은 인과 관계의 긴 사슬을 배울 수있는 인공 신경망입니다. 예를 들어 6 개의 숨겨진 레이어가있는 피드 포워드 네트워크는 7 개의 링크 인과 관계 체인 (6 개의 숨겨진 레이어 + 출력 레이어)을 학습 할 수 있으며 “신용 할당 경로”(CAP) 깊이가 7입니다. 많은 심층 학습 시스템은 10 개 이상의 인과 관계를 체인에서 학습 할 수 있어야합니다. 깊은 학습은 컴퓨터 비전, 음성 인식, 자연어 처리 및 기타를 포함하여 인공 지능의 많은 중요한 하위 분야를 변형 시켰습니다.

한 가지 개요에 따르면, “Deep Learning”이라는 표현은 1986 년 Rina Dechter가 Machine Learning 커뮤니티에 소개 한 것으로 Igor Aizenberg와 동료가 2000 년 Art Neural Networks에 소개 한 후 견인을 받았다. 첫 번째 기능적 Deep Learning 네트워크는 Alexey Grigorevich Ivakhnenko와 VG Lapa가있다. [page needed]이 네트워크는 한 번에 한 레이어 씩 훈련된다. Ivakhnenko의 1971 년 논문은 8 개의 레이어를 가진 깊은 피드 포워드 (feedforward) 다층 퍼셉트론의 학습을 기술하고 있는데, 이는 나중에 많은 네트워크보다 훨씬 더 깊다. 2006 년 Geoffrey Hinton과 Ruslan Salakhutdinov의 출판물은 한 번에 한 레이어 씩 여러 계층의 피드 포워드 신경망 (FNN)을 사전 교육하는 다른 방법을 도입하여 각 레이어를 감독되지 않은 제한된 볼츠만 컴퓨터로 차례대로 처리 한 다음에 감독 된 역 전파를 사용했습니다. 미세 조정. 얕은 인공 신경 네트워크와 마찬가지로 심 신경 네트워크는 복잡한 비선형 관계를 모델링 할 수 있습니다. 지난 몇 년 동안 기계 학습 알고리즘과 컴퓨터 하드웨어의 발전으로 많은 수의 비선형 숨겨진 유닛과 매우 큰 출력 레이어가 포함 된 심 신경 네트워크를 훈련하는 데보다 효율적인 방법이되었습니다.

깊은 학습은 종종 CNN (convolutional neural network)을 사용하는데, 1980 년 Kunihiko Fukushima가 소개 한 Neocognitron으로 거슬러 올라갑니다. 1989 년 Yann LeCun과 동료들은 이러한 아키텍처에 백 프로 퍼 게이트 (backpropagation)를 적용했습니다. 2000 년대 초반 산업 응용 프로그램에서 CNN은 이미 미국에서 작성된 수표 중 약 10 ~ 20 %를 처리했습니다. 2011 년 이래로 GPU에서의 CNN 구현이 빠른 속도로 많은 시각 패턴 인식 대회에서 우승했습니다.

12 개의 길쌈 레이어가있는 CNN은 Deepmind의 “AlphaGo Lee”에 의한 보강 학습과 함께 사용되었습니다.이 프로그램은 2016 년 최고의 Go 챔피언을 이길 것입니다.

깊은 재발 신경망
조기에, 심층 학습은 이론적으로 Turing 완전하고 반복적 인 신경망 (RNNs)을 이용한 시퀀스 학습에도 적용되었으며 임의의 프로그램을 실행하여 임의의 입력 시퀀스를 처리 할 수 ​​있습니다. RNN의 깊이는 무제한이며 입력 시퀀스의 길이에 따라 다릅니다. 따라서 RNN은 심층 학습의 한 예입니다. RNN은 그래디언트 디센트로 훈련 될 수 있지만 사라지는 그래디언트 문제로 어려움을 겪습니다. 1992 년에는 재발 성 신경 네트워크의 스택에 대한 감독되지 않은 사전 훈련이 깊은 연속 문제의 감독 학습을 가속화 할 수 있음이 나타났습니다.

많은 연구자들이 Hochreiter & amp;에 의해 발표 된 long short-term memory (LSTM) 네트워크라고 불리는 깊은 학습 반복 NN의 변종을 사용하고 있습니다. Schmidhuber 1997 년. LSTM은 종종 연결주의 시간 분류 (CTC)에 의해 훈련받습니다. Google, Microsoft 및 Baidu에서는 이러한 접근 방식이 음성 인식에 혁명을 가져 왔습니다. 예를 들어 2015 년 Google의 음성 인식 기술은 CTC에서 교육받은 LSTM을 통해 49 %의 놀라운 성능 향상을 보였습니다. LSTM은 현재 Google Voice를 통해 수십억 명의 스마트 폰 사용자에게 제공되고 있습니다. Google은 또한 LSTM을 사용하여 기계 번역, 언어 모델링 및 다국 언어 처리 기능을 향상 시켰습니다. CNN과 결합 된 LSTM은 또한 자동 이미지 캡션과 많은 다른 응용 프로그램을 개선했습니다.

진행 상황 평가
AI는 전기 또는 증기 기관과 마찬가지로 범용 기술입니다. AI가 어떤 작업을 수행하는 경향이 있는지에 대한 의견 일치는 없습니다. AlphaZero와 같은 프로젝트가 처음부터 자신의 지식을 생성하는 데 성공했지만 많은 다른 기계 학습 프로젝트에는 대규모 교육 데이터 세트가 필요합니다. 연구원 앤드류 응 (Andrew Ng)는 “매우 불완전한 경험의 법칙”으로 “전형적인 인간이 정신적 사고의 1 초도 채 안되면 할 수있는 거의 모든 것, 우리는 현재 또는 가까운 미래에 인공 지능을 사용하여 자동화 할 수 있습니다”라고 제안했습니다. Moravec의 역설은 인공 지능이 인간의 두뇌가 잘 수행되도록 특별히 진화 한 많은 작업에서 인간을 뒤지게한다는 것을 암시합니다.

게임은 진행률을 평가할 수있는 잘 알려진 벤치 마크를 제공합니다. 2016 년경 AlphaGo는 고전적인 보드 게임 벤치 마크의 시대를 마감했습니다. 불완전한 지식의 게임은 게임 이론 분야에서 AI에게 새로운 도전을 제공합니다. 스타 크래프트 (StarCraft)와 같은 E-sports는 계속해서 공개 벤치 마크를 제공합니다. 인공 지능 분야의 연구를 촉진하기 위해 Imagenet Challenge와 같은 많은 대회 및 상들이 있습니다. 경쟁의 주요 영역에는 일반 기계 지능, 대화식 행동, 데이터 마이닝, 로봇 자동차, 로봇 축구 및 기존 게임이 포함됩니다.

“모방 게임”(컴퓨터가 인간을 모방 할 수 있는지 평가하는 1950 년 튜링 테스트의 해석)은 요즘 의미있는 벤치 마크가 되기에도 너무 악용 될 수 있다고 여겨집니다. Turing 테스트의 파생물은 컴퓨터와 인간에게 별개 (CAPTCHA)라고 말하는 완전 자동화 된 공용 튜링 테스트입니다. 이름에서 알 수 있듯이 이는 사용자가 실제 사람이고 컴퓨터로 사람이 아니라는 것을 결정하는 데 도움이됩니다. In contrast to the standard Turing test, CAPTCHA is administered by a machine and targeted to a human as opposed to being administered by a human and targeted to a machine. A computer asks a user to complete a simple test then generates a grade for that test. Computers are unable to solve the problem, so correct solutions are deemed to be the result of a person taking the test. A common type of CAPTCHA is the test that requires the typing of distorted letters, numbers or symbols that appear in an image undecipherable by a computer.

Proposed “universal intelligence” tests aim to compare how well machines, humans, and even non-human animals perform on problem sets that are generic as possible. At an extreme, the test suite can contain every possible problem, weighted by Kolmogorov complexity; unfortunately, these problem sets tend to be dominated by impoverished pattern-matching exercises where a tuned AI can easily exceed human performance levels.