인공 지능의 철학

인공 지능은 철학과 밀접한 관련이 있습니다. 왜냐하면 두 가지 개념 모두 지능, 행동, 의식, 인식론, 심지어 자유 의지까지 포함하기 때문입니다. 또한,이 기술은 인공 동물이나 인공 사람 (또는 적어도 인공 동물)의 창조에 관심을 가지므로이 분야는 철학자에게 상당한 관심을 끈다. 이러한 요인들은 인공 지능 철학의 출현에 기여했습니다. 일부 학자들은 인공 지능 공동체의 철학 철폐는 해로운 것이라고 주장한다.

인공 지능의 철학은 다음과 같은 질문에 대답하려고 시도합니다.

기계가 지능적으로 작동 할 수 있습니까? 사고로 해결할 수있는 문제를 해결할 수 있습니까?
인간 지성과 기계 지능이 같은가요? 인간의 뇌는 근본적으로 컴퓨터입니까?
인간이 할 수있는 것과 같은 방식으로 기계가 정신, 정신 상태 및 의식을 가질 수 있습니까? 사물이 어떤지 느낄 수 있습니까?

이 세 가지 질문은 인공 지능 연구자, 언어 학자,인지 과학자 및 철학자의 서로 다른 이해 관계를 반영합니다. 이 질문에 대한 과학적 대답은 “지능”과 “의식”의 정의와 정확히 “기계”가 논의되는 것에 달려 있습니다.

AI의 철학에서 중요한 제안은 다음과 같습니다 :

튜링의 “공손한 컨벤션”: 기계가 인간처럼 지능적으로 행동하면 인간처럼 지능적입니다.
다트머스 (Dartmouth)의 제안은 “학습의 모든 측면이나 지능의 다른 요소를 기계가 시뮬레이션 할 수 있도록 정확하게 묘사 될 수 있습니다.”
Newell과 Simon의 물리적 기호 체계 가설 : “물리적 기호 체계는 일반적이고 지능적인 행동의 필요하고 충분한 수단을 가지고있다.”
Searle의 강력한 인공 지능 가설 : “올바른 입력과 출력을 가진 적절하게 프로그램 된 컴퓨터는 인간이 가진 마음과 똑같은 생각을 가질 것입니다.”
홉스 (Hobbes)의 메커니즘 : ” ‘이유’에 대해 … 우리의 생각을 ‘표시’하고 ‘의미를 부여하기’위해 동의 한 일반 명칭의 결과를 더하고 빼는 ‘계산법’

기계가 일반 지능을 표시 할 수 있습니까?
인간이 지능을 사용하여 해결하는 모든 문제를 해결할 수있는 기계를 만드는 것이 가능합니까? 이 질문은 미래에 어떤 기계가 할 수 있는지에 대한 범위를 정의하고 인공 지능 연구의 방향을 제시합니다. 그것은 기계의 행동에만 관련되며 심리학자,인지 과학자 및 철학자에게 관심있는 문제는 무시합니다. 이 질문에 대답하기 위해 컴퓨터가 실제로 생각하고있는 것처럼 (생각하는 것처럼) 또는 생각하는 것처럼 행동하고 있는지 여부는 중요하지 않습니다.

대부분의 인공 지능 연구원들의 기본 입장은 1956 년 다트머스 워크숍의 제안에 나타난이 성명서에서 요약됩니다.

학습의 모든 측면이나 지능의 다른 특징을 정확하게 묘사하여 기계가이를 시뮬레이션 할 수 있습니다.
기본 전제에 대한 논거는 컴퓨터의 능력에 대한 실질적인 제한이 있거나 생각에 필요하지만 인간의 마음의 특별한 품질이 있다고 생각하기 때문에 작동하는 인공 지능 시스템을 구축하는 것이 불가능하다는 것을 입증해야합니다. machine (또는 현재 인공 지능 연구의 방법으로). 기본 전제를지지하는 주장은 그러한 시스템이 가능하다는 것을 보여 주어야한다.

질문에 대답하는 첫 번째 단계는 “정보”를 명확하게 정의하는 것입니다.

지성

튜링 테스트
Alan Turing은 지능을 정의하는 문제를 대화에 관한 간단한 질문으로 축소했습니다. 그는 다음과 같이 제안합니다. 기계가 일반인과 동일한 단어를 사용하여 질문에 답할 수 있으면 그 기계를 지능형이라고 부를 수 있습니다. 그의 실험 디자인의 현대 버전은 참가자 중 한 명이 실제 사람이고 참가자 중 한 명이 컴퓨터 프로그램 인 온라인 대화방을 사용합니다. 이 프로그램은 아무도 두 참가자 중 누구에게 사람인지 알 수없는 경우 테스트를 통과합니다. Turing은 아무도 (철학자를 제외하고) “사람들이 생각할 수 있는가?”라는 질문을하지 않는다고 말합니다. 그는 “이 시점에서 계속 논쟁하는 대신 모든 사람이 생각하는 예의 바른 대회를 갖는 것이 일반적입니다.”라고 쓴다. 튜링 (Turing)의 테스트는이 정중 한 협약을 기계로 확대합니다.

기계가 인간처럼 지능적으로 작동하면 인간처럼 지능적입니다.
튜링 (Turing) 테스트에 대한 한 가지 비평은 그것이 명백하게 의인화 된 것입니다. 우리의 궁극적 인 목표가 사람보다 지능적인 기계를 만드는 것이라면 왜 우리는 우리의 기계가 사람과 매우 흡사해야한다고 주장해야 하는가? [이 인용문은 인용이 필요하다] Russell과 Norvig은 “항공 공학 텍스트는 그들의 목표를 정의하지 않는다. 필드는 ‘비둘기처럼 정확하게 날아 다른 비둘기를 속일 수있는 기계를 만드는 것’ ‘이라고 말합니다.

지능형 에이전트 정의

최근 A.I. 연구는 지능형 에이전트의 관점에서 지능을 정의합니다. “에이전트”는 환경에서 인식하고 작동하는 것입니다. “성과 척도”는 상담원의 성공 여부를 결정합니다.

에이전트가 과거의 경험과 지식을 기반으로 성능 측정 값의 예상 값을 최대화하도록 작동하면 이는 지능적입니다.
이 같은 정의는 지능의 본질을 포착하려고합니다. 그들은 튜링 테스트와 달리 우리가 모욕적 인 능력이나 거짓말을하기 쉬운 유혹과 같은 지능적인 것을 고려하고 싶지 않은 인간의 특성을 테스트하지 않는다는 이점이 있습니다. 그들은 “생각하는 것”과 “그렇지 않은 것”사이의 상식적인 구분을하지 못한다는 단점이 있습니다. 이 정의에 따르면 서모 스탯조차도 초보적인 지능을 가지고 있습니다.

기계가 일반 지능을 표시 할 수있는 인수

두뇌를 시뮬레이션 할 수 있습니다.
휴 버트 드레퓌스 (Hubert Dreyfus)는이 논증을 “신경계가 물리학 및 화학의 법칙에 순종한다면, 우리는 그것을 가정 할 모든 이유가있다. 그러면 우리는 … 인간의 행동을 재현 할 수 있어야한다. 육체적 인 장치를 가진 신경계 “. 이 논쟁은 1943 년 초에 처음 소개되었으며 1988 년 한스 모라벡 (Hans Moravec)에 의해 생생하게 기술되었다. 미래의 레이 커즈와일 (Ray Kurzweil)은 컴퓨터의 힘이 2029 년까지 완전한 두뇌 시뮬레이션을 수행하기에 충분할 것으로 추정한다. 비 실시간 인간 뇌 (1011 뉴런)의 크기를 갖는 시상막 모델의 시뮬레이션은 2005 년에 수행되었으며 27 개의 프로세서 클러스터에서 1 초의 뇌 역학을 시뮬레이션하는 데 50 일이 걸렸습니다.

이론에 따르면 뇌 시뮬레이션이 가능하다는 의견은 거의 없다 [Hubert Dreyfus와 John Searle와 같은 인공 지능의 비평가조차도]. 그러나 Searle은 원칙적으로 컴퓨터로 모든 것을 시뮬레이션 할 수 있다고 지적합니다. 따라서 그 정의를 파 단점으로 가져 오면 모든 프로세스가 기술적으로 “계산”으로 간주 될 수 있다는 결론이 도출됩니다. “우리가 알고 싶은 것은 온도 조절 장치와 간과 마음을 구별하는 것입니다. 따라서 단순히 뇌의 기능을 모방하는 것은 그 자체로 지성과 정신의 본질에 관한 무지를 인정하는 것일뿐입니다.

인간의 사고는 심볼 프로세싱입니다.
1963 년 앨런 뉴웰 (Allen Newell)과 허버트 에이 시몬 (Herbert A. Simon)은 “기호 조작”이 인간과 기계의 지능의 본질이라고 제안했다. 그들은 작성했다:

물리적 기호 체계는 일반적이고 지능적인 행동의 필요하고 충분한 수단을 가지고있다.
이 주장은 매우 강하다. 그것은 인간의 사고가 상징 조작의 일종 (상징 체계가 지성을 위해 필요하기 때문에)과 기계가 지능적 일 수 있다는 (상징 체계가 지성을 위해 충분하기 때문에) 것을 의미한다. 이 입장의 또 다른 버전은 그것을 “심리적 가정”이라고 부른 철학자 휴 버트 드레퓌스 (Hubert Dreyfus)에 의해 기술되었다.

마음은 정식 규칙에 따라 정보 비트로 작동하는 장치로 볼 수 있습니다.
일반적으로 과 같이 세계의 객체와 직접적으로 대응하는 고급 기호의 종류와 컴퓨터에있는 더 복잡한 기호가 구별됩니다. 신경 네트워크. John Haugeland의 “Good old fashioned 인공 지능”(GOFAI)이라고 불리는 인공 지능에 대한 초기 연구는 이러한 종류의 높은 수준의 상징에 중점을 두었습니다.

심볼 처리에 대한 인수
이러한 주장은 인간의 사고가 높은 수준의 기호 조작으로 만 이루어진 것은 아니라는 것을 보여줍니다. 그들은 인공 지능이 불가능하다는 것을 보여주지 못합니다. 단지 상징 처리 이상의 것이 필요합니다.

괴델의 반 (反) 기계 론자 주장
1931 년 커트 괴델 (Kurt Gödel)은 불완전 성 정리를 통해 주어진 규칙 체계의 논리 (예 : 상위 수준 기호 조작 프로그램)가 증명할 수 없었던 “괴델 진술”을 항상 구성 할 수 있음을 입증했습니다. 진실한 진술 임에도 불구하고, 생성 된 Gödel 진술은 주어진 시스템에서 증명할 수 없다. (생성 된 Gödel 구문의 진실성은 주어진 시스템의 일관성에 달려있다. 동일한 프로세스를 미묘하게 일관성없는 시스템에 적용하는 것은 성공한 것으로 보이지만 사실은 대신 거짓 “Gödel 구문”을 산출 할 것이다.) 더 많은 추측으로 Gödel은 인간의 마음은 올바른 이론적 근거가있는 수학적 진술 (가능한 모든 괴델 진술을 포함하여)의 진실성이나 거짓을 정확하게 결정할 수 있으며 따라서 인간의 정신력은 메커니즘으로 축소 될 수 없다. 철학자 존 루카스 (1961 년 이후)와 로저 펜 로스 (1989 년 이후)는이 철학적 반 기계 론자 주장을 옹호했다. Gödelian 반 기계 론자 논쟁은 인간 수학자의 체계 (또는 인간 수학자의 이상화)가 일관성 있고 (완전히 오류가 없으며) 자신의 일관성을 완전히 믿는다는 무해한듯한 주장에 의존하는 경향이있다. Gödel 진술에 대한 믿음을 포함하여 그 자신의 일관성으로부터 추론 된 추론). 이것은 할 수있는 튜링 기계 [비공식적 인 확장에 의한 알려진 기계식 컴퓨터]가 불가능하다는 것을 증명할 수 있습니다. 그러므로 겔 데리 안은 인간의 추론이 너무 힘이있어 기계에 모호하다고 결론을 내린다.

그러나 과학 및 수학 공동체에 대한 현대의 합의는 실제 인간의 추론이 일치하지 않는다는 것이다. 인간의 추론에 대한 일관된 “이상화 된 버전”H는 논리적으로는 H의 일관성에 대한 건전하지만 반 직관적 인 개방적인 회의론을 논리적으로 채택해야한다 (그렇지 않으면 H는 증명할 만하게 일관성이 없다). 겔델의 정리는 인간이 기계가 반복 할 수있는 것 이상의 수학적 추론 능력을 가지고 있다는 어떠한 유효한 주장도 이끌어 내지 못한다. Gödelian 반 기계 론자 논쟁은 실패에 운명 지어진다는이 합의는 인공 지능에 강력하게 제시되어있다. “전산 연구자 논문을 공격하기위한 (Gödel의 불완전한 결과) 시도는 계산 주의자들과 상당히 일치하기 때문에 불법이다. 명제.”

실용적으로 Russell과 Norvig는 괴델의 주장은 무한한 양의 기억과 시간을 감안할 때 이론적으로 증명할 수있는 것에 만 적용된다는 점에 주목한다. 실제로, 실제 기계 (인간 포함)는 유한 자원을 가지며 많은 정리를 증명하는 데 어려움을 겪습니다. 지능형이되기 위해서는 모든 것을 증명할 필요가 없습니다.

공식적으로 더글라스 호프 슈타 더 (Douglas Hofstadter)는 퓰리처 상을 수상한 책 괴델, 에셔, 바흐 (Bach : Eternal Golden Braid)에서 이러한 “겔델 진술”은 항상 시스템 자체를 언급하며 에피 메니 데스의 역설은 “이 진술은 거짓이다”또는 “나는 거짓말이다”와 같이 자신을 참조하십시오. 그러나 물론 Epimenides의 역설은 그들이 기계 이건 인간 이건 루카스 자신 이건 상관없이 진술을하는 모든 것에 적용됩니다. 중히 여기다:

루카스는이 진술의 진실성을 주장 할 수 없다.
이 진술은 사실이지만 루카스가 주장 할 수는 없습니다. 이것은 루카스 자신이 모든 사람들처럼 기계에 대해 묘사 한 것과 같은 한계에 종속된다는 것을 보여줍니다. 따라서 루카스의 주장은 무의미합니다.

인간의 추론이 계산 불가능하다고 결론을 내린 후에 Penrose는 양자 역학적 상태의 붕괴를 포함하는 가상의 계산 불가능한 프로세스가 인간에게 기존 컴퓨터에 비해 특별한 이점을 제공한다는 논란을 불러 일으켰다. 기존의 양자 컴퓨터는 Turing 계산 가능한 작업의 복잡성을 줄이는 기능 만 수행 할 수 있으며 여전히 Turing 시스템의 범위 내에서 작업으로 제한됩니다. Penrose와 Lucas의 주장에 따르면, 기존의 양자 컴퓨터는 충분하지 못하다 [이유가 무엇일까?] 그래서 Penrose는 새로운 물리학을 포함한 다른 과정, 예를 들어 자발적으로 플랑크 질량의 규모로 새로운 물리학을 나타낼 수있는 양자 중력을 추구한다. 파 함수의 양자 붕괴. 그가 제안한 이러한 상태는 뉴런 내에서 발생하고 둘 이상의 뉴런에 걸쳐 발생합니다. 그러나 다른 과학자들은 어떤 종류의 양자 계산을 사용하는 뇌에 ​​그럴듯한 유기 메커니즘이 없다고 지적하고 양자 디코 런스 (quantu decoherence)의 시간 척도가 신경 세포 발화에 영향을주기에는 너무 빠르다 고 지적했다.

드레퓌스 : 무의식적 인 기술의 우위
휴 버트 드레퓌스 (Hubert Dreyfus)는 인간의 지능과 전문 지식은 의식적인 상징적 조작보다는 무의식적 인 본능에 주로 의존한다고 주장하며, 이러한 무의식적 기술은 공식적인 규칙에 결코 포착되지 않을 것이라고 주장했다.

Dreyfus의 논거는 Turing이 1950 년에 발표 한 Computing 기계 및 정보 지에서 “행동의 비공식성에 대한 논의”라고 분류 한 것으로 예상되어왔다. 튜링은 복잡한 행동을 지배하는 규칙을 알지 못하기 때문에 그런 규칙이 존재하지 않는다는 것을 의미한다고 주장했다. 그는 다음과 같이 썼다. “우리는 행동의 완전한 법칙이 없다는 것을 쉽게 납득시킬 수 없다. 우리가 그러한 법칙을 찾는 것에 대해 알고있는 유일한 방법은 과학적 관찰이며, 우리는 ‘우리는 그런 법이 없다. ”

Russell과 Norvig은 Dreyfus가 자신의 비판을 발표 한 이래로 무의식적 인 추론을 지배하는 “규칙”을 발견하는 데 진전이 있었음을 지적합니다. 로봇 연구에서의 움직임은 인식과주의에서 우리의 무의식적 인 기술을 포착하려고 시도합니다. 신경망, 진화 알고리즘 등과 같은 전산 지식 패러다임은 주로 시뮬레이션 된 무의식적 추론과 학습을 목표로합니다. AI에 대한 통계적 접근은 인간의 직관적 인 추측의 정확성에 접근하는 예측을 할 수 있습니다. 상식적인 지식에 대한 연구는 지식의 배경이나 배경을 재현하는 데 초점을 맞추고 있습니다. 실제로 인공 지능 연구는 일반적으로 고레벨 기호 조작이나 “GOFAI”에서 더 많은 무의식적 추론을 포착하기위한 새로운 모델로 옮겨갔습니다. 역사 학자이자 인공 지능 연구원 다니엘 크레 비어 (Daniel Crevier)는 “드레퓌푸스 주석의 의견의 정확성과 지각력이 입증됐으며, 공격적으로 덜 공식화했다면 훨씬 더 일찍 취해진 것”이라고 밝혔다.

기계가 정신, 의식 및 정신 상태를 가질 수 있습니까?
이것은 다른 정신의 문제와 의식의 어려운 문제와 관련된 철학적 질문입니다. 질문은 John Searle이 “강력한 AI”로 정의한 위치를 중심으로 회전합니다.

물리적 기호 체계는 정신과 정신 상태를 가질 수 있습니다.
Searle은 “약한 인공 지능”이라고 불리는 것과이 위치를 구별합니다.

물리적 기호 시스템은 지능적으로 작동 할 수 있습니다.
Searle은 약한 인공 지능으로부터 강력한 인공 지능을 격리하기위한 조건을 도입하여 더 흥미롭고 논쟁의 여지가있는 문제에 집중할 수있었습니다. 그는 우리가 인간의 마음과 똑같이 행동하는 컴퓨터 프로그램을 가지고있다 고 가정하더라도 대답해야 할 어려운 철학적 질문은 여전히 ​​남아 있다고 주장했다.

Searle의 두 입장 모두 인공 지능 연구에 큰 관심을 보이지 않는다. 왜냐하면 그들은 “기계가 일반 지능을 표시 할 수 있는가?”라는 질문에 직접적으로 대답하지 않기 때문이다. (의식이 지능에 필요하다는 것을 보여줄 수 없다면). Turing은 “나는 의식에 관한 신비가 없다고 생각하는 인상을주고 싶지 않다 … 기계가 생각할 수 있는지에 대한 질문에 대답하기 전에 이러한 신비를 반드시 풀어야한다고 생각하지 않는다.” Russell과 Norvig은 다음과 같이 동의합니다. “대부분의 인공 지능 연구자들은 약한 AI 가설을 당연하게 생각하며 강한 인공 지능 가설에는 신경 쓰지 않습니다.”

인어 알렉산더, 스탠 프랭클린, 론 선, 펜티 하이코 넨과 같은 의식이 지성에서 필수적인 요소라고 믿는 몇몇 연구자가있다. “의식”에 대한 정의는 “지능”에 매우 가깝다. (인공 의식을 참조하십시오.)

이 질문에 답하기 전에 우리는 “마음”, “정신 상태”및 “의식”이 의미하는 바를 분명히해야합니다.

의식, 정신, 정신 상태, 의미
“마음”과 “의식”이라는 단어는 다른 방식으로 다른 공동체에 의해 사용됩니다. 예를 들어, 일부 새로운 시대의 사상가들은 베르 손 (Bergson)의 “élan vital”과 비슷한 것을 묘사하기 위해 “의식”이라는 단어를 사용합니다. 삶과 특히 마음에 스며드는 보이지 않는 활기찬 액체입니다. 공상 과학 소설 작가들은 우리를 인간으로 만드는 몇 가지 필수 속성을 설명하기 위해이 단어를 사용합니다. “의식있는”기계 또는 외계인은 지능, 욕망, 의지, 통찰력, 자부심 등을 갖춘 완전한 인간 캐릭터로 제공됩니다. (공상 과학 소설의 작가들은 또한 “본질적인 인간의 속성을 설명하기 위해 쉘의 만화와 애니메이션 시리즈의 유령”에서처럼 “감성”, “숙제”, “자기 인식”또는 “유령”이라는 단어를 사용합니다. 다른 사람들의 경우, “마음”이나 “의식”이라는 말은 영혼의 세속적 인 동의어로 사용됩니다.

철학자, 신경 과학자 및인지 과학자들에게이 단어는보다 정확하고 평범한 방식으로 사용됩니다. 즉, 인식, 꿈, 생각과 같은 “머리 속에 생각”이있는 친숙하고 일상적인 경험을 말합니다. 의도 또는 계획, 그리고 우리가 무언가를 알고 있거나 무언가를 의미하는 방식으로 이해해야합니다. 철학자 인 John Searle은 “의식에 대해 상식적인 정의를 내리는 것이 어렵지 않습니다.”라고 말합니다. 신비하고 매혹적인 것은 그것이 무엇인지는 모르겠지만 어떻게 그것이 되는가 : 지방 조직과 전기의 덩어리가 지각, 의미 또는 사고의이 (익숙한) 경험을 어떻게 발생 시키는가?

철학자들은 이것을 의식의 어려운 문제라고 부릅니다. 그것은 “마음 몸 문제 (mind-body problem)”라고 불리는 마음 철학의 고전적 문제의 최신판입니다. 관련된 문제는 (철학자들이 “의도”라고 부르는) 의미 또는 이해의 문제입니다 : 우리의 생각과 우리가 생각하고있는 것 (즉, 세계의 사물과 상황) 사이의 연결은 무엇입니까? 세 번째 문제는 경험 (또는 “현상학”)의 문제입니다. 두 사람이 똑같은 것을 본다면, 그들은 같은 경험을합니까? 아니면 사람과 사람이 다를 수있는 “머리 속에”있는 것들 ( “qualia”)이 있습니까?

서어의 중국 방
John Searle은 사고 실험을 고려해 보라고 요청합니다. Turing 테스트를 통과하고 “일반적인 지능적 동작”을 보여주는 컴퓨터 프로그램을 작성했다고 가정 해보십시오. 특히 프로그램이 유창한 중국어로 대화 할 수 있다고 가정 해보십시오. 3×5 카드로 프로그램을 작성하고 중국어를 구사하지 못하는 보통 사람에게줍니다. 그 사람을 방에 넣고 카드의 지시 사항을 따르게하십시오. 그는 한자를 복사해서 슬롯을 통해 방 안팎으로 전달합니다. 바깥 쪽에서는 중국 방에 중국어를 구사하는 완전 지적인 사람이 포함되어있는 것으로 보입니다. 질문은 이것입니다 : 중국인을 이해하는 방에 누군가 (또는 무엇인가)가 있습니까? 즉, 정신 상태가 이해력이 있거나, 중국에서 논의되는 것에 대해 의식적으로 인식하고있는 것이 있습니까? 그 남자는 분명히 알지 못한다. 방은 알 수 없습니다. 카드는 확실히 알지 못합니다. Searle은 중국 방 또는 다른 물리적 인 기호 체계가 마음을 가질 수 없다고 결론 내립니다.

Searle은 실제 정신 상태와 의식이 실제 인간 두뇌의 실제 물리 화학적 성질을 요구한다고 기술하고있다. 그는 뇌와 신경에 특별한 “인과 적 속성”이 있다고 주장한다. 그의 말로는 “두뇌가 정신을 유발한다”는 것이다.

Gottfried Leibniz는 1714 년에 Searle과 동일한 주장을했는데, 두뇌가 밀의 크기가 될 때까지 두뇌를 확장시키는 사고 실험을 사용했습니다. 1974 년 로렌스 데이비스 (Lawrence Davis)는 전화선과 사람이 배치 된 사무실을 사용하여 두뇌를 복제하는 것을 상상했으며, 1978 년 네드 블록 (Ned Block)은 그러한 두뇌 시뮬레이션과 관련된 중국 전체 인구를 구상했습니다. 이 사고 실험은 “중국 국가”또는 “중국 체육관”이라고합니다. 네드 블록 (Ned Block)은 또한 Blockhead 논증을 제안했다.이 논쟁은 프로그램을 “보라, 그렇게하라”는 형식의 간단한 규칙 세트로 재 해석 된 중국 방의 버전이다. 프로그램에서 모든 수수께끼를 제거한다.

중국 방에 대한 응답
중국 방에 대한 응답은 몇 가지 다른 점을 강조합니다.

시스템은 대답하고 가상의 마음은 회신한다 :이 회신은 사람, 프로그램, 방, 카드를 포함한 시스템이 중국을 이해하는 것이라고 주장한다. Searle은 방안에있는 남자는 아마도 “마음이있다”거나 “이해할”수있는 유일한 존재라고 주장하지만 다른 사람들은 같은 물리적 장소에 두 개의 마음이있을 수 있다고 주장하면서 반대합니다 컴퓨터는 동시에 한 대의 물리적 컴퓨터 (예 : 매킨토시 컴퓨터)와 하나의 “가상 컴퓨터”(워드 프로세서)를 동시에 두 대의 컴퓨터로 사용할 수 있습니다.
속도, 힘 및 복잡성 응답 : 몇몇 비평가는 방안에있는 남자가 아마도 간단한 질문에 응답하는데 수백만 년이 걸릴 것이고 천문학적 인 비율의 “파일 캐비닛”을 요구할 것이라고 지적합니다. 이것은 Searle의 직감에 대한 명확성을 의심하게 만듭니다.
로봇 응답 : 진정으로 이해하기 위해, 일부 중국인의 방은 눈과 손이 필요하다고 생각합니다. 한스 모라벡 (Hans Moravec)은 “로봇을 추론 프로그램에 접목 할 수 있다면 우리는 더 이상 의미를 제공 할 사람이 필요하지 않을 것입니다. 그것은 물리적 세계에서 나올 것입니다.”
뇌 시뮬레이터 회신 : 실제 중국어 연설자의 실제 뇌의 시냅스에서 신경 발작의 순서를 시뮬레이트하면 어떨까요? 방에있는 남자는 실제 두뇌를 시뮬레이션 할 것입니다. 이것은 “시스템”이 이제는 인간의 뇌와 같이 명확하게 작동하여, 중국어를 이해할 수있는 사람 외에 뭔가가 있다는 직관력을 강화하기 때문에 더 그럴듯하게 보이는 “시스템 응답”의 변형입니다.
다른 사람들의 대답과 epiphenomena의 답장 : 몇몇 사람들은 Searle의 주장은 기계에 적용된 다른 마음의 문제의 버전에 불과하다고 지적했습니다. 사람들이 “실제로”생각하고 있는지 판단하기가 어렵 기 때문에 기계에 관한 동일한 질문에 답하기가 어렵지 않습니다.

생각해 보면 일종의 계산입니까?
mind of computational theory of mind 또는 “computationalism”은 마음과 두뇌 사이의 관계가 실행중인 프로그램과 컴퓨터 사이의 관계와 (동일하지 않다면) 유사하다고 주장한다. 아이디어는 홉스 (Hobbes) (추론은 “계산하는 것 이상이 아니다”), 라이프니츠 (모든 인간 아이디어의 논리적 인 미적분을 창조하려고 시도한), 흄 (Hume) (지각은 “원자력 인상”으로 축소 될 수 있다고 생각했다)과 심지어 칸트 (공식적인 규칙에 의해 통제되는 모든 경험을 분석 한). 최신 버전은 철학자 힐러리 퍼트 남 (Hilary Putnam)과 제리 포 도르 (Jerry Fodor)와 관련이 있습니다.

인간의 두뇌가 일종의 컴퓨터라면 컴퓨터는 인공 지능에 대한 실용적이고 철학적 인 질문에 모두 답하면서 지적이고 의식적 일 수 있습니다. AI의 실질적인 질문 ( “기계가 일반 지능을 표시 할 수 있습니까?”)에 따르면, 일부 계산주의 버전은 다음과 같은 주장을 제기합니다 (Hobbes가 쓴 것처럼).

추론은 계산에 불과합니다.
즉, 우리의 지능은 산술과 비슷한 형태의 계산에서 파생됩니다. 이것은 위에서 논의한 물리적 기호 체계 가설이며 인공 지능이 가능하다는 것을 의미합니다. AI의 철학적 질문 ( “기계는 마음, 정신 상태 및 의식을 가질 수 있습니까?”)에서, 대부분의 계산 주의자들은 (Stevan Harnad가 지적한 바와 같이) 다음과 같이 주장합니다.

정신 상태는 (오른쪽) 컴퓨터 프로그램의 구현 일뿐입니다.
이것은 위에서 언급 한 John Searle의 “강한 AI”이며, 이는 하 나드 (Harnad)에 따르면 중국 방의 논쟁의 진정한 목표입니다.

기타 관련 질문
앨런 튜링 (Alan Turing)은 “기계는 절대로 X를하지 않을 것”이라는 형식에 대해 많은 논란이 있는데, 여기서 X는 다음과 같은 많은 것들이 될 수 있습니다.

친절하고, 수완 있고, 아름답고, 우호적이고, 주도권이 있고, 유머 감각을 가지고 잘못 말하고, 실수하고, 사랑에 빠지고, 딸기와 크림을 즐기고, 누군가가 사랑에 빠지게하고, 경험에서 배우고, 적절하게 말을 사용하십시오. , 자신의 생각의 대상이되고, 사람과 행동의 다양성을 가지며, 정말로 새로운 것을하십시오.

기계가 감정을 가질 수 있습니까?
“감정”이 행동에 대한 영향이나 유기체 내에서의 기능에 대해서만 정의된다면 감정은 지능형 에이전트가 행동의 유용성을 극대화하기 위해 사용하는 메커니즘으로 볼 수 있습니다. 한스 모라벡 (Hans Moravec)은 이러한 감정의 정의를 감안할 때 “일반적으로 로봇은 훌륭한 사람이라는 점에서 상당히 감동적”이라고 생각합니다. 두려움은 시급함의 근원입니다. 공감은 좋은 인간 컴퓨터 상호 작용의 필수 구성 요소입니다. 그는 로봇이 “분명히 사심이없는 방식으로 당신을 기쁘게하려고 노력할 것입니다. 왜냐하면 로봇이 긍정적 인 보강에서 스릴을 느끼게 될 것이기 때문에 이것을 일종의 사랑으로 해석 할 수 있습니다.” 다니엘 크레 비어 (Daniel Crevier)는 “모라베크 (Moravec)의 요점은 정서가 행동을 자신의 종의 생존에 도움이되는 방향으로 흐르게하는 장치 일 뿐이라는 것입니다.”

그러나 감정은 주관적인 품질, 감정을 느끼는 감정으로 정의 할 수도 있습니다. 기계가 실제로 감정을 느끼는지 또는 감정을 느끼는 것처럼 단순히 작동하는지 여부에 대한 질문은 “기계가 의식 할 수 있습니까?”라는 철학적 질문입니다. 다른 형태로.

기계가 스스로 인식 할 수 있습니까?
위에서 언급 한 것처럼 “자기 인식”은 때로 과학 소설 작가가 인물을 완전히 인간으로 만드는 본질적인 인간의 재산의 이름으로 사용됩니다. 튜링은 인간의 다른 모든 속성을 제거하고 “기계가 자신의 생각의 대상이 될 수 있는가?”라는 질문을 줄입니다. 자신에 대해 생각할 수 있습니까? 이런 식으로 보면 디버거와 같은 자체 내부 상태를보고 할 수있는 프로그램을 작성할 수 있습니다. 틀림없이 자기 인식은 종종 더 많은 능력을 필요로합니다. 의미를 어떤 식 으로든 자신의 국가뿐만 아니라 일반적으로 견고한 답이없는 질문으로 가정 할 수있는 기계 : 현재의 존재의 맥락 적 본성; 과거의 주나 미래의 계획, 작업 산출물의 한계와 가치, 어떻게 다른 사람과 비교하여 자신의 성과를 평가할 수 있는지를 비교합니다.

기계가 독창적이거나 독창적 일 수 있습니까?
튜링 (Turing)은 이것을 기계가 “놀라움으로 데려다 줄 수 있는가”라는 질문에 대해이 문제를 줄이고 모든 프로그래머가 증명할 수있는 것처럼 분명히 사실이라고 주장합니다. 충분한 저장 용량을 갖춘 컴퓨터는 천문학적으로 다양한 방식으로 작동 할 수 있습니다. 아이디어를 표현할 수있는 컴퓨터가 새로운 방식으로 결합 할 수있는 것은 중요합니다. (Douglas Lenat의 Automated Mathematician은 새로운 수학적 진리를 발견하기위한 아이디어를 결합한 것입니다.)

2009 년 웨일즈의 애버리 스 위스 대학 (Aberystwyth University)과 영국의 캠브리지 대학의 과학자들은 아담이라는 로봇을 설계하여 새로운 과학적 연구 결과를 독자적으로 내놓은 최초의 기계라고 믿습니다. 또한 코넬 (Cornell)의 연구원은 2009 년에 진자 운동의 운동 법칙을 찾는 것과 같이 입력 된 데이터에 맞는 공식을 외삽 법으로 계산하는 컴퓨터 프로그램 인 Eureqa를 개발했습니다.

기계가 자비 롭거나 적대적 일 수 있습니까?
이 질문은 인공 지능 철학의 다른 많은 사람들과 마찬가지로 두 가지 형태로 제시 될 수 있습니다. “적대감”은 기능 또는 행동 측면에서 정의 할 수 있으며,이 경우 “적대적인”은 “위험한”것과 동의어가됩니다. 또는 의도의 관점에서 정의 될 수 있습니다. 기계가 “의도적으로”해를 끼칠 수 있습니까? 후자는 “기계가 의식 상태를 가질 수 있는가?”라는 질문입니다. (의도와 같은) 다른 형태로.

고도로 지능적이고 완전 자동화 된 기계가 위험 할 지에 대한 질문은 미래 학자 (Singularity Institute와 같은)에 의해 자세히 조사되었습니다. (드라마의 명백한 요소는 지능형 기계가 인류에 위협이 될 수있는 다양한 시나리오를 고려한 공상 과학에서 주제를 대중적으로 만들었습니다.

한 가지 문제는 기계가 매우 신속하게 위험한 자율성과 지능을 확보 할 수 있다는 것입니다. Vernor Vinge는 몇 년에 걸쳐 컴퓨터가 갑자기 사람보다 수천 또는 수백만 배 더 지능적으로 될 것이라고 제안했습니다. 그는 이것을 “특이점”이라고 부릅니다. 그는 인간에게 다소 위험 할 수도 있고 아마도 매우 위험 할 수도 있다고 제안합니다. 이것은 Singularitarianism이라고 불리는 철학에 의해 논의됩니다.

일부 전문가와 학계에서는 군대 전투에 로봇을 사용하는 것에 의문을 제기했습니다. 특히 이러한 로봇에 어느 정도의 자율 기능이 부여되었을 때 더욱 그렇습니다. 미 해군은 군사 로봇이 더욱 복잡 해짐에 따라 자율적 인 결정을 내릴 수 있음을 시사하는 보고서에 자금을 지원했습니다.

인공 지능 향상 협회 회장은이 문제를 조사하기위한 연구를 의뢰했습니다. 그들은 인간 상호 작용을 에뮬레이션 할 수있는 언어 획득 장치 (Language Acquisition Device) 같은 프로그램을 가리 킵니다.

일부 사람들은 이미 AI와 함께 발생하고있는 진보에는 AI가 본질적으로 우호적이고 인도적이되도록하기위한 노력이 포함되어야한다는 “친숙한 AI”를 구축해야한다고 제안했습니다.

기계가 영혼을 가질 수 있습니까?
마침내, 영혼의 존재를 믿는 사람들은 “사고는 인간의 불멸의 영혼의 기능이다”라고 주장 할 수 있습니다. Alan Turing은 이것을 “신학 적 반대”라고 불렀습니다. 그는 쓴다.

그러한 기계를 만들려고 시도 할 때, 우리는 자녀를 낳는 데있는 것보다 더 많은 영혼을 창조 할 수있는 그분의 힘을 무분별하게 빼앗아서는 안됩니다. 오히려 우리는 그분이 창조하신 영혼을 위해 그분의 뜻의 도구를 제공하는 도구입니다.

철학의 역할에 대한 견해
일부 학자들은 인공 지능 공동체의 철학 철폐는 해로운 것이라고 주장한다. In the Stanford Encyclopedia of Philosophy, some philosophers argue that the role of philosophy in AI is underappreciated. Physicist David Deutsch argues that without an understanding of philosophy or its concepts, AI development would suffer from a lack of progress.

Bibliography & Conferences
The main bibliography on the subject, with several sub-sections, is on PhilPapers

The main conference series on the issue is “Philosophy and Theory of AI” (PT-AI), run by Vincent C. Müller