人工智能哲学

人工智能与哲学有着密切的联系,因为它们共享几个概念,包括智力,行动,意识,认识论,甚至自由意志。 此外,该技术涉及人造动物或人造动物(或至少是人造动物)的创造,因此该学科对哲学家具有相当大的兴趣。 这些因素促成了人工智能哲学的出现。 一些学者认为,人工智能社区对哲学的解雇是有害的。

人工智能的哲学试图回答如下问题:

机器可以智能地动作吗? 它能解决一个人通过思考解决的任何问题吗?
人类智能和机器智能是否相同? 人脑本质上是一台计算机吗?
机器能否以与人类相同的方式拥有心灵,心理状态和意识? 可以感觉到事情是怎样的吗?

这三个问题分别反映了人工智能研究人员,语言学家,认知科学家和哲学家的不同兴趣。 这些问题的科学答案取决于“智力”和“意识”的定义以及正在讨论哪些“机器”。

人工智能哲学中的重要命题包括:

图灵的“礼貌约定”:如果一台机器的行为与人类一样聪明,那么它就像人类一样聪明。
达特茅斯的提议:“学习的每个方面或任何其他智能特征都可以如此精确地描述,以便机器可以模拟它。”
纽厄尔和西蒙的物理符号系统假设:“物理符号系统具有一般智能行动的必要和充分手段。”
Searle强烈的AI假设:“具有正确输入和输出的适当编程的计算机因此具有完全相同的意识,人类有思想。”
霍布斯的机制:“因为’理性’……只不过是’推算’,即增加和减少一般名称对’标记’和’表示’我们思想的一致名称的后果……”

机器能显示一般情报吗?
是否有可能创建一台能够解决人类使用智能解决的所有问题的机器? 这个问题定义了未来机器能够做的范围,并指导人工智能研究的方向。 它只涉及机器的行为,忽略了心理学家,认知科学家和哲学家感兴趣的问题; 要回答这个问题,机器是否真的在思考(作为一个人思考)或者只是表现得像是在思考。

大多数人工智能研究人员的基本立场总结在这一声明中,该声明出现在1956年达特茅斯研讨会的提案中:

可以如此精确地描述学习的每个方面或任何其他智能特征,以使机器可以模拟它。
反对基本前提的争论必须表明,建立一个有效的人工智能系统是不可能的,因为对计算机的能力有一些实际的限制,或者思维所必需的人类思维有一些特殊的质量,但不能被复制。机器(或通过当前AI研究的方法)。 支持基本前提的论据必须表明这样的系统是可能的。

回答问题的第一步是明确定义“情报”。

情报

图灵测试
Alan Turing将智能定义问题简化为一个关于会话的简单问题。 他建议:如果一台机器可以回答任何问题,使用与普通人相同的话,那么我们可以将该机器称为智能机器。 他的实验设计的现代版本将使用在线聊天室,其中一个参与者是真人,其中一个参与者是计算机程序。 如果没有人能分辨出两个参与者中哪一个是人,那么该程序就会通过测试。 图灵指出,除了哲学家之外,没有人问过“人们能想到的问题吗?” 他写道“不是在这一点上不断争论,而是通常会有一个每个人都认为的礼貌约定”。 图灵的测试将这种礼貌的约定扩展到了机器:

如果一台机器像人类一样聪明地行动,那么它就像人类一样聪明。
对图灵测试的一个批评是它显然是拟人化的。 如果我们的最终目标是创造比人更智能的机器,我们为什么要坚持我们的机器必须与人类非常相似?[这句话需要引用] Russell和Norvig写道“航空工程文本没有定义他们的目标作为’制造机器,它们像鸽子一样飞行,它们可以欺骗其他鸽子’“。

智能代理定义

最近的人工智能研究根据智能代理来定义智能。 “代理人”是在环境中感知和行动的东西。 “绩效衡量标准”定义了代理商的成功程度。

如果代理人的行为是为了根据过去的经验和知识最大化绩效评估的预期价值,那么它就是智能的。
像这样的定义试图捕捉智力的本质。 他们的优势在于,与图灵测试不同的是,他们也不会测试我们[谁?]可能不想考虑智能的人类特征,如被侮辱的能力或谎言的诱惑[可疑 – 讨论]。 它们的缺点在于它们不能使“思考的东西”和“不思考的东西”之间存在共识(当定义为?时)。 根据这个定义,即使是恒温器也具有基本的智能。

机器可以显示一般智能的论点

可以模拟大脑
休伯特·德雷福斯(Hubert Dreyfus)将这一论点描述为“如果神经系统遵守物理和化学定律,我们完全有理由认为它是这样的,那么……我们……应该能够重现这种行为。神经系统与一些物理设备“。 这个论点早在1943年首次出现,并由Hans Moravec在1988年生动地描述,现在与未来学家Ray Kurzweil有关,他估计到2029年计算机功率足以完成大脑模拟。非实时在2005年进行了具有人脑大小(1011个神经元)的丘脑皮质模型的模拟,并且在27个处理器的集群上模拟1秒的脑动力学需要50天。

很少[量化]不同意大脑模拟在理论上是可能的,[根据谁?]甚至批评人工智能,如休伯特德雷福斯和约翰塞尔。 然而,Searle指出,原则上,任何东西都可以由计算机模拟; 因此,将定义置于其突破点后得出的结论是,任何过程在技术上都可以被视为“计算”。 “我们想知道的是,将心灵与恒温器和肝脏区别开来,”他写道。 因此,仅仅模仿大脑的功能本身就是承认对智力和心灵本质的无知。

人类思维是符号处理
1963年,艾伦·纽厄尔和赫伯特·西蒙提出“符号操纵”是人类和机器智能的本质。 他们写:

物理符号系统具有一般智能行动的必要和充分手段。
这种说法非常强烈:它既意味着人类思维是一种符号操纵(因为符号系统对于智能是必需的),并且机器可以是智能的(因为符号系统足以用于智能)。 哲学家休伯特·德雷福斯(Hubert Dreyfus)描述了这一立场的另一个版本,他将其称为“心理假设”:

可以将头脑视为根据正式规则操作信息的设备。
通常由[谁>?]在与世界上的对象直接对应的高级符号之间进行区分,例如以及机器中存在的更复杂的“符号”。神经网络。 人工智能的早期研究,由John Haugeland称为“良好的老式人工智能”(GOFAI),专注于这些高级符号。

反对符号处理的争论
这些论点表明,人类思维并不是(仅)高级符号操纵。 他们没有表明人工智能是不可能的,只是需要的不仅仅是符号处理。

哥德尔反机械师的论点
1931年,KurtGödel用不完备性定理证明,总是有可能构造一个“哥德尔语句”,即给定的一致的正式逻辑系统(如高级符号操作程序)无法证明。 尽管是一个真实的陈述,构造的哥德尔语句在给定的系统中是无法证明的。 (构造的哥德尔语句的真实性取决于给定系统的一致性;将相同的过程应用于微妙不一致的系统似乎会成功,但实际上会产生错误的“哥德尔语句”。)更多的推测,哥德尔推测人类的思想可以正确地最终确定任何有根据的数学陈述(包括任何可能的哥德尔陈述)的真实性或虚假性,因此人类思想的力量不能简化为一种机制。 哲学家约翰卢卡斯(自1961年以来)和罗杰彭罗斯(自1989年以来)一直支持这种哲学的反机械论。 哥德尔反机械主义论证倾向于依赖于无害的看似主张,即人类数学家系统(或人类数学家的某些理想化)是一致的(完全没有错误)并完全相信自己的一致性(并且可以使所有逻辑完整根据其自身的一致性推断,包括对哥德尔声明的信仰。 对于图灵机[可能需要澄清](以及通过非正式扩展,任何已知类型的机械计算机)来说,这是不可能做到的; 因此,哥德尔认为人类推理太强大了,无法在机器中捕获[可疑 – 讨论]。

然而,科学和数学界的现代共识是,实际的人类推理是不一致的; 人类推理的任何一致的“理想化版本”H在逻辑上都会被迫对H的一致性采取健康但反直觉的开放式怀疑态度(否则H可证明是不一致的); 并且哥德尔的定理没有导致任何有效的论证,即人类具有超出机器可能复制的数学推理能力。 人工智能强烈地阐述了哥德尔反机械论争论失败的共识:“任何利用(哥德尔的不完整性结果)来攻击计算论文的尝试都必然是非法的,因为这些结果与计算主义者非常一致。论文。”

更实际的是,罗素和诺维格注意到,哥德尔的论证只适用于理论上可以证明的内容,给定无限的记忆和时间。 在实践中,真实的机器(包括人类)具有有限的资源并且难以证明许多定理。 没有必要证明一切都是为了聪明[定义为?]。

不太正式的道格拉斯·霍夫施塔特,在他的普利策奖获奖书Gödel,Escher,Bach:An Eternal Golden Braid中,指出这些“哥德尔语句”总是指系统本身,类似于Epimenides悖论使用语句的方式指自己,例如“这句话是假的”或“我撒谎”。 但是,当然,Epimenides悖论适用于任何发表言论的东西,无论是机器还是人类,甚至卢卡斯本人。 考虑:

卢卡斯无法断言这一说法的真实性。
这种说法是正确的,但卢卡斯不能断言。 这表明卢卡斯本人受到与他所描述的机器相同的限制,就像所有人一样,所以卢卡斯的论点毫无意义。

在得出人类推理是不可计算的结论之后,彭罗斯继续争议地推测,某种涉及量子力学状态崩溃的假设不可计算过程给人类带来了优于现有计算机的特殊优势。 现有的量子计算机只能降低图灵可计算任务的复杂性,并且仍然局限于图灵机范围内的任务。[需要澄清]。 根据彭罗斯和卢卡斯的观点,现有的量子计算机还不够[澄清需要] [为什么?],因此彭罗斯寻求其他一些涉及新物理的过程,例如量子引力,它可能通过自发的方式在普朗克质量的范围内表现出新的物理学波函数的量子崩溃。 他认为,这些状态既发生在神经元内,也发生在不止一个神经元上。 然而,其他科学家指出,大脑中没有合理的有机机制来利用任何类型的量子计算,而且量子退相干的时间尺度似乎太快而不能影响神经元的发射。

德雷福斯:无意识技能的首要地位
休伯特德雷福斯认为,人类的智慧和专业知识主要取决于无意识的本能而不是有意识的象征性操纵,并认为这些无意识的技能永远不会被正式规则所捕获。

图灵在其1950年的论文计算机器和情报中已经预见到德雷福斯的论点,他将此归类为“行为非正式性的论证”。 图灵反驳说,仅仅因为我们不知道管理复杂行为的规则,这并不意味着不存在这样的规则。 他写道:“我们不能轻易说服自己没有完整的行为规则……我们知道找到这些法律的唯一方法就是科学观察,我们当然知道在任何情况下我们都不能说’我们已经搜索得足够了。没有这样的法律。’“

拉塞尔和诺维格指出,自德雷福斯发表批评以来的几年里,人们在发现控制无意识推理的“规则”方面取得了进展。 机器人研究中的位置运动试图捕捉我们在感知和注意力方面的无意识技能。 计算智能范例,如神经网络,进化算法等,主要针对模拟无意识推理和学习。 人工智能的统计方法可以使预测接近人类直观猜测的准确性。 对常识知识的研究侧重于再现“背景”或知识背景。 事实上,人工智能研究总体上已经从高级符号操纵或“GOFAI”转向了旨在捕捉更多我们无意识推理的新模型[根据谁?]。 历史学家和人工智能研究员丹尼尔·克雷维尔写道,“时间已经证明了德雷福斯的一些评论的准确性和敏锐性。如果他不那么积极地制定它们,那么他们建议的建设性行动可能会早得多。”

机器能有思想,意识和心理状态吗?
这是一个哲学问题,与其他思想的问题和意识的难题有关。 问题围绕John Searle定义为“强AI”的位置:

物理符号系统可以具有心理和心理状态。
Searle将这一立场与他所谓的“弱AI”区分开来:

物理符号系统可以智能地行动。
Searle介绍了将强AI与弱AI进行隔离的术语,因此他可以专注于他认为更有趣和有争议的问题。 他认为,即使我们假设我们的计算机程序与人类思维完全相同,仍然需要回答一个困难的哲学问题。

Searle的两个职位都不是人工智能研究的重点,因为他们没有直接回答“机器能显示一般情报吗?”的问题。 (除非也可以表明意识对于智力是必要的)。 图灵写道:“我不希望给人的印象是我认为对于意识没有任何神秘感……在我们能够回答[机器是否可以思考]的问题之前,我认为这些谜团不一定需要解决。” Russell和Norvig同意:“大多数人工智能研究人员认为弱AI假设是理所当然的,并不关心强AI假设。”

有一些研究人员认为意识是智力的基本要素,例如Igor Aleksander,Stan Franklin,Ron Sun和Pentti Haikonen,尽管他们对“意识”的定义与“情报”非常接近。 (见人工意识。)

在我们回答这个问题之前,我们必须清楚“思想”,“心理状态”和“意识”的含义。

意识,思想,心理状态,意义
不同社区以不同的方式使用“思想”和“意识”这两个词。 例如,一些新时代的思想家使用“意识”这个词来形容类似于柏格森的“élanrampital”的东西:一种渗透生命尤其是心灵的无形的,充满活力的液体。 科幻作家用这个词来描述使我们成为人类的一些基本属性:一个“有意识”的机器或外星人将被呈现为一个完全的人类角色,具有智慧,欲望,意志,洞察力,骄傲等等。 (科幻小说作家也使用“感知”,“智慧”,“自我意识”或“幽灵”这两个词 – 就像“壳牌幽灵”漫画和动漫系列一样 – 来描述这个必不可少的人类财产。 对于其他人[谁?],“心灵”或“意识”这两个词被用作灵魂的一种世俗同义词。

对于哲学家,神经科学家和认知科学家来说,这些词语的使用方式既精确又平凡:它们指的是熟悉的日常体验,即“思想在你脑中”,如感知,梦想,意图或计划,以及我们了解某事,或意味着什么或理解某事的方式。 哲学家John Searle指出,“对意识进行常识性定义并不难”。 什么是神秘而迷人的不是它是什么,而是它是怎样的:一块脂肪组织和电流如何产生这种(熟悉的)感知,意义或思考的体验?

哲学家称之为意识的难题。 这是心灵哲学中经典问题的最新版本,称为“身心问题”。 一个相关的问题是意义或理解的问题(哲学家称之为“意向性”):我们的思想与我们正在思考的东西(即世界上的对象和情境)之间的联系是什么? 第三个问题是经验问题(或“现象学”):如果两个人看到同样的事情,他们是否有相同的经历? 或者是否有“在他们的脑海里”(称为“qualia”)的东西可能因人而异?

Searle的中国房间
John Searle要求我们考虑一个思想实验:假设我们编写了一个通过图灵测试并演示“一般智能行动”的计算机程序。 假设,该程序可以用流利的中文交谈。 在3×5卡上写下程序,并将其交给不会说中文的普通人。 将此人锁在房间内并让他按照卡片上的说明操作。 他将复制出汉字并通过一个插槽将它们传入和传出房间。 从外面看,中国房间里面会出现一个说汉语的聪明人。 问题是:房间里有没有人(或任何东西)了解中文? 也就是说,有什么东西具有理解的心理状态,或者有意识地用中文讨论什么? 这个男人显然不知道。 房间无法察觉。 卡肯定不知道。 Searle得出结论认为,中国房间或任何其他物理符号系统都无法思考。

Searle继续争辩说,实际的心理状态和意识需要(尚未描述)“实际人类大脑的实际物理化学特性”。 他认为,大脑和神经元有一些特殊的“因果属性”可以引起人们的注意:用他的话说“大脑引起思想”。

Gottfried Leibniz在1714年提出了与Searle基本相同的论点,使用扩大大脑的思想实验直到它的大小。 1974年,劳伦斯·戴维斯(Lawrence Davis)设想使用电话线和办公室人员来复制大脑,1978年,奈德·布洛克(Ned Block)设想了整个中国人群参与这种大脑模拟。 这个思想实验被称为“中华民族”或“中国体育馆”。 Ned Block还提出了他的Blockhead论证,这是一个中国房间的版本,其中程序被重新计算成一套简单的规则,形式为“看这个,做那个”,从程序中删除所有的神秘感。

回应中国房间
对中国房间的回应强调了几点不同。

系统回复和虚拟心灵回复:这个回复认为系统,包括人,程序,房间和卡,是理解中文的。 Searle声称,房间里的男人是唯一可能“有心灵”或“理解”的人,但是其他人不同意,认为在同一个物理位置有两个人有可能,类似于计算机可以同时“成为”两台机器:一台物理(如Macintosh)和一台“虚拟”(如文字处理器)。
速度,力量和复杂性回复:一些评论家指出,房间里的男人可能需要数百万年来回答一个简单的问题,并且需要天文数字的“文件柜”。 这使Searle直觉的清晰度成为疑问。
机器人回复:要真正理解,有些人认为中国房间需要眼睛和手。 Hans Moravec写道:“如果我们能够将机器人移植到推理程序中,我们就不再需要一个人来提供意义了:它将来自物理世界。”
大脑模拟器回复:如果程序模拟真实中国人的实际大脑的突触中的神经发射序列怎么办? 房间里的男人会模拟一个真实的大脑。 这是对“系统回复”的一种变化似乎更合理,因为“系统”现在显然像人脑一样运作,这增强了除了房间里能够理解中文的人之外还有一些东西的直觉。
其他人的回答和附带回复:有几个人已经注意到Searle的论点只是适用于机器的其他思想问题的一个版本。 由于很难确定人们是否“实际”思考,我们不应该对难以回答有关机器的同一问题感到惊讶。

正在思考一种计算?
心理计算理论或“计算主义”声称心灵与大脑之间的关系与正在运行的程序和计算机之间的关系相似(如果不相同)。 这个想法在霍布斯(他们声称推理“只不过是推算”),莱布尼兹(试图创造所有人类思想的逻辑演算),休谟(他认为感知可以简化为“原子印象”)和甚至康德(他将所有经验分析为正式规则控制)。 最新版本与哲学家Hilary Putnam和Jerry Fodor有关。

这个问题与我们之前提出的问题有关:如果人脑是一种计算机,那么计算机可以既聪明又有意识,同时回答人工智能的实际和哲学问题。 关于人工智能的实际问题(“机器能显示一般情报吗?”),某些版本的计算主义声称(如霍布斯所写):

推理只不过是清算
换句话说,我们的智能源于一种类似于算术的计算形式。 这是上面讨论的物理符号系统假设,它暗示了人工智能是可能的。 关于人工智能的哲学问题(“一台机器能有思想,心理状态和意识吗?”),大多数计算机版本都声称(正如Stevan Harnad所描述的那样):

心理状态只是(正确的)计算机程序的实现
这是John Searle上面讨论的“强大的AI”,它是中国房间论证的真正目标(根据Harnad的说法)。

其他相关问题
阿兰·图灵指出,“机器永远不会做X”的形式有很多论点,其中X可以是很多东西,例如:

善良,足智多谋,美丽,友善,有主动性,有幽默感,讲错,做错,爱上,享受草莓和奶油,让别人爱上它,从经验中学习,正确使用文字作为自己思想的主题,拥有与男人一样多样的行为,做一些真正新的事情。

机器有情绪吗?
如果“情绪”只是根据它们对行为的影响或它们在生物体内如何发挥作用来定义,那么情绪可以被视为智能代理用来最大化其行为效用的机制。 鉴于这种情绪的定义,汉斯莫拉维克认为“机器人一般会对成为好人有很大的感情”。 恐惧是紧迫感的源泉。 移情是良好的人机交互的必要组成部分。 他说,机器人“将试图以一种明显无私的方式取悦你,因为它会让这种积极的强化感受到刺激。你可以把它解释为一种爱。” 丹尼尔·克雷维尔(Daniel Crevier)写道:“莫拉维克的观点是,情绪只是在一个有利于一个物种生存的方向上引导行为的装置。”

然而,情绪也可以根据他们的主观质量,感受到情绪的感觉来定义。 机器是否真正感受到一种情感,或者它是否只是表现为情感的问题是哲学问题,“机器能够有意识吗?” 另一种形式。

机器可以自我意识吗?
如上所述,“自我意识”有时被科幻作家用作使人物完全成为人类的基本人类财产的名称。 图灵剥离了人类的所有其他属性,并将问题简化为“机器可以成为自己思想的主题吗?” 可以自己想一想吗? 以这种方式查看,可以编写可以报告其自身内部状态的程序,例如调试器。 虽然可以说自我意识通常会假设更多的能力; 一种机器,它可以在某种程度上赋予意义不仅仅是它自己的状态,而且总的来说是没有可靠答案的假设问题:它现在存在的语境本质; 它如何与过去的未来状态或计划,其工作产品的限制和价值,它如何看待其表现的价值 – 或与其他人相比较。

机器可以是原创的还是创意的?
图灵将这个问题简化为机器是否可以“让我们感到惊讶”并且认为这显然是正确的,正如任何程序员都可以证明的那样。 他指出,如果有足够的存储容量,计算机可以采用不同方式的天文数字。 对于能够代表想法的计算机来说,以新的方式组合它们一定是可能的,甚至是微不足道的。 (道格拉斯莱纳特的自动数学家,作为一个例子,将想法结合起来发现新的数学真理。)

2009年,威尔士阿伯里斯特威斯大学和英国剑桥大学的科学家设计了一个名为亚当的机器人,他们认为这是第一台独立提出新科学发现的机器。 同样在2009年,康奈尔大学的研究人员开发了Eureqa,这是一种计算机程序,可根据输入的数据推断公式,例如从钟摆的运动中找出运动定律。

机器可以是仁慈的还是敌对的?
这个问题(与人工智能哲学中的许多其他问题一样)可以以两种形式呈现。 “敌意”可以用功能或行为来定义,在这种情况下,“敌对”变成“危险”的同义词。 或者它可以根据意图来定义:机器是否“故意”开始造成伤害? 后者是“机器能否有意识状态?”的问题。 (如意图)另一种形式。

未来学家(如奇点研究所)已经详细研究了高度智能和完全自主的机器是否危险的问题。 (戏剧的明显元素也使这个主题在科幻小说中流行,它考虑了智能机器对人类构成威胁的许多不同可能的场景。)

一个问题是机器可以很快获得危险所需的自主权和智能。 Vernor Vinge建议,在短短几年内,计算机突然变得比人类智能化数千或者数百万倍。 他称之为“奇点”。 他认为对人类来说可能有点或可能非常危险。 这是由一种称为“单一主义”的哲学所讨论的。

一些专家和学者质疑机器人在军事战斗中的使用,特别是当这种机器人具有某种程度的自主功能时。 美国海军资助了一份报告,该报告表明,随着军事机器人变得越来越复杂,应该更加关注其自主决策能力的影响。

提高人工智能促进协会主席委托进行了一项研究,以研究这个问题。 他们指向语言采集设备等可以模拟人类交互的程序。

有些人建议需要建立“友好AI”,这意味着人工智能已经发生的进步也应该包括努力使AI本质上友好和人性化。

机器有灵魂吗?
最后,那些相信灵魂存在的人可能会争辩说“思考是人类不朽灵魂的功能”。 艾伦·图灵称这是“神学上的反对”。 他写

在试图建造这样的机器时,我们不应该肆无忌惮地篡夺他创造灵魂的能力,就像我们生育孩子一样:在任何一种情况下,我们都是他的意志的工具,为他所创造的灵魂提供住所。

关于哲学作用的看法
一些学者认为,人工智能社区对哲学的解雇是有害的。 在斯坦福哲学百科全书中,一些哲学家认为哲学在人工智能中的作用未被充分认识。物理学家大卫德意志认为,如果不理解哲学或其概念,人工智能的发展就会因缺乏进展而受到影响。

参考书目和会议
关于这个主题的主要参考书目,有几个小节,在PhilPapers

上关于这个问题的主要会议系列是“AI的哲学和理论”(PT-AI),由VincentC.Müller 运营