人工智能

人工智能(Artificial intelligence AI),有时被称为机器智能,是机器所展示的智能,与人类和其他动物展示的自然智能相反。 在计算机科学中,人工智能研究被定义为对“智能代理人”的研究:任何能够感知其环境并采取行动以最大化其成功实现目标的机制的设备。 通俗地说,当机器模仿人类与其他人类思维相关的“认知”功能时,应用术语“人工智能”,例如“学习”和“解决问题”。

AI的范围存在争议:随着机器越来越强大,被认为需要“智能”的任务通常会从定义中删除,这种现象称为AI效应,导致讽刺,“AI是尚未完成的任何事情“[引用未找到]例如,光学字符识别经常被排除在”人工智能“之外,已成为常规技术。 通常被归类为AI的现代机器功能包括成功地理解人类语音,在战略游戏系统(例如国际象棋和围棋)中的最高级别竞争,自主运行的汽车以及内容传递网络和军事模拟中的智能路由。

人工智能于1956年成立,作为一门学科,多年来经历了几波乐观,其次是失望和失去资金(被称为“AI冬天”),随后是新的方法,成功和新的资金。 在其历史的大部分时间里,人工智能研究已被分为通常无法相互沟通的子领域。 这些子字段基于技术考虑,例如特定目标(例如“机器人”或“机器学习”),特定工具(“逻辑”或人工神经网络)的使用,或深刻的哲学差异。 子场也基于社会因素(特定机构或特定研究人员的工作)。

AI研究的传统问题(或目标)包括推理,知识表示,计划,学习,自然语言处理,感知以及移动和操纵对象的能力。 一般情报是该领域的长期目标之一。 方法包括统计方法,计算智能和传统的符号AI。 AI中使用了许多工具,包括搜索和数学优化的版本,人工神经网络以及基于统计,概率和经济学的方法。 人工智能领域利用计算机科学,信息工程,数学,心理学,语言学,哲学等等。

该领域的基础是人类智能“可以如此精确地描述,以便可以使机器模拟它”。 这引发了关于心灵本质的哲学论证以及创造具有类似人类智慧的人工生物的伦理,这些问题是古代以来神话,小说和哲学所探讨的问题。 有些人还认为人工智能如果进展有增无减,就会对人类构成威胁。 其他人认为人工智能不像以前的技术革命那样会造成大规模失业的风险。然而,谷歌正在举办全球竞赛,以开发对人类有益的人工智能

在二十一世纪,随着计算机能力,大量数据和理论理解的同步发展,人工智能技术经历了复苏; 人工智能技术已经成为技术行业的重要组成部分,有助于解决计算机科学,软件工程和运筹学中的许多挑战性问题。

途径
没有确定的统一理论或范例来指导人工智能研究。 研究人员对许多问题持不同意见。 一些尚未得到解答的最长期问题是:人工智能是否应该通过研究心理学或神经生物学来模拟自然智能? 或者人类生物学与人工智能研究无关,因为鸟类生物学是航空工程? 可以使用简单,优雅的原则(例如逻辑或优化)来描述智能行为吗? 或者它是否一定需要解决大量完全不相关的问题?

控制论和大脑模拟
在20世纪40年代和50年代,许多研究人员探索了神经生物学,信息理论和控制论之间的联系。 他们中的一些人建造了使用电子网络展示基本情报的机器,例如W. Gray Walter的海龟和约翰霍普金斯野兽。 这些研究人员中的许多人聚集在普林斯顿大学的远程学会和英国的比例俱乐部会议。 到1960年,这种方法基本上被放弃了,尽管它的要素将在20世纪80年代复兴。

象征
当人们在20世纪50年代中期开始使用数字计算机时,人工智能研究开始探索人类智能可以简化为符号操作的可能性。 该研究集中在三个机构:卡内基梅隆大学,斯坦福大学和麻省理工学院,如下所述,每个机构都有自己的研究方式。 John Haugeland将这些象征性的方法命名为AI“老式AI”或“GOFAI”。 在20世纪60年代,象征性方法在模拟小型示范项目的高层次思考方面取得了巨大成功。 基于控制论或人工神经网络的方法被放弃或推入后台。 20世纪60年代和70年代的研究人员确信,符号方法最终将成功创造出具有人工智能的机器并将其视为其领域的目标。

认知模拟
经济学家赫伯特·西蒙和艾伦·纽厄尔研究了人类解决问题的能力并尝试将其正式化,他们的工作为人工智能领域奠定了基础,同时也为认知科学,运筹学和管理科学奠定了基础。 他们的研究团队使用心理学实验的结果来开发模拟人们用来解决问题的技术的程序。 以卡内基梅隆大学为中心的这一传统最终将在20世纪80年代中期开始发展Soar建筑。

逻辑为基础的
与西蒙和纽厄尔不同,约翰麦卡锡认为机器不需要模拟人类的思想,而应该试图找到抽象推理和解决问题的本质,无论人们是否使用相同的算法。 他在斯坦福大学(SAIL)的实验室专注于使用形式逻辑来解决各种各样的问题,包括知识表示,规划和学习。 逻辑也是爱丁堡大学和欧洲其他地方工作的重点,这导致了Prolog编程语言和逻辑程序设计科学的发展。

反逻辑或邋..
麻省理工学院的研究人员(如Marvin Minsky和Seymour Papert)发现,解决视觉和自然语言处理中的难题需要临时解决方案 – 他们认为没有简单而一般的原则(如逻辑)能够捕捉到所有方面的问题。智能行为。 Roger Schank将他们的“反逻辑”方法描述为“邋”“(而不是CMU和斯坦福的”整洁“范式)。 常识知识库(例如Doug Lenat的Cyc)是“邋”“AI”的一个例子,因为它们必须手工构建,一次一个复杂的概念。

基于知识的
当1970年左右有大型记忆的计算机出现时,来自这三种传统的研究人员开始在AI应用程序中建立知识。 这种“知识革命”促成了专家系统的开发和部署(由Edward Feigenbaum引入),这是第一个真正成功的AI软件形式。 所有专家系统的系统arhitecute的关键组件是知识库,它存储说明AI的事实和规则。 知识革命也是由于认识到许多简单的AI应用程序需要大量的知识。

子象征
到了20世纪80年代,象征性AI的进展似乎停滞不前,许多人认为象征系统永远无法模仿人类认知的所有过程,尤其是感知,机器人,学习和模式识别。 许多研究人员开始研究特定AI问题的“次符号”方法。 子符号方法设法在没有特定知识表示的情况下接近智能。

体验智慧
这包括体现,定位,基于行为和新的AI。 机器人相关领域的研究人员,如罗德尼布鲁克斯,拒绝了符号AI,并专注于允许机器人移动和生存的基本工程问题。 他们的工作重新启动了20世纪50年代早期控制论研究者的非象征性观点,并重新引入了控制理论在人工智能中的应用。 这恰好与认知科学相关领域中具体的心理论题的发展相吻合:身体的各个方面(如运动,感知和可视化)是更高智力所必需的。

在发展机器人技术中,详细阐述了发展学习方法,以允许机器人通过自主自我探索,与人类教师的社交互动以及使用指导机制(主动学习,成熟,运动协同作用等)来积累新技能的曲目。

计算智能和软计算
20世纪80年代中期,David Rumelhart和其他人重新开始对神经网络和“连接主义”的兴趣。 人工神经网络是软计算的一个例子 – 它们是无法用完全逻辑确定性解决的问题的解决方案,并且近似解决方案通常就足够了。 AI的其他软计算方法包括模糊系统,进化计算和许多统计工具。 软计算在AI中的应用由新兴的计算智能学科共同研究。

统计学习
许多传统的GOFAI陷入了对符号计算的临时补丁,这些补丁对他们自己的玩具模型起作用,但未能推广到现实世界的结果。 然而,在20世纪90年代,人工智能研究人员采用了复杂的数学工具,如隐马尔可夫模型(HMM),信息理论和规范的贝叶斯决策理论来比较或统一竞争架构。 共享的数学语言允许与更成熟的领域(如数学,经济学或运筹学)进行高水平的合作。 与GOFAI相比,新的“统计学习”技术(如HMM和神经网络)在许多实际领域(如数据挖掘)中获得了更高的准确度,而不必获得数据集的语义理解。 随着实际数据的成功增加,人们越来越重视将不同的方法与共享测试数据进行比较,以确定哪种方法在比特殊玩具模型提供的更广泛的背景下表现最佳; 人工智能研究变得更加科学。 如今,实验结果通常是严格可测量的,并且有时(难以)可重复。 不同的统计学习技术有不同的局限性 例如,基本的HMM无法模拟自然语言的无限可能组合。 批评者指出,从GOFAI向统计学习的转变往往也是从可解释的AI转变。 在AGI研究中,一些学者警告不要过度依赖统计学习,并认为继续研究GOFAI仍然是获得一般智力所必需的。

整合方法

智能代理范例
智能代理是一种能够感知其环境并采取最大化其成功机会的行动的系统。 最简单的智能代理是解决特定问题的程序。 更复杂的代理人包括人类和人类组织(如公司)。 该范例允许研究人员通过询问哪个代理最大化给定的“目标函数”来直接比较甚至将不同的方法结合到孤立的问题中。 解决特定问题的代理可以使用任何有效的方法 – 一些代理是符号和逻辑的,一些是子符号人工神经网络,其他可能使用新方法。 该范例还为研究人员提供了与其他领域(如决策理论和经济学)进行交流的通用语言,这些领域也使用抽象代理的概念。 建立一个完整的代理人需要研究人员解决现实的整合问题; 例如,由于感官系统提供有关环境的不确定信息,规划系统必须能够在存在不确定性的情况下发挥作用。 智能代理范式在20世纪90年代被广泛接受。
代理体系结构和认知体系结构
研究人员设计了系统,以便在多代理系统中通过交互智能代理构建智能系统。 分级控制系统在其最低级别的反应级别的子符号AI和最高级别的传统符号AI之间提供桥梁,其中宽松的时间约束允许规划和世界建模。 一些认知架构是为解决一个狭窄的问题而定制的; 其他人,如Soar,旨在模仿人类的认知,并提供对一般情报的洞察力。 Soar的现代扩展是混合智能系统,包括符号和子符号组件。

工具

AI开发了大量工具来解决计算机科学中最棘手的问题。 下面讨论这些方法中最常见的一些方法。

搜索和优化
通过智能搜索许多可能的解决方案,理论上可以解决AI中的许多问题:推理可以简化为执行搜索。 例如,逻辑证明可以被视为搜索从前提到结论的路径,其中每个步骤都是推理规则的应用。 规划算法搜索目标和子目标树,尝试找到目标目标的路径,称为手段 – 目标分析的过程。 用于移动肢体和抓取对象的机器人算法在配置空间中使用本地搜索。 许多学习算法使用基于优化的搜索算法。

对于大多数现实世界的问题,简单的详尽搜索很少:搜索空间(搜索的地方数量)迅速增长到天文数字。 结果是搜索太慢或永远不会完成。 对于许多问题,解决方案是使用“启发式”或“经验法则”来优先选择有利于那些更有可能达到目标的选择,并以较短的步骤进行选择。 在某些搜索方法中,启发式方法还可以完全消除一些不太可能导致目标的选择(称为“修剪搜索树”)。 启发式方法为程序提供了解决方案所在路径的“最佳猜测”。 启发式方法将搜索解决方案限制为较小的样本量。

基于优化的数学理论,在20世纪90年代,一种非常不同的搜索变得突出。 对于许多问题,可以通过某种形式的猜测开始搜索,然后逐步细化猜测,直到不再进行细化。 这些算法可以被视为盲目爬山:我们在景观上的随机点开始搜索,然后,通过跳跃或步骤,我们继续向上移动我们的猜测,直到我们到达顶部。 其他优化算法是模拟退火,波束搜索和随机优化。

进化计算使用一种优化搜索形式。 例如,它们可以从一群生物(猜测)开始,然后允许它们变异和重组,只选择最适合每一代生存(精炼猜测)。 经典进化算法包括遗传算法,基因表达编程和遗传编程。 或者,分布式搜索过程可以通过群体智能算法进行协调。 在搜索中使用的两种流行的群体算法是粒子群优化(受鸟群聚集启发)和蚁群优化(受蚂蚁踪迹启发)。

逻辑
逻辑用于知识表示和问题解决,但它也可以应用于其他问题。 例如,satplan算法使用逻辑进行规划,而归纳逻辑编程是一种学习方法。

人工智能研究中使用了几种不同形式的逻辑。 命题逻辑涉及诸如“或”和“不”之类的真值函数。 一阶逻辑添加了量词和谓词,可以表达关于对象,它们的属性以及它们之间的关系的事实。 模糊集合理论将“真实程度”(在0和1之间)分配给模糊的陈述,例如“爱丽丝是老的”(或富有,或高,或饥饿),这些陈述在语言上太不精确,不完全是真或假。 模糊逻辑成功地用于控制系统,允许专家提出模糊的规则,例如“如果你靠近目的地站并快速行驶,增加列车的制动压力”; 然后可以在系统内对这些模糊的规则进行数值细化。 模糊逻辑在知识库中不能很好地扩展; 许多人工智能研究人员质疑链式模糊逻辑推理的有效性。

默认逻辑,非单调逻辑和限制是逻辑形式,旨在帮助默认推理和资格问题。 已经设计了几种逻辑扩展来处理特定的知识领域,例如:描述逻辑; 情境演算,事件演算和流利演算(用于表示事件和时间); 因果微积分; 信仰微积分; 和模态逻辑。

总体而言,在存在噪声或其他不确定性的情况下,质量符号逻辑是脆弱的并且难以扩展。 规则的例外很多,逻辑系统很难在存在矛盾规则的情况下运行。

不确定推理的概率方法
AI中的许多问题(在推理,计划,学习,感知和机器人技术中)要求代理在不完整或不确定的信息下操作。 人工智能研究人员使用概率论和经济学方法设计了许多强大的工具来解决这些问题。

贝叶斯网络是一种非常通用的工具,可用于大量问题:推理(使用贝叶斯推理算法),学习(使用期望最大化算法),规划(使用决策网络)和感知(使用动态贝叶斯网络) )。 概率算法还可用于过滤,预测,平滑和查找数据流的解释,帮助感知系统分析随时间发生的过程(例如,隐马尔可夫模型或卡尔曼滤波器)。 与符号逻辑相比,正式的贝叶斯推断在计算上是昂贵的。 为了使推论易于处理,大多数观察必须在条件上彼此独立。 带有菱形或其他“循环”(无向循环)的复杂图形可能需要一种复杂的方法,如马尔可夫链蒙特卡罗,它在整个贝叶斯网络中传播随机步行者的集合,并试图收敛到条件概率的评估。 在Xbox Live上使用贝叶斯网络来评估和匹配玩家; 胜负是球员有多好的“证据”。 AdSense使用具有超过3亿边缘的贝叶斯网络来了解要投放的广告。

来自经济学的一个关键概念是“效用”:衡量某事物对智能代理人的价值。 已经开发出精确的数学工具,使用决策理论,决策分析和信息价值理论分析代理人如何做出选择和计划。 这些工具包括马尔可夫决策过程,动态决策网络,博弈论和机制设计等模型。

分类器和统计学习方法
最简单的AI应用程序可分为两种类型:分类器(“如果闪亮然后钻石”)和控制器(“如果闪亮然后拾取”)。 然而,控制器也会在推断动作之前对条件进行分类,因此分类构成了许多AI系统的核心部分。 分类器是使用模式匹配来确定最接近匹配的函数。 它们可以根据示例进行调整,使其非常适合用于AI。 这些例子被称为观察或模式。 在监督学习中,每个模式属于某个预定义的类。 可以将课程视为必须作出的决定。 所有观察结果与其类别标签相结合被称为数据集。 当收到新观察时,该观察结果根据以前的经验进行分类。

可以以各种方式训练分类器; 有许多统计和机器学习方法。 决策树可能是最广泛使用的机器学习算法。 其他广泛使用的分类器是神经网络,k-最近邻算法,内核方法,例如支持向量机(SVM),高斯混合模型,以及非常流行的朴素贝叶斯分类器。 分类器性能在很大程度上取决于要分类的数据的特征,例如数据集大小,维度和噪声级别。 如果假设的模型非常适合实际数据,则基于模型的分类器表现良好。 否则,如果没有可用的匹配模型,并且如果准确性(而不是速度或可伸缩性)是唯一关注的问题,传统观点认为,判别分类器(尤其是SVM)往往比基于模型的分类器(如“朴素贝叶斯”)更准确。在大多数实际数据集上。

人工神经网络
神经网络或神经网络受到人类大脑神经元结构的启发。 一个简单的“神经元”N接受来自多个其他神经元的输入,每个神经元在被激活(或“触发”)时,对神经元N本身是否应该激活进行加权“投票”。 学习需要算法根据训练数据调整这些权重; 一个简单的算法(被称为“火在一起,连线在一起”)是为了增加两个连接的神经元之间的重量,当一个激活一个触发成功激活另一个神经元。 网形成“概念”,分布在共同的神经元的子网中,这些子网往往会一起发射; 意思是“腿”的概念可以与子网络耦合,意思是“脚”,其包括“脚”的声音。 神经元具有连续的激活谱; 此外,神经元可以非线性方式处理输入,而不是权衡直接投票。 现代神经网络既可以学习连续函数,也可以学习数字逻辑运算。 神经网络的早期成功包括预测股票市场和(1995年)大多数自动驾驶汽车。 在2010年代,使用深度学习的神经网络的进步将人工智能推向了广泛的公众意识,并促成了企业人工智能支出的巨大升级; 例如,2017年与人工智能相关的并购交易额是2015年的25倍。

非学习人工神经网络的研究始于人工智能研究领域成立之前的十年,在Walter Pitts和Warren McCullouch的工作中。 Frank Rosenblatt发明了感知器,这是一个单层学习网络,类似于线性回归的旧概念。 早期开拓者还包括Alexey Grigorevich Ivakhnenko,Teuvo Kohonen,Stephen Grossberg,Kunihiko Fukushima,Christoph von der Malsburg,David Willshaw,Shun-Ichi Amari,Bernard Widrow,John Hopfield,Eduardo R. Caianiello等。

网络的主要类别是非循环或前馈神经网络(信号仅在一个方向传递)和循环神经网络(允许反馈和先前输入事件的短期记忆)。 最受欢迎的前馈网络包括感知器,多层感知器和径向基础网络。 神经网络可以应用于智能控制(用于机器人)或学习的问题,使用诸如Hebbian学习(“一起火,一起连线”),GMDH或竞争学习等技术。

今天,神经网络通常由反向传播算法训练,后者自1970年以来一直作为Seppo Linnainmaa发布的自动微分的反向模式,并由Paul Werbos引入神经网络。

分层时间记忆是一种模拟新皮层的一些结构和算法属性的方法。

简而言之,大多数神经网络在手工创建的神经拓扑上使用某种形式的梯度下降。 然而,一些研究小组,如优步,认为简单的神经进化改变新的神经网络拓扑和权重可能与复杂的梯度下降方法竞争。 神经进化的一个优点是它可能不太容易陷入“死胡同”。

深度前馈神经网络
深度学习是任何可以学习长链因果关系的人工神经网络。 例如,具有六个隐藏层的前馈网络可以学习七链路因果链(六个隐藏层+输出层)并且具有七个“信用分配路径”(CAP)深度。 许多深度学习系统需要能够长度学习十个或更多因果链。 深度学习已经改变了人工智能的许多重要子领域,包括计算机视觉,语音识别,自然语言处理等。

根据一个概述,“深度学习”一词由Rina Dechter于1986年引入机器学习社区,并在Igor Aizenberg及其同事于2000年将其引入人工神经网络后获得了关注。第一个功能性深度学习网络由Alexey发布Grigorevich Ivakhnenko和VG Lapa于1965年。[需要页面]这些网络一次训练一层。 Ivakhnenko在1971年的论文中描述了一种深层前馈多层感知器的学习方法,它有八层,已经比许多后来的网络深得多。 2006年,Geoffrey Hinton和Ruslan Salakhutdinov的出版物介绍了另一种预先训练多层前馈神经网络(FNN)的方法,将每一层依次作为无监督的受限玻尔兹曼机器处理,然后使用监督反向传播微调。 与浅层人工神经网络类似,深度神经网络可以模拟复杂的非线性关系。 在过去几年中,机器学习算法和计算机硬件的进步已经导致更有效的方法来训练包含许多非线性隐藏单元层和非常大的输出层的深度神经网络。

深度学习通常使用卷积神经网络(CNN),其起源可以追溯到1980年由Kunihiko Fukushima引入的Neocognitron。1989年,Yann LeCun及其同事将反向传播应用于这样的架构。 在21世纪初期,在工业应用中,CNN已经处理了美国所有支票的10%到20%。 自2011年以来,在GPU上快速实施CNN已经赢得了许多视觉模式识别竞赛。

拥有12个卷积层的CNN与Deepmind的“AlphaGo Lee”强化学习结合使用,该计划在2016年击败了顶级围棋冠军。

深度递归神经网络
早期,深度学习也应用于循环神经网络(RNN)的序列学习,理论上图灵完成并且可以运行任意程序来处理任意输入序列。 RNN的深度是无限的,取决于其输入序列的长度; 因此,RNN是深度学习的一个例子。 RNN可以通过梯度下降进行训练,但遭受消失梯度问题的困扰。 1992年,研究表明,对一堆递归神经网络进行无监督预训练可以加速深度序列问题的后续监督学习。

许多研究人员现在使用由Hochreiter&Schmidhuber在1997年发表的深度学习复发NN的变体,称为长短期记忆(LSTM)网络.LSTM通常由连接主义时间分类(CTC)训练。 谷歌,微软和百度这种方法彻底改变了语音识别。 例如,在2015年,谷歌的语音识别通过CTC培训的LSTM经历了49%的惊人表现,现在可通过Google Voice向数十亿智能手机用户提供。 谷歌还使用LSTM来改进机器翻译,语言建模和多语言语言处理。 LSTM与CNN结合还改进了自动图像字幕和许多其他应用。

评估进展
AI,如电力或蒸汽机,是一种通用技术。 关于如何描述AI倾向于擅长的任务,尚未达成共识。 虽然AlphaZero等项目已经成功地从头开始生成自己的知识,但许多其他机器学习项目需要大量的训练数据集。 研究员Andrew Ng建议,作为一种“非常不完美的经验法则”,“几乎任何典型的人都可以用不到一秒的精神思想来做,我们现在或者在不久的将来可以自动使用AI。” Moravec的悖论表明人工智能在许多人类大脑已经发展得很好的任务上落后于人类。

游戏提供了一个广为人知的基准,用于评估进度。 AlphaGo在2016年左右带来了经典棋盘游戏基准的时代即将结束。 不完全知识的游戏为人工智能在博弈论领域提出了新的挑战。 星际争霸等电子竞技继续提供额外的公共基准。 有许多竞赛和奖项,如Imagenet挑战赛,以促进人工智能研究。 竞争的主要领域包括通用机器智能,会话行为,数据挖掘,机器人汽车,机器人足球以及传统游戏。

“仿制游戏”(1950年图灵测试的一种解释,用于评估计算机是否可以模仿人类)如今被认为过于可利用而无法成为有意义的基准。 图灵测试的衍生物是完全自动化的公共图灵测试,告诉计算机和人类公寓(CAPTCHA)。 顾名思义,这有助于确定用户是真人,而不是冒充人的计算机。 与标准图灵测试相反,CAPTCHA由机器施用并靶​​向人,而不是由人施用并且靶向机器。计算机要求用户完成简单测试,然后为该测试生成等级。计算机无法解决问题,因此正确的解决方案被认为是参加测试的人的结果。常见类型的CAPTCHA是需要键入出现在计算机无法解密的图像中的扭曲字母,数字或符号的测试。

提议的“通用智能”测试旨在比较机器,人类甚至非人类动物在尽可能通用的问题集上的表现。在极端情况下,测试套件可以包含所有可能的问题,由柯氏复杂度加权; 不幸的是,这些问题集往往受到贫困模式匹配练习的支配,其中调整的AI可以轻松超过人类的表现水平。