Categories: 信息技术

人工智能的影响

人工智能(AI)是机器显示的智能。 在计算机科学中,理想的“智能”机器是一种灵活的理性代理,能够感知其环境并执行最大化其在某个目标或任务中成功机会的行动。 通俗地说,当机器模仿人类与其他人类思维相关联的“认知”功能时,应用术语人工智能,例如:“学习”和“解决问题”。 随着机器越来越强大,曾经被认为需要智能的技术从定义中删除。 例如,光学字符识别不再被视为已成为常用技术的“人工智能”的示例。 仍被归类为人工智能的技术进步是自动驾驶系统或能够下棋或围棋的技术进步。

根据Takeyas(2007),AI是计算科学的一个分支,负责研究能够根据其两个主要特征进行人类活动的计算机模型:推理和行为。

1956年,约翰麦卡锡创造了“人工智能”这一术语,并将其定义为“制造智能机器,特别是智能计算机程序的科学和独创性”。

对于Nils John Nilsson,人工智能有四个基本支柱:

在可能的操作生成的状态集中搜索所需的状态。
遗传算法(类似于DNA链的进化过程)。
人工神经网络(类似于动物和人类大脑的物理功能)。
通过类似于人类抽象思维的形式逻辑推理。

还有不同类型的感知和动作,分别可以通过机器中的物理传感器和机械传感器,计算机中的电脉冲或光脉冲以及软件的位输入和输出及其软件环境来获得和产生。 。

几个例子涉及系统控制,自动计划,响应诊断和消费者查询的能力,手写识别,语音识别和模式识别。 AI系统目前是经济学,医学,工程学和军事等领域的常规课程,并且已经用于各种软件应用,策略游戏,例如计算机象棋和其他视频游戏。

历史
思想能力强的人工作为古代的故事讲述装置出现,并且在小说中很常见,如Mary Shelley的Frankenstein或KarelČapek的RUR(Rossum的Universal Robots)。 这些人物及其命运引发了许多现在在人工智能伦理学中讨论过的相同问题。

机械或“正式”推理的研究始于古代的哲学家和数学家。 对数学逻辑的研究直接导致了阿兰图灵的计算理论,该理论认为通过改变符号“0”和“1”的机器可以模拟任何可想象的数学推导行为。 数字计算机可以模拟任何形式推理过程的这种见解被称为Church-Turing论文。 随着神经生物学,信息理论和控制论的同步发现,这导致研究人员考虑建立电子大脑的可能性。 图灵提出“如果一个人无法区分机器和人的反应,机器就可以被认为是”智能的“。 现在被普遍认为是AI的第一部作品是McCullouch和Pitts 1943年为图灵完成的“人工神经元”的正式设计。

人工智能研究领域于1956年在达特茅斯学院的一个研讨会上诞生。与会者Allen Newell(CMU),Herbert Simon(CMU),John McCarthy(麻省理工学院),Marvin Minsky(麻省理工学院)和Arthur Samuel(IBM)成为创始人和人工智能研究领导者。 他们和他们的学生制作的节目被新闻界描述为“令人惊讶”:计算机正在学习跳棋策略(c.1954)(据报道,据说1959年比普通人更好),解决了代数中的单词问题,证明了逻辑定理(逻辑定理)理论家,第一次运行c.1956)并说英语。 到20世纪60年代中期,美国的研究由国防部资助,并在世界各地建立了实验室。 人工智能的创始人对未来持乐观态度:赫伯特西蒙预言,“机器将能够在二十年内完成人类可以做的任何工作”。 Marvin Minsky同意并写道,“在一代人之内……创造’人工智能’的问题将基本得到解决”。

他们没有认识到剩下的一些任务的难度。 进展放缓,并且在1974年,为了应对詹姆斯·莱特希尔爵士的批评以及美国国会不断向更具生产力的项目提供资金的压力,美国和英国政府都切断了人工智能的探索性研究。 接下来的几年后来被称为“人工智能冬季”,这一时期很难获得人工智能项目的资金。

在20世纪80年代早期,人工智能研究由专家系统的商业成功而复兴,专家系统是一种模拟人类专家知识和分析技能的人工智能程序。 到1985年,人工智能市场已超过十亿美元。 与此同时,日本的第五代计算机项目激励美国和英国政府恢复学术研究的资金。 然而,从1987年Lisp机器市场的崩溃开始,人工智能再一次声名狼借,并开始了第二次更持久的中断。

在20世纪90年代末和21世纪初,人工智能开始被用于物流,数据挖掘,医疗诊断等领域。 成功的原因在于计算能力的提高(参见摩尔定律),更强调解决特定问题,人工智能与其他领域(如统计学,经济学和数学)之间的新联系,以及研究人员对数学方法和科学标准的承诺。 Deep Blue于1997年5月11日成为第一个击败卫冕世界象棋冠军加里卡斯帕罗夫的计算机国际象棋系统。

在2011年,一个危险! 智力竞赛表演比赛,IBM的问答系统,沃森,击败了两个最大的危险! 冠军,布拉德鲁特和肯詹宁斯,显着的优势。 更快的计算机,算法改进以及对大量数据的访问促进了机器学习和感知的进步; 数据饥渴的深度学习方法在2012年左右开始主导准确性基准测试.Kinect为Xbox 360和Xbox One提供3D身体动作界面,使用了冗长的AI研究中出现的算法以及智能手机中的智能个人助理。 2016年3月,AlphaGo在Go冠军Lee Sedol的比赛中赢得了Go的5场比赛中的4场,成为第一个击败没有障碍的职业Go球员的电脑Go-playing系统。 在2017年的Go of Go峰会上,AlphaGo赢得了与Ke Jie的三场比赛,Ke Jie当时连续两年保持世界排名第一。 这标志着人工智能发展的一个重要里程碑的完成,因为围棋是一个非常复杂的游戏,比国际象棋更为重要。

根据彭博社的杰克克拉克的说法,2015年是人工智能的标志性年份,在谷歌使用人工智能的软件项目数量从2012年的“零星使用”增加到2,700多个项目。 Clark还提供了实际数据,表明图像处理任务中的错误率自2011年以来已显着下降。他将此归因于可负担的神经网络的增加,这是由于云计算基础设施的增加以及研究工具和数据集的增加。 其他引用的例子包括微软开发的Skype系统可以自动从一种语言翻译成另一种语言,而Facebook的系统可以向盲人描述图像。 在2017年的一项调查中,五分之一的公司报告称他们“将AI纳入某些产品或流程”。 2016年左右,中国大大加快了政府资金投入; 鉴于其庞大的数据供应及其快速增长的研究成果,一些观察家认为可能有望成为“AI超级大国”。

基本
典型的人工智能感知其环境并采取行动,最大限度地提高其成功实现目标的机会。 AI的预期目标函数可以很简单(“如果AI赢得Go游戏则为1,否则为0”)或复杂(“在数学上类似于过去获得奖励的行为”)。 目标可以明确定义,也可以诱导。 如果AI被编程为“强化学习”,则可以通过奖励某些类型的行为和惩罚他人来隐含地诱导目标。 或者,进化系统可以通过使用“适应度函数”来诱导目标,以突变并优先复制高分AI系统; 这类似于动物如何进化到天生地渴望某些目标,例如寻找食物,或者如何通过人工选择培育狗以获得所需的特征。 一些人工智能系统,例如最近邻居,而不是类比的原因; 这些系统通常没有给出目标,除非目标在某种程度上隐含在他们的训练数据中。 如果非目标系统被构建为其“目标”是成功完成其狭窄分类任务的系统,则仍然可以对这样的系统进行基准测试。

AI经常围绕算法的使用。 算法是机械计算机可以执行的一组明确指令。 复杂的算法通常建立在其他更简单的算法之上。 一个简单的算法示例是以下在井字游戏中实现最佳游戏的方法:

如果某人有“威胁”(即连续两次),则取剩余的方格。 除此以外,
如果一个动作“分叉”同时创造两个威胁,那就发挥这一作用。 除此以外,
如果是免费的,可以去中心广场。 除此以外,
如果你的对手在一个角落里打球,那就到对面的角落。 除此以外,
如果存在,则采取空角。 除此以外,
拿任何空的广场。

许多AI算法都能够从数据中学习; 他们可以通过学习新的启发式(策略或“经验法则”,在过去运作良好)来增强自己,或者自己可以编写其他算法。 下面描述的一些“学习者”,包括贝叶斯网络,决策树和最近邻居,理论上,如果给定无限的数据,时间和记忆,学会近似任何函数,包括最好地描述数学函数的任何组合。全世界。 因此,理论上,这些学习者可以通过考虑每个可能的假设并将其与数据相匹配来获得所有可能的知识。 在实践中,由于“组合爆炸”现象,解决问题所需的时间呈指数增长,因此几乎不可能考虑所有可能性。 许多人工智能研究涉及到如何识别和避免考虑不太可能富有成果的广泛可能性。 例如,在查看地图并寻找从东部丹佛到纽约的最短行车路线时,大多数情况下可以跳过通过旧金山或远至西部的其他地区的任何路径; 因此,使用像A *这样的寻路算法的AI可以避免如果必须依次仔细考虑每条可能的路线而发生的组合爆炸。

人工智能最早(也是最容易理解)的方法是象征(如形式逻辑):“如果一个健康的成年人发烧,那么他们可能患有流感”。 第二种更为一般的方法是贝叶斯推论:“如果当前患者发烧,则以这种方式调整他们感染流感的概率”。 在常规商业AI应用中非常流行的第三种主要方法是SVM和最近邻的类比器:“在检查已知过去患者的记录后,其温度,症状,年龄和其他因素大多与当前患者匹配,X%那些病人原来是流感“。 第四种方法难以直观地理解,但受到大脑机械如何工作的启发:人工神经网络方法使用人工“神经元”,可以通过将自身与期望输出进行比较并改变其内部神经元之间的连接强度来学习“强化”似乎有用的联系。 这四种主要方法可以相互重叠,也可以与进化系统重叠; 例如,神经网络可以学习推理,推广和进行类比。 一些系统隐含地或明确地使用这些方法中的多种,以及许多其他AI和非AI算法; 最好的方法通常根据问题而有所不同。

学习算法的工作基础是,过去运作良好的策略,算法和推论可能会在未来继续良好运作。 这些推论可能是显而易见的,例如“自从太阳在过去的10,000天里每天早晨都升起,它明天早上也可能升起”。 它们可以是细致入微的,例如“X%的家庭在地理上分离的物种具有颜色变体,因此存在未被发现的黑天鹅的可能性”。 学习者也在“奥卡姆剃刀”的基础上工作:解释数据最简单的理论是最有可能的。 因此,要获得成功,学习者必须被设计成使其更喜欢简单的理论到复杂的理论,除非复杂理论被证明更好。 解决一个糟糕的,过于复杂的理论,以适应所有过去的训练数据被称为过度拟合。 许多系统试图通过根据数据与数据的匹配程度来奖励理论来减少过度拟合,但是根据理论的复杂程度来惩罚理论。 除了经典的过度拟合,学习者还可以通过“学习错误的教训”而失望。 一个玩具的例子是,仅对棕色马和黑猫的照片进行训练的图像分类器可能得出结论,所有棕色斑块都可能是马。 一个真实的例子是,与人类不同,当前的图像分类器不确定图像组成部分之间的空间关系; 相反,他们学习人类无视的像素的抽象模式,但与某些类型的真实物体的图像线性相关。 在合法图像上微弱地叠加这样的图案会导致系统错误分类的“对抗性”图像。

Related Post

与人类相比,现有的AI缺乏人类“常识推理”的几个特征; 最值得注意的是,人类拥有强大的推理“天真物理学”的机制,如空间,时间和物理互动。 这使得即使是年幼的孩子也可以轻松地做出推断,例如“如果我将这支笔从桌子上滚下来,它会落在地板上”。 人类还有一个强大的“民间心理学”机制,帮助他们解释自然语言句子,如“市议员拒绝示威者因为他们提倡暴力而获得许可”。 (一般人工智能难以推断议员或示威者是否被指控提倡暴力。)这种缺乏“常识”意味着人工智能经常会犯下比人类更多的错误,其方式似乎难以理解。 例如,现有的自动驾驶汽车不能以人类的确切方式推断行人的位置和意图,而必须使用非人类推理模式来避免事故。

问题
人工智能的总体研究目标是创建允许计算机和机器以智能方式运行的技术。 模拟(或创建)智能的一般问题已经分解为子问题。 这些由研究人员期望智能系统显示的特定特征或能力组成。 下面描述的特征受到最多关注。

推理,解决问题
早期的研究人员开发了一些算法,模仿人类在解决谜题或进行逻辑演绎时使用的逐步推理。 到20世纪80年代末和90年代,人工智能研究开发了处理不确定或不完整信息的方法,采用概率和经济学的概念。

事实证明,这些算法不足以解决大型推理问题,因为它们经历了“组合爆炸”:随着问题变得越来越大,它们呈指数级增长。 事实上,即使是人类也很少使用早期AI研究能够建模的逐步演绎。 他们使用快速,直观的判断来解决他们的大多数问题。

知识表示
知识表示和知识工程是经典人工智能研究的核心。 一些“专家系统”试图将某些狭隘领域的专家所拥有的显性知识聚集在一起。 此外,一些项目试图将普通人所知的“常识知识”收集到包含有关世界的广泛知识的数据库中。 综合常识知识库将包含的内容包括:对象,属性,类别和对象之间的关系; 情况,事件,状态和时间; 原因和影响; 关于知识的知识(我们对其他人所了解的知识); 以及许多其他研究较少的领域。 “存在什么”的表示是本体:正式描述的对象,关系,概念和属性的集合,以便软件代理可以解释它们。 这些语义被捕获为描述逻辑概念,角色和个体,并且通常在Web本体语言中实现为类,属性和个体。 最普遍的本体被称为上层本体,它试图通过充当领域本体之间的介体来为所有其他知识提供基础,这些领域本体涵盖了关于特定知识领域(感兴趣的领域或关注领域)的特定知识。 这种形式知识表示可用于基于内容的索引和检索,场景解释,临床决策支持,知识发现(从大型数据库挖掘“有趣”和可操作的推断)以及其他领域。

知识表示中最困难的问题是:

默认推理和资格问题
人们所知道的许多事情都采取“工作假设”的形式。 例如,如果一只鸟出现在谈话中,人们通常会想象一种拳头大小,唱歌和苍蝇的动物。 关于所有鸟类,这些都不是真的。 约翰麦卡锡在1969年将此问题确定为资格问题:对于AI研究人员所关注的任何常识规则,往往存在大量例外情况。 在抽象逻辑需要的方式中,几乎没有任何东西是真或假的。 人工智能研究已经探索了许多这个问题的解决方案。

广泛的常识知识
普通人知道的原子事实的数量非常大。 试图建立完整的常识知识基础知识库(例如Cyc)的研究项目需要大量繁琐的本体工程 – 它们必须手工建立一次一个复杂的概念。

一些常识知识的子符号形式
人们所知道的大部分内容并不代表他们可以口头表达的“事实”或“陈述”。 例如,国际象棋大师将避免特定的国际象棋位置,因为它“感觉太暴露”或艺术评论家可以看一眼雕像并意识到它是假的。 这些是人脑中的无意识和次象征直觉或倾向。 像这样的知识为象征性的,有意识的知识提供信息,支持并提供背景。 与子符号推理的相关问题一样,希望位于AI,计算智能或统计AI将提供表示这种知识的方法。

规划
智能代理必须能够设定目标并实现目标。 他们需要一种可视化未来的方式 – 一种世界状况的表示,并能够预测他们的行为将如何改变它 – 并且能够做出最大化可用选择的效用(或“价值”)的选择。

在经典规划问题中,代理可以假设它是世界上唯一的系统,允许代理确定其行为的后果。 但是,如果代理人不是唯一的参与者,那么它要求代理人可以在不确定的情况下进行推理。 这要求代理商不仅可以评估其环境并进行预测,还可以评估其预测并根据其评估进行调整。

多智能体规划使用许多代理的合作和竞争来实现给定的目标。 诸如此类的紧急行为被进化算法和群体智能使用。

学习
机器学习是自该领域诞生以来人工智能研究的一个基本概念,它是对通过经验自动改进的计算机算法的研究。

无监督学习是在输入流中找到模式的能力。 监督学习包括分类和数值回归。 在看到几个类别的事物的一些例子之后,分类用于确定某些类别属于哪个类别。 回归是试图产生描述输入和输出之间关系的函数,并预测输出在输入变化时应如何变化。 试图学习未知(可能是隐含的)函数,可以将分类器和回归学习者视为“函数逼近器”; 例如,垃圾邮件分类器可以被视为学习从电子邮件文本映射到两种类别之一的功能,“垃圾邮件”或“非垃圾邮件”。 计算学习理论可以通过计算复杂性,样本复杂度(需要多少数据)或其他优化概念来评估学习者。 在强化学习中,代理人会因良好反应而获得奖励,并因不良反应而受到惩罚。 代理人使用这一系列的奖励和惩罚来形成在其问题空间中运作的策略。

自然语言处理
自然语言处理(NLP)使机器能够阅读和理解人类语言。 一个足够强大的自然语言处理系统将支持自然语言用户界面和直接从人类书面来源获取知识,例如新闻专线文本。 自然语言处理的一些直接应用包括信息检索,文本挖掘,问答和机器翻译。 许多当前的方法使用单词共现频率来构造文本的句法表示。 “关键字发现”搜索策略很受欢迎,可扩展但很愚蠢; “dog”的搜索查询可能只匹配带有文字“dog”的文档,并且会错过带有“poodle”一词的文档。 “词汇亲和力”策略使用诸如“意外”之类的词语的出现来评估文档的情绪。 现代统计NLP方法可以结合所有这些策略以及其他策略,并且通常在页面或段落级别上达到可接受的准确性,但是仍然缺乏对孤立句子进行良好分类所需的语义理解。 除了编码语义常识知识的常见困难之外,现有的语义NLP有时会扩展得太差,无法在业务应用程序中实现。 除了语义NLP之外,“叙事”NLP的最终目标是体现对常识推理的全面理解。

知觉
机器感知能够使用来自传感器(例如摄像机(可见光谱或红外),麦克风,无线信号以及有源激光雷达,声纳,雷达和触觉传感器)的输入来推断世界各个方面。 应用包括语音识别,面部识别和对象识别。 计算机视觉是分析视觉输入的能力。 这种输入通常是模棱两可的; 一个巨大的,五十米高的行人可以产生与附近正常大小的行人完全相同的像素,要求AI判断不同解释的相对可能性和合理性,例如通过使用其“对象模型”来评估那五十米的行人不存在。

动作和操纵
AI大量用于机器人技术。 在现代工厂中广泛使用的先进机器人手臂和其他工业机器人可以从经验中学习如何在有摩擦和齿轮滑动的情况下高效移动。 现代移动机器人在给定小而静态且可见的环境时,可以轻松确定其位置并绘制其环境图; 然而,动态环境,例如(在内窥镜检查中)患者呼吸体的内部,提出了更大的挑战。 运动规划是将运动任务分解为诸如个体关节运动之类的“原始”的过程。 这种运动通常涉及顺应运动,其中运动需要保持与物体的物理接触。 Moravec的悖论概括了人类认为理所当然的低水平感觉运动技能,违反直觉,难以编入机器人; 这个悖论是以汉斯·莫拉维克(Hans Moravec)的名字命名的,汉斯·莫拉维克在1988年表示“让计算机在智力测验或玩跳棋上表现出成人水平相当容易,并且难以或不可能给他们一岁时的技能。来到感知和流动“。 这归因于这样一个事实:与跳棋不同,物理灵活性已经成为数百万年来自然选择的直接目标。

社交情报
莫拉维克的悖论可以扩展到许多形式的社会智慧。 自动驾驶汽车的分布式多智能体协调仍然是一个难题。 情感计算是一个跨学科的保护伞,包括识别,解释,处理或模拟人类影响的系统。 与情感计算相关的适度成功包括文本情感分析,以及最近的多模态情感分析(参见多模态情感分析),其中AI分类由录像主题显示的影响。

从长远来看,社交技能和对人类情感和博弈论的理解对社会行动者来说是有价值的。 通过了解他人的动机和情绪状态来预测他人的行为,可以让代理人做出更好的决策。 一些计算机系统模仿人类情感和表达,使其对人类交互的情绪动态更敏感,或以其他方式促进人机交互。 同样地,一些虚拟助手被编程为会话或甚至幽默地说话; 这往往会让天真的用户对现有计算机智能体的智能程度有一个不切实际的概念。

一般情报
历史上,诸如Cyc知识库(1984-)和大规模日本第五代计算机系统倡议(1982-1992)等项目试图涵盖人类认知的广度。 这些早期项目未能摆脱非定量符号逻辑模型的局限,并且回想起来,大大低估了跨域AI的难度。 如今,绝大多数现有的AI研究人员都采用易处理的“窄AI”应用(如医疗诊断或汽车导航)。 许多研究人员预测,不同个别领域的这种“狭窄AI”工作最终将被整合到具有人工智能(AGI)的机器中,结合本文中提到的大多数狭隘技能,在某些方面甚至超过人类的能力,或者所有这些方面。 许多进步具有一般的跨领域意义。 一个备受瞩目的例子是,2010年的DeepMind开发了一种“广义人工智能”,它可以自己学习许多不同的Atari游戏,后来开发了一个系统的变体,它在顺序学习中取得了成功。 除了转移学习外,假设的AGI突破可能包括开发可以参与决策理论元理论的反思架构,以及如何从整个非结构化Web中“汲取”综合知识库。 有些人认为某种(目前尚未发现的)概念上简单,但在数学上很难,“主算法”可能导致AGI。 最后,一些“紧急”方法看起来非常密切地模拟人类智能,并且相信像人工大脑或模拟儿童发展这样的拟人化特征有朝一日可能会达到一般情报出现的临界点。

如果机器要像人们一样解决问题,那么本文中的许多问题也可能需要一般情报。 例如,即使是特定的简单任务,如机器翻译,也要求机器以两种语言(NLP)进行读写,遵循作者的论证(理由),知道正在谈论的内容(知识),并忠实地再现作者的原创意图(社会情报)。 机器翻译之类的问题被认为是“AI完全”,因为所有这些问题需要同时解决才能达到人机级别的机器性能。

Share