可能是将来遇到的情况
来源:津信变频器 发布于:2019-4-21 9:10:32 点击量:
2019/04/22 08/23/54 【丹佛斯变频器 www.dfsbp.com】
在有监督的机器学习中,人们不是向系统提供行为规则,而是提供输入—输出行为的示例,希望它能够从示例中进行概括(示例通常代表过去),并在示例并未出现过的情况下也能表现良好(可能是将来遇到的情况)。
用于处理无法以符号方式描述的新任务的机器学习方法,以及随着时间的推移调整其行为以更好地实现给定目标的学习型理性代理(上文提及),需要注意两者的区别。机器人包括机械臂、自动驾驶车辆(例如汽车、无人机、飞行出租车)、类人机器人、机器人真空吸尘器等。
机器学习有几种分支,使用最多的分别是监督学习、无监督学习和强化学习。
机器学习方法不仅适用于感知任务,例如视觉和文本理解,而且适用于所有那些难以定义且无法通过符号行为规则全面描述的任务。神经网络输入的是来自传感器的数据(地板的图片),输出的是对图片的解读(地板是否清洁)。”
。因此,推理/信息处理模块必须:
1、解读图片以确定地板是否干净。
行动可能改变环境,因此下次系统需要再次使用其传感器,从改变后的环境中感知不同信息。知识建模后,下一步就是用它来推理(知识推理),包括通过符号规则、计划和调度活动、搜索大型解决方案集、以及优化问题的所有可能解决方案,最后一步是决定采取何种行动。最近,AI社群一直在研究方法来检测和减轻在训练数据集及AI系统其他部分的偏见的情况。
在下文中,我们将使用术语“AI系统”来表示任何基于AI的组件、软件或硬件。在图1中,执行器使用机械臂图标来表示,但它们不一定是实物,也可以是软件。一般而言,这意味着将数据转换为信息并以简洁的方式对信息建模,模型应包括所有相关的数据(在这种情况下,即为地板是否干净)。
二、AI作为一门科学学科
前文是关于AI系统非常简单的抽象描述,主要通过AI的三个能力:感知、推理/决策和行动。可解释性(EXPLAINABILITY变频器维修)指人工智能系统可以为其行为提供解释。该方法用于推荐系统(例如部分向用户推荐潜在购买选择的在线推荐系统),也应用于营销。一些机器学习方法采用基于神经网络概念的算法,神经网络受人类大脑的启发,它有一个处理单元构成的网络(类似于我们的神经元),处理单元之间有很多加权连接。从广义上讲,所有这些技术都可以分为两组,即推理和学习的能力,机器人则是另一个非常相关的学科。当然,理性虽不是智能概念的唯一要素,但也是其中的重要组成部分。这两种技术可以重叠或互补,但不一定相同。再举个例子,会话系统(即聊天机器人)的行为是通过生成文本来响应用户表达。
神经网络只是一种机器学习工具,还有许多其它具有不同属性的工具:随机森林(RANDOM FORESTS)及提升树(BOOSTED TREES)、聚类方法(CLUSTERING METHODS)、矩阵分解(MATRIX FACTORIZATION)等。在训练阶段结束时,用全新的示例对神经网络行为进行测试,检查任务是否被习得。
图1:AI系统的示意图
传感器和感知:在图1中,系统的传感器使用WIFI符号来表示,在实践中,它们可以是摄像头、麦克风、键盘、网站或其他输入设备,也可以是物理量的传感器(例如温度、压力、距离、力/扭矩、触觉传感器等)。在这种方法中,我们让AI系统自由地做出决定,并且针对每个决策回馈一个奖励信号,告诉AI系统决策的好坏。
推理/信息处理和决策:AI系统的核心是其推理/信息处理模块,该模块将来自传感器的数据作为输入,并根据实现目标决定要采取的行动,这意味着传感器收集的数据就需要转换为推理/信息处理模块可以理解的信息。
机器人:机器人技术可以被定义为“物理世界中行动的AI”(也称为具身AI,EMBODIED AI)。除人工智能外,其他学科还在机器人设计和操作中发挥作用,如机械工程和控制理论。不过,机器学习技术不止用于感知,还能产生根据数据计算决策的数值模型(即数学公式)。
理性AI系统并不总是为其目标选择最优行台达变频器为,因此仅能实现有限理性,这是由于时间或计算能力等资源的限制所导致。
图2描绘了上述大多数AI子学科以及它们的关系。通常,我们需要为AI系统提供足够的传感器,使其能充分感知目标环境的数据(与人类设计人员给予AI系统的目标相关)。为了能够做到这一点,人们需要将数据转换为知识,因此AI的领域之一是和如何最好地对知识建模(知识表达)有关。
学习:这组技术包括机器学习、神经网络、深度学习、决策树和许多其他学习技术。
现有几种神经网络和机器学习方法中,其中最成功是深度学习(DEEP LEARNING)。如果我们给出足够多的例子,并且这些例子在大多数情况下都是多样的和包容性的,那么系统将通过其机器学习算法进行概括,了解如何正确解读从未见过的图像。虽然人类很容易从地板图片中做出是否需要清扫的决定,但对于机器来说这并不容易,因为图片只是0和1的序列。”
在本文中,AI HLEG扩展了上述定义,从科学学科和技术两个层面来厘清人工智能概念,力求避免误解,希望成为非AI专家也能有效掌握的人工智能共识,并为将来讨论AI伦理准则和AI政策建议提供有利的支撑。基于AI的系统可以是虚拟世界中运行的纯软件,如语音助手、图像分析软件、搜索引擎、语音和人脸识别系统等,也可以嵌入硬件设备,如先进机器人、自动驾驶汽车、无人机或物联网应用等。AI系统可以是使用符号规则或者通过数字模型来学习,也可以通过分析环境受先前操作的影响来调整其行为。在上述清扫地板的例子中,摄像头将为推理/信息处理模块提供地板图片,该模块需要决定是否清洁地板(即何为达到预期目标的最优行为)。
请注意,应该更宽泛地看待“决策”一词,选择采取行动并不一定意味着AI系统是完全自主的。
欧盟委员会《人工智能通讯》的相关定义为“显示‘智能行为’的系统——通过分析环境并在一定程度上自主执行任务。在上述例子中,如果从图片中得到的信息是地板是脏的,最优行为是进行清扫,否则应该保持静止。更常见的是,AI系统是作为组件嵌入到较大系统中,而不是作为独立系统。
理性AI系统是AI系统的初级版本,它们能改变环境,但并不会随着时间的推移调整行伟肯变频器为以更好地实现目标。结构化数据是指根据预定义模型(如关系数据库)处理的数据,而非结构化数据不具有已知组织形式(如图像或文本)。
另一种有用的机器学习方法称为强化学习(REINFORCEMENT LEARNING)。然而,对于AI系统而言并非如此,因为它们不能依赖常识推理(至少目前还没有),并且在系统需要解读非结构化数据时尤其困难。但AI系统如何实现理性?正如上述关于AI定义的第一句所述,它通过以下方式实现(详见图1):通过传感器感知系统所处的周遭环境,收集并解读数据,推理被感知的内容或处理从数据中获取的信息,决定最优行为,再通过执行器采取相应行动,从而可能改变环境。但是,我们相信这对于在多学科和由多元利益相关方构成的高级别专家组内进行对AI技术、AI道德和AI政策的分享和理解并讨论已经足够。要实现通用AI所需的能力,仍然存在许多开放的伦理、科学和技术挑战,例如常识推理,自我意识以及机器来定义其自身目标的能力。决策也可以是选择某一建议推荐给人类,而人类作为最终决策者。在人工智能早期,研究人员使用了不同的术语(弱AI和强AI)。在对示例的分析(网络的训练阶段)期间,调整连接的权重以尽可能地匹配可用示例的内容(即最小化预期输出与网络计算输出之间的误差)。例如,如果我们要设计一个AI系统,实现在房间地板变脏时自动打扫,传感器就包括可用来拍摄地板照片的摄像头。
在收集数据方面,区分结构化数据和非结构化数据很有必要。
目标导向的AI:当前的AI系统是目标导向的,这意味着它们从人类那里接收了需要实现的具体目标并使用技术来加以实现,它们无法自我定义目标,但有些AI系统(例如基于某种机器学习技术的系统)可以更自由地决定采用何种路径实现给定目标。
四、更新的AI定义
“人工智能(AI)系统是由人类直接设计或借助AI技术优化设计的软硬件系统,在给定复杂目标的情况下,从物理或数字维度,通过数据获取来感知环境,解读所收集的结构化或非结构化数据,基于知识进行推理,或者通过处理来自数据的信息,为实现给定目标决定采取的一个或多个最优行动。然而,需要注意的是AI比这张图片要复杂得多,因为它包含许多其他子学科和技术。这类问题的例子通常与感知能力有关,例如语言理解、计算机视觉或行为预测等,值得注意的是这些问题看上去很容易,因为它们对人类来说确实很容易。
人工智能学科最常用的教科书《人工智能:一种现代的方法》中指出,AI系统首要的是理性。而AI黑箱的概念描述的便是这样的场景,其形成决策的原因无法被追溯。但是,这足以让我们介绍和理解目前用于构建AI系统的大多数AI技术和子领域,因为它们都涉及系统的这些能力。AI系统可以使用符号规则或学习数字模型,也可以通过分析先前操作对环境的影响来调整其行为。深度学习指神经网络在输入和输出之间具有若干层,可以通过连续步骤学习输入—输出的整体关系,这使得整体方法更加准确,并且不需要人工指导。学习型理性系统能够在采取行动后,(通过感知)评估环境的新状态,以确定其行动是否有效,然后调整其推理规则和决策方法。
一、AI系统
术语AI显然包含智能概念,但在机器智能和人类智能中,智能的定义含糊——即便心理学家、生物学家和神经科学家已对其进行了长期研究,故而AI研究人员更习惯使用“理性”这一概念。因此,一个基本概念是“准确率”(ACCURACY)——度量正确答案占据的百分比。文件主要从AI系统的能力和学科角度出发,厘清并扩展了其中的部分概念,并且阐述了AI的其他重要概念和问题,继而更新了人工智能的定义。AI系统的推理/决策部分通常非常复杂,需要组合上述多种技术。“理性”是指在给定优化条件和可用资源的情况下,为实现某个目标而选择最优行为的能力。
图2:AI的子学科及其关系的简要概述(注:机器学习和推理都包括许多其他技术,机器人技术包括AI领域之外的技术。
作为一门科学学科,人工智能包括多种方法和技术,如机器学习(其中深度学习和强化学习是具体的例子)、机器推理(包括计划、调度、知识表达和推理、搜索和优化)和机器人技术(包括控制、感知、传感器和执行器、以及与所有其他信息物理系统技术的集成)。例如,如果训练数据存在偏见,即不够平衡或不够包容,那么基于这些数据进行培训的人工智能系统将无法对数据进行很好概括,并且可能做出不利于特定群体而惠及其他群体的不公平决策。随着时间的推移,该系统的目标是最大化所获得的积极奖励。在我们的运行示例中,我们将为系统投喂许多地板图片和相应的解释(即该图片中的地板是否干净)。
数据问题与偏见:由于多数AI系统(例如包括监督机器学习组件的系统)的良好表现实际依赖于大量数据,因此了解数据如何影响AI系统的行为非常重要。此外,如上所述,机器人技术还依赖于AI领域之外的技术。在清扫的例子中,如果行为是清洁地板,AI系统可以发出激活吸尘器的信号。这组技术对来自传感器的数据进行推理。感知、推理、行动、学习以及与其他系统的交互能力通常集成在机器人系统的控制架构中。欧盟人工智能高级别专家组(AI HLEG)近日发布《人工智能定义:主要能力和科学学科》,简要描述了高级专家组对其交付的成果中所使用的对该学科的共同理解。机器人是一种实物机器,应对物理世界的动态、不确定性和复杂性。
行动:一旦确定了行为,AI系统就可以通过可用的执行器完成。
推理与决策:这组技术包括知识表达和推理、计划、调度、搜索和优化。AI整体属于计算机科学学科)
三、AI的其他重要概念和问题
狭义人工智能(弱智能)和通用人工智能(强智能):通用人工智能系统指能够执行人类可执行的大多数活动的系统,而狭义AI系统是可以执行一个或几个特定任务的系统。
2、对信息进行推理或处理,生成数字模型(即数学公式),以便确定最优行为。
值得注意的是这种方法(以及所有机器学习技术)总是有一定比例的误差,尽管误差通常很小。这时遵循机器学习方法的技术便派上用场。
AI黑箱与可解释性:即便部分机器学习技术从准确率的角度来看非常成功,但在其如何做出决策方面却非常不透明。目前部署的AI系统是狭义A变频器维修 I。这组技术使AI系统学习如何解决无法精确定义的问题,或者解决方法无法采用符号推理规则来描述的问题
20190422082354
>下一篇:可自主避障还可自主乘坐电梯