新闻资讯

当前位置:首页 > 新闻中心 > 公司新闻

    NATIONAL INSTITUTE OF STANDARDS ANDTECHNOLOGY

    来源:津信变频器    发布于:2019-4-21 9:10:32    点击量:

    2019/04/22 08/24/03  【丹佛斯变频器 www.dfsbp.com】相比之下,一个强学习很容易被分类,并且与真正的分类很好地一致。

      人工神经网络(ANN)具有隐藏层,用于响应比早期感知器更复杂的任务。当两个神经元同时被激活时,它们之间的关系增强;两个神经元分别被单独激活时,它变频器维修们之间的关系减弱。

      。

      2012年,谷歌的X实验室开发了一种机器学习算法,可以自动浏览和找到包含猫的视频。他们的发现表明,新算法的准确率是2002年的10倍,是1995年的100倍。机器学习是打开人工智能大门的关键钥匙。

      机器学习一定程度上是基于脑细胞相互作用的模型。这一成功主要是互联网发展的结果,得益于日益增长的数字数据可用性和通过互联网共享服务的能力。专门研究计算机如何模拟人或实现人类自身的学习行为,以获取新知识或技能,重新组织已有知识结构使之不断改善自身的性能。2014年,FACEBOOK开发了一种名为DEEPFACE的算法,能够识别或验证照片中的个人,其准确度与人类相当。

      语音识别

      目前,大部分语音识别训练都是通过一种叫做长短时记忆(LSTM)的深度学习技术来完成的。该软件最初是为IBM 704设计的,安装在一台名为MARK 1感知器的定制机器上,这台机器是为图像识别而构建的。

      · A.NEWELL和H.SIMON的“逻辑理论家”“通用问题求解”程序,获得1975年图灵奖。研究发现,感知器中使用两个或多个层比一个层具有更强的处理能力。在此之前,机器学习一直被用作人工智能的培训项目。

      感知器

      1957年,康奈尔航空实验室的FRANK ROSENBLATT将DONALD HEBB的脑细胞互动模型与ARTHUR SAMUEL的机器学习成果结合起来,创造了感知器。行业目标从人工智能培训转向解决服务方面的实际问题。神经网络是机器学习的主要工具。最近的算法包括BROWNBOOST、LPBOOST、MADABOOST、TOTALBOOST、XGBOOST和LOGITBOOST。机器学习催生了一系列新的概念和技术,包括监督和非监督学习、机器人的新算法、物联网、分析工具、聊天机器人等等。大量的BOOSTING算法可以在ANYBOOST框架中工作。他把这归功于1967年COVER和HART的论文。被错误分类的输入数据会增加权重,而被正确分类的数据会减少权重。从疾病爆发丹佛斯到库存的涨跌,现代机器学习模型都可以预测。这些隐藏层非常适合于发现过于复杂的模式,以至于人类程序员无法检测到,这意味着人类无法找到该模式,然后教会设备识别它。由于该程序只有很少的计算机内存可用,SAMUEL就发明了ALPHA-BETA剪枝算法。

      多层结构迈出了下一步

      20世纪60年代,多层结构的发现和应用为神经网络研究开辟了一条新道路。这使得软件和算法可以转移,并可用于其他机器。

      机器学习跳棋游戏

      20世纪50年代,IBM的ARTHUR SAMUEL开发了一种下棋的电脑程序。

      · 1980年美国卡内基梅隆大学举行第一届机器学习研讨会。1949年,该模型由DONALDHEBB在《行为组织》一书中创建。

      机器学习和人工智能各行其道

      20世纪70年代末和80年代初,人工智能研究的重点是使用逻辑的、基于知识的方法,而不是算法。其他版本的神经网络是在感知器打开网络“层”的大门之后创建的,而且神经网络的种类还在不断扩大。弱学习被定义为只与真实分类有轻微关联的分类器(仍然比随机猜测要好)。程序使用极大极小策略来选择下一步,该策略最终演化为极大极小算法。在输出处出现一个错误时,将其描述为“错误的反向传播”,然后向后分布到各个网络层,便于学习。自从1952年ARTHURSAMUEL提出“机器学习”概念至今,已过去了将近70年。与业务分析相结合,机器学习可以解决各种组织复杂性。多层结构的使用催生了前馈神经网络和反向传播。

      BOOSTING

      BOOSTING算法是机器学习进化的必经之路。LSTM是由于尔根?施米德胡贝尔(JüRGENSCHMIDHUBER)和塞普?霍赫莱特(SEPP HOCHREITER)在1997年描述的一种神经网络模型。神经网络使用输入层和输出层,通常包括一个或多个隐藏层,用于将输入转换为可由输出层使用的数据。

      不同类型的BOOSTING算法之间的基本区别是用于训练数据点加权的“技术”。此外,神经网络研究被计算机科学和人工智能研究人员所抛弃。直到上世纪90年变频器维修 代,机器学习研究才开始复兴。马塞洛·佩利洛(MARCELLO PELILLO) “最近邻规则”的发明而受到赞誉。机器学习算法结合了新的计算技术,提高了可伸缩性和效率。在这段时间里,机器学习行业一直专注于神经网络,然后在20世纪90年代蓬勃发展。机器学习现在负责一些最重要的技术进步,比如自动驾驶汽车的新行业。

      繁荣期(20世纪80年代至今)

      · 20世纪90年代后,统计学方法占主导,代表为SVM.

      · 2006年至今,基于大数据分析的需求,神经网络又被重现,成为深度学习理论的基础。如果将HEBB的概念转化到人工领域,其模型可以被描述为一种改变人工神经元(节点)与个体神经元变化之间关系的方法。

      知识期(20世纪70年代中期)

      · 认为要使机器具有智能,就必须设法使机器拥有知识。虽然感知器看起来很有前途,但它不能识别许多种类的视觉模式,这导致了神经网络研究的停滞。ADABOOST是一种流行的机器学习算法,具有重要的历史意义,它是第一个能够处理弱学习的算法。

      大约在2007年,长短时记忆开始超过传统的语音识别程序。

      发展历程

      推理期(20世纪50-70年代初)

      · 认为只要给机器赋予逻辑推理能力,机器就具有智能。得分函数试图衡量双方获胜的机会。“权重”这个词用来描述这些关系,那些倾向于同时为正或同时为负的神经元被描述为具有很强的正权重。然后,数据权重被“重新加权”。在添加后,它们通常以一种评估弱学习准确性的方式加权。这本书介绍了HEBB关于神经元兴奋和神经元之间交流的理论。

      · 1990年《机器学习:风范与方法》出版。1952年,ARTHURSAMUEL首次提出“机器学习”一词。

      机器学习现状

      最近,斯坦福大学将机器学习定义为“一门无需显式编程就能让计算机发挥作用的科学”。使用它,销售人员进入一个选定的城市,反复让程序访问最近的城市,直到所有城市都访问完毕。LSTM可以学习需要记忆之前发生的数千个离散步骤的事件的任务,这对语音非常重要。SCHAPIRE说:“一组弱学习可以提升为一个独立的强学习。

      人脸识别成为现实

      2006年,美国国家标准与技术研究所(NATIONAL INSTITUTE OF STANDARDS ANDTECHNOLOGY)的项目“人脸识别大挑战”评估了当时流行的人脸识别算法。

      学科形成(20世纪80年代)

      20世纪80年代,机器学习成为一个独立学科领域并快速发展,各种机器学习技术百花齐放。

      · E.A.FEIGENBAUM作为“知识工程”之父获得1994年图灵奖。

      大多数的BOOSTING算法都是由重复学习弱分类器组成,然后将其加入到最终的强分类器中。测试了3D人脸扫描、虹膜图像和高分辨率人脸图像。据报道,在2015年,谷歌语音识别程序使用CTC-TRAINEDLSTM后性能显著提高了49%。下面列出了当今商界使用机器学习的七种常见方式:

      1. 销售数据分析:精简数据

      2. 实时移动个性化:提升体验

      3. 欺诈检测:检测模式变化

      4. 产品推荐:客户个性化

      5. 学习管理系统:决策程序

      6. 动态定价:根据需要或需求灵活定价

      7. 自然语言处理:与人交谈

      机器学习模型在不断学习台达变频器中已经变得适应性极强,其运行的时间越长,就越精确。BOOSTING的概念最早出现在1990年ROBERT SCHAPIRE发表的一篇题为《弱学习能力的力量》的论文中。其中一些算法识别人脸的表现优于人类参与者,并且能够识别同卵双胞胎。他的设计包括使用棋子位置的计分功能。

      HEBB写道:“当一个细胞不断地帮助激发另一个细胞时,第一个细胞的轴突与第二个细胞的体细胞接触,形成突触旋钮”。反向传播现在被用来训练深度神经网络。这导致了人工智能和机器学习之间的分裂。该算法用于路线映射,是最早用于求解旅行商寻找最有效路线问题的算法之一。

      SAMUEL还设计了一些机制使程序变得更好。其重点从由人工智能研究中继承的方法转移到概率论和统计学中使用的方法和策略。机器学习是从人工智能中产生的一个重要学科分支,涉及概率论、统计学、逼近论等多门学科。

      最近邻算法

      1967年,最近邻算法提出,意味着基础模式识别的开始。这种环境允许将来的弱学习更广泛地关注以前被错误分类的弱学习。感知器最初被设计成一台机器,而不是一个程序。在SAMUEL所谓的机械学习中,该程序记录了所有已经看到的位置,并将其与奖励函数的值相结合。

      作为第一个成功的神经计算机,MARK I感知器出现了一些不符合预期的问题。那些倾向于具有相反权值的节点发展为强负权重(如1×1=1,-1X-1=1, -1×1=-1)。

      包括大量研究人员和技术人员在内的机器学习行业被重组为一个独立的领域,并为此奋斗了近十年。BOOSTING算法用于减少监督学习过程中的偏差,它是将弱学习转化为强学习的机器学习算法。

      反向传播是在20世纪70年代发展起来的,它允许网络调整其隐藏的神经元,以适应新的情况

    20190422082403

    >

相关阅读


版权所有: 上海丹佛斯变频器一级代理商 服务热线:13901848934 版权所有