公司新闻

行业动态

在深度学习大热的同时,我们也要直面这六个挑战...

发布时间17-09-29 发布人:

深度学习已经成为人工智能领域最主要的研究方向,我们熟知的人工智能应用(语音识别、图像处理和自然语言处理)背后都有深度学习在支撑。深度学习算法通过模拟人脑的神经结构来学习处理特定的问题,在各个领域都取得了很惊人的成果,但目前深度学习还面临着一系列挑战。今天我们就一同来直面这些挑战。

一个神经网络架构



Andrew Ng有句名言:“我相信深度学习是实现真正人工智能的最佳途径。”


如果你用心观察周围的世界,你就会明白这句话里包含的重量。从苹果的Siri到微软的小娜,从谷歌照片到Facebook的图像识别,从搜索引擎里的文本自动纠错到在线音乐平台的推荐引擎,这些技术为我们的生活带来了无限的便利,而它们的背后都有深度学习在支撑。当然这仅仅只是深度学习应用的几个例子,它已经深入到我们生活的方方面面并改变着我们的生活。


但是这项伟大的技术同样面临着一系列复杂的挑战,主要包括以下几个方面:

  • 庞大的数据需求

  • 模型的过拟合

  • 模型的优化

  • 高性能的硬件需求

  • 神经网络的不可解释性

  • 缺乏泛化性


接下来让我们一起逐一分析这些挑战!



庞大的数据需求


深度学习是一种数据驱动的算法,大量的数据是建立精确模型的前提和保证。就像人类需要从经历中总结经验学习和提取信息一样,人工神经网络也需要巨量的数据来分析、提取和总结。越抽象越强大的模型就需要越多的参数,同时也意味着需要更多的数据来支撑。


举个栗子,如果我们要训练一个语音识别程序,我们需要不同方言不同长度的语音数据以及人口数据,并将这上万G的数据送到算法中,经过漫长的训练和调优后才能得到一种语言的语音识别程序。这是一个十分漫长的过程并且需要巨大的算法处理能力,IBM、微软、苹果等等都是经过了许多年的技术积累才打到了今天的程度。在一定程度上,可以说利用深度学习解决某一个问题就是一个如何充分利用巨量数据的问题。


同时神经网络的复杂性可以通过其中所包含的参数数目来表示。在深度神经网络中,参数的数目都达到了上百万甚至上亿的量级。如果我们把这个数字记为P的话,那么训练出一个较好性能的神经网络所需的数据规模至少是P*P。



神经网络的过拟合问题


有时,训练数据集中出现的错误和新的未看到的数据集中遇到的错误有很大差异。它一般发生在复杂的模型中,比如对于观察目标来说有过多的参数。一个模型是否有效一般是通过事先不可见的数据集判断的,而不是通过对提供给它的训练数据的性能进行评估。

这主要是模型在训练的过程中为了优化在训练集上的表现不断调整参数,使得模型“记住了”训练样本的样子,但却失去了对于新情况下样本和数据的适应能力,使得模型使其泛化性。在深度学习中,一般使用正则化方法来处理这一问题,但在一些情况下还面临着许多尚未解决的问题。

超参数优化


超参数是那些在训练和学习过程前预先定义好的神经网络参数,这些参数对于神经网络有着巨大的影响,差之毫厘谬以千里。超参数调优是深度学习中一项重要的工作,一个网络的性能优劣很可能就取决于超参数的细微差别,这也是深度学习和神经网络中的最需要经验的地方。



高性能计算的需求


为了解决真实世界中的问题,我们的深度学习算法需要巨量的数据,同时也需要机器拥有处理庞大数据的能力。为了缩短训练的时间提高效率,深度学习领域一般会使用多卡高性能GPU工作站,甚至是超算中心来进行训练。这些设备不菲的价值外还会带了很高的能耗。


工业界使用的产品级深度学习系统往往会运行在高端的数据中心,而智能手机、无人机可穿戴设备等却需要小型的高效处理单元。在现实世界中部署神经网络需要平衡效率和能耗以及成本的关系。训练和实现深度学习解决方案是一件耗时耗力耗钱的工作!



神经网络的不可解释性


对于神经网络,我们知道了模型的参数、也知道了输入的数据以及如何将这些连接成网络的方式,但是我们却还无法知道它是如何实现这一过程的。神经网络就像一个神经的黑箱,它有十分神奇的功能但是我们对它如何工作如何推演的过程却无从知晓。

神经网络的不可解释性阻碍了这一技术的抽象和总结,限制了高水平认知智能的研究和发展。同时神经网络的操作对于人类来说太过抽象,我们无法很好的验证它的工作过程是否合理。


但最近帝国理工的教授Murray Shanahan及其团队发表了一篇讨论深度符号强化学习的论文,正在致力于解决这一问题。




缺乏灵活性和适应性


深度学习模型一旦训练完成就可以十分精确和高效的处理特定的问题,然而目前的神经网络具有高度分化的专一性,只能在特定的问题上具有良好的表现。


DeepMind的科学家Raia Hadsell对目前这种状况进行了精辟的总结:“这个世界上没有那个神经网络可以同时完成物体识别、音乐识别和玩星际入侵游戏这些任务!”


今天绝大多数的深度学习系统对于一个特定的问题有令人十分满意的表现。但只要面临的任务稍微改变一点,哪怕是相似的任务,它也需要重新进行训练和评估,更别提不同的任务了。目前研究人员正致力于创造出一种可以适应多种任务的神经网络架构。


目前科学家们在利用进步神经网络(Progressive Neural Networks)获得了些许的进展。


同时在多任务学习(MTL)同也获得了重大的突破。


来自谷歌大脑和多伦多大学的研究人员们发表了一篇关于多模型的论文,通过综合视觉、语言和语音神经网络的优势可以实现同时解决多种不同任务的深度学习模型,包括图像识别、翻译和语音识别等方面。



Copyright © 2016  康力投资   备案号:***   技术支持:35互联

×

分享到微信朋友圈