深度学习与人工智能革命(上)


深度学习和人工智能(AI)已经远远超越了科幻小说,进入了互联网和企业计算的前沿。

在云中获得更多的计算能力,先进的算法,以及资金的可获得性,正在释放出仅仅在五年前还无法想象的新的可能性。但是,使深度学习成为现实的是新的、丰富的数据源的可用性。

在这个由四部分组成的博客系列中,我们将探讨深度学习以及数据库选择在成功将深度学习应用于业务问题中所起的作用:

  • 在今天的第一部分中,我们将回顾人工智能的历史,以及为什么它现在开始腾飞。
  • 在第2部分中,我们将讨论人工智能、机器学习和深度学习之间的区别。
  • 在第3部分中,我们将更深入地研究深度学习,并在为新项目选择数据库时评估关键注意事项。在第4部分中,我们将讨论为什么将MongoDB用于深度学习,并提供使用它的示例。

如果您想立即开始,请下载完整的Deep Learning and Artificial Intelligence白纸。

人工智能的历史

我们生活在一个人工智能(AI)已经开始触及其真正潜力的表面的时代。人工智能不仅创造了颠覆行业和改变工作场所的可能性,而且还可以解决社会的一些最大挑战。自动驾驶汽车可能会拯救数万人的生命,并增加老年人和残疾人的机动性。精确医学可能会开启延长生命的量身定做的个体化治疗。智能建筑可能有助于减少碳排放和节约能源。这些只是人工智能承诺的潜在好处中的一小部分,并正在开始交付。

Gartner估计,到2018年,机器将创作20%的所有业务内容,预计将有60亿台物联网设备产生海量数据。人工智能对于理解这一切将是必不可少的。人工智能不再局限于科幻电影;人工智能和机器学习正在找到现实世界的适用性和采用率。

自从艾伦·图灵1950年写下开创性的论文“计算机器和智能”以来,人工智能一直是许多人的梦想。在图灵的论文中,他提出了一个基本问题,“机器能思考吗?”并思考了计算机是否可以像人类一样交流的概念。人工智能领域的诞生真正开始于1956年夏天,当时一群研究人员聚集在达特茅斯学院,启动了一系列研究项目,旨在对计算机进行编程,使其行为像人类一样。正是在达特茅斯,“人工智能”这一术语首次被创造出来,来自会议的概念被具体化,形成了一个合法的跨学科研究领域。

在接下来的十年里,人工智能的进步经历了繁荣和萧条的周期,因为新算法的进步受到当代技术的限制。1968年,科幻电影2001:太空漫游当一台有知觉的计算机-HAL 9000-说出一句著名的台词时,帮助人工智能在主流意识中留下了不可磨灭的印象,“对不起,戴夫,我恐怕不能那样做。”20世纪70年代末,当一对人工智能机器人(C-3PO和R2-D2)帮助拯救银河系时,星球大战进一步巩固了人工智能在主流文化中的地位。

但直到20世纪90年代末,人工智能才开始从科幻知识过渡到现实世界的适用性。从1997年开始,IBM的深蓝国际象棋程序击败了当时的世界冠军加里·卡斯帕罗夫(Garry Kasparov),20世纪90年代末开启了人工智能的新纪元,进展开始加速。研究人员开始关注人工智能的子问题,并利用它来解决图像识别和语音等现实世界的应用。研究人员没有尝试构建由专家知识决定的逻辑规则,而是开始研究算法如何学习逻辑规则本身。这一趋势有助于将研究重点转移到人工神经网络(ANN)。神经网络在20世纪40年代首次被概念化,发明的目的是“松散地”模仿人脑的学习方式。人工神经网络在1986年经历了一次流行的复兴,当时backpropagation gradient descent得到了改善。反向传播方法减少了人工神经网络所需的大量排列,因此是减少人工智能训练时间的一种更有效的方法。

即使在新算法方面取得了进步,神经网络仍然受到过去几十年来困扰其采用的技术的限制。直到本世纪头十年中期,人工智能领域的另一波进步才开始形成。2006年,多伦多大学的杰弗里·辛顿对人工神经网络进行了修改,他称之为深度学习(Deep Neurn Network)。Hinton在人工神经网络中增加了多个层,并对每层的结果进行了数学优化,以便学习在层层堆栈中积累得更快。2012年,斯坦福大学(Stanford University)的安德鲁·吴(Andrew Ng)进一步深入学习,他使用图形处理器(GPU)构建了深度神经网络的粗略实现。由于GPU具有由数千个内核组成的大规模并行体系结构,旨在同时处理多个任务,Ng发现GPU群集可以比通用CPU更快地训练深度学习模型。他不用花几周时间用传统的CPU来生成模型,而是可以用GPU在一天内完成同样的任务。

从本质上说,这种融合-软件算法的进步与高性能的硬件相结合-已经酝酿了几十年,并将迎来人工智能目前正在经历的快速进步。

为什么人工智能现在要起飞了?

今天,有四个主要因素推动了人工智能的采用。

1.更多数据

人工智能需要大量的数据来学习,而社会的数字化正在为其进步提供可用的原材料。来自物联网(IoT)传感器、社交和移动计算、科学和学术界、医疗保健等来源的大数据以及更多新应用程序生成的数据可用于训练AI模型。毫不奇怪,在人工智能方面投资最多的公司-亚马逊、苹果、百度、谷歌、微软、Facebook-都是拥有最多数据的公司。

2.计算成本更低

在过去,即使人工智能算法有所改进,硬件仍然是一个制约因素。最近硬件和新计算模型的进步,特别是围绕GPU的进步,加速了人工智能的采用。GPU因其处理高度并行运算和高效执行矩阵乘法的能力而在人工智能社区中广受欢迎-这两者都是深度学习算法的迭代性质所必需的。随后,CPU也在AI应用方面取得了进展。最近,英特尔在其至强(Xeon)和至强(Xeon Phi)处理器上增加了新的深度学习指令,以实现更好的并行化和更高效的矩阵计算。此外,它还改进了软件开发库中的工具和软件框架。随着人工智能的采用,硬件供应商现在也有了芯片需求,可以证明开发、设计和制造专门为人工智能量身定做的产品所需的巨额资本成本是合理的,并予以摊销。这些改进带来了更好的硬件设计、性能和功耗配置。

3.更复杂的算法

更高的性能和更便宜的计算也使研究人员能够开发和训练更先进的算法,因为它们不受过去硬件限制的限制。因此,深度学习现在正以惊人的准确率解决特定问题(即语音识别、图像分类、手写识别、欺诈检测),更先进的算法不断推进人工智能的最先进水平。

4.更广泛的投资

在过去的几十年里,人工智能的研究和开发主要局限于大学和研究机构。缺乏资金,再加上与人工智能相关的问题的绝对困难,导致进展甚微。今天,人工智能投资不再局限于大学实验室,而是渗透到许多领域,包括政府、风险投资支持的初创企业、互联网巨头和每个行业的大企业。

总结第1部分

这就是我们的四部分博客系列的第一部分。在第二部分中,我们讨论了人工智能、机器学习和深度学习之间的区别。

请记住,如果您想立即开始,请下载完整的Deep Learning and Artificial Intelligence白纸。