学 AI 和机器学习的人必须关注的 6 个领域

原标题:学 AI 和机器学习的人必须关注的 6 个领域

  给人工智能找一个能为大众所接受的定义已经成为了最近一个比较热门的话题了。有些人将AI重新命名为“认知计算”或者是“机器智能”,也有人错误的将AI和机器学习混为一谈。这可能与AI不是一个单独的学科有关。实际上,人工智能是一个广泛的领域,从“机器人学”到“机器学习”都包括在内。AI的终极目标是获得完成任务和定义的认知功能的机器学习能力,否则它还只是在人类智力的范围之内,他只能做人类也能够完成的事是没有意义的。因此,为了达到以上目标,机器必须有自我学习的能力而不是人类通过编程告诉他应该怎么做。
  如果你有留心过的话,AI在过去的十年中已经渗入到了多个领域了,从无人驾驶到语音识别等。在这个背景下,越来越多的公司甚至是家庭里面都会谈论到AI,因为AI已不再是一个遥远的未来了,而是当今不能够切切实实影响到每个人的科技。事实上,受欢迎的新闻报道中几乎每天都会出现AI和技术巨头,一个接一个地表达了他们重要的长期AI战略。虽然有已经很多投资者和老板都渴望了解如何在这个新的世界中获取利益,但大多数人仍然处在在试图搞懂AI是什么的阶段中。
  鉴于AI将影响整个经济,这些对话中的参与者代表了建立或使用AI系统的意图,理解程度和经验程度的整体分布。因此,关于AI的讨论至关重要

雷锋网按:本文为 AI 研习社编译的技术博客,原标题 6 areas of AI and
machine learning to watch closely,作者为 Nathan Benaich。

  • 包括其中提出的问题,结论和建议 –
    以数据和现实为基础,而不是推测。这是非常容易的(有时令人兴奋的),以广泛推断出版研究结果或技术新闻公告,投机评论和思考实验的结果的影响。
      下面是AI的六个领域,特别值得注意的是它们将影响未来的数字产品和服务。我将会描述他们是什么,为什么他们很重要,他们今天如何被使用,并且包括一些公司和研究这些技术的研究人员的清单(可能有遗漏,见谅)。

翻译 | Lamaric 校对 | 老周 整理 | 凡江

1. 加强学习(RL)

加强学习是通过人为学习新任务的方式而启发的反复学习的范例。在一个典型的RL
设置中,代理的任务是在数字环境中观察其当前状态,并采取行动来最大限度地增加其已设置的长期奖励。代理人从每个行动的结果收到来自环境的反馈意见,以便知道行动是否促进或阻碍了其进展。因此,RL代理商必须平衡其对环境的探索,以找到实现奖励的最佳策略,以及利用其发现达到预期目标的最佳策略。这种方法在Google
DeepMind的Atari games and
Go的工作中受到欢迎。RL在现实世界中工作的一个例子是优化能源效率以降低Google数据中心的任务。这里,RL系统实现了降低40%的冷却成本。在可以模拟的环境(例如视频游戏)中使用RL代理的一个重要的本地优势在于可以以多种成本生成训练数据。这与监督的深度学习任务形成鲜明对比,这些任务通常需要从现实世界获取昂贵且难以获得的训练数据。

应用程序:多个代理人在共享模型环境中学习学习自己的实例,或者通过在相同的环境中相互交互和学习,学习导航3D环境,如迷宫或城市街道,进行自主驾驶,反向强化学习,概括观察行为通过学习任务的目标(例如学习驱动或赋予非人类视频游戏角色与人类行为)。
主要研究人员:Pieter Abbeel(OpenAI),David Silver,Nando de
Freitas,Raia Hadsell,Marc Bellemare(Google DeepMind),Carl
Rasmussen(剑桥),Rich Sutton(Alberta),John
Shawe-Taylor(UCL)等。
公司:Google DeepMind,Prowler.io,Osaro,MicroPSI,Maluuba /
Microsoft,NVIDIA,Mobileye,OpenAI。

图片 1

2. 生成模型

与用于分类或回归任务的歧视模型相反,生成模型在训练示例中学习概率分布。通过从这种高维度分布中抽样,生成模型输出与训练数据类似的新例子。这意味着,例如,对真实面部图像进行训练的生成模型可以输出类似面部的新合成图像。有关这些模型如何工作的更多细节,请参阅Ian
Goodfellow NIPS
2016教程。他介绍的架构,生成对抗网络(GAN)在研究领域特别热门,因为它们提供了无人监督学习的途径。GAN有两个神经网络:生成器,将随机噪声作为输入并且合成内容(例如图像)和鉴别器,这帮助他了解了什么是真实图像,并且被识别由发生器创建的图像是真实的或假的。对抗训练可以被认为是一种游戏,其中发生器必须迭代地学习如何从噪声中创建图像,使得鉴别器不再能够将生成的图像与实际图像区分开来。这个框架正在扩展到许多数据模式和任务。

应用:模拟时间序列的可能期货(例如,强化学习中的规划任务);
超分辨率图像 ; 从2D图像恢复3D结构 ; 从小标签数据集推广;
一个输入可以产生多个正确输出的任务(例如,在视频中预测下一帧
;在对话接口(例如漫游器)中创建自然语言; 加密
;当不是所有标签可用时ji进行半监督学习; 艺术风格转移 ; 综合音乐和声音
;画中画。
公司:Twitter Cortex,Adobe,Apple,Prisma,Jukedeck
*,Creative.ai,Gluru *,Mapillary *,Unbabel。
主要研究人员:Ian Goodfellow(OpenAI),Yann LeCun和Soumith
Chintala(Facebook AI Research),Shakir Mohamed和Aäronvan den
Oord(Google DeepMind),Alyosha Efros(Berkeley)等等。

近期热门的话题,
人们开始重新讨论这一基本定义—-什么是人工智能(AI)。有些人将 AI
重新命名为「认知计算」或「机器智能」,而其他人则错误地将 AI
与「机器学习」概念进行交换。在某种程度上,这是因为 AI
不是一种技术。它实际上是一个由许多学科组成的广泛领域,从机器人学到机器学习。我们大多数人都认为,人工智能的终极目标是为了建造能够完成任务和认知功能的机器,否则这些机器只能在人类的智能范围内从事相关工作。为了实现这一目标,机器必须能够自主学习这些能力,而不是让每个功能都被端到端地明确编程。

3. 神经网络

为了让AI系统像现在一样在多种现实环境中进行泛化,他们必须能够不断学习新任务,并记住如何在将来执行所有这些任务。然而,传统的神经网络通常不具有这种可以做到不忘记顺序的任务学习。这个缺点被称为*灾难性遗忘这是因为当网络按顺序进行训练时,对任务A来说很重要的权重在完成B任务时发生了变化。
  然而,有几种强大的架构可以使神经网络具有不同程度的记忆。这些包括能够处理和预测时间序列的长期记忆网络(一种经常性的神经网络变体),DeepMind的神经网络和存储器系统的可微分神经计算机,以便自己学习和导航复杂的数据结构,[
elastic
weight
consolidation*](
应用:可以推广到新环境的学习代理; 机器人手臂控制任务; 自主车辆;
时间序列预测(如金融市场,视频,物联网); 自然语言理解和下一个字预测。
公司:Google DeepMind,NNaisense(?),SwiftKey / Microsoft
Research,Facebook AI Research。
主要研究人员:Alex Graves,Raia Hadsell,Koray Kavukcuoglu(Google
DeepMind),JürgenSchmidhuber(IDSIA),Geoffrey Hinton(Google Brain /
Toronto),James Weston,Sumit Chopra,Antoine Bordes(FAIR)。

人工智能领域在过去十年中取得了巨大进步,从自动驾驶汽车到语音识别及合成,这一点令人惊讶。在这种背景下,人工智能已经成为越来越多公司和家庭的话题,他们不再将人工智能视为一种需要
20
年时间开发的技术,而是影响他们今天生活的东西。事实上,流行的新闻报道几乎每天都会报道
AI
和技术巨头,阐述他们重要的长期人工智能策略。虽然一些投资者和老牌企业都渴望了解如何在这个新世界中攫取价值,但大多数人仍在摸索着想出这一切意味着什么。与此同时,各国政府正在努力应对自动化在社会中的影响(见奥巴马的告别演说)。

4. 从较少的数据中学习,建立较小的模型

深度学习模型值得注意的是需要大量的培训数据才能达到最先进的表现。例如,ImageNet大型视觉识别挑战,参赛团队将挑战他们的图像识别模型,包含120万个手动标记有1000个对象类别的训练图像。如果没有大规模的培训数据,深度学习模型就不能达到其最佳设置,并且在诸如语音识别或机器翻译等复杂任务中表现差劲。仅当使用单个神经网络来解决端对端问题时,数据要求才会增长;
也就是说,以录音的原始录音作为输入,并输出演讲的文字。这与使用多个网络相反,每个网络提供中间表示(例如,原始语音音频输入→音素→单词→文本输出;
或来自摄像机的原始像素直接映射到转向命令)。如果我们希望人工智能系统能够解决这类训练数据具有挑战性、成本高昂、敏感或耗时的任务,那么重要的是开发可以从较少示例(即一次或零点学习)中学习最佳解决方案的模型。当对小数据集进行培训时,挑战包括过度配套,处理异常值的困难,培训和测试之间的数据分布差异。另一种方法是通过将知识从先前任务中获取的机器学习模型转移到统称为转移学习的过程来改进对新任务的学习。或来自摄像机的原始像素直接映射到转向命令)。
  相关的问题是使用类似数量或明显较少的参数构建更小的深度学习架构,并具有最先进的性能。优势将包括更有效的分布式培训,因为数据需要在服务器之间进行通信,较少的带宽将新模型从云端导出到边缘设备,并提高部署到有限内存的硬件的可行性。

应用:通过模拟最初用于大标签训练数据进行训练的深层网络的性能来训练浅层网络;
具有较少参数但与深层模型相同性能的架构(例如SqueezeNet);
机器翻译。
公司:几何智能/ Uber,DeepScale.ai,微软研究,Curious
AI公司,Google,Bloomsbury AI。
主要研究人员:Zoubin Ghahramani(剑桥),Yoshua
Bengio(蒙特利尔),Josh Tenenbaum(MIT),Brendan Lake(NYU),Oriol
Vinyals(Google DeepMind),Sebastian Riedel(UCL)。

鉴于 AI
将影响整个经济,而这些讨论中的参与者代表了社会上观点的整体分布、理解水平以及构建或使用
AI
系统的经验程度。因此,对人工智能的讨论至关重要—包括由此产生的问题、结论和建议—必须以数据和现实为基础,而不是猜想,这点至关重要。毕竟各种民间大V从公布的研究、科技新闻公告、投机评论和思想实验中大肆推断其中的含义,这太容易了(有时令人兴奋!)。

5. 训练和推理的硬件

AI的进步的主要催化剂是用于训练大型神经网络模型的图形处理单元(GPU)的重用。与以顺序方式计算的中央处理单元(CPU)不同,GPU提供了可以同时处理多个任务的大规模并行架构。鉴于神经网络必须处理大量(通常是高维数据),因此在GPU上的培训比使用CPU快得多。这就是为什么GPU
在2012年发布AlexNet之后,已经成为淘金热的铲子,这是在GPU上实现的第一个神经网络。英伟达,高通,AMD以及最近的谷歌,NVIDIA继续在2017年处于领先地位。
  然而,GPU不是专门用于培训或推断的;
它们被创建为渲染视频游戏的图形。GPU具有很高的计算精度,并不总是需要并且受到存储器带宽和数据吞吐量的影响。这已经打开了像谷歌这样的大型公司的新一代创业公司和项目的竞争环境,专门为高维机器学习应用设计和生产硅片。新芯片设计承诺的改进包括更大的内存带宽,图形上的计算,而不是向量(GPU)或标量(CPU),更高的计算密度,效率和每瓦特性能。这是令人兴奋的,因为AI系统向其所有者和用户提供明显的加速回报:更快更高效的模型训练→更好的用户体验→用户更多地参与→创建更大的数据集→通过优化提高模型性能。因此,能够更快地训练和部署计算能量和能源效率的AI模型的人具有显着的优势。
应用:更快的模型培训(特别是图表); 做出预测时的能量和数据效率;
在边缘运行AI系统(IoT设备); 永远听取物联网设备; 云基础设施即服务;
自主车辆,无人机和机器人。
公司:Graphcore,Cerebras,Isocline
Engineering,Google(TPU),NVIDIA(DGX-1),Nervana
Systems(Intel),Movidius(Intel),Scortex
主要研究人员:?空缺

尤其值得注意人工智能的六个领域在影响数字产品和服务的未来方面产生的作用。我将会阐述它们分别是什么、为什么它们很重要、它们今天如何被使用,并列出了从事这些技术的公司和研究人员的清单(并非详尽无遗)。

6. 仿真环境

如前所述,为AI系统生成训练数据通常是具有挑战性的。更重要的是,如果AI在现实世界中对我们有用,就必须将其概括为许多情况。因此,开发模拟现实世界的物理和行为的数字环境将为我们提供测试床来测量和训练AI的一般智力。这些环境将原始像素呈现给AI,然后采取行动以解决其已设置(或学习)的目标。在这些模拟环境中的培训可以帮助我们了解AI系统如何学习,如何改进,还可以为我们提供可能转移到现实应用中的模型。
应用:学习驾驶
; 制造业; 工业设计; 游戏开发; 聪明的城市
公司:Improbable,Unity 3D,Microsoft(Minecraft),Google DeepMind
/ Blizzard,OpenAI,Comma.ai,虚幻引擎,Amazon Lumberyard
研究人员:Andrea
Vedaldi(牛津)
原文链接:
http://www.igeekbar.com/igeekbar/post/288.htm?hmsr=toutiao.io&utm\_medium=toutiao.io&utm\_source=toutiao.io

1、强化学习(RL)

RL
是一种通过试错来学习的范例,这种反复试错受到人类学习新任务的方式启发。在典型的
RL
设置中,智能体的任务是在数字环境中观察其当前状态并采取最大化其已设置的长期奖励的累积的动作。
该智能体接收来自环境的每个动作结果的反馈,以便它知道该动作是否促进或阻碍其进展。因此,RL

智能体必须平衡对其环境的探索,以找到获得奖励的最佳策略,并利用其发现的最佳策略来实现预期目标。这种方法在
Google DeepMind 的 Atari 游戏和 Go
中(
在现实世界中工作的一个例子是优化能源效率以冷却 Google
数据中心。在此项目中,RL 使得该系统的冷却成本降低了
40%。在可以模拟的环境(例如视频游戏)中使用 RL
智能体的一个重要的原生优势是训练数据可以以非常低的成本生成。这与监督式的深度学习任务形成鲜明对比,后者通常需要昂贵且难以从现实世界中获取的训练数据。

  • 应用程序:多个智能体在他们自己的环境实例中学习共享模型,或者通过在同一环境中相互交互和学习,学习在迷宫或城市街道等
    3D
    环境中进行自动驾驶,通过学习任务目标(例如学习驾驶或赋予非玩家视频游戏角色以类似人的行为)反向强化学习以概括观察到的行为。
  • 顶尖专业:Pieter Abbeel(OpenAI),David Silver,Nando de
    Freitas,Raia Hadsell,Marc Bellemare(谷歌 DeepMind),Carl
    Rasmussen(剑桥),Rich Sutton(阿尔伯塔大学),John
    Shawe-Taylor(UCL)等。
  • 代表公司:Google DeepMind,Prowler.io,Osaro,MicroPSI,Maluuba /
    Microsoft,NVIDIA,Mobileye,OpenAI。

2、生成模型

与用于分类或回归任务的判别模型不同,生成模型学习训练样本的概率分布。通过从这种高维分布中抽样,生成模型输出与训练数据类似的新例子。这意味着,例如,在面部的真实图像上训练的生成模型可以输出相似面部的新合成图像。有关这些模型如何工作的更多详细信息,请参阅
Ian Goodfellow 的 NIPS 2016
指导手册(
GAN,有两个神经网络:一个生成器,它将随机噪声作为输入,负责合成内容(例如一个图像),一个鉴别器,它了解了真实图像的样子,并负责识别生成器生成的图像是真实的还是伪造的。对抗训练可以被认为是一种游戏,其中生成器必须迭代地学习如何从噪声创建图像,使得鉴别器不再能够将生成的图像与真实的图像区分开。该框架正在扩展到许多数据模式和任务。

应用范围:模拟时间序列的可能未来(例如,用于强化学习中的规划任务);超分辨率图像;从
2D 图像重建 3D 结构;
从小标记数据集推广;一个输入可以产生多个正确输出的任务(例如,预测视频 0
中的下一帧;在会话界面中运用自然语言处理(例如机器人);加密;当不是所有标签都可用时运用半监督学习;艺术风格转移;合成音乐和声音;图像修复。

  • 代表公司:Twitter
    Cortex,Adobe,Apple,Prisma,Jukedeck*,Creative.ai,Gluru*,Mapillary*,Unbabel。
  • 顶尖专家:Ian Goodfellow (OpenAI),Yann LeCun and Soumith Chintala
    (Facebook AI Research),Shakir Mohamed and Aäron van den Oord
    (Google DeepMind),Alyosha Efros (Berkeley) and 其他的专家。

3、记忆网络

发表评论

电子邮件地址不会被公开。 必填项已用*标注