本文经机器之心()授权转载,禁止二次转载
选自skymind
作者:AlexBlack、VyacheslavKokorin
机器之心编译
参与:XuwenWang、XavierMassa、吴攀、李亚洲
本文编译自Skymind的技术博客,作者是深度学习工程师AlexBlack和VyacheslavKokorin。按照计划,《DistributedDeepLearning》系列文章一共有三篇,本文是其中的第一篇,后续的文章机器之心还将继续跟进。
这是关于「神经网络的分布训练」的三篇系列文章中的第一部分。
在第一部分,我们将看到如何在GPU上用分布式计算大大加速深度学习模型的训练速度,并讨论近期该领域上的一些挑战和近期的研究。同时,我们还要考虑:在什么时候,神经网络的分布式训练是适合或不适合特定的案例的?
在第二部分,我们将上手式地看看在ApacheSpark上的Deeplearning4j的网络训练的实现,并从头到尾展示一个「如何在实践中执行训练」的例子。
最后,在第三部分我们将探索Deeplearning4j的Spark实现的背后情况,并讨论使用ApacheSpark时的一些涉及到最大化训练表现的执行和设计挑战。同时,我们还将看看Spark如何与本地的高性能的计算库和Deeplearning4j所使用的堆外内存(off-heapmemory)管理互相配合。
介绍
在大型数据集上进行训练的现代神经网络架构可以跨广泛的多种领域获取可观的结果,领域涵盖从语音和图像认知、自然语言处理、到业界治疗皮肤白癜风北京治疗最好白癜风权威医院