科普丨Spark体系架构大数据

最近看到一篇关于Spark架构的博文,作者是AlexeyGrishchenko,译者将此文的核心内容译成中文,并在这里与大家分享。

首先来看一张Spark1.3.0官方给出的图片,如下:

在这张图中,你会看到很多的术语,诸如“executor”,“task”,“cache”,“WorkerNode”等。原作者表示,在他开始学spark的时候,上述图是唯一一张可以找到的图片(Spark1.3.0),形势很不乐观。更加不幸地是,这张图并没有很好地表达出Spark内在的一些概念。

Spark内存分配

在你的cluster或是localmachine上正常运行的任何Spark程序都是一个JVM进程。对于任何的JVM进程,你都可以使用-Xmx和-Xms配置它的堆大小(heapsize)。问题是:这些进程是如何使用它的堆内存(heapmemory)以及为何需要它呢?下面围绕这个问题慢慢展开。36大数据(







































南昌白癜风专科医院
北京治疗白癜风在那个医院比较好



转载请注明:http://www.92nongye.com/ksfc/ksfc/204614920.html

  • 上一篇文章:
  •   
  • 下一篇文章: