数据 第1676页

3.1.2 Spark工作节点与执行器 Spark执行器是运行Spark的DAG中的任务的进程。执行器会占用Spark集群的从节点(工作节点)上的CPU和内存资源。每个执行器都是特定的Spark应用专用的,当应用完成时退出。一个Spark程序通常有多个执行器并行工作。 执行器运行在工作节点上,而每个工作节点在同一时间内能启动的执行器数量是有限/额定的。因此,对于一个规模固定的集群来说,同一时间能启...

特别声明: 版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。