抱歉,您的浏览器无法访问本站
本页面需要浏览器支持(启用)JavaScript
了解详情 >

1.阐述下对Spark的并行度理解​ Spark作业中 ,各个stage的task的数量 ,代表Spark作业在各个阶段stage的并行度。 分为资源并行度(物理并行度)和数据并行度(逻辑并行度) 资源并行度:由节点数(executor)和cpu数(core)决定的 数据并行度:task的数量,partition大小 task又分为map时的task和reduce(shuffle)时的ta...