想请教大佬们,单机上用pyspark跑任务,CPU利用率只有不到一半,是什么原因呢。似乎一开始一小段时间有达到近百分百利用率,之后就降下来了,程序没用到shuffle算子,应该不是数据倾斜问题。
相似问题