我想在Spark中转换这个基本的SQL查询from StudentGrades$"Arrest"
).groupBy($"Arrest").agg(sum(count("*")) over windowSpec,count("*")).show()----------------------------
下面的代码出错了:错误: ValueError: operands couldnot be broadcast together with shapes (2013,) (1353,) ()
熊猫可以在groupby的np.where里做吗?做这件事最好的方法是什么?我想用sum列df[A],其中列df[B]和d