的方法如下:
from pyspark.sql import SparkSession
from pyspark.sql.functions import when
spark = SparkSession.builder.appName("Column Iteration").getOrCreate()
data = [("John", 25), ("Alice", 30), ("Bob", 35)]
df = spark.createDataFrame(data, ["Name", "Age"])
df.show()
输出:
+-----+---+
| Name|Age|
+-----+---+
| John| 25|
|Alice| 30|
| Bob| 35|
+-----+---+
new_df = df
columns = df.columns
for column in columns:
new_column = column + "_new"
new_df = new_df.withColumn(new_column, when(df[column] > 30, "High").otherwise("Low"))
new_df.show()
输出:
+-----+---+--------+--------+
| Name|Age|Name_new|Age_new |
+-----+---+--------+--------+
| John| 25| Low| Low|
|Alice| 30| Low| Low|
| Bob| 35| High| High|
+-----+---+--------+--------+
在上述代码中,我们首先创建了一个新的dataframe new_df
,然后使用withColumn
方法迭代原始dataframe的每一列。对于每一列,我们创建一个新的列名 new_column
,并使用when
函数根据条件填充新列的值。在这个例子中,我们根据年龄是否大于30来填充新列的值,如果大于30,则填充为"High",否则填充为"Low"。
这是一个简单的示例,你可以根据实际需求进行更复杂的列迭代和条件填充操作。关于Pyspark dataframe的更多操作和函数,请参考腾讯云的相关产品和文档:
领取专属 10元无门槛券
手把手带您无忧上云