在Spark中,可以使用withColumn()
方法和upper()
函数来将特定单词大写。具体步骤如下:
from pyspark.sql import SparkSession
from pyspark.sql.functions import col, upper
spark = SparkSession.builder.getOrCreate()
data = [("Hello world",), ("Welcome to Spark",), ("Big Data is awesome",)]
df = spark.createDataFrame(data, ["sentence"])
withColumn()
方法和upper()
函数将特定单词大写:df_with_uppercase = df.withColumn("sentence_uppercase", upper(col("sentence")))
在上述代码中,col("sentence")
表示指定要操作的列名为"sentence",upper(col("sentence"))
表示将该列的值转换为大写。
df_with_uppercase.show(truncate=False)
输出结果:
+---------------------+-------------------+
|sentence |sentence_uppercase |
+---------------------+-------------------+
|Hello world |HELLO WORLD |
|Welcome to Spark |WELCOME TO SPARK |
|Big Data is awesome |BIG DATA IS AWESOME|
+---------------------+-------------------+
这样,我们就成功地将Spark列中的特定单词大写了。
备注:腾讯云相关产品和产品介绍链接地址可以根据实际需求选择适合的产品,例如云服务器、云数据库、云存储等。
领取专属 10元无门槛券
手把手带您无忧上云