在pyspark中,可以使用from_unixtime
函数将时间戳格式转换为ISO时间格式。
具体步骤如下:
from pyspark.sql import SparkSession
from pyspark.sql.functions import from_unixtime
spark = SparkSession.builder.getOrCreate()
data = [("2022-01-01 12:00:00", 1641045600), ("2022-01-02 00:00:00", 1641091200)]
df = spark.createDataFrame(data, ["datetime", "timestamp"])
from_unixtime
函数将时间戳转换为ISO时间格式:df = df.withColumn("iso_datetime", from_unixtime("timestamp"))
df.show()
输出结果:
+-------------------+----------+-------------------+
| datetime| timestamp| iso_datetime|
+-------------------+----------+-------------------+
|2022-01-01 12:00:00|1641045600|2022-01-01 12:00:00|
|2022-01-02 00:00:00|1641091200|2022-01-02 00:00:00|
+-------------------+----------+-------------------+
在这个例子中,我们使用了from_unixtime
函数将timestamp
列中的时间戳转换为ISO时间格式,并将结果存储在新的iso_datetime
列中。
推荐的腾讯云相关产品:腾讯云EMR(Elastic MapReduce),它是一种大数据处理和分析的云服务,支持使用pyspark进行数据处理和分析。您可以通过以下链接了解更多关于腾讯云EMR的信息:腾讯云EMR产品介绍。
领取专属 10元无门槛券
手把手带您无忧上云