可以通过以下步骤实现:
from pyspark.sql import SparkSession
spark = SparkSession.builder.appName("CSV to DataFrame").getOrCreate()
df1 = spark.read.csv("file1.csv", header=True, inferSchema=True)
df2 = spark.read.csv("file2.csv", header=True, inferSchema=True)
在这里,"file1.csv"和"file2.csv"是csv文件的路径,header=True表示第一行是列名,inferSchema=True表示自动推断列的数据类型。
请注意,以上答案仅供参考,具体的实现方式可能会根据实际情况和需求而有所不同。
领取专属 10元无门槛券
手把手带您无忧上云