使用mongodb-spark连接器向MongoDB中已有的集合插入数据,可以按照以下步骤进行操作:
import com.mongodb.spark._
val spark = SparkSession.builder()
.appName("MongoDB Spark Connector")
.config("spark.mongodb.input.uri", "mongodb://localhost/test.myCollection")
.config("spark.mongodb.output.uri", "mongodb://localhost/test.myCollection")
.getOrCreate()
其中,spark.mongodb.input.uri
和spark.mongodb.output.uri
分别指定了输入和输出的MongoDB集合的URI。
val df = spark.read.format("com.mongodb.spark.sql.DefaultSource").load()
val newData = Seq(("John", 25), ("Jane", 30), ("Dave", 35))
val newDF = spark.createDataFrame(newData).toDF("name", "age")
newDF.write.format("com.mongodb.spark.sql.DefaultSource").mode("append").save()
其中,newData
是要插入的新数据,newDF
是将新数据转换为DataFrame对象。
spark.stop()
以上是使用mongodb-spark连接器向MongoDB中已有的集合插入数据的步骤。请注意,这只是一个示例,实际操作中可能需要根据具体情况进行调整。另外,腾讯云提供了MongoDB相关的云服务,你可以参考腾讯云的文档和产品介绍来了解更多关于MongoDB在腾讯云上的应用和推荐产品。
领取专属 10元无门槛券
手把手带您无忧上云