首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >使用Terraform中的python将csv数据加载到bigquery

使用Terraform中的python将csv数据加载到bigquery
EN

Stack Overflow用户
提问于 2022-11-13 19:46:07
回答 1查看 83关注 0票数 0

读取csv文件并通过数据流将其加载到bigquery -为此使用python编码,而不是模板-如何使用terraform(GCP)帮助执行此任务

我试着去做,但不知道我应该为它写什么地形脚本。

EN

回答 1

Stack Overflow用户

发布于 2022-11-13 21:10:03

部署Terraform作业不是Dataflow的响应能力。

只有一个Terraform资源来实例化一个Dataflow 模板

您可以删除这个到您的CI光盘。

使用Beam Python示例

  • Beam Python开发作业
  • 通过您的CI CD,将Python Beam代码部署到Cloud Storage桶中
  • 使用Dataflow命令行运行Python作业和主文件

Beam Java mvn compile 的示例

  • Beam Java和Maven或Gradle开发作业
  • 通过您的CI CD,运行mvn compile命令执行Dataflow作业

使用Beam Java fat jar 的示例

  • Beam Java和Maven或Gradle开发作业
  • 通过您的CI CD,生成一个fat jar
  • 将此fat jar部署到Cloud Storage桶中
  • 使用Dataflow命令在fat jar中运行Dataflow作业和Main

Beam Python Airflow**/**Cloud Composer 的示例

  • Beam Python开发作业
  • 通过您的CI CD,将Python Beam代码部署到带有gcloud composerCloud Composer桶中
  • Airflow代码中,使用BeamRunPythonPipelineOperator实例化Dataflow作业。
  • 运行Airflow DAG以运行Dataflow作业

Beam Java Airflow**/**Cloud Composer 的示例

  • Beam Java开发作业
  • 通过您的CI CD,生成一个fat jar
  • 将此fat jar部署到Cloud Storage桶中
  • Airflow代码中,使用BeamRunJavaPipelineOperator实例化fat jar路径上的Dataflow作业目标。
  • 运行Airflow DAG以运行Dataflow作业
票数 1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/74424194

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档