读取csv文件并通过数据流将其加载到bigquery -为此使用python编码,而不是模板-如何使用terraform(GCP)帮助执行此任务
我试着去做,但不知道我应该为它写什么地形脚本。
发布于 2022-11-13 21:10:03
部署Terraform
作业不是Dataflow
的响应能力。
只有一个Terraform
资源来实例化一个Dataflow
模板
您可以删除这个到您的CI光盘。
使用Beam
Python
的示例
Beam
Python
开发作业Python
Beam
代码部署到Cloud Storage
桶中Dataflow
命令行运行Python
作业和主文件Beam
Java
和 mvn
compile
的示例
Beam
Java
和Maven或Gradle开发作业mvn compile
命令执行Dataflow
作业使用Beam
Java
和 fat
jar
的示例
Beam
Java
和Maven或Gradle开发作业fat
jar
fat
jar
部署到Cloud Storage
桶中Dataflow
命令在fat jar中运行Dataflow
作业和Main
Beam
Python
和 Airflow
**/**Cloud Composer
的示例
Beam
Python
开发作业Python
Beam
代码部署到带有gcloud composer
的Cloud Composer
桶中Airflow
代码中,使用BeamRunPythonPipelineOperator
实例化Dataflow
作业。Airflow
DAG
以运行Dataflow
作业Beam
Java
和 Airflow
**/**Cloud Composer
的示例
Beam
Java
开发作业fat
jar
fat
jar
部署到Cloud Storage
桶中Airflow
代码中,使用BeamRunJavaPipelineOperator
实例化fat
jar
路径上的Dataflow
作业目标。Airflow
DAG
以运行Dataflow
作业https://stackoverflow.com/questions/74424194
复制相似问题