是的,您可以使用 gcloud
命令行工具来更新 Google Cloud Dataflow 作业。更新 Dataflow 作业通常涉及到重新部署作业的代码或更改作业的参数。以下是一些常见的操作和命令示例。
gcloud dataflow jobs update
命令。这个命令允许您更新作业的运行时参数。gcloud dataflow jobs update JOB_ID \ --parameters key1=value1,key2=value2 \ --region YOUR_REGION
JOB_ID
是您要更新的作业的 ID。--parameters
用于指定要更新的参数。--region
是您作业所在的区域。gcloud dataflow jobs run JOB_NAME \ --gcs-location gs://YOUR_BUCKET/YOUR_TEMPLATE \ --parameters key1=value1,key2=value2 \ --region YOUR_REGION
JOB_NAME
是您要运行的作业的名称。--gcs-location
是指向您的 Dataflow 模板的 Google Cloud Storage 路径。--parameters
用于传递作业参数。gcloud dataflow jobs describe JOB_ID --region YOUR_REGION 这将显示有关作业的详细信息,包括状态、运行时间和其他元数据。
假设您有一个 Dataflow 作业 ID 为 my-job-id
,并且您想要更新作业的参数,可以使用以下命令:
gcloud dataflow jobs update my-job-id \
--parameters inputFile=gs://my-bucket/input.txt,outputFile=gs://my-bucket/output.txt \
--region us-central1
如果您需要重新运行作业并更新代码,可以使用:
gcloud dataflow jobs run my-new-job \
--gcs-location gs://my-bucket/my-template \
--parameters inputFile=gs://my-bucket/input.txt,outputFile=gs://my-bucket/output.txt \
--region us-central1
gcloud
工具,并且已正确设置了 Google Cloud 项目和区域。领取专属 10元无门槛券
手把手带您无忧上云