我已经编写了一个Python数据流作业,用于从csv文件读取数据并使用该数据填充BigQuery表。但是,每当我运行此作业时,都会弹出一个错误。如果我删除write to BigQuery部分,改为写入文件,则代码执行正常,并且表以dict格式写入输出文件。代码如下:import loggingimport apache_beam as beam
from apache
我们运行了一个Google批处理作业,它将数据记录写入一个pubsub管道,并有一个单独的流作业,它使用“pubsub to elasticsearch”流模板从PubSub管道中提取数据,并将更新写入我们的但是,我们不得不终止写入Elastic的流作业,因为在1次尝试之后,我们遇到了多个“向ES写入错误”。再也不允许“错误”了。从PubSub读取并写入Elasticsearch的任务是写入