我正在使用云数据流将数据从发布/订阅消息导入到BigQuery表中。我使用DynamicDestinations,因为这些消息可以放入不同的表中。我最近注意到,该进程开始消耗所有资源,并显示以下消息:
Processing stuck in step Write Avros to BigQuery Table/StreamingInserts/StreamingWriteTables:1
BigQuery可以作为联邦源从Google读取。见。我希望能够将BigQuery中的表读入指向驱动文档的数据流管道。将BigQuery连接到驱动器中的文件非常好:但是,当我尝试将该表读入数据流管道时,我(可以理解)得到以下错误:
没有合适的凭证找到进入谷歌驱动器。请与表所有者联系以获得帮助。results = p
我正在构建一个云函数,使用存储触发器,并试图从内部运行数据流。我创建了一个数据流作业"jsonbq-1",并使用现有的GCS_Text_BigQuery模板创建了一个简单的uDF来接收传入的CSV数据并放入表中。云函数被执行,数据流被调用,但是没有响应,log:Error中显示的错误:模板参数无效。Index.js 看起来像这样。`const go