因为我不允许在同一个线程中问我的问题,而另一个人有同样的问题(但不使用模板),所以我正在创建这个新线程。Processing stuck in step WriteSuccessfulRecords/StreamingInserts/StreamingWriteTables/StreamingWrite$DatasetServiceImpl.insertAll(BigQueryS
我想检查一下在文章"“中也提到的类似错误。2021-03-10T06:02:26.115216545ZWorkflow failed.Causes: S01:Read File from GCS/Read+String To BigQuery Row+Write to BigQuery/NativeWrite failed., BigQueryimport job "dataflow_job_1571207543
我试图运行一个简单的测试cloud function,其中我创建了一个BigQuery表并插入了一个值。我收到的错误听起来像是我需要导入pyarrow,所以我尝试过这样做,但是我一直收到相同的错误。当我在本地运行一个等价的脚本时,没有问题,创建了表,甚至不需要导入pyarrow。我在这里错过了什么?'pyarrow', 'fastparquet'. pyarrow or fastparquet is requir