TL;DR: asyncio vs multi-processing vs threading vs some other solution,将读取GCS文件的for循环并行化,然后将这些数据附加到熊猫数据中我想做一个并行的python函数,它从GCS目录中读取数十万个小.json文件,然后将这些.jsons转换成熊猫数据格式,然后将熊猫数据写入BigQu
我试图限制用户在BigQuery中只能看到特定的数据集。我希望用户只能运行查询和创建表。因此,我共享了dataset权限,并为他们提供了角色BigQuery Data Viewer (查看数据)和BigQuery User (运行查询和创建表)。但每当我运行查询时,我都会得到以下错误:
访问被拒绝:项目xxx:用户在项目xxx中没有bigquery.jobs.create权限。我检查了和BigQuery用户角色<em