我一直试图在页面上运行代码,该页面描述了如何在使用pandas_gbq.read_gbq函数之前进行身份验证:import pydata_google_auth/Versions/3.7/lib/python3.7/site-packages/google/cloud/bigquery/client.py in <module>
52 from go
我正在尝试使用存储桶触发的云将数据从gcs自动摄取到bigquery中。function.the文件类型是gcs格式的json文件,可以有一个最大的2gb.the大小。当我给它提供范围从1到2 gbs.is的大文件时,它往往会超时。有一种方法可以进一步优化我的函数,下面是代码: def bigquery_job_trigger(data, context): # Set up our GCS, and BigQueryclients
storage_client = storage.Client(