我需要开发一个数据仓库,它要求我使用Python将JSON数据加载到大型查询表中。列也将被转换为特定的数据类型。我应该采用哪种方法来节省成本--a.先使用临时表中的Python Big Query客户端库将数据加载到Big Query表中。b.在大型查询表上执行Cast SQL以更新模式。并加载到数据仓
我有我的大多数大表(表超过200M记录)坐在谷歌的大查询服务器,并想使用Power Bi (台式机)进行分析。找到Simba的ODBC驱动程序,安装并配置了数据集,但Power Bi不提供直接查询数据的选择。相反,正在尝试下载它,这当然不会这样做,首先是因为客户端的存储限制,但主要是因为我在Big Query上拥有数据的唯一原因是能够使用Google的</