腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(630)
视频
沙龙
2
回答
将大型
BigQuery
表
复制到并随后进行
本地
下载
google-bigquery
、
google-cloud-storage
我
的
目标是在
本地
保存一个
BigQuery
表
,以便能够执行一些分析。为了在
本地
保存它,我尝试将它
作为
csv
文件
导
出到
。唉,
数据
集太大了,无法将其
作为
一个
文件
移动,因此它被分割成许多不同
的
文件
,如下所示:exampledata.
csv
000000000001
浏览 0
提问于2016-07-07
得票数 0
8
回答
不使用将
BigQuery
数据
导
出到
CSV
python
、
google-bigquery
我目前正在编写一个软件,用于导出大量
的
BigQuery
数据
,并将查询
的
结果
本地
存储为
CSV
文件
。我使用Python 3和google提供
的
客户端。我做了配置和身份验证,但问题是,我无法在
本地
存储
数据
。每次执行时,我都会得到以下错误消息 googleapiclient.errors.HttpError:返回“无效提取目标URI‘响应/
文件
名-*..
csv
”。必须是有效<e
浏览 5
提问于2015-07-27
得票数 21
回答已采纳
2
回答
无法将google
BigQuery
导
出到
本地
计算机
中
的
CSV
文件
google-bigquery
我需要将查询结果导
出到
我自己
的
本地
机器
,以便在程序中使用这些
数据
。我向我自己
的
BigQuery
项目添加了一个公共projetc
数据
集。我单击出现在查询结果上方
的
Export Table。DismissInvalid extract
浏览 0
提问于2018-07-18
得票数 1
回答已采纳
1
回答
从
BigQuery
中
包含多个
表
的
数据
生成
CSV
文件
java
、
google-bigquery
我们需要从驻留在
BigQuery
的
多个
表
中
的
数据
生成
CSV
文件
。目前,我们正在尝试构建一个java服务,它将在google-cloud-
bigquery
包
的
帮助下获取TableResult
中
的
数据
,并收集TableResult对象
中
的
数据
并循环通过它来创建
CSV
。这个方法有多快,多大
的
浏览 26
提问于2020-03-26
得票数 0
回答已采纳
2
回答
如何将
bigquery
表
中
超过
16000行
的
数据
作为
CSV
文件
导
出到
本地
机器
?
google-cloud-platform
、
google-bigquery
我想在
Bigquery
中导出select语句
的
输出。有“保存结果”选项可用,但它有16,000行
的
限制。 我怎么能出口更多
的
东西呢?
浏览 66
提问于2020-12-02
得票数 0
1
回答
从
BigQuery
导出不工作
excel
、
csv
、
google-bigquery
、
google-cloud-storage
我正在尝试从
BigQuery
导出一个大型
CSV
数据
集。该
文件
超过
90000行,因此
BigQuery
提示我将
表
导
出到
出口格式:
CSV
,:my_bucket/2015/feb.
csv
几分钟后,
数据
集出现在我
的
中
文件
大约是200 of,当我最后打开它时,excel
浏览 1
提问于2016-01-22
得票数 1
回答已采纳
1
回答
从
bigquery
导入到google sheets限制为10k行
google-bigquery
我正在尝试从google
bigquery
导入一个表格到google sheets。
数据
>
数据
连接器>大查询,但当我导入它时,它显示限制为10,000行。 有没有办法
超过
这一限制?
浏览 1
提问于2020-07-06
得票数 0
3
回答
将大查询导
出到
Google云存储
google-bigquery
、
google-cloud-storage
我喜欢将大查询导
出到
Google云存储。除了导出查询之外,还有任何其他选项可以这样做。 我
的
数据
大约是2GB,在导出查询
中
,它在不同
的
文件
中分割,
数据
作为
数据
很大。所以我只能在一个
文件
中导出。所以请帮我同样
的
忙。
浏览 9
提问于2022-05-19
得票数 0
5
回答
将大量
数据
从
BigQuery
加载到python/大熊猫/dask
pandas
、
google-cloud-platform
、
google-bigquery
、
bigdata
、
dask
我阅读了其他类似的帖子,并搜索谷歌,以找到更好
的
方法,但没有找到任何可行
的
解决方案。 我在
BigQuery
中有一个大
表
(假设每天插入2000万行)。我希望有大约2000万行
数据
,在python/大熊猫/dask中有大约50列
的
数据
来做一些分析。我尝试过使用bqclient、panda和bq存储API方法,但在python
中
拥有500万行需要30分钟。还有其他办法吗?甚至有任何谷歌服务可以做类似的工作?
浏览 2
提问于2019-03-06
得票数 6
回答已采纳
1
回答
直接创建Avro
文件
到
python
、
google-cloud-storage
、
avro
我想跳过在
本地
创建avro
文件
并将其直接上传到
的
步骤。import
csv
import jsonimport avro.schem
浏览 1
提问于2019-12-02
得票数 2
2
回答
通过SQL将
BigQuery
导
出到
CSV
文件
google-cloud-platform
、
google-bigquery
、
google-cloud-storage
我想创建一个
CSV
文件
,其中包含查询
的
结果。此
CSV
文件
将位于
中
。(这个查询大约是15 it ),我需要它是一个
文件
。有可能吗?如果有,怎么做?dropoff_longitude, IF((tips/fare >= 0.2), 0) AS tip_bin `
bigquery
-public-data.chicago_taxi_trips
浏览 0
提问于2019-05-15
得票数 1
回答已采纳
2
回答
如何将
公共
数据
集导入谷歌云桶
google-bigquery
、
export
、
google-cloud-storage
、
bucket
我将处理一个
数据
集,其中包含有关美国311个呼叫
的
信息。此
数据
集可在
BigQuery
中
公开使用。我想把这个直接复制到我
的
桶里。然而,我对如何做到这一点一无所知,因为我是一个新手。下面是Google上
数据
集
的
公共位置
的
屏幕截图:我已经在
中
创建了一个名为311_nyc
的
桶。我如何直接传输
数据
而不必下载12 gb
文件
并通过我
的
VM实例再次上
浏览 2
提问于2019-12-18
得票数 0
回答已采纳
1
回答
Python/Pandas/
BigQuery
:如何使用大量新
的
时间序列
数据
有效地更新现有
表
?
python
、
pandas
、
google-bigquery
、
google-cloud-platform
、
gsutil
我有一个程序可以从远程
数据
库下载时间序列(ts)
数据
,并将
数据
保存为
csv
文件
。新ts
数据
被追加到旧ts
数据
。随着下载更多
数据
,我
的
本地
文件
夹继续增长和增长。下载新
的
ts
数据
并保存后,我想将其上传到Google
BigQuery
表
中
。做这件事最好
的
方法是什么?我当前
的
工作流程
浏览 2
提问于2017-06-28
得票数 0
回答已采纳
1
回答
通过windows服务在
BigQuery
表
中
插入记录
.net
、
sql-server
、
c#-4.0
、
windows-services
、
google-bigquery
出于测试目的,我能够从
BigQuery
表
中
获取
数据
,以检查我
的
BigQuery
服务和Windows之间
的
通信。但是这个服务基本上是从MSSQL server
中
获取记录,然后一个接一个地向
BigQuery
中
的
目标
表
插入或追加一条记录。我不想使用
CSV
或JSON
文件
作为
数据
源。有没有办法做到这一点?
浏览 0
提问于2012-10-30
得票数 0
回答已采纳
2
回答
通过Apps脚本
的
大查询API --我在一个较大
的
表
上得到一个错误,但是在一个较小
的
表
上工作。通过应用程序脚本有大小限制吗?
google-apps-script
、
google-bigquery
、
quota
我正在使用Apps脚本向
BigQuery
发送查询 我有一个项目id - "bigquerytest-282720",一个名为"testDataSet“
的
数据
集和2个
表
(smallTable和bigTable两个
表
具有相同
的
架构。
表
1只有6行,
表
2有600000行。GoogleJsonResponseException: API对
bigquery
.jobs.getQueryResults
的
浏览 1
提问于2020-07-09
得票数 0
2
回答
在Big query中将
表
数据
作为
CSV
下载到
本地
机器
python
、
google-bigquery
def downloadGbqToCsv(self,table_name,
csv
):
bigquery
= discovery.build('
bigquery
', 'v2', credentials=credentials) 'destinationUris':
浏览 1
提问于2016-03-28
得票数 1
1
回答
使用命令行将多个
CSV
从
本地
源上传到GBQ
bash
、
command-line
、
sdk
、
google-bigquery
、
command-prompt
我在Google Cloud SDK Shell上组装了一个for循环,它将把当前目录(在我
的
本地
计算机上)
中
的
每个
CSV
上传到一个单独
的
谷歌
BigQuery
表
中
,所有这些都在同一个
数据
集中。另外,我希望在GBQ
中
创建
的
表
与其相应
的
CSV
文件
具有相同
的
名称(除了.
csv
部分)
浏览 3
提问于2020-04-20
得票数 0
1
回答
在
BigQuery
中将np.array或python列表对象保存为单个记录
的
最佳方法是什么?
python
、
arrays
、
google-bigquery
、
embedding
我有一个ML模型(文本嵌入),它输出一个很大
的
1024长度
的
浮点数向量,我希望将其持久化到一个
BigQuery
表
中
。 向量
中
的
各个值本身没有任何意义,整个向量是感兴趣
的
特征。因此,我希望将这些列表存储在
BigQuery
中
的
单个列
中
,而不是每个浮点对应一列。此外,向最初只有4或5行
的
表
中
添加额外
的
1024行似乎不
浏览 10
提问于2020-02-27
得票数 0
1
回答
BigQuery
导出
CSV
:我能控制输出分区吗?
google-bigquery
该语句将查询结果导
出到
GCS: uri='gs://<bucket>/<file_name>.*.
csv
', overwrite=true,) AS 它将大量
数据
分割成多个
文件
,有时还会生成空
文件
。我似乎在
BigQuer
浏览 6
提问于2021-12-23
得票数 0
1
回答
BigQuery
如何将
本地
文件
中
的
数据
作为
内容加载
node.js
、
google-bigquery
我有一个要求,在哪里我将接收
文件
内容,我需要加载到
BigQuery
表
。标准展示了如何从
本地
文件
加载
数据
,但是我没有看到load方法
的
任何变体,它接受
文件
内容
作为
字符串而不是
文件
路径。
浏览 1
提问于2020-07-02
得票数 0
回答已采纳
点击加载更多
相关
资讯
如何利用MySQL Workbench导出数据库表数据
如何从 MySQL数据库中导入导出数据
mysql导出数据
Python学习笔记(五)
想免费用谷歌资源训练神经网络?Colab详细使用教程
热门
标签
更多标签
云服务器
ICP备案
对象存储
云点播
即时通信 IM
活动推荐
运营活动
广告
关闭
领券