腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(3413)
视频
沙龙
1
回答
Google
:
使用
带
自定义
字段
分隔符
的
Java
API
从
本地
BigQuery
文件
加载
数据
、
、
我正在尝试
使用
Java
API
将
本地
CSV
文件
的
行
加载
到
BigQuery
中。TableId tableId = TableId.of(datasetName, tableName); WriteChannelConfigurationWriteChannelConfiguration.newBuilder
浏览 10
提问于2018-02-21
得票数 1
回答已采纳
1
回答
用
Java
编程将
数据
从
Google
Cloud Storage
加载
到Big Query
的
选项?
、
、
、
我一直在搜索
从
Google
Cloud Storage以编程方式将
数据
加载
到Big Query中。我已经手动完成了这一点,将我
的
谷歌云存储备份到
BigQuery
表中,也能够在安卓中检索
数据
。我面临
的
唯一问题是,我想以编程方式将
数据
上传到
BigQuery
表中。实现这一目标的各种方法是什么?
浏览 12
提问于2018-01-15
得票数 1
1
回答
在
BigQuery
中将np.array或python列表对象保存为单个记录
的
最佳方法是什么?
、
、
、
我有一个ML模型(文本嵌入),它输出一个很大
的
1024长度
的
浮点数向量,我希望将其持久化到一个
BigQuery
表中。 向量中
的
各个值本身没有任何意义,整个向量是感兴趣
的
特征。因此,我希望将这些列表存储在
BigQuery
中
的
单个列中,而不是每个浮点对应一列。此外,向最初只有4或5行
的
表中添加额外
的
1024行似乎不是一个好主意。有没有办法在
BigQuery
中
的
列中存储python列表或np.array
浏览 10
提问于2020-02-27
得票数 0
2
回答
将
Google
导出到CSV时
自定义
分隔符
、
我已经用默认
分隔符
",“成功地将GCloud SQL导出到CSV。我想将这个CSV导入到,并且我成功地做到了这一点。"Budi", "19", "Want to be hero, and knight" 是否可以
使用
自定义
分隔符
(例如“AC.26”)导出
Google
?如果没有,如何将上述示例
浏览 4
提问于2019-04-16
得票数 2
1
回答
使用
Google
客户端
API
在
BigQuery
中
加载
JSON
文件
、
有没有一种方法可以
使用
Google
客户端
API
将JSON
文件
从
本地
文件
系统
加载
到
BigQuery
?1-逐个播放记录。 2-
从
GCS
加载
JSON
数据
。3-
使用
原始POST请求
加载
JSON (即不是通过)。
浏览 2
提问于2014-07-30
得票数 6
回答已采纳
2
回答
具有
本地
文件
大小限制
的
加载
数据
、
使用
API
的
本地
文件
是否对
加载
数据
有任何限制? 正如
Google
文档提到
的
Web,
本地
文件
大小比<=10 MB和16,000行还要大。同样
的
限制也适用于
API
吗?
浏览 0
提问于2018-05-03
得票数 1
回答已采纳
1
回答
为什么
Google
Bigquery
Datetime格式
使用
'T‘
分隔符
?我想要一个空格
分隔符
、
我
使用
json
文件
中
的
模式在
BigQuery
中创建表,并将DATETIME
数据
类型赋予一个列。然后,我简单地
从
日期时间格式为2020-01-01 00:00:00
的
csv
加载
数据
,但是当它进入
bigquery
时,我可以看到它有一个'T‘
分隔符
,例如2020-01-01T00:00:00。
google
bigquery
docs - YYYY-MM-DD[
浏览 22
提问于2020-05-08
得票数 0
回答已采纳
2
回答
从
HTTP请求
API
拉取
数据
到
Google
Cloud
、
、
、
、
我有一个应用程序,
从
API
发送
数据
给我。
数据
是半结构化
的
(json
数据
) 我想把这个
数据
发送到
Google
Big Query,以便储存所有的信息。 但是,我不知道如何才能正确地做到这一点。到目前为止,我已经在自己
的
服务器上
使用
Node通过POST请求获取
数据
。 你能帮帮我吗?特纳克。
浏览 17
提问于2019-10-15
得票数 0
2
回答
Apache
的
BigQuery
连接器-更新一个分区表
、
、
、
请注意,这些
文件
可以追溯到5年前,并形成一个非常大
的
数据
集(~1TB)。我正在尝试
使用
,但它似乎只在中,而不是由日期
字段
过滤
的
一批记录。客户端
浏览 0
提问于2018-08-27
得票数 0
回答已采纳
1
回答
使用
命令行将多个CSV
从
本地
源上传到GBQ
、
、
、
、
我在
Google
Cloud SDK Shell上组装了一个for循环,它将把当前目录(在我
的
本地
计算机上)中
的
每个CSV上传到一个单独
的
谷歌
BigQuery
表中,所有这些都在同一个
数据
集中。另外,我希望在GBQ中创建
的
表与其相应
的
CSV
文件
具有相同
的
名称(除了.csv部分)。 实际上,我可以
使用
以下命令行完成所有这些操作,只是它会将所有CSV附加到同一个表中,而不是单独
的
浏览 3
提问于2020-04-20
得票数 0
1
回答
如何刷新
google
drive
数据
源-
Google
Big Query
我有一个关于刷新
google
大查询表
的
问题,其中
的
数据
源是
google
drive。如何
使用
此
google
驱动器
文件
刷新我
的
大型查询表?谢谢
浏览 4
提问于2018-03-22
得票数 1
1
回答
从
PubSub到
Java
API
的
扫雪机
数据
处理
、
我正在
使用
扫雪机进行行为
数据
跟踪。我可以
使用
雪地
加载
器(& mutator)开放源代码(https://docs.snowplowanalytics.com/docs/getting-started-on-snowplow-open-source/setup-snowplow-on-gcp/setup-
bigquery
-destination/)将
数据
从
发布/订阅
使用</em
浏览 20
提问于2021-05-07
得票数 0
回答已采纳
8
回答
不
使用
将
BigQuery
数据
导出到CSV
、
我目前正在编写一个软件,用于导出大量
的
BigQuery
数据
,并将查询
的
结果
本地
存储为CSV
文件
。我
使用
Python 3和
google
提供
的
客户端。我做了配置和身份验证,但问题是,我无法在
本地
存储
数据
。每次执行时,我都会得到以下错误消息 googleapiclient.errors.HttpError:返回“无效提取目标URI‘响应/
文件
名-*..csv”。必须是有效<e
浏览 5
提问于2015-07-27
得票数 21
回答已采纳
1
回答
BigQuery
手动
加载
,但不是通过
Java
加载
。
、
、
我有一条
数据
流管道,在
本地
运行。目的是
使用
TEXTIO读取JSON
文件
,进行会话并将其
加载
到
BigQuery
中。根据这种结构,我必须在GCS中创建一个临时目录,然后
使用
该目录将其
加载
到
BigQuery
中。以前,我有一个
数据
模式错误,无法
加载
数据
,请参阅。这个问题已经解决了。因此,现在当我在
本地
运行管道时,它会将一个临时
的
JSON换行符分隔
浏览 0
提问于2016-12-31
得票数 0
回答已采纳
1
回答
通过
API
来自CSV
的
时间戳
当有时间戳
字段
时,
API
是否支持将CSV导入到新表中? 如果我手动(
使用
BigQuery
web界面)上传一个包含时间戳
数据
的
CSV
文件
,并通过模式将该
字段
指定为时间戳,它就能正常工作。
数据
已
加载
。时间戳
数据
被解释为时间戳
数据
,并导入到时间戳
字段
中。然而,当我
使用
API
对相同
的
文件
做同样<em
浏览 2
提问于2013-04-25
得票数 0
回答已采纳
1
回答
哪种
Bigquery
nodejs客户端
api
方法用于
加载
带
通配符
的
GCS
文件
、
、
我正在尝试编写一个云函数,将匹配通配符
的
GCS
文件
加载
到
BigQuery
中。我能看到
的
和
api
参考中
的
所有示例都是load方法,它们通过
bigquery
.dataset.table.load方法指定特定
的
文件
名。
使用
通配符触发
文件
加载
可以
使用
什么方法?我知道我可以指定元
数据
源uri,但是我看不到load方法
的
浏览 0
提问于2020-01-21
得票数 0
1
回答
将
本地
创建
的
表上传到
BigQuery
?
我正在尝试将一些
数据
从
本地
服务器上传到
BigQuery
。由于我刚开始
使用
BigQuery
,所以我一直试图上传几行示例
数据
,但是在所有可用
的
API
和文档之间,我还是弄糊涂了。如果我试图上载通过
Java
加载
的
数据
,而不是
从
CSV
文件
中
加载
数据
,我将如何
加载
?我应该只写一个POST
浏览 0
提问于2012-06-21
得票数 0
1
回答
使用
BiqQuery
API
将
Google
BiqQuery结果导出到
Google
工作表
的
最佳方法
、
、
我想将
BigQuery
结果导出到
Google
中,考虑到导出
数据
的
数量很大,那么最好
的
方法是什么呢?我可以运行
BigQuery
(
BigQuery
)并循环它来创建CSV
数据
,并且可以
使用
GoogleSheet
API
上传它,但是我觉得这不是优化
的
方法,因为会涉及数千条记录,还有更好
的
出路吗?
浏览 0
提问于2019-04-03
得票数 4
回答已采纳
2
回答
作为GCP
BigQuery
源
的
Office365 Excel
、
、
、
我们正在
使用
Office365 Excel并手动创建一些我们在
BigQuery
中需要
的
数据
。您将创建什么解决方案来自动将此excel中
的
数据
加载
到bq中
的
表?我们不允许
使用
Google
Sheets (这将解决我们所有的问题)。
浏览 0
提问于2021-04-26
得票数 1
1
回答
Bigquery
java
api
无法
加载
数据
-“
文件
在云上不存在”
、
、
使用
Java
API
将
数据
加载
到
Bigquery
失败,因为
文件
不存在于云中。但是,
Google
Cloud Storage
的
位置是正确
的
,并且在
使用
浏览器
加载
数据
时运行良好。这在
Google
Cloud Storage JSON
API
v1发布之前是有效
的
。我不确定这是否相关。 知道最近有什么变化吗?
浏览 0
提问于2014-11-24
得票数 1
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
云直播
实时音视频
即时通信 IM
活动推荐
运营活动
广告
关闭
领券