腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
用Java编程
将
数据
从
Google
Cloud Storage加
载到
Big Query的选项?
、
、
、
我一直在搜索
从
Google
Cloud Storage以编程方式
将
数据加
载到
Big Query中。我已经手动完成了这一点,将我的谷歌
云
存储
备份到
BigQuery
表中,也能够在安卓中检索数据。我面临的唯一问题是,我想以编程方式
将
数据上传到
BigQuery
表中。实现这一目标的各种方法是什么?
浏览 12
提问于2018-01-15
得票数 1
1
回答
谷歌
BigQuery
和谷歌
云
存储
之间是否共享
文件
?
、
我已经通过从谷歌
云
存储
加载CSV
文件
创建了一个
BigQuery
表。 在这种情况下,
BigQuery
表是引用
云
存储
中的CSV
文件
,还是
将
数据复制到自己的
存储
中?
浏览 7
提问于2016-07-26
得票数 2
回答已采纳
1
回答
将
SQL数据库转到
Bigquery
,或
将
SQL数据库转到GCS到
BigQuery
。
、
在always的“用
Google
平台进行数据工程”一书中,为了
将
数据
从
sql数据库加
载到
BigQuery
,作者总是先将数据
从
sql加
载到
,然后将其作为暂存环境
使用
,然后才
将
数据加
载到
BigQuery
通过GCS步骤而不是直接进入
BigQuery
有什么好处?在何种情况下,您将直接
将
数据
从
SQL加
载到
BigQuery</em
浏览 8
提问于2022-08-16
得票数 0
回答已采纳
1
回答
基于
Google
云
平台的
JSON
到NDJSON
、
、
、
、
我正在
Google
云
平台上开发一个原型,为此我
使用
了
云
存储
、appengine和
bigquery
。现在,其中一项任务是每天
从
google
云
存储
向
bigquery
加载一个
文件
,我在Appengine上
使用
Cron任务 问题是
bigquery
期望数据是NDJSON格式(新的行分隔为
json
),而我的源
文件
则是普通的
浏览 0
提问于2016-08-09
得票数 3
1
回答
将
数据
从
Google
表导出到
Google
存储
、
当
将
数据
从
Google
bigquery
表导出到
Python
中的
Google
云
存储
时,我会得到以下错误: 访问被拒绝:
BigQuery
BigQuery
:写入数据时被拒绝的权限。我检查了
JSON
密钥
文件
,它链接到
存储
的所有者。我能做什么?
浏览 0
提问于2017-06-11
得票数 2
1
回答
使用
spark
将
拼图数据
从
谷歌
云
存储
加
载到
BigQuery
、
、
如何
从
谷歌
云
存储
加载拼图数据到spark,并将其保存到
BigQuery
?
浏览 13
提问于2019-12-04
得票数 0
3
回答
是否可以
将
内容自动
从
Google
上传到
云
存储
?
、
、
、
我需要将CSV
文件
从
Google
自动加
载到
BigQuery
中,我想知道这样做是否可行: 我开发了一个
python
脚本,它将
存储
在Cloud中的CSV
文件
自动上传到
BigQuery
,现在我需要在
G
浏览 10
提问于2021-01-20
得票数 1
回答已采纳
1
回答
使用
bigquery
客户端库创建到
云
存储
的外部表链接
从
Google
控制台,我们可以手动创建外部
bigquery
表,该表
将
链接到
Google
云
存储
Json
新行分隔
文件
。但是在
bigquery
客户端库中,我找不到示例代码允许我创建
bigquery
外部表链接到
云
存储
保存的
json
文件
。function create_table($projectId, $datasetId, $tabl
浏览 7
提问于2017-03-23
得票数 0
回答已采纳
1
回答
从
谷歌
云
存储
提供谷歌客户端服务帐户的keyFilename
、
、
、
为了
从
Google
Cloud函数连接到存在于不同GCP项目中的
Google
Cloud
BigQuery
,我创建了
BigQuery
客户端,如下所示: const {
BigQuery
} = require('@
google
-cloud/
bigquery
'); keyFilename: 'path/to/service_account.
json
浏览 15
提问于2020-01-22
得票数 1
回答已采纳
1
回答
为什么我在
将
bigquery
表数据写入
google
云
存储
时被拒绝访问呢?
、
我可以
使用
python
客户端库
从
Google
BigQuery
将
数据加
载到
Google
云
存储
中,但是当我试图
使用
cloud加载数据时,我得到的错误如下。“访问被拒绝:
BigQuery
BigQuery
:写入数据时被拒绝的权限” bq --location=US extract --compression GZIP
浏览 0
提问于2019-03-31
得票数 1
2
回答
如何
从
基于事件的
云
函数执行
Google
Data Fusion Pipeline
、
有没有办法
从
Cloud Function (最好是基于
python
)运行
Google
Data Fusion管道?gcloud函数部署hello_g
浏览 3
提问于2019-07-23
得票数 1
3
回答
google
云
上的
存储
、
我有以下用例:需要
使用
PySpark分析大量结构化数据。数据当前为CSV格式。我正在尝试找出在谷歌
云
上
存储
数据的最佳方式。我的理解是HDFS不会工作,因为每次集群关闭,HDFS数据都会消失,所以我每次都必须
从
CSV转换到HDFS,这很耗时。似乎正确的策略是
使用
BigQuery
,但是我不能确定
BigQuery
是否是持久性的?
浏览 20
提问于2017-06-28
得票数 0
回答已采纳
1
回答
Pyspark
将
数据帧写入
bigquery
[error gs]
、
我正在尝试
将
数据帧写入
bigquery
表。我已经
使用
所需的参数设置了sparkSession。然而,在写的时候,我得到了一个错误:代码如下:如果
从
代码中删除write,我不会得到任何错误,所以错误是在尝试编写时出现的,并且可能与
使用
bigquery
操作的auxiliar
存储
桶相关
浏览 17
提问于2020-11-14
得票数 1
0
回答
Google
云
存储
/大查询成本估算
、
、
、
我正在尝试估算我的
Google
Cloud计划的每月总成本。假设我有一个50 GB大小的
文件
,它驻留在亚马逊S3中。我的程序会将这个50 GB的数据
文件
导入到
云<
浏览 5
提问于2017-06-14
得票数 2
回答已采纳
1
回答
将
JSON
导出
文件
转换为BQ新行分隔的
JSON
、
我有一个数据库的
JSON
导出,我想上传它,并创建一个新的表格的烧烤。这个
文件
是600 it,我试图在mac终端上
使用
jq,但我是个菜鸟,我做不到.有没有办法转换一个随机的
json
文件
,并将结果转换为这个以换行符分隔的
JSON
文件
?如果是,请帮助我
浏览 1
提问于2022-02-16
得票数 1
2
回答
从
本地磁盘
将
数据加
载到
BigQuery
和
Google
云
存储
中的策略
、
、
、
我必须将相同的数据加
载到
google
云
存储
和
BigQuery
表中。我首先将两年的合并数据加
载到
google
存储
中。然后尝试
使用<
浏览 2
提问于2016-08-10
得票数 1
回答已采纳
2
回答
在
google
云中操纵大量
文件
以重新格式化
、
、
、
、
我在
Google
云
存储
中有大量
json
文件
,我想将这些
文件
加
载到
Bigquery
中。平均
文件
大小为5MB,未压缩。问题是它们不是新分隔的行,所以我不能像
bigquery
那样加载它们。我是否应该
使用
Google
函数或数据准备,或者只是旋转一个服务器,让它下载该
文件
,重新格式化它并将其上传回
云
存储
,然后上传到
Bigquery
浏览 0
提问于2018-12-05
得票数 2
回答已采纳
1
回答
使用
Google
Cloud Function
将
json
文件
加
载到
Bigquery
表中,BQ作业成功,但BQ表中缺少某些
文件
正如我在标题中提到的,我创建了一个
google
cloud函数,当
json
文件
被上传到
google
云
存储
时,该函数会被触发,并创建一个加载作业来
将
json
文件
作为一行加
载到
BigQuery
中的表中。日志中没有错误,但我发现一些
文件
无法
添加到表中:我上传了10个
json
文件
,表中只有6行。如果首先将1.
json
添
浏览 0
提问于2019-11-19
得票数 0
1
回答
无法
使用
python
将
JSON
文件
从
google
云
存储
加
载到
bigquery
、
、
、
、
我试图
从
我的
Google
云
存储
中导出一个
文件
到
Google
bigquery
,但遇到了许多问题。#standardSQLimport argparseimport uuid from
google
.cloud import storage dataset = 'data
浏览 44
提问于2017-07-05
得票数 1
回答已采纳
1
回答
数据流-
将
avro对象
存储
到未知的GCS
文件
夹
、
、
、
、
我有一个DataFlow管道,它
使用
来自
云
发布/订阅的
JSON
消息,将它们转换为Avro,并将它们
存储
到
Google
Cloud Storage。有没有办法让DataFlow根据某个
JSON
字段
将
每个Avro对象
存储
到GCS中的不同
文件
夹中,如果它的值实际上可以是任何值的话?此
文件
夹结构的目标是通过
云
函数
使用
PubSub通知,
将
每个结果
文件</e
浏览 17
提问于2020-02-20
得票数 0
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
对象存储
云点播
实时音视频
活动推荐
运营活动
广告
关闭
领券