腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(2915)
视频
沙龙
1
回答
在加
载到
Bigquery
之前自动ETL数据
、
、
、
我
将
CSV
文件
添加到
GCS
存储桶
中
,每天或每周,每个
文件
名都包含(日期+特定参数)我们尝试了云函数(我们可以
从
文件
浏览 0
提问于2020-12-15
得票数 0
1
回答
BigQuery
:
如何
使用
传输
接口
将
文件
从
GCS
加
载到
现
有的
表
中
?
、
、
在airflow
中
,我想将
文件
从
GCS
加
载到
现
有的
BigQuery
表
中
。有一个操作符执行该GoogleCloudStorageToBigQueryOperator,它似乎每次都会创建一个新
表
。如果我指定了一个现
有的
表
,它会抛出一个错误。
如何
配置它才能加
载到
现
有的
表
中
?
浏览 21
提问于2020-04-27
得票数 0
回答已采纳
1
回答
将
CSV
文件
上
载到
分区的
bigquery
表
中
(
从
文件
名生成分区)
、
、
我
使用
bigquery
客户端对象
将
一些CSV
文件
(位于云存储
中
)上
载到
bigquery
表
中
。 我成功地
将
数据上
载到
bigquery
表
中
,但我希望
将
目标
表
更改为已分区
表
。分区将是
文件
名
中
的日期。
文件
名是CSV
文件
中<
浏览 7
提问于2022-11-21
得票数 0
2
回答
使用
BigQueryToCloudStorageOperator导出为JSON
、
、
当我手动
使用
BigQuery
控制台时,我可以看到在
将
表
导出到
GCS
时有3个选项:CSV、JSON (Newline delimited)和Avro。对于Airflow,当
使用
BigQueryToCloudStorageOperator运算符时,传递给export_format的正确值是什么,以便
将
数据作为JSON (Newline delimited)
传输
到
GCS
?我在网上看到的用于BigQueryToCloudStorag
浏览 39
提问于2020-11-13
得票数 0
回答已采纳
2
回答
如何
在流模式下
将
数据
从
AWS加
载到
Google
BigQuery
?
、
、
如何
在流模式下
将
数据
从
AWS加
载到
Google
BigQuery
?描述:我有RDS ( Server)
中
的数据,并希望
将
这些数据实时加
载到
Google
BigQuery
中
。
浏览 9
提问于2020-02-18
得票数 1
回答已采纳
1
回答
使用
BQ Load加载ORC
文件
时保留BQ
表
架构
当
使用
"bq Load“命令
将
ORC
文件
加
载到
现
有的
BQ
表
时,我观察到一旦加载了数据,
表
模式(
表
的列名)也会发生变化。bq load
浏览 1
提问于2019-06-25
得票数 0
4
回答
如何
调用按需
bigquery
数据
传输
服务?
、
我真的很喜欢
BigQuery
的数据
传输
服务。我有平面
文件
,在确切的模式,坐着要加
载到
烧烤。这将是很棒的只是设置DTS的时间
表
,收集
GCS
文件
匹配的模式,并加
载到
烧烤。我喜欢内置的选项,删除源
文件
后,复制和电子邮件,以防止麻烦。但最大的问题是,最小间隔时间是60分钟。太疯狂了。我可能会活得晚10分钟。 因此,如果我
将
DTS设置为随需应变,我
如何
从
API调用它?此外,我
将</e
浏览 15
提问于2020-01-18
得票数 4
回答已采纳
2
回答
BigQuery
表
加载的avro模式推断
、
我正在
使用
java,试图
将
avro
文件
中
的数据加
载到
BigQuery
中
。创建外部
表
时,
BigQuery
会自动
从
.avro
文件
中
检测架构。在为要加载的数据创建常规
BigQuery
表
时,是否有一种方法在
GCS
中指定模式/数据
文件
? 先谢谢你
浏览 1
提问于2018-08-23
得票数 0
回答已采纳
2
回答
2 TB+
表
的
Bigquery
红移迁移
我正在尝试
将
Redshift迁移到
BigQuery
。
表
的大小是2TB+,我正在
使用
bigquery
红移数据
传输
服务。但是迁移已经运行了5个多小时。还可以看到在Redshift端执行的查询
将
数据卸
载到
50MB的区块
中
。由于无法在红移
传输
作业
中
配置块大小参数。
将
2TB的数据
从
redshfit
传输
到
BigQuery
需要这么多时间,或者
浏览 39
提问于2019-07-22
得票数 0
4
回答
将
多个
文件
从
云存储加
载到
不同
表
中
的大查询
、
、
、
、
我是GCP的新手,我可以
从
我的VM
中
获得一个
文件
到
GCS
,然后将它
传输
到
bigquery
。
如何
将
多个
文件
从
GCS
传输
到
Bigquery
。我知道通配符URi是它的解决方案,但是在下面的代码
中
还需要进行哪些其他更改?def hello_
gcs
(event, context): from google.cloud import
浏览 4
提问于2021-05-07
得票数 0
回答已采纳
1
回答
BigQuery
:作业已完成,但尚未创建
表
我目前正在尝试运行2个作业和一个查询通过一个脚本
使用
谷歌
BigQuery
应用程序
接口
。这两项工作涉及
从
Google Cloud Storage
将
两个CSV(压缩为
BigQuery
)加
载到
GZIP,并创建两个
表
。然后,我们运行查询以
使用
另外两个
表
创建第三个
表
。不幸的是,即使状态被标记为完成,作业仍然在运行,
表
还没有创建,看起来所做的只是
从
GCS
加
浏览 0
提问于2014-08-20
得票数 1
2
回答
将
Amazon与Google
BigQuery
同步
、
、
我们正在用
BigQuery
制作一个POC,我现在研究的是
如何
将
这些基础复制到
BigQuery
(现
有的
寄存器和将来的新寄存器)。我的怀疑是:
如何
复制未来的注册?是否可以在MySQL
中
创建一个作业,在预定义的数字之后发送新的寄存器?例如,在插入了1,000个新行(或传递了
浏览 2
提问于2016-02-15
得票数 6
1
回答
如何
从
GCS
中
的
文件
中
自动检测模式并加
载到
BigQuery
?
、
我正在尝试
将
一个
文件
从
GCS
加
载到
BigQuery
,它的模式是
从
GCS
中
的
文件
自动生成的。我
使用
Apache气流来做同样的事情,我遇到的问题是当我
使用
自动
从
文件
中
检测模式时,
BigQuery
根据大约100个初始值创建模式。因此,我可以做的是手动创建一个新的
表
,通过自己生成模式。或者我可以<em
浏览 2
提问于2019-12-27
得票数 0
1
回答
列为零值的拼花被转换为整数
、
、
我在
GCS
中
使用
python大熊猫来编写一个DataFrame到parquet,然后
使用
将
GCS
文件
传输
到
Bigquery
表
中
。有时,当DataFrame很小时,整个列可能具有空值。当发生这种情况时,
Bigquery
将
空值列视为INTEGER类型,而不是parquet声明的类型。当试图将其附加到期望该列为NULLABLE STRING的现有
表
时,大查询
传输
浏览 25
提问于2022-08-18
得票数 0
2
回答
BigQuery
-在插入
表
时调用查询
、
将
一个新的CSV
文件
上传到
GCS
桶
中
,然后
将
数据插入到
BigQuery
表
中
,数据在
BigQuery
中
后应在insert事件
中
触发后处理查询。为了实现第一步,我在Python
中
创建了一个云函数,它将数据
从
GCS
桶加
载到
BigQuery
表
。 我正在为第二步而奋斗,因为
BigQuery</e
浏览 1
提问于2021-02-16
得票数 0
回答已采纳
2
回答
如果
表
中
已存在内容,则避免在
Bigquery
中
重新加载数据
、
、
我需要编写dag,这样它就可以
将
csv
文件
的内容加
载到
Bigquery
表
中
,但是如果
表
中
已经存在该内容,它就会丢弃该
文件
。我知道我们可以在正常的编程中计算
文件
的哈希,但不知道
如何
处理Airflow和
Bigquery
。有人知道怎么做吗?
浏览 0
提问于2021-09-13
得票数 0
3
回答
如何
将
GCS
中
的csv随机样本导出到
BigQuery
、
、
我正在
使用
位于400M+存储桶
中
的大型CSV (
GCS
)。我需要获取此csv的随机样本,并将其导出到
BigQuery
进行初步探索。我在网上找遍了,似乎找不到任何能解决这个问题的东西。我该
如何
去做呢?
浏览 3
提问于2021-06-07
得票数 1
1
回答
Bigquery
和Google云存储
、
我正在尝试
使用
bigquery
从
google云存储
中
查询数据。这些是我在firebase
中
实时数据库的数据。它由json
文件
组成。
如何
查询和查看每个
文件
中
的数据?我其实是在读这篇文章,但我不知道
如何
连接。 如果我指向特定的
文件
(如firebase.json),就可以了。但我需要更新我的数据。
浏览 1
提问于2018-10-29
得票数 0
2
回答
在云功能
中
,
GCS
的
文件
大小可以处理多大?
、
、
、
我希望
使用
GCP
中
的云函数
将
GCS
中
的>=4 GB数据
传输
到
BigQuery
。有可能这样做吗?我尝试
使用
mkfile命令创建一个临时的5 gb数据
文件
,并尝试上传到
GCS
。这是否意味着
GCS
不能处理超过特定
文件
大小的
文件
。 在我所引用的文档:
中
,我了解到
GCS
处理多达5 TiB的数据。那么为什么上传5GB的数据需要很长时间
浏览 3
提问于2021-08-12
得票数 0
回答已采纳
4
回答
从
s3加载数据的经济高效的
BigQuery
、
、
我每天都需要加
载到
BigQuery
的分区
表
中
,在s3
中
创建了(2 TB)大小为20k的
文件
。
文件
每5分钟滚动一次。
将
数据
传输
到
BigQuery
的最经济高效的方法是什么?
浏览 1
提问于2019-12-19
得票数 0
点击加载更多
相关
资讯
谷歌推出Bigtable联邦查询,实现零ETL数据分析
使用Kafka,如何成功迁移SQL数据库中超过20亿条记录?
从Lambda到无Lambda,领英吸取到的教训
谷歌BigQuery ML正式上岗,只会用SQL也能玩转机器学习!
大数据公司 LiveRamp 上云记(三):如何在吞吐量有限的情况下处理数据复制
热门
标签
更多标签
云服务器
ICP备案
实时音视频
对象存储
即时通信 IM
活动推荐
运营活动
广告
关闭
领券