腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
谷歌
BigQuery
-
PHP
API
-
如何
导入
AVRO
文件
?
、
我正在使用这个官方示例从
文件
导入
:
如何
通过
PHP
API
导入
AVRO
文件
,具体支持如下:
浏览 7
提问于2017-06-22
得票数 1
回答已采纳
1
回答
导入
Google Analytics到Redshift
、
我正在尝试
如何
将Google Analytics数据
导入
AWS Redshift。到目前为止,我已经能够设置一个导出作业,以便将数据
导入
到
谷歌
的
BigQuery
,然后将表导出到
谷歌
的云存储。
BigQuery
以特定的方式存储数据,因此当您将其导出到
文件
时,它会为您提供一个多级嵌套的JSON结构。因此,为了将其
导入
Redshift,我必须将JSON“分解”为表或CSV
文件
。有谁知道我
如何
以一种优雅而高效
浏览 4
提问于2018-11-09
得票数 0
1
回答
Google
BigQuery
:使用
Avro
格式
导入
日期时间字段
、
我有一个脚本,从甲骨文数据库下载数据,并上传到
谷歌
BigQuery
。这是通过写入一个
Avro
文件
来完成的,然后使用BQ的python框架直接上传该
文件
。我要将数据上传到的
BigQuery
表具有预定义的模式,其中一些模式包含日期时间字段。 Field CHANGED has incompatible types.Configured schema: datetime;
Avro
file: string.我还尝试在导出时将字段数据转换为时间戳,但这在
BigQue
浏览 4
提问于2020-04-22
得票数 0
2
回答
将
avro
文件
压缩为gzip (.gz)压缩
、
、
、
、
我是
avro
和.gzip
文件
的新手。我正在尝试压缩
avro
文件
,以获得更快的
文件
加载时间从
谷歌
云存储到
BigQuery
。我已经试着用
谷歌
搜索过了,但是我没有得到答案。请帮助我
如何
压缩
avro
文件
到gzip (.gz)压缩。
浏览 38
提问于2021-05-07
得票数 3
回答已采纳
1
回答
如何
将
Avro
文件
从云存储加载到Google Cloud Datalab的
BigQuery
表中?
、
将
BigQuery
表导出至云存储
Avro
文件
成功job_id = table.extract(destination=gs_object,format='
avro
')table = bq.Table(bq_table_ref) job_id = table.load(source=gs_object, source_fo
浏览 9
提问于2018-02-07
得票数 0
2
回答
通过
BigQuery
访问
、
、
看起来与
BigQuery
是可能的,它的url类似于: PROJECT_ID是否可以通过
BigQuery
连接到数据存储?(即不只是通过数据存储-备份)
浏览 3
提问于2017-10-19
得票数 0
回答已采纳
1
回答
BigQuery
:加载日期列数据类型为长时间转换为时间戳的
avro
文件
、
、
我很难让
BigQuery
正确地从
avro
文件
中加载时间戳。{"name":"created","type":"long","logicalType":&
浏览 2
提问于2020-08-10
得票数 1
回答已采纳
2
回答
如何
将DeltaLake
文件
从GCS包含到
BigQuery
、
、
、
、
是否有库/连接器可直接将存储在Google (GCS)中的
文件
导入
到
BigQuery
?我已经成功地使用Spark作为中介编写了
BigQuery
表,但是我找不到--任何直接连接器或
BigQuery
库--如果不通过spark 进行转换就可以做到这一点。Update 1:我尝试使用正式的连接器,但是缺少关于
如何
指向
BigQuery
中的特定项目的文档,所以我只能将DeltaLake
文件
从GCS加载到Dataframe中。Update 3和临时解决方案
浏览 3
提问于2021-10-27
得票数 2
回答已采纳
1
回答
Beam.BigQueryIO: numFileShards是干什么用的?
、
当我想将我的未绑定输入从Kafka加载到
BigQuery
时,我遇到了.withMethod()选项。通过使用Method.FILE_LOAD,我还必须指定触发频率以及非零numFileShards。我的问题是
文件
碎片的数量控制多少?它是用来做什么的?在我的观察中,它绝对不是在我的GCS临时位置生成的临时
文件
,对我来说是可见的。但是我想知道我应该在这里选择几个数字?/**Control使用
BigQuery
加载作业时编写了多少个
文件
碎片。只适用于同时设置{@link/#link Tr
浏览 1
提问于2018-09-10
得票数 2
回答已采纳
4
回答
Avro
日期和时间与
BigQuery
的兼容性?
、
BigQuery
通常在加载
Avro
数据方面做得很好,但是"bq“在时间戳和其他使用
Avro
logicalType属性的日期/时间字段方面遇到了很多问题。当
BigQuery
时间戳将其解释为微秒时间戳时,我使用
Avro
类型的时间戳-millis的数据就会出现故障。 可以加载到时间戳中的时间戳-micros整数在
BigQuery
日期时间中无效。
Avro
" DATE“类型无法加载到日期(也是不兼容的类型)。使用定义良好的模式在
Avr
浏览 3
提问于2016-11-17
得票数 5
回答已采纳
1
回答
创建外部表的
BigQuery
Node.js接口
、
、
、
、
我正在尝试使用node.js应用程序接口从
谷歌
云函数创建一个外部表。该函数将从GCS存储桶的变化中触发。我可以创建本机表,但不能创建外部表。在用于
导入
的node.js
api
中,configuration.load元数据没有将其指定为外部表的设置。到目前为止,这是我创建本机表的代码。我的问题是“
如何
使用GCS为Node.js存储桶创建外部表” const
bigquery
=
BigQuery
({
浏览 1
提问于2017-03-21
得票数 1
1
回答
如何
将xml
文件
加载到大查询中
、
、
我正在尝试加载xml
文件
到
谷歌
的
bigquery
,谁能帮我解决这个问题。我知道我们可以将JSON、CSV和
AVRO
文件
加载到大型查询中。我需要建议/帮助,是不是可以将xml
文件
加载到
bigquery
中
浏览 0
提问于2017-06-16
得票数 0
1
回答
谷歌
云数据流
如何
使用apache从
BigQuery
读取?
、
、
结果在工人之间是
如何
区分的?是一个带有查询结果的表创建,工作人员从其中读取页面,或者每个工作人员运行该查询并读取不同的页面或.多么?
浏览 0
提问于2018-11-06
得票数 0
回答已采纳
4
回答
从teradata到
bigquery
的数据迁移
、
、
、
我的需求是将数据从teradata数据库迁移到Google
bigquery
数据库,其中表结构和模式保持不变。稍后,使用
bigquery
数据库,我想生成报告。 有没有人能建议我
如何
做到这一点?
浏览 0
提问于2017-07-19
得票数 0
1
回答
谷歌
BigQuery
对
Avro
logicalTypes的支持
、
、
、
正如
谷歌
所宣称的,不支持从
Avro
logicalType转换到
BigQuery
特定类型(如描述的)。但是,我能够用以下模式加载
Avro
文件
: 'name': 'test', 'type': 'record',[ {'name': 'test_tim
浏览 1
提问于2018-05-09
得票数 2
回答已采纳
2
回答
通过CLI将
AVRO
从桶加载到具有日期分区的
BigQuery
中
、
我试图通过带有日期分区的
AVRO
将数据
导入
BigQuery
。通过cli
导入
时,与分区日期相关的错误必须是日期或时间戳,但它正在获取Integer。给出一个类似于以下
文件
的
AVRO
文件
: "namespace": "test_namespace", "type": "record", &quo
浏览 3
提问于2020-04-21
得票数 0
回答已采纳
1
回答
从
BigQuery
获取数据需要很长时间
、
、
、
、
我正在尝试从
BigQuery
中获取数据。当我获取小数据时,一切都很好,但是当我尝试获取大数据时,它将永远持续。有有效的方法吗?os.environ['GOOGLE_APPLICATION_CREDENTIALS'] = 'cred.json'from google.cloud import
bigquery
%load_ext google.cloud.
bigquery
浏览 3
提问于2020-01-15
得票数 2
回答已采纳
2
回答
在Java光束管道中的日期/时间戳上使用LogicalType 'timestamp-millis‘编写
avro
文件
、
、
、
我有几个管道从流JSON记录中写入
avro
文件
,但我在将它们
导入
BigQuery
时遇到了问题,因为日期字段的logicalType没有在
avro
模式中定义。private Date updateTime; } } 使用此方法,字段将正确地保存到
avro
但是,未在架构中设置LogicalType,这会导致在
导入
到
BigQuer
浏览 45
提问于2020-07-02
得票数 0
回答已采纳
1
回答
如何
将记录插入
BigQuery
链接服务器
、
、
我在中使用Simba驱动程序将server连接到
Bigquery
作为链接服务器。无法插入
BigQuery
,只能从
BigQuery
中选择数据。想知道是否有人尝试过使用链接服务器插入
BigQuery
中的数据集。
浏览 3
提问于2019-10-04
得票数 4
5
回答
谷歌
BigQuery
支持Parquet
文件
格式吗?
、
我想知道Google
BigQuery
目前是否支持,还是计划支持它? 我知道它目前支持CSV和JSON格式。
浏览 9
提问于2015-10-27
得票数 9
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
云直播
腾讯会议
实时音视频
活动推荐
运营活动
广告
关闭
领券