腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
BigQuery
使用
Parquet
文件
创建
具有
自动检测
方案
的
外部
表
python
、
google-bigquery
、
parquet
我找不到任何示例来从带有
自动检测
模式
的
Paquet
文件
创建
外部
表
。下面是我当前
的
代码: bq_client =
bigquery
.Client.from_service_account_json(key_path) so
浏览 30
提问于2021-06-24
得票数 0
1
回答
如何在
BigQuery
强制字符串类型中加载拼图
文件
?
string
、
google-bigquery
、
parquet
我想只
使用
所有属性
的
字符串类型将数据从拼图
文件
加载到
BigQuery
中。我想强制所有数据保持字符串类型,以避免将来由于类型与其他
文件
不兼容而导致
的
加载失败。我有不同类型
的
拼图
文件
:STRING, FLOAT... 并且我已经
创建
了一个仅
具有
字符串类型
的
bigquery
表
。我运行以下命令,将数据从我
的
拼图
文件
加载到
BigQ
浏览 19
提问于2021-11-03
得票数 1
1
回答
在
Bigquery
中查询
外部
表
和新数据到达时没有模式
自动检测
。
google-bigquery
、
google-cloud-platform
、
google-cloud-storage
这就是目前
的
情况:我正在测试它是如何与模式
自动检测
相关
的
。当我
创建
表
时,有2个
具有
不同模式
的
json
文件
,
Bigquery
做得很好。 当我用新模式加载一个新
文件
(向记录字段添加一个新属性)时,
Bigquery
会识别新记录,但是这个新字段不会出现。
浏览 1
提问于2018-01-25
得票数 1
回答已采纳
2
回答
具有
少量字段
的
记录
的
最高性能
文件
格式(Avro/
Parquet
/ORC)
google-bigquery
、
avro
、
parquet
、
orc
我正在向
BigQuery
上传大量数据(约160 Im未压缩)。 GZIP对我来说不是一个选项,这里需要压缩,所以我
使用
Avro/
Parquet
/ORC在块级别上进行压缩。我试着在网上查找,但发现这三种格式之间
的
性能比较很少,我确实找到了来自看起来不可靠
的
网站。 我
的
记录包含大约20个字段,其中一个字段是包含2个字段
的
记录(可以展平,不必是记录)。我对读取速度不太感兴趣,因为
BigQuery
将会这样做,在写入方面性能最好
的</
浏览 26
提问于2019-12-31
得票数 1
1
回答
以
Parquet
格式将GCS导出到GCS
google-cloud-platform
、
google-cloud-storage
、
google-cloud-sql
、
parquet
我有GCP中
的
数据,我想以
Parquet
格式将这些数据导出到GCS中,我发现这是不可能
的
,只有我可以用SQL和CSV格式来导出数据。
浏览 2
提问于2021-03-04
得票数 1
回答已采纳
3
回答
从大熊猫中加载
BigQuery
表
DataFrames
python
、
pandas
、
google-cloud-platform
、
google-bigquery
、
parquet
我正在尝试
使用
官方
的
python客户机库将一个相对较大
的
pandas dataframe df加载到Google
BigQuery
表
table_ref中。到目前为止,我已经尝试了两种不同
的
方法:client =
bigquery
.Client()2)将数据存储保存到位于uri
parquet</em
浏览 12
提问于2020-03-29
得票数 5
回答已采纳
2
回答
Bigquery
创建
表
(本机或
外部
)与Google云存储
的
链接
google-bigquery
、
google-cloud-storage
我有一些
文件
上传到(csv和json)。在
创建
bigquery
表
的
过程中,我可以检查"Schema
自动检测
“。"Schema
自动检测
“与json新行分隔格式
文件
工作得很好。但是对于csv
文件
,第一行是“列名”,
bigq
浏览 3
提问于2017-03-22
得票数 1
回答已采纳
1
回答
应为类型“str”,而应为“_SpecialForm[str]”
python-3.x
、
google-cloud-platform
、
google-bigquery
、
bq
我正在尝试
创建
一个BQ
表
模式,如下面的page所示 但是我得到了所有mode="REQUIRED"
的
编译错误 除了bq模块之外,我没有看到任何需要导入
的
特殊内容。ADS_TO_REMOVE_TABLE_NAME,
bigquery
.SchemaField("add_id", "STRING", mod
浏览 80
提问于2021-09-12
得票数 0
回答已采纳
1
回答
BigQuery
:从类查询作为
外部
数据源
的
拼花
文件
的
价格
google-bigquery
、
google-cloud-storage
、
parquet
BigQuery
允许在各种存储类中查询
外部
表
。从Coldline访问数据有一个数据。 拼花格式
文件
提供柱状存储。当通过
BigQuery
从Coldline访问
Parquet
格式
文件
时,数据检索成本是基于查询
的
数据列还是基于整个
Parquet
文件
?
浏览 7
提问于2020-05-13
得票数 2
回答已采纳
1
回答
如何在指定数据类型
的
同时将数据从S3加载到雪花中
amazon-s3
、
snowflake-cloud-data-platform
、
data-warehouse
我知道,可以将S3中
的
文件
(例如csv、
parquet
或json)中
的
数据加载到雪花中,方法是
创建
一个
具有
文件
格式
的
csv类型
的
外部
阶段,然后将其加载到
具有
1列VARIANT类型
的
表
中。但是,这需要一些手动步骤才能将数据转换为正确
的
类型来
创建
一个可用于分析
的
视图。 是否有一种方法可以从S3自动执行此加载过程,以
浏览 2
提问于2021-03-01
得票数 1
回答已采纳
1
回答
BigQuery
-在Python语言中
创建
外部
表
python-2.7
、
google-bigquery
我找不到任何关于如何
使用
Python在
BigQuery
中
创建
外部
表
的
文档。我希望在不
使用
自动检测
但传递模式
的
情况下
创建
表
。有人知道怎么做吗?谢谢!
浏览 0
提问于2018-07-31
得票数 3
1
回答
谷歌云
BigQuery
load_table_from_dataframe()
Parquet
AttributeError
python
、
pandas
、
google-bigquery
我正在尝试
使用
BigQuery
包与Pandas DataFrames进行交互。在我
的
场景中,我在
BigQuery
中查询一个基
表
,
使用
.to_dataframe(),然后将它传递给load_table_from_dataframe(),将其加载到
BigQuery
中
的
一个新
表
中。我最初
的
问题是str(uuid.uuid4()) (对于随机ID)被自动转换为字节而不是字符串,所以我强制
使用
一个模式,而不是
浏览 0
提问于2018-06-24
得票数 1
1
回答
是否有
BigQuery
LoadJob配置来
使用
模式
自动检测
过滤掉不需要
的
列?
python
、
google-cloud-platform
、
google-bigquery
、
google-cloud-python
我理解这可能是相当微不足道
的
,但我正在努力寻找一个优雅
的
解决
方案
。是否可以忽略某些列作为加载作业
的
一部分?,例如 我正在
创建
一个来自以下CSV
文件
的
LoadJob (我已经格式化了该
文件<
浏览 7
提问于2021-10-29
得票数 0
回答已采纳
1
回答
扫描拼花联合
表
时出现INT32类型错误。窃听器还是预期
的
行为?
google-bigquery
、
parquet
、
parquet-mr
我
使用
BigQuery
查询
外部
数据源(也称为联邦
表
),其中源数据是存储在google云存储中
的
一个分区块
表
。我
使用
来定义
表
。我第一个测试此
表
的
查询如下所示此查询失败我
使用
parquet
-tools库
浏览 1
提问于2020-04-09
得票数 1
回答已采纳
1
回答
如何从拼花
文件
中训练AutoML模型?
google-cloud-vertex-ai
目前AutoML只支持
BigQuery
和CSV: 是否有任何方法从
文件
(例如存储在GCS上)进行培训?
浏览 3
提问于2022-10-05
得票数 0
1
回答
列为零值
的
拼花被转换为整数
google-bigquery
、
parquet
、
google-cloud-data-transfer
我在GCS中
使用
python大熊猫来编写一个DataFrame到
parquet
,然后
使用
将GCS
文件
传输到
Bigquery
表
中。有时,当DataFrame很小时,整个列可能
具有
空值。当发生这种情况时,
Bigquery
将空值列视为INTEGER类型,而不是
parquet
声明
的
类型。当试图将其附加到期望该列为NULLABLE STRING
的
现有
表
时,大查询传输服务将在INVALID_A
浏览 25
提问于2022-08-18
得票数 0
1
回答
利用Avro/
Parquet
将地理数据导入
BigQuery
google-cloud-platform
、
google-bigquery
、
gis
、
avro
、
parquet
目前,我
使用
拼图
文件
将数据导入
BigQuery
(地理信息系统)。其中一个拼图
文件
包含几何列,将几何数据表示为WKT字符串(MultiPolygon),我想将该列作为GEOGRAPHY类型导入。文档提到不支持从WKT (string)到GEOGRAPHY
的
自动转换,那么我如何克服这个问题?我希望避免
使用
CSV
文件
,并手动提供模式定义。然而,即使我首先
创建
了空
表
,并且只想添加新
的
拼图
文件
,它也不起作用
浏览 29
提问于2018-09-18
得票数 3
回答已采纳
1
回答
如何在
文件
中
创建
外部
表
以便在气流Dag中运行
python
、
google-cloud-platform
、
google-bigquery
、
airflow
、
directed-acyclic-graphs
我正在尝试为GCS桶上存在
的
Parquet
文件
在Big Query中
创建
一个
外部
表
。但是,我在气流中运行下面的代码时出错了:ERROR - 400 POST https://
bigquery
.googleapis.com/
bigquery
/v2/projects/project_dev', destination_project_dataset_table=
浏览 2
提问于2021-10-20
得票数 0
回答已采纳
2
回答
BigQuery
-从驱动器
创建
表格时,谷歌工作
表
文件
格式不再可用
google-bigquery
、
google-drive-api
自9月15日以来,当从驱动器
创建
数据库
表
时,
BigQuery
不再建议
使用
GOOGLE_SHEET
文件
格式。取而代之
的
是新
的
格式类型: Avro、JSONL、CSV、
Parquet
、ORC和云数据存储备份。通过粘贴CSV或Avro格式
的
电子表格
的
URL来
创建
表
时,
BigQuery
会发送错误消息:Failed to create table: Undefined pa
浏览 40
提问于2021-09-16
得票数 0
2
回答
BigQuery
表
加载
的
avro模式推断
google-bigquery
、
google-cloud-storage
我正在
使用
java,试图将avro
文件
中
的
数据加载到
BigQuery
中。
创建
外部
表
时,
BigQuery
会自动从.avro
文件
中检测架构。在为要加载
的
数据
创建
常规
BigQuery
表
时,是否有一种方法在GCS中指定模式/数据
文件
? 先谢谢你
浏览 1
提问于2018-08-23
得票数 0
回答已采纳
点击加载更多
相关
资讯
Spark之SparkSQL
谷歌推出Bigtable联邦查询,实现零ETL数据分析
Spark SQL,DataFrames 以及 Datasets 编程指南
ByConity 技术详解:Hive 外表和数据湖接入实践
Impala Schema 设计原则
热门
标签
更多标签
云服务器
对象存储
ICP备案
云点播
实时音视频
活动推荐
运营活动
广告
关闭
领券