腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(838)
视频
沙龙
2
回答
使用
数据流
管道
(
python
)
将
多个
Json
zip
文件
从
GCS
加
载到
BigQuery
、
、
、
我正在寻找帮助设计一个用
python
编写的
数据流
管道
,以读取存储在
GCS
上的多部分压缩
Json
文件
,以加
载到
BigQuery
。源无法为我们提供
文件
/表的架构。因此,我正在寻找一个自动检测选项。如下所示: autodetect=True, source_format=
bigquery
.SourceFor
浏览 25
提问于2021-02-17
得票数 1
2
回答
波束
数据流
流水线表创建Sink作为来自
GCS
的
Bigquery
、
、
、
我想创建beam
数据流
作业来
从
GCS
加载数据到
Bigquery
,我将在
GCS
的不同
文件
夹中有100s的
文件
,可以在
GCS
的不同
文件
夹中加载
文件
,是否可以在beam代码中创建源数据集和表。我的最终目标是创建
管道
,
将
数据
从
GCS
加
载到
Bigquery
,谢谢。
浏览 10
提问于2021-02-23
得票数 0
回答已采纳
1
回答
DataFlow工作者
BigQuery
权限错误
、
我一直试图在我的项目中执行Dataflow
管道
(
Python
),其中我的GCP帐户分配了"Owner“角色。 最后,
将
结果数据加
载到
GCS
中。根据我的理解,Dataflow工作者
使用
默认的计算引擎服务account(-compute@developer.gserviceaccount.com
浏览 1
提问于2021-08-20
得票数 0
2
回答
如何
从
基于事件的云函数执行Google Data Fusion Pipeline
、
有没有办法
从
Cloud Function (最好是基于
python
)运行Google Data Fusion
管道
?gcloud函数部署hello_<
浏览 3
提问于2019-07-23
得票数 1
1
回答
加速PostgreSQL到
BigQuery
、
、
、
、
postGreSQL在AWS上,我从一个Amazon实例中调用
python
。两者都很大,而且速度很快。我目前没有
使用
多个
处理器,尽管有16个可用。
浏览 1
提问于2018-07-10
得票数 0
1
回答
如何
使用
Google工具和javascript存储和提供优惠券
、
、
需要存储在某个地方(
bigquery
?)在那里我可以请求并发送给用户。用户应该只能得到一个唯一的代码,这是事先没有
使用
的。 我需要获得一个代码并编写它的能力,所以下一个请求得到下一个代码.
浏览 4
提问于2021-04-13
得票数 0
回答已采纳
2
回答
如何在流模式下
将
数据
从
AWS加
载到
Google
BigQuery
?
、
、
如何在流模式下
将
数据
从
AWS加
载到
Google
BigQuery
?描述:我有RDS ( Server)中的数据,并希望
将
这些数据实时加
载到
Google
BigQuery
中。
浏览 9
提问于2020-02-18
得票数 1
回答已采纳
1
回答
Google函数:用非标准键
将
GCS
文件
加
载到
BigQuery
中
、
、
、
、
我有一个Google桶,一个遗留系统
将
需要加
载到
NEW_LINE_DELIMITED_
JSON
中的
BigQuery
文件
放在其中。我编写了Google函数,它接受
JSON
文件
并将其加
载到
BigQuery
。该函数可以很好地处理示例
JSON
文件
--问题是遗留系统正在生成一个带有非标准密钥的
JSON
: "id": 12345, "@address&
浏览 7
提问于2018-01-12
得票数 1
回答已采纳
1
回答
使用
BigQuery
将不同方案的
多个
文件
加
载到
DataFlow中
、
、
我有一组带有
JSON
格式数据的不同模式的.txt
文件
,所有这些数据都要加
载到
一个通用的
bigquery
表中。
文件
格式很简单,一组
文件
将有4列,有些列有5列,有些
文件
有相同的5列,但顺序不同。"}‘
文件
夹3 '{"name":"Janice","age":31,"
zip
":"12345","city&quo
浏览 2
提问于2020-10-01
得票数 0
回答已采纳
2
回答
在google云中操纵大量
文件
以重新格式化
、
、
、
、
我在Google云存储中有大量
json
文件
,我想将这些
文件
加
载到
Bigquery
中。平均
文件
大小为5MB,未压缩。问题是它们不是新分隔的行,所以我不能像
bigquery
那样加载它们。我是否应该
使用
Google函数或数据准备,或者只是旋转一个服务器,让它下载该
文件
,重新格式化它并将其上传回云存储,然后上传到
Bigquery
?
浏览 0
提问于2018-12-05
得票数 2
回答已采纳
1
回答
使用
数据流
避免
BigQuery
存储API的会话关闭
、
、
我正在实现一个ETL作业,它将非分区的
BigQuery
表迁移到分区的表。为此,我
使用
了来自
BigQuery
的Storage。这将创建许多要从其中提取数据的会话。为了
将
BigQuery
写入路由到正确的分区,我
使用
了File方法。由于30天的限制,流插入是不可行的。存储写API似乎是有限的,识别分区。 通过驻留到File方法,数据将被写入
GCS
。在幕后,
文件
加载方法是一个复杂的方法,有
多个
步骤。例如,写入
GCS
并将条目组
浏览 4
提问于2022-09-12
得票数 1
1
回答
BigQuery
手动加载,但不是通过Java加载。
、
、
我有一条
数据流
管道
,在本地运行。目的是
使用
TEXTIO读取
JSON
文件
,进行会话并将其加
载到
BigQuery
中。根据这种结构,我必须在
GCS
中创建一个临时目录,然后
使用
该目录将其加
载到
BigQuery
中。以前,我有一个数据模式错误,无法加载数据,请参阅。这个问题已经解决了。因此,现在当我在本地运行
管道
时,它会将一个临时的
JSON
换行符分隔
文件
转储
浏览 0
提问于2016-12-31
得票数 0
回答已采纳
1
回答
如何在数据融合中将模式
文件
作为宏传递给
BigQuery
接收器
、
我正在创建一个数据融合
管道
,以便
将
csv数据
从
GCS
加
载到
BigQuery
。对于我的用例,我需要创建一个属性宏,并在运行时提供值。需要了解如何
将
模式
文件
作为宏传递到
BigQuery
接收器。如果我只是简单地
将
json
模式
文件
路径传递给Macros值,我会得到以下错误。
JSON
:架构无效:
使用
JsonReader.setLenient(true)接
浏览 14
提问于2019-05-23
得票数 2
回答已采纳
1
回答
如何
将
Azure事件中心(kafka界面)的事件集成到google云发布/订阅
、
、
我有一个需求,我需要在Azure事件中心
使用
kafka主题。需要创建将
使用
作为参数提供的主题的POST端点。消息必须以kafka主题为属性,以消息内容为主体,在公共子主题上发送。 这是一个很高的要求。
浏览 1
提问于2021-06-03
得票数 1
回答已采纳
4
回答
用
Python
从
逐行读取巨大的
JSON
、
、
、
我的
GCS
上有~300
GCS
文件
,最终我试图将它导入
BigQuery
,但是它有一些错误的数据结构(我是mongoexport
从
MongoDB获得的) 字段名"$date“无效。因此,现在我的方法是
从
GCS
逐行读取源
文件
,并
使用
python
将
每一行处理后的代码上传到
BigQuery
。下面是简单的阅读器,我把它们放在一起用原始大
文件
中的100行示例进行
浏览 5
提问于2018-10-09
得票数 3
回答已采纳
1
回答
是否可以
使用
云数据融合FTP ->
GCS
GCS
-> BQ
、
我看到您可以
使用
此服务
将
跨数据源的数据集成到数据池中。最终,我希望这些数据可以在BQ中获得。在加
载到
BQ之前,我的第一站将是,这样我就有了一个数据的不变副本。/root/table_2我首先试图了解是否
使
浏览 1
提问于2020-10-28
得票数 0
回答已采纳
2
回答
在云功能中,
GCS
的
文件
大小可以处理多大?
、
、
、
我希望
使用
GCP中的云函数
将
GCS
中的>=4 GB数据传输到
BigQuery
。有可能这样做吗?我尝试
使用
mkfile命令创建一个临时的5 gb数据
文件
,并尝试上传到
GCS
。这是否意味着
GCS
不能处理超过特定
文件
大小的
文件
。 在我所引用的文档:中,我了解到
GCS
处理多达5 TiB的数据。那么为什么上传5GB的数据需要很长时间。是否可以通过云功能处理4GB以上的数据
从
GC
浏览 3
提问于2021-08-12
得票数 0
回答已采纳
1
回答
Apache梁/
数据流
-流水线中各步骤之间的延迟
、
、
我
使用
Aapche Beam (带有
数据流
运行程序)下载二进制
文件
(天气预报,大约300个
文件
),然后解码它们,然后
将
结果存储为CSV,然后
将
CSV加
载到
BigQuery
中。---------- -------------- ------------------- | Download | ---> | Decode | ---> | CSV in
GCS
| ---> | CSV to
B
浏览 0
提问于2018-02-13
得票数 2
回答已采纳
1
回答
BigQueryIO读fromQuery
、
、
比如说,在Dataflow/Apache程序中,我正在尝试读取数据呈指数增长的表。我想提高阅读的性能。或如果我只是在表中选择所需的列,而不是上面的整个表,那么我的读取性能会提高吗?
浏览 1
提问于2019-01-29
得票数 4
回答已采纳
1
回答
Apache写入
BigQuery
的
文件
结构
、
、
我
使用
DynamicDestinations (来自BigQueryIO)
将
数据从一个Cassandra表导出到
多个
Google表。这个过程包括几个步骤,包括
将
准备好的数据写入(作为
JSON
格式的
文件
),然后通过加载作业
将
文件
加
载到
BQ。 问题是,导出过程在最后一步(
从
加载
文件
到BQ)时出现内存不足错误。但是还有一些准备好的
文件
,
GCS
中的所有数据都还保留着。Bi
浏览 1
提问于2018-02-19
得票数 0
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
弃用 Lambda,Twitter 启用 Kafka 和数据流新架构
微软开源的 Python 工具,用于将各种文件和办公文档转换为 Markdown 格式,适用于索引、文本分析等场景。
几个提高Python效率的内置小工具,不用是不是太浪费了?
几个可以提高工作效率的Python内置小工具
谷歌推出Bigtable联邦查询,实现零ETL数据分析
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券