腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(5748)
视频
沙龙
1
回答
从
云
数据流
写入
BigQuery
:
无法
从
输入
创建
侧
输入
视图
、
、
我正在尝试编写一个数据存储流,用于读取pub sub的流,并
写入
大型查询。FormatAsTableRowFn())); // Make
浏览 1
提问于2016-08-03
得票数 1
回答已采纳
1
回答
云
数据流
、PubSub和
Bigquery
问题
、
、
、
、
我想使用Cloud Dataflow、PubSub和
Bigquery
将tableRow
写入
发布订阅消息,然后将它们
写入
Bigquery
。我希望表名、项目id和数据集id是动态的。
浏览 0
提问于2018-07-15
得票数 0
1
回答
使用google
数据流
读取保存在google存储中的vis普通文本文件的压缩文件时,性能相对较差。
、
我使用
从
云
存储中读取一个11.57GB的文件,并将它们
写入
谷歌
BigQuery
。花费了大约12分钟和30名工人。然后,我压缩了相同的文件(大小现在变为1.06GB),然后再使用google
从
谷歌存储中读取它们,并将它们
写入
BigQuery
。现在用了大约31分钟和同样的30名工人。除了第一个
数据流
作业中的
输入
文件被解压缩外,两个
数据流
作业都有相同的管道选项,但是
输入
文件在第二个
数据流
浏览 3
提问于2016-08-06
得票数 0
回答已采纳
2
回答
对于
数据流
,BigqueryIO.write()和
bigquery
.insertAll()方法哪个更好
、
、
、
我正在开发java代码,以便
从
GCS读取记录并插入到BQ表中,
从
成本和性能的角度来看,哪个BigqueryIO.write()或
bigquery
.insertAll()方法更好。
浏览 0
提问于2019-03-05
得票数 1
1
回答
设计
、
我们需要您对以下场景的
数据流
设计提供指导。 需求:我们需要构建一个
数据流
作业来读取
数据流
MS数据库并
写入
Bigquery
。我们需要
数据流
作业作为
输入
“表名列表”(源表和目标表名称)来读取和
写入
数据。问题:在每天的日程安排中,
数据流
是否可以将表列表(即50个表名)作为
输入
,并将数据
从
源复制到目标,还是将其设计为50个独立的
数据流
作业。
数据流
是否会自动调整员工数量-而
浏览 4
提问于2021-12-13
得票数 -1
1
回答
在Java中,数据不处于PcollectionView阶段。
、
、
从
Bigquery
读取数据后,我必须将数据作为
侧
输入
发送到下面的下一个level.So,这是我正在执行的步骤- 但是数据并没有流到第3步。为此,我
无法
将数据发送到下一个级别,我们的
输入
将进入下一个级别。下面是<em
浏览 5
提问于2022-03-24
得票数 1
2
回答
数据流
性能问题
例如,对于我们的一个作业:它从
BigQuery
中的表中读取270万行,有6个
侧
输入
(BQ表),执行一些简单的字符串转换,最后将多个输出(3)
写入
BigQuery
。以下是一些统计数据: 亚洲地区-
浏览 3
提问于2015-04-23
得票数 4
回答已采纳
2
回答
云
数据流
作业从一个
Bigquery
项目读取并
写入
另一个
BigQuery
项目
、
、
、
、
我正在GCP上实现一个
云
数据流
作业,需要处理2个GCP项目。
输入
和输出都是
Bigquery
分区表。我现在遇到的问题是,我必须
从
项目A中读取数据并将其
写入
项目B。
浏览 6
提问于2020-05-08
得票数 0
回答已采纳
1
回答
云
数据流
中的“
侧
输入
”是否支持
从
BigQuery
视图
中读取?
、
尝试将
侧
输入
指向
BigQuery
视图
,而不是直接指向
BigQuery
表。它不会产生错误,而只是返回0行。
视图
在
BigQuery
内部运行良好。例如,给定引用只有1行的表“types_test”的
视图
:在
BigQuery
中,它工作得很好:但是,在Dataflow中使用
视图
作为
侧
输入
返回0行: INFO: Readingfrom
BigQuery
浏览 3
提问于2015-03-20
得票数 3
回答已采纳
1
回答
Dataflow sql、Beam SQL (Zeta sql或方解石SQL)之间有什么区别?
、
、
、
在浏览时,我看到了Dataflow SQL。它和beamSQL有什么不同吗?
浏览 12
提问于2020-02-17
得票数 1
回答已采纳
1
回答
如何在第三方
BigQuery
中进行请求,并定期在谷歌API上加载结果?我应该使用哪些google服务?
、
、
我需要从第三方应用程序接口获取数据,并在谷歌
BigQuery
中摄取它。也许,我需要通过google服务实现这个过程的自动化,以便定期完成这个过程。另一个疑问是:我是否需要将数据加载到
云
存储中,或者是否可以直接将其加载到
BigQuery
?我应该使用
数据流
并进行任何配置吗?<code>A0</code> 我希望得到关于架构(google服务)的建议,我应该使用它来
创建
这个管道。例如,使用
云
函数(
从
API获取数据),然后使用服务'X
浏览 17
提问于2019-08-24
得票数 1
回答已采纳
1
回答
从
数据流
管道
写入
BQ时的动态表名
作为以下问题和答案的后续问题: “有一个ParDo,它接受这些键并
创建
BigQuery
表,另一个ParDo将数据和流写到表中” 我的理解是,ParDo/DoFn将处理每个元素,在从ParDo/DoFn的processElement中
写入
时,我们如何指定表名(
从
侧
输入
传入的键的函数)?用DoFn更新了,由于c.element().value不是pcollection,所
浏览 0
提问于2016-03-14
得票数 1
回答已采纳
1
回答
我可以
从
本地服务器(文件或dbs..)
创建
自定义源&接收器吗?直接去
数据流
?
我想使自定义源&接收器
从
本地服务器(文件或dbs)直接
数据流
。所以我想知道这是否可能。 如果可能的话,我应该小心做些什么呢?我从来没有做过定制的源和水槽。但我用过一次GCS
数据流
。
浏览 3
提问于2016-03-16
得票数 0
回答已采纳
1
回答
由于光束块引用到sqlalchemy,
数据流
作业失败
、
、
、
、
我们在GCP中
创建
了一个ETL,它从MySQL读取数据并将其迁移到
BigQuery
。为了
从
MySQL中读取数据,我们使用了beam-nuggets库。这个库作为额外的包('--extra_package=beam-nuggets-0.17.1.tar.gz')传递给
数据流
作业。
云
函数用于
创建
数据流
作业。代码工作正常,
创建
了Dataflow作业,数据迁移成功。 在sqlalchemy - 1.4的最新版本发布后,我们
无法</e
浏览 27
提问于2021-03-19
得票数 0
回答已采纳
2
回答
GCP DataFlow对CloudFunctions的小规模和更少的更新频率
、
、
另外,如果我需要做一些自动化的理智测试 我应该使用什么
数据流
或
云
功能。
浏览 11
提问于2022-05-10
得票数 2
1
回答
连接两个大型数据集的最佳策略
、
我有两个
BigQuery
表: 我希望根据事件属性使用适当的标记标记每个事件(一个事件可以有多个标记)。
浏览 1
提问于2015-10-21
得票数 2
回答已采纳
2
回答
仅从消防局导出原始数据
、
、
示例:如果我在消防局中有一个User集合,如: "name": "Jon",} -----------------在dataset中手动
创建
一个表并从消防局导入备份。这确实使我获得了我想要的
BigQuery
表
视图
,但它不会自动更新(就像扩展一样)。我是否必须编写自己的
云
函数才能将所有数据更新到
BigQuery
?
浏览 5
提问于2021-10-12
得票数 1
回答已采纳
1
回答
大numpy矩阵作为
数据流
侧
输入
、
我试图用Python编写一个Dataflow管道,它需要一个大的numpy矩阵作为
侧
输入
。矩阵保存在
云
存储中。理想情况下,每个Dataflow工作人员将直接
从
云
存储加载矩阵。我的理解是如果我说matrix = np.load(LOCAL_PATH_TO_MATRIX),然后矩阵
从
我的笔记本电脑发送给每个
数据流
工作者我如何才能指示每个工作
浏览 3
提问于2017-05-13
得票数 1
回答已采纳
1
回答
在Apache Beam中维护全局状态
、
、
、
、
我们有一个PubSub主题,将事件转移到
BigQuery
中(尽管特定DB在这里几乎不相关)。事件可能带有新的未知属性,最终应该作为单独的
BigQuery
列结束。
浏览 0
提问于2018-05-31
得票数 3
回答已采纳
1
回答
数据流
作业
无法
写入
不同区域中的
BigQuery
数据集,即使区域设置为
bigquery
区域
、
、
我们正在编写一个
数据流
作业,将数据
从
存储桶中的JSON
写入
到
BigQuery
数据集。存储桶和
BigQuery
数据集都位于区域X中。但是,在区域X中
无法
使用
数据流
端点。最近的区域是Y。但是,
数据流
作业仍然失败,错误如下: 所使用的光束版本是2.17,SDK是Python SDK。我们正在
创建
数据流
模板并运行它
浏览 4
提问于2020-03-05
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
使用Kafka,如何成功迁移SQL数据库中超过20亿条记录?
从Lambda到无Lambda,领英吸取到的教训
弃用 Lambda,Twitter 启用 Kafka 和数据流新架构
Java “流” 什么是输入/输出流?
Spark Streaming 2.2.0 Input DStreams和Receivers
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券