腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
数据
流管
道上
的
BigQuery
作业
依赖
项
、
、
我有一个用python编写
的
apache光束管道,不管出于什么原因,它都有一个如下所示
的
流程。client =
bigquery
.Client()result2 = query_job2.result() SQL<em
浏览 9
提问于2020-10-31
得票数 2
2
回答
java.lang.NoSuchMethodError:找不到
BigQuery
Java API引发
的
com.google.api.services.
bigquery
.model.JobStatistics2
、
、
、
我正在尝试在
数据
流
作业
中运行
BigQuery
API,以针对
BigQuery
执行自定义查询。我试着按照
的
指示去做。但每次运行
作业
时,我都会收到以下错误: "@timestamp":"2019-11-20T16:12:51.008Z", "pid":"40364"下面是添加
的
依
浏览 3
提问于2019-11-21
得票数 1
1
回答
Google Cloud
数据
流+批处理
、
、
我正在构建一个基础架构,在这个基础架构中,我希望分别接收热
数据
和冷
数据
。对于热
数据
,我将我
的
数据
写入Cloud Spanner,而对于冷
数据
,我希望将我
的
数据
写入更持久
的
东西,如
BigQuery
。我正在使用来自流媒体服务
的
数据
,但我想利用
BigQuery
的
缓存机制-如果我经常将冷
数据
流式传输到
BigQuery
中
浏览 0
提问于2020-08-07
得票数 0
2
回答
是否有可能在不丢失当前
数据
的
情况下停止流式
作业
?
我有一个从PubSub订阅中读取
的
流管
道。管道应用1小时
的
固定窗口,并在执行一些转换之后,例如GroupByKey,将
数据
写入
BigQuery
。我
的
问题是,如果我停止
作业
执行,当前窗口
的
数据
不会写入
BigQuery
,这些
数据
会丢失,因为这些
数据
既不在订阅中也不在
BigQuery
中。
浏览 0
提问于2015-07-30
得票数 1
1
回答
监控WriteToBigQuery
、
、
、
在我
的
管道中,我使用WriteToBigQuery,如下所示: 'thijs:thijsset.thijstable', beam.io.WriteToBigQuery PTransform返回一个字典,其BigQueryWriteFn.FAILED_ROWS条目包含所有未写入
的
行
的
如何打印这个
数据
集并将其转换为pcollection,或者如何打印FAILED_ROW
浏览 0
提问于2019-11-29
得票数 4
回答已采纳
2
回答
如何将
数据
添加到
BigQuery
中,而不存在速率限制问题?
、
、
、
、
目前,我有一个系统,希望通过Google函数将该系统中
的
数据
发送到
BigQuery
(使用Python)。我
的
想法是分两个简单
的
步骤: 因为我想使用这个系统
浏览 5
提问于2022-06-28
得票数 0
回答已采纳
1
回答
让一个Flink阶段等待到它
的
前一个阶段完成
、
我有一个用例,在这个用例中,在我
的
流管
道上
,需要在下游阶段使用前一阶段
的
状态。我想在下游阶段添加一个
依赖
项
,以便在开始处理之前完成上游/
依赖
阶段。 在弗林克有可能吗?
浏览 3
提问于2022-07-08
得票数 0
1
回答
谷歌云
数据
流服务帐户没有传播给工人?
、
、
我们有多个
作业
(用Java /Kotlin编写),它们可以以两种不同
的
方式运行: 当从用户帐户运行
数据
流
作业
时,Dataflow在我们
的
大多数Dataflow用例中,我们在项目A中运行Dataflow
作业
,而在项目B中从
BigQuery
中读取
数据
流
作业
。现在,问题是,在这两种情况下,我们似乎都需要为默认<
浏览 0
提问于2018-12-05
得票数 3
1
回答
如何使用gcloud上传到
bigquery
中
的
几个表
、
、
有没有办法使用nodejs gcloud库或使用bq命令行在一个加载
作业
中将不同
的
数据
上传到几个表中到
bigquery
?
浏览 14
提问于2016-07-17
得票数 1
回答已采纳
1
回答
使用Python将twitter
数据
直接发送到Google Cloud
数据
存储
、
、
、
如何将
数据
从Twitter直接发送到Google Cloud
数据
存储。我想跳过首先下载到我
的
本地机器,然后上传到云上
的
步骤。它只运行一次。不是寻找完整
的
代码,而是任何有人可能从中学到
的
指针或教程。
浏览 0
提问于2018-11-08
得票数 1
2
回答
只在大查询
作业
完成后触发
数据
流
的
方法
、
、
、
实际上,对我
的
数据
执行以下步骤:我知道Google函数
的
BigQuery
α触发器,但我 不知道是不是一个好主意,从我看到
的
浏览 0
提问于2019-11-21
得票数 2
回答已采纳
1
回答
如何在
数据
流管
道中实现PubSubIO中
的
流量控制设置
、
、
、
、
在我们
的
应用程序中,我们在
数据
流管
道中使用PubsubIO从PubSub读取
数据
。下面是代码。table", ParDo.of(new ReadRawdataFromBiqueryTable())); 但是,当我们在此管道中附加
BigQuery
读取时,由于
BigQuery
读取速度较慢,因为我们在ParDo中执行此操作,似乎在PubSub订阅服务器中实现了一些默认
的
流控制设置,因此我可以看到PubSub消息流速率非常
浏览 12
提问于2020-03-25
得票数 1
1
回答
堆栈驱动程序
作业
监控-Big查询或
数据
流
、
我们如何通过Stackdriver检查缓慢
的
作业
性能和
作业
恢复,我正在寻找
数据
流或大查询
作业
。
浏览 0
提问于2018-11-20
得票数 0
1
回答
在
BigQuery
中更新购物客户级
数据
的
最佳方法
、
出于报告
的
目的,我正在考虑将我们
的
购物
数据
移动到
BigQuery
。我通过shopify API对customers端点进行分页,并获得所有客户级
数据
。然后我将其导出为csv,然后将其存储在google云存储上,然后导入到
BigQuery
。我
的
问题是,考虑到当前customer datamart上
的
一些条目(例如,总订单数)可能已经更改,并且自上次表更新以来可能已经创建了一些新客户,那么处理增量
数据
加载
的
最佳方法是什么
浏览 0
提问于2021-03-06
得票数 1
1
回答
oozie是否提供任何I/O方面的性能优化?
、
、
、
、
由于oozie是Hadoop平台
的
工作流引擎,它是否提高了MapReduce
作业
的
DAG
依赖
项
的
执行性能?我
的
意思是,由于一个MapReduce
作业
的
输出作为DAG中下一个MapReduce
作业
的
输入,oozie是否提供了将中间结果存储在内存中从而节省I/O
的
机制?或者仅仅是一个工作
流管
理器,协调一系列
依赖
的
MapRe
浏览 3
提问于2013-11-01
得票数 1
回答已采纳
1
回答
Google
BigQuery
:行
的
最后修改日期时间
、
我正在尝试测量
数据
流管
道
的
持续时间,
数据
流管
道从发布/订阅中提取消息并将其加载到
BigQuery
表中。我找不到如何在
BigQuery
表中获取行
的
最后修改时间,尽管有表
的
最后修改日期时间。谁知道如何将上次修改
的
日期时间设置为
BigQuery
表
的
行?
浏览 2
提问于2018-11-07
得票数 0
1
回答
数据
流
作业
挂起-没有发出警告或错误
我们有一个从
BigQuery
读取
的
数据
流管
道。它正在试着读取10米
的
记录。一切看起来都很健康--没有错误,也没有警告。但是,当尝试从
BigQuery
中读取
数据
时,任务就会挂起。一些示例
的
作业
ID 2015年-06-24_18_11_43-5648996119225591199目前
的
服务有什么问题吗?
浏览 5
提问于2015-06-25
得票数 1
回答已采纳
1
回答
BigQueryIO.writeTableRows()中
的
GroupByKey节点不发出元素
、
、
、
、
我
的
流式
数据
流管
道从PubSub中提取
数据
,不会写出
BigQuery
,也不会记录任何错误。元素进入节点"Write to
BigQuery
/StreamingInserts/StreamingWriteTables/Reshuffle/GroupByKey":“它是这样隐式创建
的
这应该是一个流
作业
--我如何让它刷新并写入
数据
?这是beam版本2.13.0。谢谢。更
浏览 3
提问于2019-07-31
得票数 1
2
回答
使用google云库执行
BigQuery
查询时出现异常。
、
、
、
BigQueryException =>println("Table truncation failed \n" + e.toString) } 2)在build.gradle中,我添加了
依赖
项
implementation group: 'com.google.cloud', name: 'google-cloud-
bigquery
', version: '1.133.0' 3)在“星火
作业
”中,我还添加了作为<em
浏览 4
提问于2021-06-24
得票数 2
1
回答
如果在
作业
运行期间删除了GCloud
数据
流,则重新创建
BigQuery
表。
、
、
、
我已经设置了一个GCloud
数据
流管
道,它使用来自Pub/Sub订阅
的
消息,将它们转换为表行,并将这些行写入相应
的
BigQuery
表。表目的地是根据Pub/Sub消息
的
内容确定
的
,偶尔会导致表还不存在,必须先创建表
的
情况。为此,我使用create CREATE_IF_NEEDED,它工作得很好。但是,我注意到,如果在
数据
流
作业
仍在运行时手动删除
BigQuery
中新创建
的<
浏览 1
提问于2020-03-21
得票数 0
回答已采纳
点击加载更多
相关
资讯
弃用 Lambda,Twitter 启用 Kafka 和数据流新架构
BigQuery如何结合数据与AI实现企业转型
什么是场内物流管理系统?有哪些功能?
谷歌将以太坊区块链数据集添加到其大数据分析平台
装饰材料公司引入WMS 打造行业仓储标杆
热门
标签
更多标签
云服务器
ICP备案
对象存储
云点播
云直播
活动推荐
运营活动
广告
关闭
领券