腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
数据流
工作
进程
启动
失败
、
我有一个
数据流
作业,它无法
启动
工作
进程
,错误如下:ImportError: No module named dependency 然而,我可以在另一台机器上用完全相同的代码(也是相同的setup.py文件)成功地运行相同的作业,我怀疑
数据流
浏览 8
提问于2018-08-08
得票数 0
1
回答
数据流
似乎被卡住了
收到以下消息:The Dataflow appears to be stuck. Please reach out to the Dataflow team at http://stackoverflow.com/questions/tagged/google-cloud-dataflow.作业ID: 2017-09-25_09_27_25-5047889078463721675编辑:在从2.0.0更新到用于Python 2.1.1的Apache光束SDK后,问题似乎
浏览 0
提问于2017-09-26
得票数 2
1
回答
如何在Rabbit.js中实现非阻塞推送消息?
、
、
我的应用程序当前使用RabbitMQ对消息进行排队和处理,以
启动
数据流
,并将流数据传递到处理区域。 因为我们只希望一个客户端使用
数据流
,并且只希望一个客户端处理流数据,所以我目前使用的是推送消息。我发现的问题是,如果我确认推送消息以
启动
数据流
,而该过程
失败
,则该消息将不会重新排队。如果我没有确认该消息,则直到我确认
数据流
消息或
进程
终止之后,才会收到任何其他推送消息。我已经看过请求/回复消息,但是我认为同样的问题可能也适用于这里,如果
进
浏览 0
提问于2015-12-18
得票数 0
1
回答
数据流
流作业同时多次处理相同的元素。
、
、
简短描述:
数据流
多次处理相同的输入元素,甚至同时并行处理(因此这不是
数据流
的
失败
-重试内置机制,因为以前的
进程
没有
失败
)。 长描述:管道获取存储GCS文件路径的pubsub消息。我看到它是基于日志消息的,第一个
进程
已经加载了500 k行,另一个300 k行和第三行刚刚开始,它们都与同一个文件相关,它们都基于相同的pubsub消息(相同的message_id)。我要强调,这不是一个与
失败
和重试
进程
有关的问题。如果第一个
进程
失败<
浏览 0
提问于2022-10-24
得票数 1
1
回答
数据流
与错误消息的原因: 606330f83ab24c58
在我的
数据流
作业中得到一条错误消息。 (606330f83ab2470f):
工作
流
失败
。原因:(606330f83ab24c58):
数据流
似乎卡住了。请联系的
数据流
团队。
浏览 2
提问于2017-11-13
得票数 0
2
回答
Excel.exe -在
数据流
任务
失败
时终止SSIS
、
、
、
当
数据流
任务
失败
时,如何在SSIS中终止excel.exe
进程
?可能有多个Excel.exe实例从其他完全有效的包中运行,所以我不想遍历所有实例来杀死它们。我的问题是,在
数据流
任务期间,该过程有时会因为
工作
表命名不正确或缺少列而
失败
。这使excel.exe的一个实例保持运行,该实例现在是一个消耗资源的孤立任务,因此需要终止它。同时,还有其他正在运行的SSIS包正在访问它们自己的excel.exe
进程
,并且没有任何问题。 那么,如何在不影响其他excel.exe
进
浏览 1
提问于2012-05-10
得票数 0
0
回答
数据流
进程
未在故障时恢复
、
在最近的事件中,整个AZ都会因为停机而丢失,我想更好地了解
数据流
故障转移过程。当我手动删除
数据流
作业(流式处理、PubSub到BigQuery)的
工作
节点时,它们已成功重新创建/重新
启动
,但
数据流
进程
本身尚未恢复。即使我理解手动删除不是有效的测试,我们也不能忽视人为错误的因素。 我的理解是,
工作
流程应该已经自动重新
启动
,但这里观察到
浏览 8
提问于2016-07-07
得票数 1
回答已采纳
2
回答
云
数据流
流作业是否可以扩展为零?
、
我需要几个,以保持每个
工作
简单,易于维护。我希望在收到新消息之前,
数据流
的比例为0 worker。因此,每项
工作
的最低价格为一天: 24 vCPU小时…所以每个月至少50美元/份
工作
。(月度使用不打折) 我计划每天通过api运行和耗尽我的作业几次,以避免一个全职
工作
人员。
浏览 0
提问于2018-09-12
得票数 4
2
回答
数据流
流式作业未缩减规模
、
、
、
我有一个
数据流
作业,它处理从pubsub主题使用的数据,并将数据转换/写入到bigtable实例。在2020年12月11-12日之前,它运行正常,即自动扩展
工作
正常,吞吐量更高( CPU利用率更高),更多的
工作
线程被利用,当吞吐量下降(相应的CPU利用率)时,它会缩减到1个
工作
线程。然而,自12月11-12日以来,
数据流
工作
者的数量一直在持续增加,达到最大数量(15个),这导致我们的
数据流
使用成本很高。正如文档中提到的(参考:):如果流管道积压低于10秒,并且
浏览 1
提问于2020-12-21
得票数 2
1
回答
如何在打包在servlet中的Dataflow管道作业之后执行标准java脚本作业?
、
、
我在servlet中打包了一个
数据流
作业(在BlockingDataflowPipelineRunner模式下运行,每天由CRON作业(在AppEngine中)触发)。它在使用Jetty在本地
启动
时
工作
,但在使用AppEngine部署时不起作用。javax.net.ssl.SSLHandshakeException: Remot
浏览 7
提问于2017-08-03
得票数 0
回答已采纳
1
回答
为什么使用"--requirements_file“将依赖上载到GCS?
、
、
、
对我来说,使用这种类型的文件将允许
工作
人员直接从官方pip注册表中提取依赖项,而不是从我的GCS中提取依赖项,对吗?你能解释为什么会发生这种情况吗?
浏览 19
提问于2019-08-07
得票数 2
回答已采纳
2
回答
谷歌云
数据流
和机器学习
、
在Google Cloud Dataflow上运行机器学习算法的最佳方式是什么?我可以想象,如果它是基于Java的,那么使用Mahout将是一种选择。-Girish
浏览 1
提问于2015-10-14
得票数 2
1
回答
ssis中的标题和详细记录错误处理
这与SSIS中的
数据流
任务相关。 我已经开发了一个DFT来处理带有标题和详细记录的参差不齐的平面文件。所有的脚本任务都
工作
得很好,有2个记录流,一个用于标题,另一个用于详细信息。首先处理标题记录并将其加载到Invoice_header表中,然后使用详细记录更新Invoice_line表。
浏览 2
提问于2017-02-16
得票数 0
0
回答
如何在
数据流
工作
进程
上强制安装google-cloud-bigquery==0.28.0
、
我很难让最新版本的bigquery在
数据流
工作
者上
工作
。有没有人能建议一下,怎样才是更简单的方法呢?使用google-cloud-bigquery==0.28.0的setup.py将无法在
工作
进程
启动
时安装
工作
流。从这个链接可以看到:,google-cloud-bigquery0.25.0,这是目前
数据流
支持的最新版本,它非常笨重,效率也很低。如果你有什么建议,请告诉我。 非常感谢,伊拉兰
浏览 0
提问于2018-07-14
得票数 1
回答已采纳
1
回答
附加安装程序2.10.0时的
数据流
SDK 2.7.0
、
、
、
、
我正在尝试运行
数据流
作业,具有以下setup.py文件: import setuptools name='Some-Name',它将在1小时后停止,并显示以下错误:
工作
流
失败
。原因:
数据流
作业似乎被卡住了,因为在过去的1小时内没有看到任何
工作
进程
活动。
浏览 12
提问于2019-03-18
得票数 1
2
回答
如何通过运行Google Compute Engine cron作业来调度
数据流
作业
、
、
、
、
在Dataflow FAQ中,列出了在计算引擎上运行自定义(cron)作业
进程
是调度
数据流
管道的一种方法。我搞不懂到底该怎么做:如何在计算引擎上
启动
数据流
作业和
启动
cron作业。 谢谢!
浏览 29
提问于2020-08-19
得票数 1
回答已采纳
1
回答
在从CircleCI
启动
的
数据流
/Apache-beam作业上找不到库
、
、
、
、
我在使用从CircleCI
启动
的GCP Dataflow runner运行python Apache光束管道时遇到了严重的问题。基本上,我运行的是在
数据流
中运行并使用google-api-python-client-1.12.3的python Apache光束管道。如果我在我的机器(python3 main.py --runner dataflow --setup_file /path/to/my/file/setup.py)中运行该作业,它就能正常
工作
。如果我从CircleCI中运行相同的
浏览 10
提问于2020-10-13
得票数 2
回答已采纳
1
回答
云
数据流
故障恢复
我的问题是:2)是否丢失了存储在窗口中但仍未超时的所有数据? 3)
数据流
提供了哪些恢复机制?我的问题是,如果70次
数据流
失败
会发生什么?我想,在第70秒之前收到的3条消息已经被加到Pub/Sub上了,所以它们不会被重传。当Dataflow重新
启动
时,它会以某种方式用键7恢复窗口的状态,以便在120秒时它可以生成一个7 -> 140对,还是只生成一个7 -> 60对?还有一个相关的问题--如果我取消
浏览 2
提问于2016-02-15
得票数 4
回答已采纳
1
回答
启用compute.requireShieldedVm后,谷歌云
数据流
出现故障
但是,在运行云
数据流
作业时,它无法创建
工作
进程
,并显示以下错误:在运行
数据流
作业时,是否可以请求将ShieldedVm用于
工作
人员计算?
浏览 0
提问于2020-03-11
得票数 1
1
回答
云发布/订阅和云
数据流
将
工作
进程
固定到主题
、
、
我有一个谷歌云发布/订阅和云
数据流
处理架构,我需要保证消息排序。是否可以将订阅消息流设置为每个主题固定
数据流
工作
进程
,以便消息通过相同的
数据流
工作
进程
路由,因此应该实现消息排序。 谢谢
浏览 0
提问于2018-06-30
得票数 1
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
CreateProcess不会等待进程启动
登录失败,服务未启动
steam无法启动、启动失败解决方法
怎么解决R星启动器启动失败?
战网启动错误,启动失败,启动加载慢?解决方案来了。
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券