腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(1839)
视频
沙龙
1
回答
将
图像
作为
输入
读
取到
Apache
光束
管道
、
、
我想使用
Apache
光束
制作机器学习
管道
,从本地文件夹读取
图像
,然后对其进行预处理。我找到了一些如何
将
.txt或.csv文件
作为
管道
输入
处理的示例。像这样: lines = p | 'read' >> ReadFromText(known_args.input) 但是,
图像
数据呢?假设我想要读取一幅
图像
,进行预处理,进行预测,然后
将
所需的输出写入本地文件夹。如何做到这
浏览 24
提问于2020-04-25
得票数 1
1
回答
TensorFlow扩展:澄清
光束
、气流和库贝流的使用
、
、
、
、
我假定这是使用AirFlow
作为
一个编排器,而后者又使用Flink
作为
其执行器。对,是这样?该页指出,波束是一个必要的依赖,但气流没有梁
作为
其执行者之一。
浏览 0
提问于2019-05-17
得票数 6
回答已采纳
1
回答
有没有一种方法可以更新
Apache
光束
中的侧
输入
?
我正在开发
Apache
光束
中的数据转换
管道
,其中我需要一些查找表来帮助转换每个传入的记录。 我可以
将
查找表
作为
辅助
输入
传入,但需要注意的是,传入的记录可能会更新我正在使用的查找表。有没有一种方法可以更新查找表,然后
将
更新广播给每个其他工作进程? 更新:一种可能性是使用数据驱动触发器在传入记录更新端
输入
时发出结束当前窗口的信号。侧边
输入
会在下一个窗口开始时自动刷新吗?在我的例子中,我从外部源检索侧边
输入
。
浏览 11
提问于2019-01-15
得票数 2
2
回答
如何用
apache
处理spark JavaRDD数据?
我想要处理来自spark JavaRDD对象的数据,该对象是我用
Apache
从sparksession.sql(“query ")检索到的。但我无法
将
PTransform直接应用于此数据集。我正在使用
Apache
Beam 2.14.0(升级后的Spark runner使用spark版本2.4.3。(BEAM-7265)。请指导我这方面的工作。
浏览 4
提问于2019-08-19
得票数 0
1
回答
运行在GCP Dataflow上的
Apache
Beam如何处理大型SQL表的批处理?
、
我不明白的是
Apache
beam是如何读取表的,它是以块为单位的吗?如果是,那么块的大小是多少,我如何配置它?另外,在失败的情况下,作业是否从它离开的地方开始?
浏览 1
提问于2020-05-08
得票数 2
0
回答
属性文件中的
Apache
光束
选项
、
、
我成功地
将
Apache
光束
管道
作为
Dataflow模板运行。但是,我有一个options类(它扩展了DataflowPipelineOptions)。这个类在生成模板时从pom或命令行界面获取参数。
浏览 3
提问于2017-11-27
得票数 3
回答已采纳
2
回答
如何
将
视觉采集卡中的数据访问到opencv?
、
、
内窥镜机器有一个dvi输出,我有一个数据路径视觉采集卡,这有助于将其读
取到
我的系统中。我知道opencv只能从usb摄像头或ip网络摄像头读取数据。我想知道有没有人对opencv做过这样的解读?
浏览 2
提问于2019-02-15
得票数 0
3
回答
有没有一种方法可以使用Python转换( ReadFromText )来读取
Apache
Beam中的多行csv文件?
、
、
、
、
我有一个文件,其中包含一行我试图让
Apache
光束
将
输入
作为
一行读取,但无法使其工作。 print line # Here are the contents of testfile.csv# more blah blah",baz
浏览 0
提问于2018-04-19
得票数 6
2
回答
Google Cloud Platform Data ETL批量处理:云函数数据流
、
、
、
我在我的新公司担任数据工程师,致力于构建google cloud platform (GCP)批处理ETL
管道
。数据模型有一个主函数,我可以调用它并获得一个数据帧
作为
输出,我打算
将
这个数据帧附加到一个bigquery表中。有没有什么办法,我可以只导入这个主函数,并使用
apache
(数据流)将其集成到
管道
中,而不必将数据模型重新编码为PTransform?或者,使用云调度程序和云函数来实现我想要的效果会更好吗?我是一个完全初学者与数据流和阿帕奇
光束
,所以任何帮助或链接到指南
将</
浏览 0
提问于2019-08-21
得票数 0
1
回答
如何使用读取txt文件并转换为数据帧?
、
、
、
因此,我必须将其转换为结构化列,并使用
管道
将其转换为数据框架。任何帮助都将不胜感激。
浏览 7
提问于2022-01-17
得票数 1
2
回答
从单个PCollection写入多个文件(Beam)
、
、
我正在处理多个文件
输入
,并希望将它们
输入
到Dataflow
管道
中。但是,我要保留产出,使之与投入的数量相匹配。gcs_files = ['gs://bucket/<file1_dir>', 'gs://bucket/<file2_dir>', 'gs://bucket/<file3_dir>'] 我们希望
将
这些文件
输入
到一
浏览 32
提问于2022-07-13
得票数 0
回答已采纳
1
回答
Apache
光束
:无法通过docker-compose访问发布/订阅模拟器
、
、
、
我已经构建了一个软件,它使用GCP发布/订阅
作为
消息队列,
Apache
光束
来构建
管道
,Flask来构建Pub服务器。它在生产中运行顺利,但我有麻烦让所有的部分连接在一起的docker-compose,特别是阿帕奇
光束
管道
。我遵循了Dataflow pipeline and pubsub emulator,通过
将
SO答案中的localhost替换为我的docker-compose.yaml中定义的服务名称,使
管道
侦听GCP: no protoc
浏览 9
提问于2019-03-08
得票数 0
回答已采纳
1
回答
使用Google /sub更新单例HashMap
、
、
、
、
来自IoT设备的数据流使用
Apache
管道
,该
管道
作为
Google运行,使用Google /sub。PCollection ->包含
管道
数据流(由IoT设备记录的数据)中的数据。我对
Apache
的了解有限,我只知道如何对
管道
数据进行转换以创建另一个单独的PCollection。我认为这就是
光束
的意义,它是为了
将
大数据集转换成不同的形式。从我所看到的情况来看,我使用的google-cloud-pubsub Maven工件
浏览 0
提问于2018-11-21
得票数 16
1
回答
Beam SQL - SqlValidatorException:找不到对象'PCOLLECTION‘
、
我正在做一些关于
光束
SQL的实验。我从转换SampleSource中获得一个PCollection<Row>,并将其输出传递给一个SqlTransform。it.getPipeline().apply(SqlTransform.query(sql1));错误详细信息如下 Caused by: org.
apache
.beam.repackaged.beam_sdks_java_extensions_sql.org.
apache
.calcite.sql.validate.Sql
浏览 7
提问于2019-07-02
得票数 0
1
回答
大numpy矩阵
作为
数据流侧
输入
、
我试图用Python编写一个Dataflow
管道
,它需要一个大的numpy矩阵
作为
侧
输入
。矩阵保存在云存储中。理想情况下,每个Dataflow工作人员
将
直接从云存储加载矩阵。是否有用于“二元水滴”的
光束
源?
浏览 3
提问于2017-05-13
得票数 1
回答已采纳
2
回答
无法在数据流中从GCS读取我的配置文本文件(列名)
、
、
、
我希望通过使用列头映射(config文件)
将
源文件加载到静态表中。之前我尝试了不同的方法(我是维护源文件,其中包含头和数据在同一个文件中,然后尝试从源文件中分割头,然后使用头列映射
将
这些数据插入Bigquery。我注意到这种方法是不可能的,因为数据流
将
数据洗牌到多个工作节点。所以我放弃了这种方法。import org.
apach
浏览 0
提问于2018-06-22
得票数 1
1
回答
从UNIX命名
管道
(Fifo)读
取到
[neo]vim缓冲区
、
、
、
、
我目前正在尝试为任何使用
管道
作为
其标准
输入
和标准输出的程序创建服务器客户端体系结构。 我确实让整个服务器工作起来了,它是通过命名
管道
(Fifo)进行通信的。我正在尝试做的是不断地(异步地)
将
stdout
管道
的内容读
取到
vim缓冲区中,并且我正在寻找这个问题的最优雅的解决方案。假设我有一个程序python,它通过2个
管道
(3个,如果您考虑标准错误,但这与寻找解决方案无关)进行通信,即PIPE_IN
作为
它的标准
输入
,PI
浏览 0
提问于2020-02-28
得票数 0
2
回答
流水线是如何工作的?
、
、
、
、
有人能解释一下命令ls | grep 'xxx'的内部实际发生什么(系统调用)吗?
浏览 2
提问于2012-09-09
得票数 2
回答已采纳
1
回答
使用windows中的logstash
将
apache
日志导入elasticsearch
、
、
、
、
cat
apache
_logs | <path_to_logstash_root_dir>/bin/logstash -f
apache
_logstash.conf 我已经尝试了下面的例子,但它并不像预期的那样起作用type
apache
_logs >> C:\logstash-5.3.1\bin\logstash.bat -f
apache
_logstash.conf
浏览 1
提问于2017-04-24
得票数 0
回答已采纳
1
回答
如何等待程序完成输出
管道
、
我试图
将
一个程序输出
作为
另一个程序的
输入
,但是我不知道如何让它等待第一个程序完成。 npm run test | .
浏览 1
提问于2022-04-06
得票数 1
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
一种基于不变特征的自动化全景图像拼接方法
flink用例
Python 萌新-10分钟学会爬虫
Uber使用Apache Hudi构建了一个大规模事务型数据湖
我们天天都在使用的管道命令,Shell 在里面到底动了什么手脚?
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
实时音视频
活动推荐
运营活动
广告
关闭
领券