腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
云
DataFlowRunner
中
的
python-mysql
?
、
、
、
我目前有一些查询mysql
的
代码。我想把这段代码作为
DataFlowRunner
中
Apache光束管道
的
一部分来运行。每次我尝试集成MysqlDB时,作业都会挂起。这是我
的
setup.py 我已经在可能导致
DataFlowRunner
挂起
的
行
中
添加了注释。 我已经尝试过仅使用apt-get和pypi依赖项运行示例字数统计。预期
的
结果是能够添加MySQL dep,并且仍然能够运行单词计数示例。 更新:查看README了解我最终做了什么。
浏览 33
提问于2019-05-19
得票数 0
1
回答
Google :使用for解析时DirectRunner与
DataFlowRunner
的
不同行为
、
我正在建立一个谷歌
云
数据流管道来处理视频。我很难调试管道,因为在DirectRunner和
DataflowRunner
上环境行为似乎不同。我
的
视频处理工具(下面称为DeepMeerkat )接受from解析
中
的
参数。/setup.py \ --tensorflow \在最后两个参数,tensorflow和培训都是为我
的
管道,其余
的
是需要
云
数据流beam.P
浏览 8
提问于2017-08-18
得票数 2
回答已采纳
3
回答
如何导入虚拟环境
中
未安装
的
python-mysql
包?
、
我使用以下代码安装了
python-mysql
:我使用
的
是Windows 7。
浏览 0
提问于2014-03-28
得票数 0
1
回答
使用
云
函数触发数据流(Python SDK)作业
我需要在gcs
中
处理传入
的
csv文件。"ignore", "dataflow_ingestion_engine.py",python tmp/dataflow_ingestion_engine.py gs
浏览 4
提问于2019-10-22
得票数 0
回答已采纳
1
回答
使用beam 2.0创建数据流模板管道时
的
身份验证错误
请参阅有关如何运行基于Java
的
云
数据流-
的
链接。-Dversion="0.1" \ -DinteractiveMode=false --output=gs://<STORAGE_BU
浏览 2
提问于2020-04-21
得票数 0
回答已采纳
1
回答
Google Cloud Platform - Dataflow不使用KMS密钥解密数据
、
、
类似于此模板,但它将数据从JDBC保存到
云
存储: gcloud dataflow jobs run JOB_NAME \--gcs-locatio
浏览 39
提问于2020-04-30
得票数 1
1
回答
Apache Beam/Google数据流Python流自动标度
、
、
在Apache网站
的
链接之后,它声明如下(在页面底部): 是否有某种路线图来指定何时支持这一点?
浏览 1
提问于2018-10-09
得票数 1
回答已采纳
1
回答
当我在上编写我
的
Beam管道时,如何运行我
的
.jar文件?
、
但是我不能在那里使用我
的
.jar文件。如何使我
的
管道“进入”数据流?
浏览 0
提问于2019-11-05
得票数 0
回答已采纳
1
回答
云
数据流
云
sql数据流运行器出现空指针异常
、
、
、
我正在尝试使用
云
数据流来处理相当数量
的
记录。我
的
源是google
云
存储,我
的
目标是cloud SQL(MySQL)。我有以下代码要写入接收器(Cloud SQL)。但当在
DataflowRunner
上运行时,它会抛出NullPointer Exception。发生这种情况
的
原因是什么?有什么解决方案可以让它与
DataflowRunner
协同工作
浏览 41
提问于2019-12-05
得票数 0
回答已采纳
3
回答
在数据流管道
中
写入BigQuery时捕获失败
、
、
、
我有一个从PubSub主题读取事件数据
的
数据流管道。当收到消息时,我执行一个转换步骤,将事件数据与我想要
的
BigQuery模式相匹配。但是,如果创建
的
输入不符合模式,则会遇到问题。有没有一种方法可以尝试写到BigQuery,如果这样做失败了,用原始
的
输入做其他
的
事情?或者,是否有一种方法可以尝试多次编写,否则在不添加新RuntimeErrors
的
情况下默默地失败?以下是我进一步澄清
的
简化程序: with beam.Pipeline(options=options) as
浏览 4
提问于2018-05-08
得票数 4
1
回答
Apache不能写入AWS S3
、
、
、
我们目前正在开发Apache管道,用于从GCP Pub/Sub读取数据,并将接收到
的
数据写入AWS S3
中
的
存储桶
中
。我们希望在没有任何代码更改
的
情况下使用Dataflow运行管道,因此我们修改了代码以使用
DataflowRunner
。options.setRunner(classOf[
DataflowRunner
]) options.setStagingLocation("gs://my-gcs-bucket/bina
浏览 6
提问于2020-02-28
得票数 1
2
回答
在数据流上运行时缺少路径
中
的
对象或桶
、
当试图在Dataflow服务上运行管道时,我在命令行中指定了暂存和临时存储桶(在GCS
中
)。当程序执行时,我会在管道运行之前得到一个RuntimeException,其中
的
根本原因是路径
中
缺少了一些东西。Caused by: java.lang.RuntimeException: Failed to construct instance from factory method
DataflowRunner
gs://df-staging-bucket-57763/已经存在于我
的
浏览 0
提问于2017-05-31
得票数 8
回答已采纳
2
回答
如何在同一台OSX机器上设置32位和64位版本
的
MySQL-Python?
、
、
、
、
我们无法控制用户选择与之交互
的
应用程序(它们都有Python接口,并在OS上运行),但除了
Python-MySQL
的
问题之外,我几乎可以让一切正常工作。具体地说,一些软件使用64位版本
的
Python。OS X(我需要支持
的
OS )附带安装了Python和
Python-MySQL
32位,因此如果我尝试:在使用Python64位
的
软件
中
,导入失败,应用程序将提示OS附带
的
二进制我已经下载、编译并安装了<
浏览 2
提问于2012-11-04
得票数 0
1
回答
从Google
云
存储到Big Query
的
流式数据流
、
、
、
我正在尝试使用DataFlow (Java)将数据从
云
存储插入到Big Query。我可以批量上传数据;但是,我想设置流式上传。因此,当新对象添加到我
的
存储桶
中
时,它们将被推送到BigQuery。我已经将PipelineOptions设置为流式传输,它在GCP Console UI
中
显示数据流管道是流式传输类型。存储桶中最初
的
一组文件/对象被推送到BigQuery。但是,当我向存储桶
中
添加新对象时,这些对象不会被推送到BigQuery。为什么会这样呢?如何使用蒸汽数据流管道将添
浏览 47
提问于2018-06-03
得票数 3
回答已采纳
1
回答
MariaDB检查python
中
的
连接状态
、
python MariaDB connector是否有类似于
python-mysql
中
的
is_connected
的
接口来检查连接状态,或者任何其他检查连接状态
的
方法。
浏览 23
提问于2021-01-20
得票数 2
回答已采纳
1
回答
Google数据流-使用数据存储选项连接数据存储会导致错误。
、
我们试图通过用java编写
的
数据流作业来连接数据存储服务,但是由于datastore SDK错误,我们面临着问题。... 13 more 我们正在使用以下版本
的
SDK,我认为这是最新
的
。
浏览 0
提问于2018-08-02
得票数 0
回答已采纳
1
回答
ModuleNotFoundError:没有名为‘mysql.connector’
的
模块;'mysql‘不是包连接器
、
我正在尝试一个简单
的
数据库连接。当它工作时,我已经尝试了一些数据
的
简单读取。这也只在每次重新安装时起作用一次。我使用
的
是带有最新Anaconda版本
的
Windows 10 Home。我已经卸载了pip列表
中
的
所有mysql条目,并(多次)重新安装了它们。我已经尝试了所有相关问题
的
每一个解决方案,但没有任何运气。如有任何帮助/建议,我们将不
浏览 3
提问于2021-10-05
得票数 0
1
回答
具有
云
发布/订阅功能
的
Apache
、
、
、
我正在尝试将数据从
云
发布/订阅传递到Google
云
存储。当我使用runner
DataflowRunner
时,管道被发布到Google Cloud Dataflow,并按预期工作。然而,对于一些测试,我希望管道在本地运行(但仍然从
云
发布/订阅读取并写入
云
存储)。--runner=DirectRunner ^ --temp_location=gs://dev_radim/dataflow_temp_local
浏览 11
提问于2021-02-23
得票数 0
回答已采纳
1
回答
由: java.lang.UnsupportedOperationException: BigQuery源文件必须拆分后才能读取
、
、
我正在尝试使用Java BigqueryIO.read方法从bigquery
中
读取数据。但是得到了低于错误。
浏览 0
提问于2020-06-09
得票数 0
1
回答
从数据流作业
中
删除Google存储
中
的
文件
、
、
、
、
我有一个在python3.7
中
用apache创建
的
数据流,在这里我处理了一个文件,然后我不得不删除它。该文件来自google桶,问题是当我使用
DataflowRunner
运行程序时,我
的
工作无法工作,因为Google python3.7环境
中
没有安装Google
云
存储API。你们知道吗,不使用这个API,我怎么才能删除数据流
中
的
文件呢?我见过apache_beam模块,如,但我不知道如何使用它,也没有找到关于如何使用该模块
的
教程或示例
浏览 4
提问于2020-07-15
得票数 1
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
云点播
对象存储
即时通信 IM
活动推荐
运营活动
广告
关闭
领券