腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(798)
视频
沙龙
1
回答
对
WriteToBigQuery
的
表
参数
使用
callable
时
,
无法
将
Python
Dataflow
模板
保
存到
存储
桶
、
{network}' table=get_table_specDirectRunner
时
,这可以在本地运行。
python
-m template --runner DirectRunner --otherargs ...没有抛出错误,数据被保
存到
我
的
BigQuery
表
中。当我尝试编译
模板
并
浏览 8
提问于2019-10-17
得票数 1
1
回答
触发云
存储
-数据流
、
、
、
、
我现在开始工作,我需要一些帮助,我有一个自定义模型,我
使用
apache beam创建了一个管道,该管道从
存储
桶
内
的
文件夹中获取来自csv文件
的
数据,然后
将
数据抛到bigquery
表
中,这个
表
已经按照我
的
要求工作,但是由于它是一个批处理管道,它只在我运行数据流时运行,所以我想自动化这个函数,条件是当加载一个新文件
时
,这个作业自行运行,我怎么做呢?
模板
数据流 import apache_beam as
浏览 7
提问于2022-04-28
得票数 1
1
回答
Apache总线在数据流加载外部文件中
的
应用
、
、
我正在
Dataflow
上运行一个Apache作业,它来自我创建
的
一个
模板
。我想添加一个额外
的
步骤,
将
处理过
的
数据上传到BigQuery,并在需要
时
创建
表
,因此我需要声明
表
模式。模式实际上相当大,所以最好
的
选择可能是在.json文件上编写它,然后用一个简单
的
: schema =
浏览 1
提问于2021-06-29
得票数 0
回答已采纳
1
回答
如何
将
commit_id作为lambda压缩文件名(s3 object_name)从代码行传送给cloudformation
、
、
、
为了让lambda从s3
存储
桶
中获取更新后
的
压缩文件,每当我更新文件
时
,我都会将commit-id添加到压缩文件名中并上传到s3
存储
桶
中。( s3
存储
桶
版本控制也已启动)。以下是我所做
的
工作: 我有一个CloudFormmation
模板
,它创建了一个lambda函数,这个lambda从一个s3
存储
桶
中获取压缩代码。为了拥有CI/CD,我在buildpart(buidspe
浏览 17
提问于2021-04-30
得票数 0
2
回答
在嵌套堆栈中访问父云格式堆栈
的
名称
、
、
我
使用
的
是嵌套
的
Cloudformation
模板
,结构如下:每个JSON
模板
文件都
存储
在S3中,
桶
名为"${masterStackName这在父
模板
中运行得很好,因为我可以简单地这样做: "Fn::Join": [ "",
浏览 4
提问于2018-01-05
得票数 4
回答已采纳
6
回答
Google
Dataflow
上
的
Apache光束示例出现权限错误
、
、
、
我在从本地机器向我们
的
云平台提交Apache光束示例
时
遇到了问题。但是当我尝试运行
python
wordcount示例
时
,我得到了以下错误: IOError: Could not upload to GCS path gs://my_bucket/tmp: access
浏览 0
提问于2017-05-25
得票数 8
2
回答
Apache梁
DataFlow
转轮抛出设置错误
、
、
我们正在
使用
构建数据管道,并试图在
Dataflow
上运行,但是得到以下错误,我们尝试增加内存大小、工作人员数量等,但仍然得到相同
的
错误。这是我们
使用
的
命令,--project=xyz \--staging_location
浏览 0
提问于2018-03-23
得票数 4
回答已采纳
3
回答
Airflow:如何
将
Python
可调用函数
的
输出作为
模板
或作为
参数
传递给其他任务?
最初,我有几行顶层代码,可以根据一些用户输入
参数
来确定job_start,但通过多次搜索,我发现这将在every heartbeat处触发,这会在截断
表
时
导致一些不必要
的
行为。现在,我正在研究
将
这些顶级代码包装到一个
Python
可调用对象中,这样它就不会被刷新,但我不确定将输出传递给其他任务
的
最佳方式。= get_job_dts) task_id = 'task_1'
浏览 25
提问于2019-03-21
得票数 1
回答已采纳
2
回答
在beam.io.
WriteToBigQuery
中调用beam.DoFn
、
、
、
、
我创建了一个带有一些
参数
的
数据流
模板
。当我
将
数据写入BigQuery
时
,我希望
使用
这些
参数
来确定应该写入哪个
表
。我尝试按照下面的链接中
的
建议在一个
WriteToBigQuery
中调用ParDo。该管道成功运行,但它没有创建数据或
将
数据加载到BigQuery。知道有什么问题吗?f's4c.plan_data_{year}' 'fi
浏览 10
提问于2020-05-27
得票数 1
回答已采纳
1
回答
如何
使用
python
在
Dataflow
中为Bigquery编写字典
、
、
、
我试图从GCP
存储
中读取csv,将其转换为字典,然后按如下方式写入Bigquery
表
: | (beam.ParDo(BuildAdsRecordFn())) |
WriteToBigQuery
('ads_table',dataset='dds',project='doubleclick-2',schema=ads_schemaerror: J
浏览 1
提问于2017-11-19
得票数 3
回答已采纳
1
回答
如何
使用
Apache Beam中
的
运行时值提供程序写入Big Query?
、
、
、
、
编辑:我在打开接收器实验选项
的
情况下
使用
beam.io.
WriteToBigQuery
实现了这一点。我实际上
使用
了它,但我
的
问题是我试图从str()中包装
的
两个变量(数据集+
表
)“构建”完整
的
表
引用。这是
将
整个值提供程序
参数
数据作为字符串,而不是调用get()方法来仅获取值。因此,我需要以这样一种方式编写它,以便可以
使用
运行时值提供程序来传递BigQuery数据集/<em
浏览 16
提问于2019-12-07
得票数 3
回答已采纳
2
回答
使用
云函数(从google云
存储
到bigquery )实现批处理自动化--缺少一些东西
、
、
、
、
我想要实现
的
:每次我上传一个文件到云
存储
,它将自动被写入BigQuery。但是他们不一起工作。我对此比较陌生,我一直在寻找这方面的教程,但我不知道我是否一直在搜索错误
的
关键字,我找不到任何相关
的
教程。
浏览 7
提问于2021-03-03
得票数 0
回答已采纳
3
回答
在CDK中查找或创建s3
存储
桶
?
、
、
我发现每次我部署
时
,cdk都会尝试重新创建S3
存储
桶
。如果不指定
存储
桶
名称,则每次都会生成一个新
的
垃圾
存储
桶
名称。如果我指定了一个名称,它将拒绝部署,因为
存储
桶
已经存在。我怎么才能把它"upsert“成一个
桶
呢?下面是我
使用
的
代码: const dataIngestBucket = new Bucket(this, 'data-lake
浏览 1
提问于2020-02-13
得票数 2
1
回答
将
多个转换应用于PCollection ::Error
WriteToBigQuery
、
、
将
多个转换过程应用到同一个PCollection以产生多个输出,最终将输出合并到2个不同
的
BQ
表
中。KV
对
解析和
存储
为一个平面
表
以及event_time提取
的
表单消息属性) {'evt_time': '2019-09-14T22:12:43.323546Z', 'key1': 'val1', 'key2原因:‘无效’> 1)当我
使用
浏览 0
提问于2019-09-14
得票数 1
1
回答
使用
python
3在托管在google云上
的
flask网站中显示来自google云
存储
的
图像
、
、
、
、
我正在尝试制作一个网站,它接受文本
的
输入,生成一个图像,然后在html中显示该图像。 当我有本地测试实现时,这可以很好地
将
图像写入静态目录,但当我推送到google云
时
,不允许我向该目录写入。我想出了如何
将
图片保
存到
我
的
google云
存储
桶
中,但现在我
无法
将
图片重新显示在html
模板
中。我
使用
的
是Flask和
python
3.7 下面是我正在做<
浏览 23
提问于2020-12-23
得票数 1
1
回答
在Google
模板
中将'date‘作为运行时
参数
传递
、
、
、
我目前正在尝试生成Google自定义
模板
,该
模板
将在运行时调用API,并将结果写入BigQuery
表
。 然而,我遇到
的
问题是,API需要传递一个日期
参数
‘YYYY DD’才能使其工作。不幸
的
是,在构造
模板
时
,
Dataflow
要求
对
与作业运行时间相关
的
任何变量(即今天
的
日期)
使用
ValueProvider ()。否则,它将继续
使用
最初创建
模
浏览 1
提问于2020-08-25
得票数 1
回答已采纳
1
回答
从REST读取
的
Apache束管道在本地运行,但不在数据流上运行。
、
、
我一直试图让我
的
管道运行一个典型
的
模板
在
Dataflow
。 管道应该读取运行时
参数
from_date和to_date,并将它们传递给REST。然后,从API返回
的
答案应该写入bigquery
表
中。它在
Dataflow
上运行时没有任何错误,但是我
的
数据没有出现在gbq
表
中,gbq
表
是数据接收器。当我在本地执行它
时
,它就像一个魅力:没有错误,我可以
使用
服务帐户和本地文
浏览 0
提问于2021-01-05
得票数 1
回答已采纳
5
回答
Google Cloud
Dataflow
Python
,检索职务ID
、
、
我目前正在
使用
Python
模板
,我希望访问作业ID并
使用
它保
存到
特定
的
Firestore文档中。我在文档中找不到关于这一点
的
任何东西。
浏览 0
提问于2018-09-17
得票数 3
回答已采纳
2
回答
存储
桶
是一个单一
的
内存位置还是类似于一个内存位置数组?
、
、
、
正如我们说,对于两个具有相同哈希码
的
不平等对象,对象
存储
在同一个
桶
中,这实际上意味着什么?
浏览 1
提问于2016-12-03
得票数 0
回答已采纳
2
回答
如何
使用
从RDL架构生成
的
报表类创建RDL
、
、
此项目允许用户从数据库中选择字段,然后在报表服务器上创建和
存储
RDL。对于一些最初
的
概念验证尝试,我们一直
使用
XMLText来生成XMLText文件。虽然这是有效
的
,但这似乎是非常麻烦
的
,我
对
模式是如何100%防弹生成
的
没有太大
的
信心。第二次尝试实际上是
使用
从RDL生成
的
类作为我
的
对象模型。我被困在这里
的
地方是几乎没有关于如何
使用
这个对象
的
文档。
浏览 2
提问于2013-06-25
得票数 3
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
对象存储
云点播
云直播
活动推荐
运营活动
广告
关闭
领券