腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(1142)
视频
沙龙
1
回答
启动
Bigquery
作业
的
数据流
作业
间歇性
失败
,
错误
为
"
errors
":[{ "
message
":“
已
存在
:
作业
、
、
、
我有一个谷歌云
数据流
作业
(使用apache beam python sdk)计划每6分钟后,内部读取一个大查询表,做一些转换,并写入到另一个大查询表。此
作业
已开始
间歇性
失败
( 10次中约4次),
错误
跟踪如下。Exists: Job bbb-erizo:asia-northeast1.beam_bq_job_QUERY_AUTOMATIC_JOB_NAME_a2207822-8_754", "
errors
global",
浏览 15
提问于2021-02-17
得票数 3
1
回答
执行google
数据流
作业
时获取HTTP传输
错误
在执行
数据流
作业
时,我得到了一个持续
的
错误
:
BigQuery
导入
作业
"dataflow_job_838656419“
失败
。,:
BigQuery
为
"TestProject”项目中
的
数据集"TestDataSet“中
的
表"TestTable”创建导入
作业
。,:
BigQuery
执行
失败
。:HTTP传输
浏览 4
提问于2016-08-29
得票数 1
回答已采纳
2
回答
如何重新
启动
已
取消
的
云
数据流
作业
?
、
我已经创建了一个标准
的
PubSub到
BigQuery
数据流
。然而,为了确保我不会在离线时增加巨额费用,我取消了
数据流
。在GCP控制台中,似乎没有重新
启动
它
的
选项--这是通过控制台还是通过shell (如果是,如何实现
的
)进行
的
吗?
浏览 11
提问于2018-01-03
得票数 12
回答已采纳
1
回答
数据流
作业
失败
、
我有一个管道,它需要一个
数据流
作业
才能运行。我使用gcloud命令
启动
了一个
数据流
作业
,工作时间超过了一个月。但是,由于最近三天,
数据流
作业
在10-20秒内
失败
,有以下
错误
日志。我使用
的
命令是: --
bigquery
-project my_pro
浏览 3
提问于2022-01-27
得票数 0
回答已采纳
1
回答
错误
Bigquery
/
数据流
“无法解析数据目录中
的
表”
、
、
、
我在
数据流
上做
的
工作遇到了麻烦。下面是上下文,我使用以下路径在
bigquery
上创建了一个数据集现在,我想在
数据流
上运行一个
作业
,然后在google我可以看到一个新
作业
正在排队,但大约5分钟后,
作业
就会
失败
,并得到以下
错误
消息:
错误
2021-09-29T18:06:00.795ZInid/不受支持<em
浏览 1
提问于2021-09-29
得票数 1
1
回答
I忽略
BigQuery
中
错误
的
CSV记录
、
、
如何在
BigQuery
中跳过CSV文件中
的
错误
记录?我尝试过使用以下函数:我在输入CSV中有一条
错误
的
记录。但是当我使用上面的函数时,代码返回null,并且代码
失败
,而不是忽略
错误
的
记录。
浏览 1
提问于2015-04-09
得票数 0
1
回答
数据流
作业
无法写入不同区域中
的
BigQuery
数据集,即使区域设置
为
bigquery
区域
、
、
我们正在编写一个
数据流
作业
,将数据从存储桶中
的
JSON写入到
BigQuery
数据集。存储桶和
BigQuery
数据集都位于区域X中。但是,在区域X中无法使用
数据流
端点。最近
的
区域是Y。因此,我已经将Dataflow
作业
区域设置
为
Y,但区域设置
为
X。因此,所有的计算实例都是在区域X中旋转
的
。但是,
数据流
作业
仍然
失败
,
错误
如下: 无
浏览 4
提问于2020-03-05
得票数 0
1
回答
谷歌云
数据流
服务帐户没有传播给工人?
、
、
我们有多个
作业
(用Java /Kotlin编写),它们可以以两种不同
的
方式运行: 当从用户帐户运行
数据流
作业
时,Dataflow在我们
的
大多数Dataflow用例中,我们在项目A中运行Dataflow
作业
,而在项目B中从
BigQuery
中读取
数据流
作业
。因此,我们<em
浏览 0
提问于2018-12-05
得票数 3
1
回答
权限问题
、
这里是GCP
的
初学者。我正在测试GCP
数据流
,作为IOT项目的一部分,以便将数据从Pub/Sub转移到
BigQuery
。我从主题
的
页面“”按钮中创建了一个
数据流
作业
。除了无法删除
数据流
的
问题外,我还遇到了以下问题:工作流
失败
。原因:刷新您
的
凭据
存在
问题。请检查: 1.
为
您
的
项目启用了
浏览 2
提问于2021-04-10
得票数 0
1
回答
org.apache.kafka.common.
errors
.TimeoutException:超时:获取主题元数据时过期
的
java.lang.RuntimeException
、
、
我正在使用
数据流
kafka到
bigquery
模板。
启动
数据流
作业
后,它会在队列中停留一段时间,然后
失败
,出现以下
错误
:在应聘工作时,我提供了以下参数: kafka主题名引导服务器ip和端口(私有ip)
浏览 3
提问于2020-12-07
得票数 0
3
回答
当
作业
完成时,不会删除从Dataflow - JSON文件写入
BigQuery
的
内容。
我们
的
数据流
作业
之一将其输出写入
BigQuery
。我对如何在底层实现这一点
的
理解是,Dataflow实际上以JSON格式将结果(切分)写入GCS,然后
启动
一个
BigQuery
加载
作业
来导入该数据。但是,我们已经注意到,一些JSON文件在
作业
之后不会被删除,不管它是成功还是
失败
。
错误
消息中没有警告或建议不会删除文件。当我们注意到这一点时,我们看了一看我们
的
桶,它有数百个来自
失
浏览 5
提问于2015-05-12
得票数 6
回答已采纳
1
回答
插入CompletedWithWarnings时获取InsightExternalData状态
我
的
csv文件有3941495条记录,我检查了我
的
文件,压缩后它正好有3941495条记录,但是服务器上
的
结果是3941489条记录。我得到了状态"CompletedWithWarnings",这是状态信息 有人知道怎么修吗?或者如何下载
错误
日志?
浏览 5
提问于2016-07-07
得票数 0
回答已采纳
1
回答
在
BigQuery
中聚合最近30天
的
数据
我正在检查从Redshift迁移到
BigQuery
的
可行性。我需要在
BigQuery
上实现以下用例
的
帮助。下面是我们目前在Redshift中是如何做到
的
-我们如
浏览 0
提问于2016-11-08
得票数 1
1
回答
更新后
数据流
作业
保留旧
错误
状态。
、
、
、
当我使用DataflowRunner提交
数据流
作业
时(我使用
的
是使用Pub/Sub源代码
的
流
作业
),我在定义BQ表名
的
执行参数(假设
错误
的
表名是project)时犯了
错误
,
作业
引发了一些
错误
。然后,我使用--update命令更新了
作业
,使用了正确
的
表名,但是
作业
再次抛出了一些
错误
--即
错误
告诉我,我仍
浏览 2
提问于2020-12-07
得票数 2
回答已采纳
1
回答
如何捕捉BigQueryIO.Write抛出
的
异常并挽救输出
失败
的
数据?
、
、
我希望从Cloud /Sub中读取数据,并使用将其写入
BigQuery
。每个数据都包含一个表ID,其中将保存数据本身。 public class StarterPipeline { private static final Logger
浏览 4
提问于2017-12-28
得票数 6
回答已采纳
1
回答
BigQuery
引发在第一个getQueryResults上过期
的
分页令牌。
我们看到了
BigQuery
在第一次尝试调用getQueryResults (例如,没有分页令牌)时引发
的
查询
错误
的
零星情况(今天是4倍)。
错误
是:get()调用上
的
作业
状态返回‘完成’。这是bq等待
失败
作业
的
输出:工作 查询<e
浏览 1
提问于2015-05-24
得票数 1
回答已采纳
1
回答
无法重新
启动
Spring批处理
作业
、
我正在通过CommandLineJobRunner实用程序运行
作业
(使用由maven shade插件生成
的
fat jar +依赖项);
作业
随后在中途
失败
,因为"java堆内存限制已达到“,
作业
没有被标记为
失败
,但仍然显示
为
已
启动
状态。我尝试使用相同
的
作业
参数重新运行
作业
(正如文档所建议
的
),但这给出了以下
错误
: 5:24:34.147
浏览 1
提问于2016-08-03
得票数 5
回答已采纳
1
回答
在
数据流
中使用Flex模板时,--impersonate和--service-account-email有什么区别?
在使用gcloud dataflow flex-template run时,我很难理解--impersonate和--service-account-email之间
的
区别。据我所知,--impersonate对于gcloud是全局
的
,而另一个标志仅用于与
数据流
相关
的
命令。但在此期间,我仍然需要能够模拟我在使用--service-account-email时使用
的
服务帐户...非常感谢!艾德里安。
浏览 6
提问于2021-01-22
得票数 1
1
回答
导出
的
数据流
模板参数未知
、
但是,当尝试从导出
的
模板
启动
数据流
作业
时,我似乎无法获得正确
的
启动
参数。
错误
消息不是很具体,但很明显,我没有得到正确
的
位置(输入和输出)。谷歌
为
这个用例提供
的
惟一模板(可在https://cloud.google.com/dataflow/docs/guides/templates/provided-templates#cloud-storage-
浏览 12
提问于2019-02-11
得票数 0
1
回答
数据流
作业
-写入
BigQuery
时出错
、
、
、
通过使用'FILE_LOADS‘技术
的
Apache光束
数据流
作业
写入
BigQuery
时遇到
错误
。流插入(else块)工作正常,正如预期
的
那样。'FILE_LOAD‘(if块)
失败
,
错误
如下,代码后面给出。GCS存储桶上
的
临时文件是有效
的
JSON对象。RetryStrategy.RETRY_ON_TRANSIENT_ERROR
浏览 0
提问于2020-08-13
得票数 1
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券