腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
从
数据流
查询
BigQuery
的
INFORMATION_SCHEMA.TABLES
导致
错误
、
我正尝试在INFORMATION_SCHEMA上运行一个
查询
,以便
从
数据流
中检索有关
bigquery
表
的
元数据。找到下面的代码和
错误
。同样
的
查询
在BQ UI中运行得很好 query=SELECT * EXCEPT(is_typed) FROM `dummy_dataset.INFORMATION_SCHEMA.TABLES`" p1
浏览 24
提问于2019-03-18
得票数 2
2
回答
将
BigQuery
联邦表作为数据源在
数据流
中读取会引发一个
错误
、
我在
BigQuery
中有一个联邦源代码,它指向GCS中
的
一些CSV文件。当我尝试将联邦
BigQuery
表作为Dataflow管道
的
源读取时,它会引发以下
错误
: 1226 [main] ERROR com.google.cloud.dataflow.sdk.util.BigQueryTableRowIterator- Error reading from
BigQuery
table Federated_test_dataflow of dataset CPT_7414_PLAYG
浏览 5
提问于2016-03-24
得票数 4
回答已采纳
3
回答
无法写入
bigquery
-权限被拒绝: Google
、
、
、
我使用使用google云
数据流
服务已经有一段时间了。
数据流
管道 apache_beam.runners.dataflow.dataflow_runner.DataflowRuntimeException据我所知,服务帐户
浏览 0
提问于2018-05-07
得票数 4
1
回答
将
数据流
到
Bigquery
与将数据上传到PubSub,然后使用
数据流
将数据插入
Bigquery
之间
的
利弊是什么?
、
、
据我所知,将
数据流
到
BigQuery
将
导致
重复
的
行,如此处所述, 另一方面,将数据上载到PubSub,然后使用
数据流
将数据插入
Bigquery
将防止重复行?这里还有一个实时数据分析教程( )。那么,其他
的
优点和缺点是什么,在什么情况下,我应该使用
数据流
从
PubSub流数据。
浏览 9
提问于2017-05-02
得票数 4
回答已采纳
1
回答
汽蒸插入/ insertAll -长时间延迟?
、
、
我正在从将
数据流
到
BigQuery
上
的
一个表中。我
从
bigQuery
得到一个没有“
bigQuery
”键
的
200 OK:如果我
查询
我
的
表,尽管我刚才已经插入了几个附加记录我在任何地方都看不到任何
错误
--有人能告诉我如何调试这个问题吗?
浏览 2
提问于2014-04-04
得票数 1
回答已采纳
2
回答
如何使用云运行python api
从
大
查询
表中读取大数据,系统配置应该是什么?
、
、
、
、
我用python创建了一个flask api,并作为容器镜像部署在gcp云中运行,通过云调度器运行,在我
的
代码中,我
从
big query读取大数据(1500万行和20列),我将系统配置设置为8gm ramgbqdf = gbq.read_gbq(query), project_id="project_name") 有没有
从
BQ中读取数据
的
有效方法?Proble
浏览 28
提问于2021-10-04
得票数 0
回答已采纳
1
回答
未定义全局名称“
bigquery
”
、
、
我创建了一个作业,但是我一直没有定义全局名称'
bigquery
‘,即使我已经导入了所需
的
变量。query_job = client.query("""你们知道是什么
导致
了这个
错误
吗顺便说一句,我只有在将它部署到google
的
数据流
作业时才会得到这个
错误
,它在本地运行良好。:“
浏览 0
提问于2018-09-26
得票数 3
回答已采纳
1
回答
如何将Azure事件中心(kafka界面)
的
事件集成到google云发布/订阅
、
、
需要创建将使用作为参数提供
的
主题
的
POST端点。消息必须以kafka主题为属性,以消息内容为主体,在公共子主题上发送。 这是一个很高
的
要求。我看过以了解如何实现这一目标。但是,如果有人实时地实现了这一功能,即从Azure事件中心到google
的
事件,或者曾经进行过类似的实现,请提供帮助。
浏览 1
提问于2021-06-03
得票数 1
回答已采纳
2
回答
如何调度gcloud dataflowsql命令
、
、
、
、
我想安排我
的
数据流
sql作业。这是我
的
gcloud命令 gcloud
数据流
sql
查询
'My SELECT
查询
‘--作业名称dfsql-2d7a0189-177fc4f9444 -us区域-east4 4-
bigquery
-写处理写-截断-
bigquery
-project dev-dp-myproject -
bigquery
-数据集mydataset -
bigquery
-table服务-帐户-电子邮件
浏览 2
提问于2021-03-05
得票数 1
2
回答
如何在
数据流
模板中运行多个
查询
?
、
、
、
我正在执行Mysql到
bigquery
的
数据迁移,使用jdbc到
数据流
中
的
bigquery
模板。但在mysql上执行"select * from teable1“命令时,由于某种原因,我也想将选中
的
数据插入到同一数据库中
的
另一个表中。 如何在
数据流
模板中同时执行select和insert
查询
?在两个
查询
之间使用分号时出现
错误
。
浏览 46
提问于2020-11-11
得票数 0
1
回答
BigQueryIO.read().fromQuery性能慢
、
、
我注意到
的
一件事是,BigQueryIO.read().fromQuery()
的
性能比BigQueryIO.read().from()在Apache中
的
性能要慢得多。这一切为什么要发生?
浏览 1
提问于2018-04-18
得票数 7
回答已采纳
1
回答
在
数据流
中使用PCollection上
的
python执行sql
查询
、
、
、
我正在尝试将一个sql
查询
实现为
数据流
中
的
转换。我
从
bigquery
加载了一个表作为PCollection。我想像下面的
查询
一样聚合我
的
数据。我听说
数据流
与Java支持在P集合上运行sql kind
查询
,但正确
的
python不支持。有人能帮我解决这个问题吗?我想在一个P集合上实现这个
查询
。不直接
从
bigquery
读取
浏览 7
提问于2018-01-03
得票数 1
回答已采纳
1
回答
BigQuery
:资源超出- Google服务重载
、
、
我有一个Google电子表格,它
的
数据连接到data。我使用以下
数据流
来获取数据:但是,由于某些原因我不知道,有时,当在
BigQuery
外部表上执行select时,会得到以下
错误
:Google SpreadSheet只有1500x10列,我认为很小。是什么
导致</
浏览 1
提问于2022-10-06
得票数 0
1
回答
扳手到CSV DataFlow
、
、
、
我正在尝试将表
从
扳手复制到大型
查询
。我已经创建了两个
数据流
。一个是
从
扳手复制到文本文件,另一个是将文本文件导入
bigquery
。 表中有一列,该列
的
值为JSON字符串。
从
文本文件导入到
bigquery
时,
数据流
作业运行时出现问题。作业抛出以下
错误
: INVALD JSON::1:38预期
的
eof,但发现,"602...
浏览 23
提问于2020-09-11
得票数 0
2
回答
有没有一种方法可以使用
BigQuery
视图作为
数据流
的
输入?
、
我知道
数据流
可以使用
BigQuery
表(或
BigQuery
表
的
SQL式
查询
)进行输入,但是是否可以将保存
的
视图作为
数据流
的
输入?
浏览 10
提问于2017-07-12
得票数 2
1
回答
当使用Dataflow SQL时,“SQL启动程序中
的
错误
”意味着什么?
我将数据源更改为
BigQuery
表。我
的
计划是: 这个
错误
意味着什么?谢谢你
的
帮忙!
浏览 2
提问于2020-07-09
得票数 0
回答已采纳
2
回答
在将数据
从
BigQuery
导出到GCS桶时,CSV数据中
的
自定义分隔符?
、
、
我现在有以下
的
进程设置: 问题: 我
的<
浏览 5
提问于2015-03-12
得票数 2
1
回答
Dataflow sql、Beam SQL (Zeta sql或方解石SQL)之间有什么区别?
、
、
、
在浏览时,我看到了Dataflow SQL。它和beamSQL有什么不同吗?
浏览 12
提问于2020-02-17
得票数 1
回答已采纳
1
回答
数据流
需要授权视图中
的
基础表
的
bigquery
.datasets.get权限。
、
、
、
在
数据流
管道中,我
从
BigQuery
授权视图中读取:
错误
:消息:访问被拒绝: Dataset proj1 1:have 1: user xxxxxx-compute@develope
浏览 0
提问于2018-11-06
得票数 1
1
回答
在
数据流
中使用
BigQuery
beam api向Streaming_insert插入记录时请求大小
错误
、
、
、
、
我创建了一个google流作业,
从
PubSub读取并插入到
BigQuery
中。我使用JSON将STREAMING_INSERT数据插入到BiqQuery表中。我正面临插入问题,说明请求
的
大小超过了10 Mb
的
允许限制。
数据流
错误
如下所示。根据我
的
理解,每个记录
的
大小是1-2Mb,根据我
的
理解,
数据流
作业将流数据插入到微批处理中,这
导致
了这一
错误
。来自worker
的
浏览 6
提问于2022-10-13
得票数 0
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券