腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
从发布/订阅流到
BigQuery
、
、
、
、
我正在尝试
使用
python
数据流将一些数据从google PubSub传输到
BigQuery
中
。beam.io.BigQueryDisposition.CREATE_IF_NEEDED,注意:我已经被谷歌列入了运行代码
的
白名单( alpha)工作流失败。原因:(f215df7c8fcdbb00):未知流<e
浏览 1
提问于2017-09-07
得票数 5
1
回答
在
python
中
使用
BigQuery
接收器
的
流水线
、
、
、
我正在构建一个apache波束流管道,它
的
源是Pubsub,目标是
BigQuery
。我收到了错误消息:这就是导致问题
的
原因,我说
的
对吗?或者,如果不是,它在任何情况下仍然不受支持?
浏览 11
提问于2018-08-01
得票数 1
回答已采纳
2
回答
使用
google-cloud-
python
库将堆栈驱动程序日志导出到
BigQuery
时
的
访问问题
、
、
、
我知道
使用
google-cloud-
python
库通过以下步骤将Stackdriver日志条目导出到
BigQuery
:所以我
的
问题是,有没有其他方法可以让堆栈驱动程序日志拥有对
BigQuery
的
写访问权限来创建
接收器
?
浏览 2
提问于2019-07-09
得票数 0
1
回答
如何从日志资源管理器中去复制GCP日志?
、
我正在
使用
GCP日志资源管理器存储来自管道
的
日志消息。我需要通过查看来自特定事件
的
日志来调试问题。除了末尾
的
事件ID外,此错误
的
消息是相同
的
。因此,例如,错误消息是我知道我可以
使用
以下语法来构造一个查询,该查询将返回具有此特定消息结构
的
日志s
浏览 8
提问于2022-04-28
得票数 1
回答已采纳
1
回答
是否遇到从数据流管道到
BigQuery
的
低速流式写入?
、
、
在
使用
流式插入和
Python
SDK2.23写入
BigQuery
时,我遇到了意外
的
性能问题。
在
没有写入步骤
的
情况下,
流水线
在
一个工作线程上运行,占用大约20-30%
的
CPU。添加
BigQuery
步骤,
流水线
可以扩展到6个工作进程,所有工作进程都占用70-90%
的
CPU。我对数据流和波束很陌生,可能这种行为很正常,或者我做错了什么,但在我看来,
使用</em
浏览 0
提问于2020-09-09
得票数 4
1
回答
数据流是否未显示流管道
的
输出集合计数?
、
、
我有一个从Pubsub读取数据
的
流水线
。我
使用
的
是apache beam
python
sdk 2.10。 我
的
管道包含不同
的
阶段。当我们
使用
ReadFromPubsub从pubsub读取数据时,我能够看到第一阶段
的
输入和输出集合计数。但在第二阶段
中
,仅显示输入采集计数,输出采集计数为空。
在
我
的
最后阶段,我正在给
BigQuery
写信。 ? ? ?
浏览 20
提问于2019-03-06
得票数 2
2
回答
我们能安排StackDriver日志记录到导出日志吗?
、
、
在
同一页
中
也提到过,日志条目的大小限制为100 to。
在
StackDriver
中
是否有任何方法来安排类似于任务或Cron作业
的
任务或任务,以便在固定
的
时间间隔后将日志自动导出到Google存储
中
?大于100 to
的
日志条目发生了什么。我猜它们会被
浏览 1
提问于2019-03-09
得票数 2
回答已采纳
1
回答
如何在写入apache
中
的
自定义
接收器
之前缓冲记录
、
、
我对Flink相当陌生,
在
技术用例方面需要一些帮助。我有一个
在
GKE上运行
的
flink应用程序,并
使用
自定义
接收器
将记录(从Kafka源)写入
BigQuery
。我可以将记录写入
BigQuery
,而不会出现任何问题。目前,记录被一个接一个地写入
接收器
中
,因此每个kafka消息都会得到自己对
BigQuery
的
插入api调用,这并不理想,因为我们需要执行批量插入,并且单独插入每个记录将非常昂
浏览 5
提问于2022-10-18
得票数 2
回答已采纳
2
回答
谷歌数据:每天加载多个小表
我想每天从SQL Server加载大约100个小表(最少5条记录,最多10000条记录)到谷歌
BigQuery
。我们已经创建了100个数据
流水线
,每个源表一个
流水线
。当我们启动一条
流水线
时,大约需要7分钟来执行。当然,它会启动DataProc,连接到SQL server,并将数据导入Google
BigQuery
。当我们必须按顺序运行时,需要700分钟吗?当我们尝试
在
流水线
中
并行运行时,我们受到网络范围
的
限制,可能是256/
浏览 42
提问于2020-07-01
得票数 1
2
回答
每小时高效地将数据从数据存储区导入到
BigQuery
-
Python
、
、
、
目前,我正在
使用
谷歌
的
两步法来备份数据存储,然后将其导入
BigQuery
。我还
使用
流水线
检查了代码。这两种方法都效率不高,而且成本很高,因为每次都会导入所有数据。我只需要添加从上次导入添加
的
记录。什么才是正确
的
方法呢?有没有关于如何在
python
中
做到这一点
的
工作示例?
浏览 0
提问于2014-11-04
得票数 1
1
回答
将userId映射到其关联
的
电子邮件
当我
在
控制台中运行以下命令时,它将返回一个标题为"userId“
的
列(这是一个字段)。如何将此userId映射到其电子邮件地址或用户名?project-id)$ bq show \ projects/<XXX>/locations/europe/transferConfigs/<XXX> userID
的
返回值是一个19个字符
的
整数。这个问题
的
原因是,我们有大量
的
预
浏览 0
提问于2019-12-05
得票数 0
1
回答
Google Cloud - creating sink
、
、
我正在尝试
使用
云shell
中
的
接收器
将日志导出到
bigquery
中
。我做了以下步骤: bq mk数据集 gcloud beta日志
接收器
创建my-bq- my_dataset \
bigquery
.googleapis.com/projects/my-project/datasets/\ my_dataset --log-filter='resource.type="gce_instance&
浏览 12
提问于2020-05-21
得票数 0
2
回答
BigQuery
自动检测模式和创建表,
在
apache_beam中发生流作业时
、
、
、
我有一个信息流进来,想要将它们记录在
BigQuery
中
,但问题是用户可以
在
启动apache_beam作业之前定义一个新
的
表名。此外,流
中
的
架构可以更改超时。我想知道是否有人
使用
Python
实现了流apache_beam作业
的
自动表创建和模式更改。
浏览 12
提问于2022-09-27
得票数 0
1
回答
监控WriteToBigQuery
、
、
、
在
我
的
管道
中
,我
使用
WriteToBigQuery,如下所示: 'thijs:thijsset.thijstable', beam.io.WriteToBigQuery PTransform返回一个字典,其BigQueryWriteFn.FAILED_ROWS条目包含所有未写入
的
行
的
当我完成管道并将结果存储
在
变量<
浏览 0
提问于2019-11-29
得票数 4
回答已采纳
1
回答
使用
自定义目标
接收器
将日志导出到
BigQuery
(表分区)
、
、
我想创建一个“
接收器
”(日志记录服务)来将日志导出到
BigQuery
(分区表)。但是,我无法做到这一点,默认情况下,它正在创建一个碎片表。我
使用
的
是“自定义目的地”,我
在
“
接收器
目的地”选项中
使用
的
代码是:
bigquery
.googleapis.com/projects/miproyecto/datasets/dataset_organizationPD:我
使用
“自定义目标
浏览 0
提问于2020-03-25
得票数 1
1
回答
不显示
BigQuery
源/
接收器
的
数据流管道详细信息
、
、
根据Google团队
的
这个,如果我们
使用
1.6SDK,我们应该能够
在
控制台中看到
BigQuery
源和
接收器
的
详细信息。但是,虽然新
的
“管道选项”确实会显示出来,但是
BigQuery
源/
接收器
的
细节不会显示。我们
的
管道正在批处理模式下运行。供参考
的
工作id是:2016-06-23_04_38_00-7749718775594891108 如何显示
BigQuery</
浏览 4
提问于2016-06-24
得票数 0
回答已采纳
1
回答
Google Cloud数据流
中
的
自动缩放
、
通常,一个工作进程足以处理传入
的
数据,但如果有积压,我们希望自动增加工作进程
的
数量。 我们
的
流水线
从Pubsub读取数据,并每3分钟
使用
加载作业将批处理写入
BigQuery
。我们从一个worker开始运行此管道,向pubsub发布
的
数据是一个worker消耗
的
数据
的
两倍。2小时后,自动伸缩仍然没有生效,因此积压
的
数据大约是1小时
的
数据。这似乎相当糟糕,因为自动伸缩
的
目标是将积压保持
浏览 0
提问于2018-06-29
得票数 7
2
回答
如何用
BigQuery
测试数据流
流水线
我想测试一下我
的
管道。我
的
管道从
BigQuery
中提取数据,然后将数据存储到GCS和S3
中
。虽然这里有一些关于
流水线
测试
的
信息,,但它没有包括从
BigQuery
中提取数据
的
数据模型。有没有好
的
文档来测试我
的
流水线
?
浏览 15
提问于2017-01-25
得票数 1
回答已采纳
1
回答
日志
接收器
到
bigquery
的
分区不起作用
、
、
我
在
文件夹级别创建了一个日志
接收器
,因此它可以将所有日志整齐地流式传输到
Bigquery
。
在
日志
接收器
配置
中
,我指定了以下选项,以便让日志
接收器
流到(每日)分区: "bigqueryOptions": { "usesTimestampColumnPartitioning": true # output only } 根据
bigquery
浏览 19
提问于2020-04-28
得票数 0
2
回答
GCP日志记录库不导出
、
、
、
问题:我已经
在
GCP日志记录
中
创建了一个
BigQuery
接收器
,但是没有数据被导出到
BigQuery
表
中
。 我可以
在
GCP日志记录
中
的
“Logging”选项卡中看到创建
的
接收器
。此外,我可以
在
BigQuery
中看到相应
的
数据集和表。我还检查了相应
的
服务帐户是否有足够
的
权限。它具有"
BigQue
浏览 9
提问于2020-09-01
得票数 0
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
多版本 Python 在使用中的灵活切换
python yield在函数中起返回值中的使用
在ubuntu中使用vscode中调试python
Python 中argparse模块的使用
使用Bootstrap方法在Python中绘制带有置信带的ROC曲线
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券