腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
2
回答
发布
/
订阅
csv
数据
到
数据
流到
BigQuery
、
、
、
、
我的渠道是IoTCore ->
发布
/
订阅
->
数据
流->
BigQuery
。最初,我得到的
数据
是Json格式的,管道工作正常。现在我需要转到
csv
,问题是我使用的Google定义的
数据
流模板使用Json输入而不是
csv
。有没有一种简单的方法通过
数据
流将
csv
数据
从
发布
/
订阅
传输到
bigquery
。
浏览 27
提问于2021-01-03
得票数 0
回答已采纳
3
回答
MongoDB
到
BigQuery
、
将
数据
从托管在mlab中的MongoDB导出到google
bigquery
的最佳方式是什么?最初,我尝试从MongoDB
到
bigquery
的一次性加载,后来我考虑使用
发布
/
订阅
实时
数据
流到
BigQuery
。 我需要帮助第一次从mongodb加载到
bigquery
。
浏览 0
提问于2017-02-11
得票数 14
回答已采纳
2
回答
Dataflow应该使用Pub/Sub主题或
订阅
中的事件吗?
、
、
、
我希望使用Dataflow将事件从PubSub流
流到
BigQuery
。我看到在GCP中有两个模板可以实现这一点:一个是Dataflow从主题中读取消息,另一个是
订阅
。在这里使用
订阅
的好处是什么,而不仅仅是使用主题中的事件?
浏览 0
提问于2019-05-24
得票数 2
回答已采纳
3
回答
通过Google /Sub+ Dataflow直接
流到
BigQuery
的利弊
、
、
我可以看到三种不同的方法: 将每个事件
发布
到
API中的Pub/Sub主题,但是不要使用Dataflow,而是使用一个定制的工作进程,它一
浏览 7
提问于2018-01-11
得票数 21
1
回答
为什么使用Gcloud Pub/Sub?
、
、
、
为什么使用
发布
/
订阅
?Usecase:有一个http触发的"Cloud function“,在这个函数上发送一些
数据
。此函数在处理
数据
后,将
数据
发布
到
发布
/
订阅
主题。然后还有另一个Cloud函数,它是基于
发布
到
该
发布
/
订阅
主题而触发的。因此,这个云函数从
发布
/
订阅
中获取已
浏览 7
提问于2021-04-09
得票数 1
回答已采纳
1
回答
有没有办法从
BigQuery
SDK / API获取实时
数据
?
我在做一个项目,在这个项目中我遇到了一个问题,我想从
BigQuery
数据
集中获取实时
数据
,所以我努力研究了解web套接字,如pusher和laravel-websocket,我还对它们进行了测试 但是有一件事我不明白,如果我把Laravel SDK和我的
BigQuery
项目连接起来,我没有发现
BigQuery
提供给我们的任何事件或方法,因为在我的场景中,大多数
数据
来自IoT设备,而设备使用bigQueryAPI来提供
数据
,我也希望这些设备的
数据
是实时的
浏览 20
提问于2021-07-07
得票数 0
1
回答
VCP Google Cloud Platform的
数据
流
发布
/
订阅
主题
到
BigQuery
,而不是从
订阅
中提取
数据
、
、
、
、
我正在使用GCP处理和存储从模拟IoT设备发送的
数据
。
数据
(应该)在以下路径中流动: 带有mqtt客户端的模拟IoT设备-> IoT核心设备-> IoT核心注册表->
发布
/
订阅
主题->
发布
/
订阅
订阅
->云
数据
流
发布
/
订阅
订阅
BigQuery
模板->
BigQuery
当
数据
流在指定子
浏览 21
提问于2021-10-01
得票数 0
回答已采纳
2
回答
从Google Cloud中的网站自动导入
数据
、
、
我正在尝试找到一种方法,使用这个链接自动更新一个大型查询表: 这个链接每周都会更新新的
数据
,我希望能够用这个新
数据
替换大查询表。我该如何提交一个脚本来导入
数据
并将这些
数据
提供给Big Query呢?
浏览 0
提问于2019-12-25
得票数 0
1
回答
从
发布
/
订阅
流到
BigQuery
、
、
、
、
我正在尝试使用python
数据
流将一些
数据
从google PubSub传输到
BigQuery
中。出于测试目的,我已经将以下代码修改为流管道,方法是设置因此,我将record_ids管道更改为从
发布
/
订阅
读取lines = p | 'Read PubSub' >> beam.io.ReadStringsFromPubSub(INPUT_T
浏览 1
提问于2017-09-07
得票数 5
1
回答
使用Javascript将传感器生成的
数据
推送到Google Cloud Function
、
、
、
、
这个设备有自己的接口来读取生成的
数据
,我有它用来做这件事的代码。我需要帮助使用代码获取生成的
数据
,并将其发送到云上。我是一个初学者,我不知道如何去解决这个问题,所以任何类型的方向都将非常感谢。下面是用于获取
数据
并将其打印到HTML表上的代码。
浏览 1
提问于2021-02-22
得票数 0
1
回答
从PubSub
到
Java API的扫雪机
数据
处理
、
我正在使用扫雪机进行行为
数据
跟踪。docs.snowplowanalytics.com/docs/getting-started-on-snowplow-open-source/setup-snowplow-on-gcp/setup-
bigquery
-destination/)将
数据
从
发布
/
订阅
使用到
BigQuery
,但我希望直接使用从
发布
/
订阅
到
Java API的
浏览 20
提问于2021-05-07
得票数 0
回答已采纳
2
回答
Data Catalog不会自动从存储桶(GCS)中的文件中读取技术元
数据
我没有故意在文件集中定义模式,因为我希望
数据
目录自动在文件内/从文件中找到技术元
数据
。一切都是通过Google控制台UI进行设置的。 Data Catalog找不到与存储桶中的文件相关的元
数据
。但是,如果我创建了一个
发布
/
订阅
主题的
BigQuery
表,来自这些资源的元
数据
会立即显示出来。 我希望Data Catalog能够扫描存储桶中的文件,并自动显示元
数据
(可搜索)。存储桶中的文件可以是.avro、.json、.parquet或.
浏览 23
提问于2021-03-18
得票数 1
回答已采纳
2
回答
是否有用于“
发布
/
订阅
到
云扳手”的GCP
数据
流模板
、
我正在尝试找出是否有任何GCP
数据
流模板可用于“
发布
/
订阅
到
云扳手”的
数据
摄取。我发现已经有一个默认的GCP
数据
流模板可用于示例-“云
发布
/
订阅
到
BigQuery
”。因此,我有兴趣看看我是否可以在流或批处理模式下对扳手进行
数据
摄取,以及行为会如何
浏览 27
提问于2019-03-02
得票数 0
1
回答
bigquery
中日期/时间戳分区表允许的范围
在google文档中,我可以看到关于分区表的以下几点:
流到
分区表中您可以将
数据
流到
在过去5年和未来1年之间的日期或时间戳列上分区的表中。超出此范围的
数据
将被拒绝。https://cloud.google.com/
bigquery
/streaming-data-into-
bigquery
在一个地方写着:你可以在过去的1年
到
未来的6个月之间流式传输
数据
。超出此范围的
数据
将被拒绝。https:
浏览 16
提问于2020-09-16
得票数 0
回答已采纳
2
回答
从URL
到
BigQuery
的GCP云函数与ETL
数据
流
、
、
、
、
我正在使用下面的ETL管道将
数据
输入
BigQuery
。
数据
源是.
csv
& .xls文件,来自每日下午3点
发布
的网址云调度程序在下午3:05向云
发布
/子主题
发布
消息Pub/Sub推送/触发
订阅
者-云函数在触发时,这些云函数(python )从URL下载文件,执行转换(清理、格式化、聚合和过滤)并将其上传到
BigQuery
。在GCP中是否有一种更干净的方法可以根据计划从URL下载文件,将其转换并上传
浏览 4
提问于2022-07-27
得票数 1
1
回答
从API向Google Cloud中的
Bigquery
摄取流
数据
、
、
我想从流中的api中摄取
数据
到
bigquery
。我想最好的选择是使用云
数据
流,以便将这些
数据
摄取到
bigquery
中,但是我不知道如何从https://developer.tomtom.com/traffic-api接口中提取
数据
我是否可以在相同的
数据
流管道中提取
数据
,或者我必须创建一个实例并从中提取
数据
到
云
发布
/
订阅
,然
浏览 16
提问于2020-04-17
得票数 0
回答已采纳
2
回答
使用
数据
流将来自Pub/Sub
订阅
的
csv
数据
流到
BigQuery
、
、
我在
数据
流中使用Pub/Sub
订阅
BigQuery
模板。Pub/Sub
订阅
中的消息
数据
是
csv
格式,如下所示 这将在加载到
BigQuery
如何在模板中将
CSV
数据
转换为JSON?
浏览 0
提问于2021-03-10
得票数 0
4
回答
将
csv
从gcs迁移到postgresql
、
、
、
、
我正在尝试使用python脚本将已经从
BigQuery
导出的
csv
文件从迁移到PostgreSQL Google实例。 作为另一种选择,我可以使用psycopg2库并将
csv
文件的行
流到
SQL实例中。本质上,我在
BigQuery
中有一些原始
数据
,我们在导出到GCS之前对这些
数据
做了一些预处理,以准备导入
到
Postg
浏览 2
提问于2018-10-03
得票数 6
回答已采纳
1
回答
合并复制
发布
订阅
服务器方案
、
、
在SQL 2008级别的一个
数据
库中,我有一个可更新的
发布
(称为目录),它未经过滤,由SQL 2000服务器
订阅
,然后重新
发布
到
MS Access客户端。我可以在make
订阅
服务器上进行插入/更新,它们很好地
流到
SQL 2008服务器。在SQL 2008的另一个
数据
库中,我有几个出版物。第一个
发布
具有基于区域值的静态筛选器。另一个出版物是订单和行的未经过滤的
发布
。这两个
发布
都由SQL 20
浏览 0
提问于2009-09-03
得票数 1
2
回答
Pubsub to
Bigquery
、
、
我有一个作为流的
数据
管道: app
发布
到
pubsub,推到
BigQuery
。在Docs 中的示例中,它们向托管在AppEngine中的工作人员提供pubsub推送,该工作人员随后处理
数据
(在我的示例中是写入适当的
BigQuery
表)。但是,是否有可能通过
订阅
BigQuery
表直接推送pubsub呢?
浏览 3
提问于2016-11-10
得票数 0
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Python把csv数据导入到Neo4j。
去中心化查询引擎Subsquid计划将用户数据引入到Google BigQuery中
Gutenberg:Netflix推出的一项数据集发布订阅服务
使用Kafka,如何成功迁移SQL数据库中超过20亿条记录?
从Lambda到无Lambda,领英吸取到的教训
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券