腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
Google
Bigquery
-
创建活动
记录
数量
的
时间
序列
、
、
、
、
我正在尝试在
google
bigquery
SQL中创建一个
时间
序列
。我
的
数据是一系列
的
时间
范围,涵盖了该
记录
的
活动周期。22:00:00 UTC 2020-11-02 09:48:00 UTC2020-1
浏览 10
提问于2020-11-09
得票数 1
1
回答
如何使用
BigQuery
获取平均
时间
间隔(5分钟)或
记录
数
、
我有
时间
序列
数据,一秒
的
粒度。如何使用
BigQuery
计算/转换数据
的
平均
时间
间隔(例如:5分钟或1分钟)?或平均
记录
的
数量
-平均每60条
记录
-1分钟300条
记录
-5分钟。行数据-每条
记录
一秒。I需要将每条
记录
数据1秒转换为平均5分钟
记录
数据,例如_iowait参数
的
平均5分钟。我需要一些东西,如总结300
浏览 3
提问于2020-10-29
得票数 1
3
回答
web应用程序中
的
大数据分析
、
、
、
、
假设我有非常大
的
时间
序列
数据。例如,我将非常庞大
的
数据存储在像
Google
BigTable这样
的
存储中。我可以非常快地从存储中查询和获取数据。这样我就可以处理存储问题了。到目前为止,这个过程是非常有效
的
。 现在我有了一个web应用程序。我想分析存储在BigTable中
的
大型
时间
序列
,并将结果可视化。我想对超过一百万个点
的
时间
序列
做一个统计评估。所以我有一个解决方
浏览 4
提问于2015-07-20
得票数 1
2
回答
如何使用流insertAll在
BigQuery
中插入38000条
记录
?
、
、
、
我正在尝试使用流式insertAll方法在
BigQuery
中插入38000条
记录
。但首先我得到
的
错误是:com.
google
.cloud.
bigquery
.BigQueryException: Read timed out然后,在将超时
时间
增加为: RetrySettings retrySetting = RetrySettings.newBuilder().setTotalTimeout(Duration.ofMinut
浏览 5
提问于2021-02-18
得票数 2
1
回答
按日期
时间
划分
Google
BigQuery
、
Google
:我想在
Google
BigQuery
表上加载~5B
记录
。我有一个名为“date_time”
的
字段,它描述了
记录
日期
时间
(从2012年到今天)。我希望在这个字段上对
BigQuery
表进行分区。 复杂性:我将所有
记录
都流到
BigQuery
表中,似乎只有过去12个月
的
记录
被
BigQuery
接受。date_time:我已经阅读了说明(),但我仍然不明白如何
浏览 2
提问于2019-03-06
得票数 1
回答已采纳
3
回答
类似SOCRATA SODA
的
查询
、
例如,我将所有的苏格拉塔数据和ETL (提取、转换和加载)都转换到
BigQuery
中。 问题是如何通过纯碱API像查询一样运行。如何通过查询将
时间
戳字段转换为仅用于组
的
年份。例如,如果
记录</
浏览 3
提问于2014-08-10
得票数 1
回答已采纳
5
回答
使用
BigQuery
进行实时分析
有没有办法用
BigQuery
运行实时分析?我使用了CSV upload选项,该选项启动一个作业并以脱机模式加载数据,加载完成后可以对其进行分析。但在关于
BigQuery
的
公告中,提到了使用
BigQuery
进行实时分析。如何才能做到这一点?我们可以将数据从
Google
Cloud数据库追加(无更新)到
BigQuery
中,以进行实时分析吗?顺便提一下,我注意到
BigQuery
CSV数据加载速度比我本地PC上使用10 PC数据文件运行
的
LucidDB和In
浏览 0
提问于2012-05-02
得票数 3
回答已采纳
1
回答
使用BiqQuery API将
Google
BiqQuery结果导出到
Google
工作表
的
最佳方法
、
、
我想将
BigQuery
结果导出到
Google
中,考虑到导出数据
的
数量
很大,那么最好
的
方法是什么呢?我可以运行
BigQuery
(
BigQuery
)并循环它来创建CSV数据,并且可以使用GoogleSheet API上传它,但是我觉得这不是优化
的
方法,因为会涉及数千条
记录
,还有更好
的
出路吗?
浏览 0
提问于2019-04-03
得票数 4
回答已采纳
1
回答
斗鸡
记录
只在这一天
的
小时内计数,并且显示在轴上
的
时间
,即使没有
记录
。
、
所以我有这个event_date (YYYYMMDD)和event_timestamp (以微秒为单位
的
Unix时代)列,用于
BigQuery
(原始数据源是Firebase)
的
每个
记录
。我创建了一个
时间
序列
/条形图(我尝试了两者),它将x轴显示为当前一天中
的
小时(我在event_date上进行了筛选),y轴显示了
记录
的
数量
。我这样做
的
方式是使用Data函数HOUR(event_times
浏览 2
提问于2019-12-28
得票数 1
回答已采纳
1
回答
Python/Pandas/
BigQuery
:如何使用大量新
的
时间
序列
数据有效地更新现有表?
、
、
、
、
我有一个程序可以从远程数据库下载
时间
序列
(ts)数据,并将数据保存为csv文件。新ts数据被追加到旧ts数据。随着下载更多数据,我
的
本地文件夹继续增长和增长。下载新
的
ts数据并保存后,我想将其上传到
Google
BigQuery
表中。做这件事最好
的
方法是什么?接下来,我删除
Google
BigQuery
中
的
任何表,然后手动创建一个新表,首先删除
Google
BigQuery
中<em
浏览 2
提问于2017-06-28
得票数 0
回答已采纳
2
回答
Apache
的
BigQuery
连接器-更新一个分区表
、
、
、
我在
Google
DataProc上用Scala写了一个火花作业,它每天执行并处理
记录
,每个
记录
都有一个事务
时间
标记。
记录
按年月组合分组,每个组被写入GCS中
的
一个单独
的
每月拼花文件(例如,2018-07-file.parquet、2018-08-file.parquet等)。请注意,这些文件可以追溯到5年前,并形成一个非常大
的
数据集(~1TB)。 我希望将这些文件写入
BigQuery
,并让作业只更新当前运行中更改
的
浏览 0
提问于2018-08-27
得票数 0
回答已采纳
2
回答
如何在
Google
Bigquery
中按小时分组
、
、
、
我
的
Google
Bigquery
表有date和time列。表中每隔10分钟发布一次新数据,因此日期字段应为"2018-10-26“,
时间
字段为"19:05:00”。下一条
记录
将类似于日期和
时间
字段
的
"2018-10-26“和"19:15:00”。如何按一小时汇总每天
的
数据(每天24条
记录
)? SQL请求使用Apps脚本从
Google
Sheets发送。以下是谷歌
big
浏览 0
提问于2018-10-27
得票数 5
回答已采纳
1
回答
服务,它对数据集进行高级查询,并在每次向集合中添加新数据时自动返回相关
的
更新结果?
、
、
、
、
我正在寻找一个云服务,它可以对用户提交
的
大量选票进行“实时”
的
高级统计计算。 在我们
的
应用程序中,用户可以提交不同类型
的
投票,比如选择最喜欢
的
,评分1-5,说是/不,等等。我们还想向用户显示“实时”统计数据,显示一个人
的
受欢迎程度等等。这将由一个相当复杂
的
SQL生成,在这个SQL中,我们计算一个人被选为最受欢迎的人
的
平均次数,除以该人参与
的
总票数和游戏数等。最新
的
X游戏
的
得分应该高于所有游
浏览 0
提问于2019-05-27
得票数 0
回答已采纳
3
回答
自定义度量.数据保持期
、
、
、
我使用自定义度量,并创建了几个仪表板图来显示系统上
的
流量。问题是图形系统将数据保存了几个星期,而不是永远。来自Stackdrive 这个“人工数据副本”是如何工作
的
?只需
浏览 3
提问于2019-09-25
得票数 3
回答已采纳
1
回答
从BQ到CLoud SQL
的
数据传输
、
、
、
每天将所有
记录
从
BigQuery
表传输到Cloud表
的
最佳方法是什么(每天预期
记录
的
大致
数量
超过255801312,255,000)。我知道我们可以创建从BQ到CloudSQL
的
数据流管道,但是这大量
的
数据将持续几个小时。在
google
云中实现
的
最佳解决方案是什么?
浏览 7
提问于2021-11-10
得票数 0
回答已采纳
2
回答
在
BigQuery
中,
google
源表更新
的
日志看起来如何?
、
、
、
、
我在
BigQuery
中有几个表,它们都来自
Google
表。当
Google
表被更新时,
BigQuery
中
的
表也会自动更新。我正在试图了解此事件
的
日志在操作日志中
的
样子。我
的
最终想法是创建这些日志
的
接收器,以便创建Pub/Sub,并根据这些事件运行预定
的
查询。 谢谢
浏览 3
提问于2021-12-19
得票数 0
3
回答
如何跟踪从biguquery UI执行
的
查询
的
所有者和
时间
戳
我们有一个系统来跟踪在上执行
的
所有查询。我们实际上是通过gcloud实用程序使用gcloud,为了跟踪DDL/DML查询,我们在DB上存储用户名和查询执行
时间
以及
时间
戳。但是,在这些API中,我无法跟踪直接从
Bigquery
中创建或删除表
的
DDL查询。有什么方法可以追踪这些查询
的
对象和
时间
吗?
浏览 2
提问于2020-03-27
得票数 0
3
回答
使用
BigQuery
中
的
Google
to_dataframe查询在使用结果()时有效,但在使用to_dataframe()时出现权限问题
、
、
在我
的
pip包和返回查询结果
的
bigquery
连接器升级后,我突然停止了以下错误消息
的
处理from
google
.oauth2 import'data = client.query('select * from dataset.table').t
浏览 20
提问于2022-07-14
得票数 4
回答已采纳
1
回答
如何在
BigQuery
中填充
序列
号
、
有没有办法将
序列
号与
BigQuery
中
的
记录
一起填充?例如,如果我要在
BigQuery
表中插入1000条
记录
,则必须有一个字段(序号。不是。)它将包含每次插入
的
记录
号。下次发生另一次插入时,
序列
号应从1001开始。请让我知道在
Bigquery
中是否有这样
的
内置工具或解决方法。
浏览 16
提问于2018-01-03
得票数 1
1
回答
在
BigQuery
中使用
Google
Data Studio社区连接器时
的
时间
戳查询问题
、
我遇到了一个问题,
Google
Data Studio将错误
的
时间
戳数据发送到我
的
社区连接器,因此当我尝试过滤日期时,我会得到一个错误。我有两个
BigQuery
TIMESTAMP类型字段(名为timestamp和created_at),这两个字段都不加修改地传递到我
的
社区连接器。一旦我向报告中添加了一个日期过滤器(为了进行
时间
序列
或常规过滤),如下所示: ? 然后,我从连接器(在我
的
BigQuery
项目历史<
浏览 2
提问于2020-09-01
得票数 0
点击加载更多
相关
资讯
时空伴随者是指有着移动对象的位置和时间的记录序列的人。
谷歌宣布其BigQuery服务已支持以太坊区块链数据分析
谷歌推出Bigtable联邦查询,实现零ETL数据分析
使用Kafka,如何成功迁移SQL数据库中超过20亿条记录?
逆天了!谷歌把以太坊大数据搬上了谷歌云
热门
标签
更多标签
云服务器
ICP备案
对象存储
云点播
实时音视频
活动推荐
运营活动
广告
关闭
领券