腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(511)
视频
沙龙
2
回答
如何将
数据
从
谷歌
BigQuery
加
载到
谷歌
云
Bigtable
、
、
我需要将
数据
填充到
谷歌
云
Bigtable
中,
数据
的来源将是
谷歌
BigQuery
。 作为练习,我能够,作为单独的练习,我能够。
浏览 13
提问于2016-08-20
得票数 3
回答已采纳
1
回答
将
谷歌
BigQuery
表中的GCP
数据
加
载到
Snowflake
、
我在
谷歌
BigQuery
表/视图中有
数据
,在
谷歌
云
存储存储桶中。我已经为这个存储桶创建了一个集成和外部阶段,并且可以在Snowflake中查看存储桶中的文件。现在
如何将
数据
从
谷歌
BigQuery
表加
载到
Snowflake表中?
浏览 13
提问于2020-05-02
得票数 0
1
回答
BigQuery
数据
仓库设计?
、
、
、
我正试图在Google
云
平台上设计一个系统,在那里我可以执行所有这些转换。请帮帮忙。HDFS::着陆区->级1区->级2区我在Google中实现的思想过程: 登陆
浏览 0
提问于2018-08-14
得票数 0
回答已采纳
1
回答
来自CSV的Google tables.insert为本地文件提供无效的源URI
、
我有一个CSV文件,我想使用tables.insert Google调用上传该文件,这允许我使用externalDataConfiguration上传CSV文件,该文件可以在
Bigquery
中自动创建表"autodetect": true "tableReference": { }我已经用google
数据
集测试了这一点
浏览 4
提问于2019-10-14
得票数 1
回答已采纳
1
回答
将json
数据
从
firebase转换为结构化格式,以运行大查询
、
、
、
、
我是个
数据
库新手。我在firebase上有json格式的
数据
,我必须在上面运行
bigquery
。出于这个原因,我希望将其转换为结构化
数据
库。哪种方法是最好的呢?我想要实时地做。
浏览 0
提问于2020-01-20
得票数 0
2
回答
通过
BigQuery
访问
、
、
看起来与
BigQuery
是可能的,它的url类似于: PROJECT_ID是否可以通过
BigQuery
连接到
数据
存储?(即不只是通过
数据
存储-备份)
浏览 3
提问于2017-10-19
得票数 0
回答已采纳
3
回答
从
Google Cloud SQL迁移到Google
Bigquery
、
我需要将我的两个表
从
Google Cloud SQL迁移到Google
Bigquery
。 该
数据
的大小约为1TB,并包含约5个月的股市节拍
数据
。我
从
文档中了解到,我可以将
数据
导出为CSV并将其加
载到
Bigquery
中。我希望按照最佳实践中的建议,在Google
Bigquery
中进行日期分区。此外,我希望在每个日期的
数据
迁移后做一个健壮的验证,以确保
数据
在传输过程中不会被破坏。我的问题是,我如何编
浏览 1
提问于2018-01-30
得票数 4
1
回答
是否可以使用google-spreadsheet- to -json并将其作为firebase函数进行部署?
、
、
、
我在使用firebase函数通过http客户端获取
数据
时遇到了问题。
浏览 1
提问于2019-01-17
得票数 0
1
回答
将一个组织下的所有项目合并成一个
bigtable
、
、
我正在构建一种类似的方法,将所有日志引入
BigQuery
数据
集中。根据这个,我能够将项目日志详细信息带到相应的
BigQuery
中。但是,我们
如何将
所有项目日志合并到一个
Bigtable
中,例如,假设一个组织有50个项目,而在配置最小的情况下,我希望50个项目的所有日志作为合并的项目日志出现在一个
Bigtable
中。
浏览 4
提问于2021-12-22
得票数 0
回答已采纳
3
回答
google
云
上的存储
、
我有以下用例:需要使用PySpark分析大量结构化
数据
。
数据
当前为CSV格式。我正在尝试找出在
谷歌
云
上存储
数据
的最佳方式。我的理解是HDFS不会工作,因为每次集群关闭,HDFS
数据
都会消失,所以我每次都必须
从
CSV转换到HDFS,这很耗时。似乎正确的策略是使用
BigQuery
,但是我不能确定
BigQuery
是否是持久性的?
浏览 20
提问于2017-06-28
得票数 0
回答已采纳
2
回答
2 TB+表的
Bigquery
红移迁移
我正在尝试将Redshift迁移到
BigQuery
。表的大小是2TB+,我正在使用
bigquery
红移
数据
传输服务。但是迁移已经运行了5个多小时。还可以看到在Redshift端执行的查询将
数据
卸
载到
50MB的区块中。由于无法在红移传输作业中配置块大小参数。将2TB的
数据
从
redshfit传输到
BigQuery
需要这么多时间,或者可以做一些事情来改进这项工作。 有一些像雪花一样的系统,
从
红移到结束只需要2-3个小时。
浏览 39
提问于2019-07-22
得票数 0
1
回答
BigQuery
外部
数据
源查询配额
、
我使用
云
BigQuery
外部
数据
源设置了一个
BigTable
表。这很好,并且我能够运行将我的
BigTable
数据
加入到其他一些
BigQuery
数据
的查询。但是,当我对这个表同时运行太多查询时,我会得到以下错误: 我无法在链接页面或
BigQuery
配额和限制页面上找到任何关于并发查询限制的文档。我不会在这里
浏览 0
提问于2018-03-14
得票数 0
回答已采纳
6
回答
与
BigQuery
用于存储大量事件
、
、
、
我怀疑很适合这样做,但根据的说法,它将花费我们每月1400多美元(这对我们来说是一件大事):看一看像这样的东西,每个月的价格是3美元(如果我没有遗漏一些必要的东西):即使没有模式的
数据
库更适合我们,我们也可以将我们的事件作为带有一些元
数据
的blob来存储。问题 我们可以用
BigQuery
代替
Bigtable
来降低成本吗?例如,
BigQuery
有一个叫做的东西,对我来说,这似乎是我们可以使用的东西。
浏览 5
提问于2015-12-23
得票数 23
回答已采纳
1
回答
如何编程将大文件
从
桌面上传到
BigQuery
?
、
正在尝试将大型CSV文件
从
桌面上传到
BigQuery
(使用python)。寻找一种程序化的方式。已使用Cloud SDK shell,但正在寻找基于web的自定义解决方案。[ ]那么
如何将
数据
从
选定的CSV文件发送到要插入到
BigQuery
中的python脚本所在的App engine?尝试过分块上传,但如何重定向到python脚本而不是 servlet。
浏览 3
提问于2014-11-06
得票数 1
1
回答
Hadoop /减少来自我自己的Hadoop集群的
云
Bigtable
作业
、
、
在本文中,它在Google中创建了一个Hadoop集群,并连接到
云
bigtable
集群。是否可以
从
我自己的Hadoop集群连接到
云
bigtable
集群?
浏览 0
提问于2015-07-22
得票数 1
回答已采纳
1
回答
使用Javascript将传感器生成的
数据
推送到Google Cloud Function
、
、
、
、
我正在做一个项目,其中一个名为Eyedro的设备可以感知电压和电流等信息,并将其上传到已经设置好的
云
功能。这个设备有自己的接口来读取生成的
数据
,我有它用来做这件事的代码。我需要帮助使用代码获取生成的
数据
,并将其发送到
云
上。我是一个初学者,我不知道如何去解决这个问题,所以任何类型的方向都将非常感谢。下面是用于获取
数据
并将其打印到HTML表上的代码。
浏览 1
提问于2021-02-22
得票数 0
2
回答
在Google上安装pypi包google- Cloud -datastore失败
、
要从Composer环境启动
数据
流作业,我需要有PyPi包。当我试图通过接口或
云
shell添加此包时,构建失败。I 2020-03-04T14:36:23.939669242Z
谷歌
-
云
-
数据
存储1.11.0要求google coregrpc<2.0.0dev,>=1.14.0,但您有google core 1.8.1所以google
云
数据
存储需要google core>=1.0.3.我试图显式地将Google
云
核心设置为1.0.3,但
浏览 3
提问于2020-03-05
得票数 0
回答已采纳
3
回答
BigQuery
和
Bigtable
有什么区别?
、
、
、
、
为什么有人会使用
Bigtable
而不是
BigQuery
呢?两者似乎都支持读写操作,后者还提供了高级的“查询”操作。我需要开发一个联盟网络(因此我需要跟踪点击和‘销售’),所以我很困惑的区别,因为
BigQuery
似乎只是一个更好的应用程序接口的大表。
浏览 0
提问于2016-10-07
得票数 101
回答已采纳
1
回答
BigQuery
:作业资源为200 OK,"outputRows":584,但
数据
不在
BigQuery
表中
、
、
我有一个
从
大量资源下载文件的Python脚本,然后这些文件被上传到
谷歌
云
存储桶经过一些处理,从那里这些文件被加
载到
BigQuery
表中。问题是,
从
脚本的日志中看起来一切都很完美。将文件下载、处理、上传到加
载到
Bigquery
的存储桶中。当我
从
谷歌
rest v2作业获取()状态为200OK和"outputRows":584时,我检查作业资源,但
数据
不在
BigQuery</e
浏览 4
提问于2017-11-20
得票数 3
1
回答
将协议
数据
加
载到
bigquery
、
、
、
、
我是第一次接触protobuf
数据
,我已经通过googling
从
proto文件中生成了python代码,现在我想将GCS中的protobuf
数据
加
载到
bigquery
中。我在
谷歌
上搜索了很多,以便找到一种方法将协议
数据
直接加
载到
bigquery
中。 我正在经历几个github回购,如下所示。有没有人可以用一个简单的例子来解释或指导我
如何将
protobuf
数据
加
载到
bigqu
浏览 1
提问于2020-12-17
得票数 1
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
云直播
实时音视频
即时通信 IM
活动推荐
运营活动
广告
关闭
领券