腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
2
回答
Google
BigQuery
的
内部
数据
存储
位置
是否
可以
指向
其他
位置
,
如
本地
内部
基础设施
?
google-bigquery
我真的很想使用
BigQuery
进行
数据
分析和开发商业智能。唯一令人担忧
的
是,我们
的
一些客户对云
存储
不太满意,因此我们有
内部
服务器为所有
其他
流程
存储
数据
。据我所知,除了指定应该使用云中
的
哪个
位置
(美国或欧盟)外,
BigQuery
在
数据
集
的
存储
上没有提供灵活性。有没有办法指定将
BigQuery
数据
浏览 55
提问于2017-02-11
得票数 0
回答已采纳
3
回答
google
云上
的
存储
hadoop
、
google-bigquery
我有以下用例:需要使用PySpark分析大量结构化
数据
。
数据
当前为CSV格式。我正在尝试找出在谷歌云上
存储
数据
的
最佳方式。我
的
理解是HDFS不会工作,因为每次集群关闭,HDFS
数据
都会消失,所以我每次都必须从CSV转换到HDFS,这很耗时。似乎正确
的
策略是使用
BigQuery
,但是我不能确定
BigQuery
是否
是持久性
的
?
浏览 20
提问于2017-06-28
得票数 0
回答已采纳
1
回答
我们
可以
在使用
Bigquery
库从
Bigquery
读取
数据
的
同时,将
位置
从US更改到
其他
区域吗?
amazon-web-services
、
google-cloud-platform
、
google-bigquery
、
cloud
我试图使用
Bigquery
使用读取
数据
。val
bigquery
:
BigQuery
=BigQueryOptions.newBuilder().setLocation("asia-southeast1").b
浏览 3
提问于2020-01-07
得票数 1
1
回答
在"bq . localfile.csv“期间,输入暂时
存储
在哪里?
google-cloud-platform
、
google-bigquery
、
google-cloud-storage
gcloud-sdk命令“gcloud”
可以
将一个
本地
文件作为输入。 从命令
的
输出来看,该文件似乎是在
bigquery
加载作业计划之前首先上传到
google
云
存储
中
的
。考虑到
bigquery
调度
的
REST load-作业端点也只接受"gs://“urls,而且加载作业需要
数据
是可访问
的
,我很确定这种上传到云
存储
的
情况正在发生(尽管我找
浏览 0
提问于2018-03-12
得票数 0
回答已采纳
3
回答
使用
BigQuery
中
的
Google
to_dataframe查询在使用结果()时有效,但在使用to_dataframe()时出现权限问题
python
、
google-bigquery
、
google-cloud-storage
在我
的
pip包和返回查询结果
的
bigquery
连接器升级后,我突然停止了以下错误消息
的
处理from
google
.oauth2 import').to_dataframe() data = client
浏览 20
提问于2022-07-14
得票数 4
回答已采纳
1
回答
大型查询作业
的
Python配置需要一个sourceUri值,但没有sourceUri
python
、
python-2.7
、
google-bigquery
当试图为
Google
BigQuery
作业编写Python脚本时。我遵循在作业中找到
的
配置指南。它表示需要配置参数configuration.query.tableDefinitions.此参数被描述为“
指向
中
数据
的
完全限定URI”。但是,我提交
的
查询运行
的
是大查询中
的
数据
集,而不是云
存储
中
的
数据
。我尝试将format参数保留为空,或者将其
指向
有
浏览 2
提问于2015-05-05
得票数 2
回答已采纳
1
回答
如何从content uri android获取文件
位置
android
、
file
、
uri
、
scoped-storage
我
的
应用
可以
打开像pdf,djvu,odt这样
的
文档。从文件管理器等
其他
应用程序提供
的
内容uri中,它
可以
使用getInputStream()读取文件。但这个应用程序有一个最近/历史部分。目前,这是通过将文档复制到某个地方并在有人打开最近
的
文档时打开它来实现
的
。这伴随着
存储
使用
的
成本和更多
的
文件io。如果文件
位置
可以
在可访问
的
存
浏览 1
提问于2021-09-02
得票数 0
1
回答
谷歌云
数据
存储
是面向列
的
NoSQL
数据
库吗?
python
、
google-app-engine
、
google-cloud-datastore
据我所知,BigTable是一个面向列
的
NoSQL
数据
库。尽管谷歌云
数据
存储
构建在谷歌
的
BigTable
基础设施
之上,但我还没有看到文档明确地说明
数据
存储
本身就是一个面向列
的
数据
库。由Python API保留
的
名称是在API中强制执行
的
,而不是在
数据
存储
本身中强制执行
的
,这一事实让我怀疑
数据
存储</em
浏览 0
提问于2016-06-03
得票数 1
1
回答
Google
BigQuery
和
Google
Bigtable之间有什么关系?
google-cloud-platform
、
google-bigquery
、
google-cloud-bigtable
基于许多来源,我了解到(
BigQuery
和Bigtable)都被认为是用于
数据
和
的
2不同
的
解决方案。例如,写道,如果我们需要大量
数据
的
统计
数据
(例如,和、平均值、计数),我们
可以
将
bigQuery
看作一个
数据
存储
。相反,BigTable
可以
像通常
的
NoSql
存储
一样考虑。另一方面,我读过,其中提到: 从这个片段中,我了解到
BigQu
浏览 2
提问于2020-03-03
得票数 0
回答已采纳
1
回答
在
本地
导出大型查询表
pandas
、
google-cloud-platform
、
google-bigquery
我有一个大
的
查询表,我想运行使用熊猫DataFrame。该表很大,使用: pd.read_gpq()函数会卡住,无法检索
数据
。我使用熊猫实现了一个块机制,但它需要很长
的
时间(900万行需要一个小时)。所以我在研究一种新
的
润肤液。# from
google
.cloud import
bigquery
# bu
浏览 0
提问于2019-02-18
得票数 1
2
回答
有没有一种方法
可以
连续地将
数据
从Azure Blob输送到
BigQuery
?
azure
、
google-bigquery
、
azure-blob-storage
、
data-pipeline
我在Azure Blob
存储
中有一堆文件,而且它不断地获得新
的
文件。我想知道
是否
有一种方法
可以
让我首先将我在Blob中
的
所有
数据
转移到
BigQuery
,然后继续运行一个脚本或一些作业,以便将其中
的
所有新
数据
发送给
BigQuery
?
浏览 10
提问于2017-06-28
得票数 0
回答已采纳
1
回答
BigQuery
:将
BigQuery
表从美国多个地区导出到另一个地区
的
GCS
是否
需要支付传输费?
google-cloud-platform
当将
BigQuery
表从美国多个地区导出到另一个地区
的
GCS时,
是否
存在传输费?例外情况:如果您
的
数据
集位于美国多区域
位置
,则
可以
将
数据</em
浏览 0
提问于2020-02-04
得票数 3
回答已采纳
2
回答
如何计算将
数据
从蔚蓝
数据
转移到
google
BigQuery
时
的
成本
azure
、
google-cloud-platform
、
google-bigquery
我们在Azure中有一个
数据
存储
管道,
可以
将一个前提下
的
SQL表移动到Azure blob
存储
的
Gen2中。我认为大部分费用都来自Azure仓库,对吧?现在,我们希望将这些
数据
移动到
BigQuery
。由于我们
的
安全策略,我们仍然需要
数据
表管道从SQL表中读取。因此,我们创建了一个
数据
库笔记本,以读取拼花文件,并移动到
BigQuery
使用火花
BigQuery
连接器。
浏览 5
提问于2021-01-21
得票数 0
回答已采纳
1
回答
->
Bigquery
->每日导出到IBM云
存储
google-cloud-platform
、
google-bigquery
、
google-cloud-dataflow
我们已经启用GA 360导出到
Bigquery
,每天创建一个新表。为了进一步处理,我们需要将每日导出转移到IBM云对象
存储
。最简单
的
解决办法是使用CLI -bq extract( b)将摘录移动到IBM对象
存储
中。gsutil cp1)我们能否在两者之间跳过
google
云
存储
,并且
是否
可以
直接导出到IBM? 2)我们以
浏览 0
提问于2019-09-05
得票数 2
回答已采纳
2
回答
使用
Google
被动摄取批
数据
(客户端推送)
的
好方法是什么?
google-cloud-platform
、
google-api
、
google-cloud-storage
、
batch-processing
、
data-ingestion
到目前为止,我认为最好
的
解决方案是端点(让他们将
数据
推送到
存储
中),这样我们就
可以
使用它并进行所有的
数据
科学处理。我
的
云提供商是
Google
,我
的
客户端使用MySQL服务器。我一直在网上阅读许多主题,并达到以下链接: --这些URL是访问时间限制
的
资源,例如
Google
,并将
数据
写入其中。我
的
简单解决方案是
浏览 4
提问于2020-02-06
得票数 2
1
回答
检查
Google
BigQuery
是否
使用GCS
存储
桶或任何
其他
存储
。
google-cloud-platform
、
google-bigquery
、
cloud
、
bigtable
我对
Google
Cloud非常陌生。我在
google
BigQuery
中查询了一些公共
数据
集。我想知道
是否
有任何可能
的
方法
可以
让我们知道正在查询
的
数据
是否
来自
Google
Cloud
存储
桶。关于我正在扫描
的
数据
集
的
任何类型
的
存储
元
数据
都将是有用
的
。 <em
浏览 11
提问于2021-02-21
得票数 0
回答已采纳
1
回答
什么是谷歌云
数据
存储
?
google-cloud-datastore
什么是谷歌云
数据
存储
?
浏览 2
提问于2013-05-15
得票数 4
1
回答
GCP -边缘到边缘路由
google-cloud-platform
、
vpc
你好Stackoverflow社区,我们需要VPC1中
的
项目资源来与
本地
通信,但我们不想为每个VPC创建单独
的
VPN隧道。我知道亚马逊网络服务不支持跨边界路由,我想知道
是否
有一种方法<em
浏览 21
提问于2018-09-07
得票数 1
回答已采纳
1
回答
从AWS SageMaker访问
Google
BigQuery
python
、
google-bigquery
、
amazon-sagemaker
在
本地
运行时,我
的
木星笔记本
可以
引用
Google
BigQuery
,如下所示:FROM因此,在我
的
笔记本后面,我
可以
将some_bq_table作为熊猫
数据
引用,如下面的例子: 我想在AWS SageMaker上运行我
的
笔记本来测试一些东西。要使用
BigQuery</
浏览 0
提问于2019-04-05
得票数 4
回答已采纳
2
回答
提取-提取操作中
的
BigQuery
错误:发生
内部
错误,请求无法完成。
google-cloud-platform
、
google-bigquery
、
google-cloud-storage
、
bq
我正在尝试使用控制台中
的
以下命令将表从
BigQuery
导出到
google
存储
:我得到以下错误: 提取操作中
的
BigQuery</
浏览 1
提问于2020-07-14
得票数 0
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
对象存储
云点播
即时通信 IM
活动推荐
运营活动
广告
关闭
领券