腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
将
JSON
从
googlecloud
存储
上
传到
bigquery
时
出现
混乱
、
、
、
你好,这是一个两部分的问题我不确定应该在"load_data_from_gcs“的第一行放什么,因为在谷歌云中没有表格,它是我试图上传的
JSON
table“部分是我试图创建的表的名称,还是它谈论的是
存储
桶,因为没有指定我要从哪个
存储
浏览 31
提问于2017-07-03
得票数 0
回答已采纳
3
回答
将
备份
从
数据
存储
加载到谷歌
BigQuery
、
、
、
entityName); queue.add(taskOptions); 然后,我能够手动
将
备份导入到
浏览 5
提问于2016-06-08
得票数 3
回答已采纳
1
回答
将
mysql与google的
bigquery
连接起来
、
、
、
现在,我想将这个mysql数据添加到
bigquery
数据集中。方法可能会运行 应该有旧的数据和新的数据,不要一次又一次地重新上传,应用程序
浏览 1
提问于2018-03-26
得票数 0
1
回答
BigQuery
到GCS
、
、
我希望能够
将
Bigquery
结果作为
json
文件
存储
在中。我找不到这样做的方法,所以我要做的是
将
GCS中的
json
文件url返回到前端应用程序。答:我不
浏览 1
提问于2019-09-25
得票数 0
回答已采纳
1
回答
如何用相同的架构在GCS中追加文件?
、
其次,使用gsutil
将
两个文件附加到包含属性名称的文件中。所以,在最后一个文件中,我要两个文件的数据。
浏览 0
提问于2018-11-26
得票数 2
1
回答
基于Google云平台的
JSON
到NDJSON
、
、
、
、
我正在Google云平台上开发一个原型,为此我使用了云
存储
、appengine和
bigquery
。现在,其中一项任务是每天
从
google云
存储
向
bigquery
加载一个文件,我在Appengine
上
使用Cron任务 问题是
bigquery
期望数据是NDJSON格式(新的行分隔为
json
),而我的源文件则是普通的
JSON
格式。目前,我将该文件下载到我的笔记本电脑,并将其转换为NDJSOn,然后上
传到
bigque
浏览 0
提问于2016-08-09
得票数 3
1
回答
在加载到
BigQuery
之前,在上进行数据暂存是否(仍然)有优势?
、
我有一个数据集作为本地文件
存储
(~100 GB未压缩的
JSON
,仍然可以被压缩),我想将其
存储
到
BigQuery
中(即
存储
在那里)。某些指南(例如,)建议先将这些数据上
传到
Google,然后再从那里加载到
BigQuery
中。 这样做有什么好处,只需将其直接
从
本地源加载到
BigQuery
(在本地文件
上
使用bq load )?例如,根据其文档,
BigQuery
支持可恢复上传以提高可靠性(),尽管我不知
浏览 1
提问于2020-06-18
得票数 0
回答已采纳
3
回答
模块未找到:无法解析@google云/
存储
上
的fs
、
、
、
、
在尝试
从
GCP
存储
中列出桶
时
获取Module not found: Can't resolve 'fs'错误。import { Storage } from '@google-cloud/storage'; keyFilename: './my-project-c1a44bf80be3.
json
', projectId: 'my-
浏览 8
提问于2020-09-22
得票数 6
3
回答
使用项目1的服务帐户
Json
键
从
项目2中的Python函数访问
BigQuery
DataStore of Project1
、
、
、
我需要访问Project-1的
BigQuery
数据
存储
。据我所知,我需要从服务帐户
json
密钥文件(来自Project-1)中检索凭据。
将
服务帐户
json
密钥文件上
传到
Project-2的桶
存储
中。(service_account_info)Errno 2没有这样的文件或目录:文件名 我已经尝试
将
文件名命名为URL,或者是
存储
桶
Json
文件的LinkURL或公共URL。请告知我们如何
从</
浏览 4
提问于2020-04-11
得票数 0
回答已采纳
1
回答
替换Google云
存储
中的多个文件的空间
、
、
、
我在google云
存储
上有数以千计的
json
,但它们有一个特定的字段名称(活动名称)和一个空格,但在
bigquery
上
加载(或创建外部表)之前,我需要替换下划线(campaign_name)的空格。在不使用replace的情况下尝试创建
时
出现
以下错误:查询字符串中的错误:非法字段名:活动名称表: raw_km_all_data 除了
将
所有文件下载到服务器
上
,进行替换,然后再次上
传到
云
存储
之外,还有其他解决方案吗
浏览 16
提问于2017-03-02
得票数 1
回答已采纳
1
回答
使用gsutil自动
将
本地
存储
的文件上载到云
存储
、
、
、
我是GCP的新手,我正在尝试构建一个ETL流,它可以
将
数据
从
文件上
传到
BigQuery
。在我看来,最好的解决办法是使用gsutil。我今天看到的步骤是:
浏览 0
提问于2019-04-09
得票数 0
2
回答
通过上传csv在大查询中创建表
我对大型查询还不熟悉。我正在尝试通过上传csv来创建一个表。其大小为290 kb。即使我填满了所有需要的信息,create table旁边的三个点仍然在移动(就像加载一样),但即使等待了很长时间,表也没有被创建。
浏览 1
提问于2021-01-31
得票数 0
2
回答
使用Apache读取大量文件的可伸缩方法?
、
我正在编写一条管道,在该管道中,我需要使用500.000+
从
位于
GoogleCloud
桶
上
的读取元数据文件( 文件)。它在一个小的子集上工作得很好,但是当我在完整的数据集中运行它
时
,它似乎是在"Read Metadata" >> ReadFromTextWithFilename(f'gs://{BUCKET}/{DATA_FOLDER}/**/*metadata.
json
')
上
阻塞的。它
浏览 3
提问于2021-01-22
得票数 0
回答已采纳
1
回答
从
AWS SageMaker访问Google
BigQuery
、
、
` 我想在AWS SageMaker
上
运行我的笔记本来测试一些东西。要使用
BigQuery
进行身份验证,似乎唯一的两种方法是使用GCP
上
的服务帐户(或本地的)或使用env
将
SDK指向凭据
JSON
(如这里所解释的:)。例如 export GOOGLE_APPLICATION_CREDENTIALS="/home/user/Downloads/[F
浏览 0
提问于2019-04-05
得票数 4
回答已采纳
1
回答
使用
BigQuery
提取Google Analytics数据并在SQL Server中加载
、
、
、
、
我必须使用
BigQuery
从
Google Analytics中提取数据,并将
JSON
加载到SQL Server。我知道我们可以在C#中调用GS,在
JSON
中流式传输数据,并将其上
传到
Google Storage中,然后使用GSUTIL.exe
将
JSON
文件
从
GS复制到
BigQuery
服务器进行处理。读取
JSON
并将其加载到SQL server中。有没有一种方法可以直接
将
JSO
浏览 14
提问于2017-01-24
得票数 0
1
回答
将
大查询中的日期格式
从
DD-MM-YYYY转换为YYYY-MM-DD,使用'text files on cloud storage to big query‘数据流模板GCP
、
我正在创建CSV文件,
json
文件和java脚本文件,并上
传到
GCP
存储
桶中。创建“云
存储
上
的文本文件到大查询”数据流模板以
将
数据填充到
bigquery
中。我需要一些帮助转换的日期格式
从
DD-MM-YYYY到YYYY-MM-DD在大查询中使用‘文本文件在云
存储
到大查询’数据流模板在GCP中。
浏览 12
提问于2021-06-12
得票数 0
1
回答
当
BigQuery
完成
从
Cloud上传文件到BQ或通过流插入数据
时
,它可以调用端点吗?
、
、
我正在从云
存储
并通过流式方式
将
文件上
传到
BigQuery
,我想知道当
BigQuery
完成在表中加载数据
时
,它是否可以调用我选择的端点。例如,
存储
中的文件: source_uris=uri,{ "name": "John", "age": 22}, {"name": &q
浏览 3
提问于2022-04-26
得票数 0
2
回答
将
json
文件加载到
bigquery
的云函数
我们需要将一个
json
文件上
传到
云
存储
桶中,然后我们需要编写一个云函数来
将
json
文件数据加载到
bigquery
表中。
浏览 0
提问于2020-03-04
得票数 0
1
回答
BigQuery
:作业资源为200 OK,"outputRows":584,但数据不在
BigQuery
表中
、
、
我有一个
从
大量资源下载文件的Python脚本,然后这些文件被上
传到
谷歌云
存储
桶经过一些处理,从那里这些文件被加载到
BigQuery
表中。问题是,
从
脚本的日志中看起来一切都很完美。
将
文件下载、处理、上
传到
加载到
Bigquery
的
存储
桶中。当我
从
谷歌rest v2作业获取()状态为200OK和"outputRows":584
时
,我检查作业资源,但数据不在
BigQuery</e
浏览 4
提问于2017-11-20
得票数 3
1
回答
使用计算引擎
上
的文件
将
实时数据插入
Bigquery
?
我正在
将
实时数据下载到Google的Compute Engine实例
上
的csv文件中,并希望将此文件加载到
Bigquery
中进行实时分析。 有没有办法不用先把文件上
传到
云
存储
上
?我尝试这样做:,但是因为我的文件不是
JSON
格式的,所以失败了。
浏览 0
提问于2016-10-21
得票数 0
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
云直播
实时音视频
即时通信 IM
活动推荐
运营活动
广告
关闭
领券