腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(3118)
视频
沙龙
1
回答
:java.lang.ClassNotFoundException:未能
找到
数据源
:
bigquery
、
、
尝试从
bigquery
读取数据到jupyter笔记本,并使用吡火花库。apache和java的所有文件都被下载到我的C:驱动器中。阅读和观看教程视频,但没有一个似乎是有效的。寻求指导import
pyspark
from
pyspark
import SparkContext,SparkConf from
pyspark
.sql.functions import window, col,
浏览 9
提问于2022-02-04
得票数 -1
1
回答
Pyspark
无法
找到
bigquery
数据源
、
、
这是我的
pyspark
配置。我遵循了上面提到的here的步骤,并没有创建一个sparkcontext。/spark-
bigquery
-latest_2.12.jar,spark-
bigquery
-with-dependencies_2.12-0.21.1.jar,spark-
bigquery
-latest_2.11.jar') \ .config('spark.jars', 'postgresql-42.2.23.jar,
bigquery
-
浏览 20
提问于2021-09-20
得票数 0
回答已采纳
1
回答
如何使用Dataproc在
BigQuery
中创建外部表
、
、
、
我的用例包括使用
Pyspark
代码在
Bigquery
中创建外部表。
数据源
是Google云存储桶,JSON数据就在这里。我正在将JSON数据读入数据框架,并希望创建一个外部
Bigquery
表。df_view.write\ .option('table', 'xyz-abc-abc:xyz_zone.test_table_yyyytemporaryGcsBu
浏览 3
提问于2020-02-26
得票数 2
回答已采纳
2
回答
数据处理-
BigQuery
对数据Proc+
BigQuery
我们在
BigQuery
表中有大量的原始数据(100亿到4000亿)。我们需要处理这些数据,以转换和创建星型模式表的形式(
bigquery
中可能是不同的数据集),然后可以通过atscale访问这些数据。需要以下两种选择之间的利弊: 1.在
BigQuery
中写入复杂的SQL,读取
数据源
数据集,然后加载到目标数据集(由Atscale使用)。2.将
PySpark
或MapReduce与来自Dataproc的
BigQuery
连接器一起使用,然后将数据加载到
BigQuery
目标数据集
浏览 10
提问于2020-01-14
得票数 0
2
回答
用星火
BigQuery
连接器旋转Dataproc集群
、
、
阅读这个repo:下的说明,我按照下面的初始化操作创建一个新的Dataproc集群,并安装了特定版本的Google和
BigQuery
连接器: gcloud beta dataproc clusters但是,使用
PySpark
笔记本通过Jupyter仍然会导致
BigQuery
“未
找到
类”异常。当我直接从终端运行
PySpark
时,也会发生同样的情况。我能够避免这种异常的唯一方法是在集群的主节点中复制另一个jar (这次是spark-
bigquery
_2.11-0.8.1-beta-shade
浏览 4
提问于2019-10-02
得票数 3
回答已采纳
1
回答
BigQuery
外部
数据源
查询配额
、
我使用云
BigQuery
外部
数据源
设置了一个BigTable表。这很好,并且我能够运行将我的BigTable数据加入到其他一些
BigQuery
数据的查询。但是,当我对这个表同时运行太多查询时,我会得到以下错误: 我
无法
在链接页面或
BigQuery
配额和限制页面上
找到
任何关于并发查询限制的文档。我不会在这里运行那么多的查询--每次最多10次。
浏览 0
提问于2018-03-14
得票数 0
回答已采纳
1
回答
将
PySpark
数据作为dataproc作业上载到
bigquery
、
、
、
、
我试图在Dataproc集群上提交一个
PySpark
作业。我的工作是将数据上传到
bigquery
。当我使用集群上的submit作业执行时,我会遇到一个错误,作业失败。但是,当我提供这个罐子时: "gs://spark-lib/
bigquery
/spark-
bigquery
-latest_2.12.jar",在提交作业中的jar文件参数中,作业成功执行。我想要的是
找到
一种避免在运行时提供这个jar的方法,只需给出.py文件的位置就可以运行作业。我该
浏览 7
提问于2022-04-06
得票数 1
2
回答
Dataproc +
BigQuery
示例-有可用的吗?
、
、
根据Dataproc ,它具有“与
BigQuery
的本地和自动集成”。 我在
BigQuery
有一张桌子。我希望阅读该表,并使用我创建的Dataproc集群(使用
PySpark
作业)对其执行一些分析。然后将此分析的结果写回
BigQuery
。您可能会问:“为什么不直接用
BigQuery
进行分析呢?”--原因是我们正在创建复杂的统计模型,而SQL太高,
无法
开发它们。它们有任何Dataproc +
BigQuery
示例可用吗?我什么都找不到。
浏览 3
提问于2015-10-06
得票数 11
回答已采纳
1
回答
如何将
bigquery
表加载到dataproc集群
、
、
我是dataproc集群和
PySpark
的新手,因此,在寻找代码以将表从
bigquery
加载到集群的过程中,我遇到了下面的代码,并且
无法
弄清楚我应该为这段代码中的用例修改什么,以及我们在输入目录中提供了什么作为输入from
pyspark
.context import SparkContextimport subprocess_jsc.hadoopConfiguration().get('fs.gs.pr
浏览 1
提问于2020-05-31
得票数 1
2
回答
将
PySpark
数据写入
BigQuery
“数字”数据类型
、
、
、
、
为了简单起见,我在
BigQuery
中有一个表,其中有一个类型为“数字”的字段。当我尝试用一列编写一个NullPointerException.数据帧时,它会继续引发
PySpark
我尝试将
pyspark
列转换为int、float、string,甚至编码它,但它一直在抛出NullPointerException即使在花了5到6个小时之后,我也
无法
自己或在互联网上弄清楚这里的问题是什么,以及将它映射到
BigQuery
数字列类型的确切的列类型是什么。任何帮助或方向都会有很大帮助。提前谢谢。
浏览 5
提问于2022-04-28
得票数 0
3
回答
BigQuery
联邦
数据源
的API配置
、
、
、
、
我有以下配置,可以很好地将一堆文件加载到
BigQuery
中: 'configuration'=> { 'sourceUris'=> 'gs我已经使用
BigQuery
UI成功地做到了这一点,但是需要在代码中运行,因为它最终将是一个日常的自动化过程。我在API文档上遇到了一些麻烦,找不到任何可以参考的好例子。有人能帮忙吗?提前感谢!
浏览 0
提问于2018-03-22
得票数 0
回答已采纳
1
回答
将
BigQuery
表读入GCP DataProc上的Spark RDD,为什么在newAPIHadoopRDD中缺少这个类
、
、
我试图
找到
缺少的类com/google/cloud/hadoop/repackaged/
bigquery
/com/google/common/collect/ImmutableList,,尽管我找不到任何关于这个类现在是否被排除在gs://hadoop-lib/
bigquery
/
bigquery
-connector-hadoop2-latest.jar之外的信息g
浏览 0
提问于2019-08-29
得票数 3
1
回答
为什么
BigQuery
AutoDetection检测不到我的架构?
为了测试我的组件,我必须在不知道其结构的情况下将一个文件加载到
BigQuery
。我在
BigQuery
中使用了自动检测,它工作得很好。后来,我必须对测试文件中的字段进行散列处理,然后再次将其加载到
BigQuery
中。当我的字段没有被散列时:有人能解释一下发生了什么吗?
浏览 14
提问于2021-05-15
得票数 0
1
回答
有没有用于Azure Synapse的Python?
、
、
、
我正在寻找用于Synapse的来执行查询(类似于GCP
BigQuery
的google
BigQuery
),但是我没有发现任何有用的东西,只是在pypi上
找到
一个不推荐的蓝突触库。是否有类似于Synapse客户端的东西,或者是否可以仅通过Python中的
PySpark
访问? 提前谢谢!!
浏览 4
提问于2022-04-05
得票数 0
1
回答
如何在data Studio data source list中轻松地
找到
直接的
BigQuery
表格
数据源
与自定义查询
数据源
?
、
、
在Google data Studio中,是否可以通过直接连接
BigQuery
表与自定义查询轻松地
找到
BigQuery
数据源
?目前,您必须逐个打开,以查看连接是否为直接连接或使用自定义查询。我必须处理有关50+连接的问题,我想知道是否有更好的方法来查看哪些连接直接连接到
BigQuery
表,哪些连接使用了自定义查询。我们的目标是为我们使用自定义查询的那个构建自定义表。Google Data Studio
数据源
选项卡:
浏览 13
提问于2020-05-09
得票数 0
2
回答
如何使用dbt从Google到
BigQuery
创建外部表?
、
、
我想在
BigQuery
中创建外部表,
数据源
来自Google。是否可以使用dbt来完成它?在yml文件中,我应该把URI放在哪里?主要问题是,我
无法
直接在
BigQuery
中创建它。
浏览 1
提问于2022-07-23
得票数 0
1
回答
如何以编程方式将Kafka主题加载和流到
PySpark
数据
、
、
、
可以从主题中提取消息,但
无法
将其转换为数据文件。任何建议都会有帮助。import
pyspark
from
pyspark
.context import SparkContext .load()越来越
浏览 1
提问于2020-06-12
得票数 1
1
回答
如何激活Google Sheets API中的聚合选项
、
、
、
但我
无法
激活聚合选项。
浏览 13
提问于2021-07-14
得票数 0
1
回答
阅读Azure HDI4.0中的Avro
、
、
、
我
无法
正确地提供.jar文件{ "conf": {"spark.jars.packages": "com.databricks:spark-avro_2.11:4.0.0" }}
pyspark
.sql.utils.AnalysisException:“未能
找到
数据源
:avro.avro是内置的但外部
数据源
模块,自Spark2.4以来。
浏览 3
提问于2019-10-25
得票数 3
回答已采纳
1
回答
GCP多个项目的计费报告演示
、
、
本中提到的示例 关于第三点,我需要来自我所有项目的
Bigquery
审计日志。我认为在我的所有项目中为
bigquery
设置外部单一数据集接收器(如下面所示)应该能够完成所需的
浏览 0
提问于2019-01-13
得票数 0
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
对象存储
ICP备案
云点播
实时音视频
活动推荐
运营活动
广告
关闭
领券