首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >如何在Bitnami火花码头集装箱中使用雪花罐?

如何在Bitnami火花码头集装箱中使用雪花罐?
EN

Stack Overflow用户
提问于 2022-04-24 03:43:40
回答 1查看 248关注 0票数 1

我能够创建基于对接的bitnami独立星火实例,并在其上运行火花作业。然而,我不能写数据雪花从火花数据。

我创建了一个Dockerfile来将雪花罐复制到图像中,但它仍然找不到雪花插件。但是,如果我检查jar文件夹,jar文件就在那里。我得到以下错误:

代码语言:javascript
运行
复制
Exception in thread "main" org.apache.spark.SparkException: Job aborted due to stage failure: Task 0 in stage 8.0 failed 4 times, most recent failure: 
Lost task 0.3 in stage 8.0 (TID 10) (172.19.0.3 executor 0): java.lang.ClassNotFoundException: 
net.snowflake.spark.snowflake.io.SnowflakeResultSetPartition

这是我的Dockerfile:

代码语言:javascript
运行
复制
FROM docker.io/bitnami/spark
USER root
COPY *.jar /opt/bitnami/spark/jars

我应该设置哪些其他设置来让它被识别到雪花插件?

下面是我的maven依赖项:

代码语言:javascript
运行
复制
<project xmlns="http://maven.apache.org/POM/4.0.0"
     xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
     xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
<modelVersion>4.0.0</modelVersion>
<groupId>com.test</groupId>
<artifactId>test-spark</artifactId>
<version>1.0.0</version>
<properties>
    <maven.compiler.source>1.8</maven.compiler.source>
    <maven.compiler.target>1.8</maven.compiler.target>
</properties>
<dependencyManagement>
    <dependencies>
        <dependency>
            <groupId>com.amazonaws</groupId>
            <artifactId>aws-java-sdk-bom</artifactId>
            <version>1.11.837</version>
            <type>pom</type>
            <scope>import</scope>
        </dependency>
    </dependencies>
</dependencyManagement>
<dependencies>
    <dependency>
        <groupId>org.apache.spark</groupId>
        <artifactId>spark-core_2.12</artifactId>
        <version>3.2.1</version>
    </dependency>

    <dependency>
        <groupId>org.apache.spark</groupId>
        <artifactId>spark-sql_2.12</artifactId>
        <version>3.2.1</version>
        <scope>compile</scope>
    </dependency>

    <dependency>
        <groupId>net.snowflake</groupId>
        <artifactId>spark-snowflake_2.12</artifactId>
        <version>2.10.0-spark_3.2</version>
    </dependency>

    <dependency>
        <groupId>org.apache.hadoop</groupId>
        <artifactId>hadoop-common</artifactId>
        <version>3.3.1</version>
    </dependency>

    <dependency>
        <groupId>org.apache.hadoop</groupId>
        <artifactId>hadoop-client</artifactId>
        <version>3.3.1</version>
    </dependency>
    <dependency>
        <groupId>org.apache.hadoop</groupId>
        <artifactId>hadoop-aws</artifactId>
        <version>3.3.1</version>
    </dependency>
</dependencies>
EN

回答 1

Stack Overflow用户

发布于 2022-05-05 16:32:23

这是一个基于版本的依赖问题。您应该使用与您正在引用的版本相关的火花对接器,而不是最新的火花对接器。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/71985340

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档