首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

无法将Spark与eclipse中的Hortonworks Sandbox连接

Spark是一个开源的大数据处理框架,而Hortonworks Sandbox是一个基于Hadoop的虚拟机环境,用于学习和开发大数据应用。将Spark与Hortonworks Sandbox连接可以实现在Sandbox环境中使用Spark进行大数据处理和分析。

要将Spark与eclipse中的Hortonworks Sandbox连接,可以按照以下步骤进行操作:

  1. 安装Spark:首先需要在本地环境中安装Spark。可以从Spark官方网站(https://spark.apache.org/)下载最新版本的Spark,并按照官方文档进行安装和配置。
  2. 配置Spark连接参数:在eclipse中创建一个新的Java项目,并在项目中添加Spark的依赖。然后,在代码中配置连接Hortonworks Sandbox的参数,包括Hadoop集群的地址、端口、用户名和密码等。
  3. 创建SparkSession:使用SparkSession对象来连接Hortonworks Sandbox。可以通过以下代码创建一个SparkSession对象:
代码语言:txt
复制
import org.apache.spark.sql.SparkSession;

SparkSession spark = SparkSession
    .builder()
    .appName("SparkHortonworksConnection")
    .master("yarn")
    .config("spark.hadoop.fs.defaultFS", "hdfs://<sandbox-ip>:<sandbox-port>")
    .config("spark.hadoop.yarn.resourcemanager.address", "<sandbox-ip>:<sandbox-port>")
    .config("spark.hadoop.yarn.resourcemanager.scheduler.address", "<sandbox-ip>:<sandbox-port>")
    .config("spark.hadoop.yarn.resourcemanager.hostname", "<sandbox-ip>")
    .config("spark.hadoop.yarn.resourcemanager.webapp.address", "<sandbox-ip>:<sandbox-port>")
    .config("spark.hadoop.yarn.resourcemanager.webapp.https.address", "<sandbox-ip>:<sandbox-port>")
    .config("spark.hadoop.yarn.resourcemanager.webapp.https.address", "<sandbox-ip>:<sandbox-port>")
    .config("spark.hadoop.yarn.resourcemanager.webapp.https.address", "<sandbox-ip>:<sandbox-port>")
    .getOrCreate();

请注意,上述代码中的<sandbox-ip><sandbox-port>需要替换为Hortonworks Sandbox的实际IP地址和端口号。

  1. 运行Spark应用:编写Spark应用程序,并使用上述创建的SparkSession对象来执行Spark任务。可以使用Spark提供的各种API和功能来处理和分析大数据。

推荐的腾讯云相关产品:腾讯云的云服务器(CVM)和云数据库(CDB)可以作为替代品使用,用于搭建和管理类似Hortonworks Sandbox的大数据环境。您可以在腾讯云官方网站(https://cloud.tencent.com/)了解更多关于这些产品的信息和使用指南。

希望以上信息对您有所帮助!

页面内容是否对你有帮助?
有帮助
没帮助

相关·内容

  • Cloudera和Hortonworks 合并的整体梳理

    0. 下一代的企业数据云     将创建世界领先的下一代数据平台提供商,涵盖多云,内部部署和Edge。该组合为混合云数据管理建立了行业标准,加速了客户采用,社区发展和合作伙伴参与。     我们两家公司的业务具有很强的互补性和战略性。通过将Hortonworks在端到端数据管理方面的投资与Cloudera在数据仓库和机器学习方面的投资结合起来,我们将提供业界首个从Edge到AI的企业数据云。这一愿景将使我们的公司能够在追求数字化转型的过程中推动我们对客户成功的共同承诺。     两个公司希望通过合并,创造出一个年收入达到 7.2 亿美元的新实体,并制定清晰的行业标准,成为下一代数据平台领先者,提供业界第一个企业级数据云,提高公共云的易用性和灵活性     一直以来 Hortonworks 团队投资于实时数据流和数据摄取以支持边缘的物联网使用案例,而 Cloudera 更专注于 AI 和 ML 领域,使数据科学家能够使用极其复杂的工具来自动化机器学习工作流。     Cloudera新的CDP平台会同时支持运行在本地,私有云,以及5个最大的公有云包括Amazon,Microsoft,Google,IBM和Oracle     第一个CDP版本将包含CDH6.x和HDP3.x中的一系列组件,并将专注于运行客户现有的工作负载和数据     两家公司对外正式宣称统一版本会基于最新的HDP3.0+CDH6.0     Hadoop 商业化最典型的公司就是Hadoop的三驾马车——Hortonworks、Cloudera和MapR。     昨天我们是 Hortonworks,今天,随着我们合并的正式完成,我们是 Cloudera——现在是全球第二大开源软件公司。”,目前全球第一大开源软件公司仍旧是红帽。 1. 新的趋势     1.1 企业向公有云转变(aws,azure,google cloud)         hadoop/spark 只是其一部分     1.2 云存储成本底 对象存储服务(aws s3,axure blob,google 云端存储)         比hadoop/spark 便宜了5倍     1.3 云服务器 以完全不一样的方式解决了同样的问题,运行即席查询         用户按计算时间计费,无需维护操作hadoop/spark集群     1.4 容器,kenernates和机器学习,今天在python/R语言下进行机器学习,容器与kubernates 为分布式计算提供了更加强大灵活的框架         不打算基于hadoop/spark 进行分发心得饿微服务应用程序 2. 产品影像     2.1  毫无疑问         对于一些无论是Cloudera还是Hortonworks都打包的较为通用的的组件,基本可以毫无疑问的确定会包含在统一版本中。具体包括核心的Apache Hadoop项目如MapReduce,HDFS和YARN - 以及Apache Spark,Apache Hive,Apache HBase,Apache Kafka,Apache Solr,Apache Oozie,Apache Pig,Apache Sqoop和Apache Zookeeper。             我们对新兴的对象存储项目Apache Hadoop Ozone的信心略有不足     2.2 存疑的          有一些开源项目目前仅包含在CDH或HDP中,而Cloudera也没有与之专门对标的产品,它们是否能包含在合并版中目前还存疑。比如说Apache Kudu和Apache Impala,这2个最初都是由Cloudera开发的,用于提供列式数据存储和ad hoc的分析,而最近Hortonworks引入了Apache Druid与之对应。     2.3 有争议的         Apache Ambari直接与Cloudera Manager竞争,再比如Cloudera使用Cloudera Navigator来实现数据治理和数据溯源,而Hortonworks则使用Apache Atlas。     Cloudera将清楚地意识到任何关于它想要扼杀开源功能的建议都将被认为是“大棒”,而不是“胡萝卜”,它将不会被Hortonworks客户和Apache软件基金会开发社区所接受。这是我们认为Cloudera如果想要退出开源需要很谨慎的考虑的另一个原因 - 至少在短期内如此     注:“Carrot and stick”(胡萝卜加大棒)

    01

    CM+CDH 整体介绍

    大数据平台的开发环境搭建,我们前面已经说过了,需要搭建Hdfs,Yarn,Spark,HBase,Hive,ZK等等,在开发环境下搭建是用于开发测试的,全部部署在VM 虚拟机里面,小数据量小运算量还可以,数据量运算量一旦上来,虚拟机是玩不转的,这就牵涉到生产环境的Hadoop的生态搭建,难道也需要我们一步一步来搭建吗? 几台还可以,那么上百台呢? 难道也需要一台台搭建吗? 显然不可以,有没有什么好的Hadoop生态的搭建工具呢? 国外有俩家企业做了这些事,hortonworks公司推出的Ambari+HDP套件 和 Cloudrea公司推出的 CM+CDH 套件,不过这俩家公司 18年底合并了,不过这并不影响我们的使用。 2. CM+CDH介绍     CM是Cloudrea Manager的简称,是Cloudrea 提供的生产环境的Hadoop 生态部署工具,工具套件为CM+CDH,CM负责监控动态管理及部署Hadoop生态服务,CDH里面包含了绝大多数的Hadoop生态中的服务,包含Hdfs,Yarn,ZK,Hive,Hbase,Flume,Sqoop,Spark等。整体上与前面说所得Ambari + HDP类似。     CM+CDH有免费版和收费版,收费版当然功能更加强悍,比如支持回滚,滚动升级,支持Kerberos,SAML/LDAP支持,SNMP支持,自动化备份和灾难恢复,不过在我们看来,免费版已经够我们使用了。     这里简单和Ambari + HDP对已一下,CDH在部署Hadoop生态上,整体与HDP类似,通过WEB端动态部署Hadoop生态,     Name              Web        Server        Tools     hortonworks    Ambari    HDP            HDP-Util     Cloudrea         CM          CDH            CDH-Util     CM+CDH套件组成         CM:WEB应用程序,后台为Ambari Server,负责与HDP部署的集群工作节点进行通讯,集群控制节点包括Hdfs,Spark,Zk,Hive,Hbase等等。         CDH:HDP包中包含了很多常用的工具,比如Hadoop,Hive,Hbase,Spark等         CDH-Util:包含了公共包,比如ZK等一些公共组件。 3. CM+CDH 部署

    01
    领券