首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

Hive的安装及配置

1 安装说明 在安装hive之前,需要安装hadoop集群环境,如果没有可以查看:Hadoop分布式集群的搭建 1.1 用到的软件 软件 版本 下载地址 linux Ubuntu Server 18.04.2...、MySQL、PostgreSQL均只安装在Master节点上,实际生产环境中,需根据实际情况调整 Hive默认元数据保存在内嵌的 Derby 数据库中,这是最简单的一种存储方式,使用derby存储方式时...先初始化 schematool -dbType mysql -initSchema 和前面一样,执行 $ hive 7 问题总结 问题1 初始化derby时报如下错误,提示没有hive-exec-*....jar hadoop@Master:~$ schematool -initSchema -dbType derby Missing Hive Execution Jar: /usr/local/biddata.../hive-2.3.5/lib/hive-exec-*.jar 解决: 检查该目录下是否确实不存在hive-exec-2.35.jar,如果不存在,下载一个放到该目录下。

2.1K30
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    0840-6.3.4-Aqua Data Studio工具安装及访问安全环境的Hive和Impala

    3.配置环境变量 安装完了Kerberos客户端会自动的在path里面加上了自己的目录,但是如果windows本地安装了Oracle JDK ,该JDK里面也带了一些 kinit, klist 等命令,...4.配置客户端的hosts解析,确保通过hostname能够正常访问集群 文件路径:C:\Windows\System32\drivers\etc\hosts 5.修改krb5.ini配置信息,内容如下...这四个Apache Hive JDBC驱动程序文件位于以下位置: 其中 [ADS_INSTALL] 是Aqua Data Studio的安装目录 [ADS_INSTALL]\lib\drivers\hive-exec.jar...[ADS_INSTALL]\lib\drivers\hive-jdbc.jar [ADS_INSTALL]\lib\drivers\hive-metastore.jar [ADS_INSTALL]...8.1测试 hive ? ? 8.2测试 impala ? 9.Debug模式 工具提供了debug启动方式,不同在于可以看到kerberos的调试信息,用于连接失败时可以排查问题。

    1.2K10

    0841-7.1.6-Aqua Data Studio工具安装及访问安全环境的Hive和Impala

    3.配置环境变量 安装完了Kerberos客户端会自动的在path里面加上了自己的目录,但是如果windows本地安装了Oracle JDK ,该JDK里面也带了一些 kinit, klist 等命令,...4.配置客户端的hosts解析,确保通过hostname能够正常访问集群 文件路径:C:\Windows\System32\drivers\etc\hosts 5.修改krb5.ini配置信息,内容如下...这四个Apache Hive JDBC驱动程序文件位于以下位置: 其中 [ADS_INSTALL] 是Aqua Data Studio的安装目录 [ADS_INSTALL]\lib\drivers\hive-exec.jar...[ADS_INSTALL]\lib\drivers\hive-jdbc.jar [ADS_INSTALL]\lib\drivers\hive-metastore.jar [ADS_INSTALL]...8.1测试 hive ? ? 8.2测试 impala ? ? 9.Debug模式 工具提供了debug启动方式,不同在于可以看到kerberos的调试信息,用于连接失败时可以排查问题。

    1.2K30

    超详细步骤!整合Apache Hudi + Flink + CDH

    在packaging下面各个组件中编译成功的jar包 将hudi-flink-bundle_2.11-0.10.0-SNAPSHOT.jar放到flink1.13.1的lib目录下可以开启Hudi...安装 YARN MapReduce 框架 JAR 进入平台操作,安装YARN MapReduce框架JAR 设置Hive辅助JAR目录 因为后面考虑到hudi的数据存到oss,所以要放这几个包进来(...关于oss的配置详细可参考oss配置文档) 重启Hive,使配置生效 2....多几次往kafka里面造数据 注意:要以char8更新,因为这个是primary key 查看Hudi里面是否生成parquet文件 在hue上查看Hive中是否有数据同步过来,可以看到数据已经从Hudi...写少读多的场景 mor 相反 MOR表压缩在线压缩按照配置压缩,如压缩失败,会有重试压缩操作,重试压缩操作延迟一小时后重试

    3.7K42

    Hive on Spark实战:深入理解与配置Spark集群

    主要记录如何安装配置 Hive on Spark,在执行以下步骤之前,请先确保已经安装 Hadoop 集群,Hive,MySQL,JDK,Scala,具体安装看之前内容《深度挖掘|Cloudera安装不再难...为了对比 Hive on Spark 和 Hive on mr 的速度,需要在已经安装了 Hadoop 集群的机器上安装 Spark 集群(Spark 集群是建立在 Hadoop 集群之上的,也就是需要先装...spark-assembly-1.5.0-cdh5.5.1-hadoop2.6.0.jar /usr/lib/hive/lib配置 hive-site.xml配置的内容与 spark-defaults.conf...cdh5.5.1-hadoop2.6.0.jar 10报错:原因:hdfs 的默认端口为 8020 ,而我们在 spark-default.conf 中配置成了 8021 端口,导致连接不上 HDFS...to commit the changes.或者在 hive-site.xml 添加配置(简单、推荐)hive.enable.spark.execution.engine

    33210

    Hive On Spark搭建报错:Failed to create Spark client for Spark session xx: ..TimeoutException

    错误描述 按照官方文档,搭建Hive On Spark时,出现以下错误。...但多数情况下,可能是hive on spark的配置错误或缺失,导致无法响应。...Hive On Spark是需要特定的Spark版本的,如果当前Hive只支持Spark 1.x,则需把spark-assembly.jar拷贝到Hive 的lib目录下。...但如果你使用了Spark2.x的集群,在Spark2.x 的lib下是诶没有这个jar包的。所以会出现报错情况。 解决方案 从官网查询当前Hive所依赖的Spark版本,重新安装Spark。...在公众号《数舟》中,可以免费获取专栏《数据仓库》配套的视频课程、大数据集群自动安装脚本,并获取进群交流的途径。 我所有的大数据技术内容也会优先发布到公众号中。

    1.7K40

    Flink开发-生成Jar(Maven依赖处理)

    测试(test):针对项目中的关键点进行测试,确保项目在迭代开发过程中关键点的正确性。 打包(package):将一个包含诸多文件的工程封装为一个压缩文件用于安装或部署。...Java 工程对应 jar 包,Web工程对应 war 包。 安装(install):在 Maven 环境下特指将打包的结果(jar包或war包)安装到本地仓库中。...部署(deploy):将打包的结果部署到远程仓库或将 war 包部署到服务器上运行。 打包区别 mvn package:打包到本项目,一般在项目target目录下。...mvn deploy:打包上传到远程仓库,如:私服nexus等,需要配置pom文件。...用户项目中可使用maven helper搜索calcite相关依赖,将其provided,并将这些依赖放入flink lib目录下,重启flink服务即可 常见的包含calcite的依赖有: hive-exec

    2.4K40

    Hadoop Hive与Hbase整合+thrift

    •配置Hive的配置文件路径 •export HIVE_CONF_DIR= your path •配置Hadoop的安装路径 •HADOOP_HOME=your hadoop home 我们按数据元的存储方式不同安装...另外,你必须在创建Hive库表前,在HDFS上创建/tmp和/hive/warehousedir(也称为hive.metastore.warehouse.dir的),并且将它们的权限设置为chmod g...就能连上,默认10000端口,后面的部分一定要带上,否则用eclipse连接不上的) 起来后我们在eclipse就可以使用jdbc:hive来连接了。...MetaException(message:org.apache.hadoop.hbase.MasterNotRunningException: Retried 10 times 出现这个错误的原因是引入的...--service hiveserver 下载php客户端包: 其实hive-0.12包中自带的php lib,经测试,该包报php语法错误。

    1.6K20

    工作流调度器azkaban(以及各种工作流调度器比对)

    1:工作流调度系统的作用: (1):一个完整的数据分析系统通常都是由大量任务单元组成:比如,shell脚本程序,java程序,mapreduce程序、hive脚本等; (2):各任务单元之间存在时间先后及前后依赖关系...    b、借助MapReduce计算框架对原始数据进行转换,生成的数据以分区表的形式存储到多张Hive表中;     c、需要对Hive中多个表的数据进行JOIN处理,得到一个明细数据Hive大表;... hive、sqoop的机器上,方便命令的执行,在当前用户目录下新建 azkabantools目录,用于存放源安装文件.新建azkaban目录,用于存放azkaban运行程序;    (3)azkaban...所以使用SSL来生成这个证书,下面创建SSL的配置:  脑补一下:安装java,安装目录下就有keytool,如果输入的时候输错了,不要慌,按住ctrl+Backspace键即可清楚错误操作命令。...或者azkaban数据表,应该是没有权限的问题,赋予一下权限即可: 如果出现没有权限的问题,在mysql授权(在安装mysql的机器上执行)     mysql -uroot -p123456

    3.3K111

    Hive2.2.0如何与CDH集群中的Spark1.6集成

    /CDH/lib/spark/lib/spark-assembly.jar spark-assembly.jar [root@ip-172-31-5-38 lib]# ll spark-assembly.jar...将Hive2 On Spark的Spark依赖包放在HDFS上,防止Yarn运行Spark作业时分发spark-assembly.jar包 3.修改hive-site.xml配置文件,在文件的末尾增加如下内容...Fayson这里可以使用hive2和hive2-server命令是因为在/etc/profile配置了命令的别名 alias hive2="nohup /opt/cloudera/HIVE2/bin/hive...5.总结 ---- 1.配置集成Hive2 On Spark时需要注意在hive-site.xml文件中配置 spark.eventLog.enabled和spark.eventLog.dir否则Spark...2.访问Hive2执行Spark作业时会看到,会在Yarn上启动一个Spark的常驻进程,当前会话的所有SQL操作均在该常驻进程中执行会在该作业下产生多个Job Id,不会产生新的Spark作业,当会话终止时该

    1.2K21

    第五章 更换cdh版本,hive的安装使用,原理讲解

    这里由于小编的这里在安装hive时,由于出现了启动hive时出现了和hadoop的版本不一致的原因,并且始终没有解决,所以就改变策略使用cdh版本的hadoop和hive.因为cdh版本的比较系统,兼容性好...)该 jar 包放置在 hive 的lib目录下 2,2如同配置hadoop的环境变量一样,设置hive的环境变量。...安装好了mysql,我们把原来用derby数据库在HDFS上生成的hive目录删掉,目的是不与我们用mysql数据库产生冲突,如下所示。...的简介,如下图所示,Hive是一个数据仓库,它部署在Hadoop集群上,它的数据是存储在HDFS上的,Hive所建的表在HDFS上对应的是一个文件夹,表的内容对应的是一个文件。...5,遇到错误 5.1ls: Call From ubuntu/127.0.1.1 to ubuntu:9000 failed on connection exception 访问hdfs时出现的错误,如

    1.4K20

    安装和配置Hive

    安装和配置Hive 2018-7-17 作者: 张子阳 分类: 大数据处理 直接通过MapReduce来对存储在Hadoop HDFS上的数据进行查询和分析比较繁琐而且还需要编程。...这篇文章记录了如何在linux上安装hive。因为hive基于Hadoop,所以需要先安装Hadoop,如果你还没有安装Hadoop,可以参考linux上安装和配置Hadoop(单节点)进行安装。...命令安装至/opt文件夹 # tar zxvf apache-hive-2.3.3-bin.tar.gz -C /opt 配置PATH环境变量 使用vim编辑~/.bashrc,加入HIVE_HOME环境变量...# hive Logging initialized using configuration in jar:file:/opt/hive/apache-hive-2.3.3-bin/lib/hive-common...所以每次执行hive时最好进入同一个文件夹,否则就会创建很多个metastore_db,然后再次出现上面的异常。

    1.9K30
    领券