我试着在窗口上安装蜂箱。我几乎完成了我的install.But,而盯着蜂箱命令Im得到了下面的错误。
Error applying authorization policy on hive configuration: org.apache.hadoop.hive.ql.metadata.HiveException: java.lang.RuntimeException: Unable to instantiate org.apache.hadoop.hive.ql.metadata.SessionHiveMetaStoreClient
Beeline version 2.1.1 by Apa
我在postgresql中创建了一个表:
create table retail_fact( id serial not null, name text);
我有客户表在hive和MySQL中,我想从他们加载数据到PostgreSQL retail_fact表使用Pentaho pdi (通过presto连接)。
另外,当我用Hive和MySQL中的数据加载表时,o希望id在Postgres中自动递增(用更简单的术语。我需要一个sql查询来做同样的事情)。
查询类似于以下内容:
insert into postgresql.rpt.order_fact(
select name from h
我的hive-site.xml包含mysql的metastore详细信息,我试图通过oozie将其传递给hive,但由于某种原因,它忽略了它。它仍在尝试使用derby连接metastore。我正在尝试了解如何指定我的hive-site.xml。
如果我使用命令行客户端,那么mysql数据库将用作元存储,并且我可以在TBLS下看到mysql中由hive创建的表。
如果我通过oozie将其作为工作流运行,它将尝试连接到derby metastore。
Here are two lines from log.
6649 [main] INFO DataNucleus.Persistence -
我希望使用Hive环境变量来利用Hive中视图的值,并设置我的Hive查询的优先级。我看到这样做的方式是以命令set mapred.job.priority=VERY_LOW的形式。
我连接到Hive并在运行时通过RJDBC包从R连接生成我的查询。当我使用dbSendUpdate发送上面的命令时,我会收到以下错误消息:
execute JDBC update query failed in dbSendUpdate ([Simba][JDBC](11320) A RowCount was expected but not generated from query "set mapred
我在单节点centos7上安装了Hadoop 3.2.1和hadoop顶部安装了hive 3.1.2,并希望与Presto搜索引擎集成,这样我就可以看到hive的数据库进入presto- server- 0.229。hive工作得很好,能够创建表,我已经在官方文档的帮助下完成了presto- server-0.229的安装和配置。但是我不能从presto访问数据库。
Here are my all configuration details:
Hive-site.xml:
<property>
<name>javax.jdo.optio
我试图使用CentOS6.8 on macOS构建VMware融合环境。
我以前安装过jdk-10.0.1、和MySQL。他们成功地工作了。
然而,当我试图格式化matadata存储库时,
schematool -dbType mysql -initSchema
发生了以下错误:
which: no hbase in (/opt/hive/bin:/usr/local/hive/bin:/usr/local/sbin:/usr/local/bin:/sbin:/bin:/usr/sbin:/usr/bin:/usr/java/latest/bin:/usr/local/hadoop/s
我正在按照本文档连接到我的外部配置单元转移存储。我的metastore版本是3.1.0,遵循文档。
docs.databricks.comdocs.databricks.com外部Apache Hive元存储-数据库文档了解如何连接到数据库中的外部Apache Hive元存储。10:51尝试连接到外部配置单元转移存储时出现此错误
org/apache/hadoop/hive/conf/HiveConf when creating Hive client using classpath:
Please make sure that jars for your version of hive a
我在Ubuntu16.04上运行hive2.1.1,Hadoop2.7.3。
ps aux | grep hive显示hiveserver2正在运行。
我试图用用户hive2和密码登录到hivesever2通过直线。
这是我的直线输出:
beeline> !connect jdbc:hive2://localhost:10000
Connecting to jdbc:hive2://localhost:10000
Enter username for jdbc:hive2://localhost:10000:
Enter password for jdbc:hive2://localh
我想创建一个Hive扩展(宏/ UDF /网关/代理/外观等等),它可以
a) create/modify DB tables and
b) process data.
这里的问题是,对于b)对于UDF来说,需要并行处理,而必须防止它( a),例如,因为我不能多次将同一列添加到表中。在外部接口上,该解决方案应该与SAS、SAP、R、Pentaho的Hive连接器保持兼容,也就是说,它仍然应该像Hive那样运行和可用。
您建议如何实现DB create/modify语句的执行,而不因UDF的并行执行而从重复的HQL命令中运行错误?
我的想法:
1. Using a JDBC wra