阿里云-云小站(无限量代金券发放中)
【腾讯云】云服务器、云数据库、COS、CDN、短信等热卖云产品特惠抢购

Ambari方式安装Hadoop的Hive组件遇到的问题

232次阅读
没有评论

共计 4601 个字符,预计需要花费 12 分钟才能阅读完成。

最近在部署 Hadoop,我发现了 ambari 工具部署 hadoop 的 hive 组件的一个问题,不知道其他人遇到过没有。
问题描述:通过 ambari 工具搭建了 hadoop2.0 完全分布式集群。在测试 hive 的时候,按照官方文档里的说明通过下面命令检查根目录的时候:总是报错无法连接 mysql。(java.sql.SQLException: Access denied foruser ‘hive’@’hdb3.yc.com'(using password: YES))

[root@hdb3 bin]# /usr/lib/hive/bin/metatool -listFSRoot
报错关键信息:
14/02/20 13:21:09 WARN bonecp.BoneCPConfig: Max Connections < 1. Setting to 20
14/02/20 13:21:09 ERROR Datastore.Schema: Failed initialising database.
Unable to open a test connection to the given database. JDBC url = jdbc:mysql://hdb3.yc.com/hive?createDatabaseIfNotExist=true, username = hive. Terminating connection pool. Original Exception: ——
java.sql.SQLException: Access denied for user ‘hive’@’hdb3.yc.com’ (using password: YES)

从报错信息初步判断是没有权限访问 mysql 数据库。但是经过测试,利用 hive 用户,及密码连接 mysql 服务器是正常的。而且我在安装之前是在 mysql 中对 hive 用户做过授权的。
1234567 #创建 Hive 帐号并授权:
mysql> CREATE USER ‘hive’@’%’ IDENTIFIED BY ‘hive_passwd’;
Query OK, 0 rows affected (0.00 sec)    mysql> GRANT ALL PRIVILEGES ON *.* TO ‘hive’@’%’;
Query OK, 0 rows affected (0.00 sec)
    mysql> CREATE USER ‘hive’@’hdb3.yc.com’ IDENTIFIED BY ‘hive_passwd’;
    mysql> GRANT ALL PRIVILEGES ON *.* TO ‘hive’@’hdb3.yc.com’;
Query OK, 0 rows affected (0.00 sec)

测试连接是正常的:

[root@hda3 ~]# mysql -h hdb3.yc.com -u hive -p
Enter password:
Welcome to the MySQL monitor.  Commands end with ; or \g.
Your MySQL connection id is 556
Server version: 5.1.73 Source distribution
Copyright (c) 2000, 2012, Oracle and/or its affiliates. All rights reserved.
Oracle is a registered trademark of Oracle Corporation and/or its
affiliates. Other names may be trademarks of their respective
owners.
Type ‘help;’ or ‘\h’ for help. Type ‘\c’ to clear the current input statement.
mysql>

于是检查 hive 的配置,在 ambari 管理页面,如下,hive 的配置项中输入了正确的密码。重启 hive 服务后测试依然会报错。

Ambari 方式安装 Hadoop 的 Hive 组件遇到的问题

后来检查服务器上的配置文件找到的问题原由:
上面那个 web 页面里配置了 hive 数据库的连接密码,但是实际上 hive 服务器的配置文件里 /usr/lib/hive/conf/hive-site.xml 并没有密码的相关配置,也就是没有下面这一段参数配置:
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>hive_passwd</value>
</property>

手动编辑配置文件增加上这些配置,加入这段密码的配置后,没有重启 hive 服务,再次执行下面的命令检查根目录,这次不报错了。

[root@hdb3 bin]# /usr/lib/hive/bin/metatool -listFSRoot
Initializing HiveMetaTool..
14/02/20 14:29:22 INFO Configuration.deprecation: mapred.input.dir.recursive is deprecated. Instead, use mapreduce.input.fileinputformat.input.dir.recursive
14/02/20 14:29:22 INFO Configuration.deprecation: mapred.max.split.size is deprecated. Instead, use mapreduce.input.fileinputformat.split.maxsize
14/02/20 14:29:22 INFO Configuration.deprecation: mapred.min.split.size is deprecated. Instead, use mapreduce.input.fileinputformat.split.minsize
14/02/20 14:29:22 INFO Configuration.deprecation: mapred.min.split.size.per.rack is deprecated. Instead, use mapreduce.input.fileinputformat.split.minsize.per.rack
14/02/20 14:29:22 INFO Configuration.deprecation: mapred.min.split.size.per.node is deprecated. Instead, use mapreduce.input.fileinputformat.split.minsize.per.node
14/02/20 14:29:22 INFO Configuration.deprecation: mapred.reduce.tasks is deprecated. Instead, use mapreduce.job.reduces
14/02/20 14:29:22 INFO Configuration.deprecation: mapred.reduce.tasks.speculative.execution is deprecated. Instead, use mapreduce.reduce.speculative
14/02/20 14:29:23 INFO metastore.ObjectStore: ObjectStore, initialize called
14/02/20 14:29:23 INFO DataNucleus.Persistence: Property datanucleus.cache.level2 unknown – will be ignored
SLF4J: Class path contains multiple SLF4J bindings.
SLF4J: Found binding in [jar:file:/usr/lib/hadoop/lib/slf4j-log4j12-1.7.5.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: Found binding in [jar:file:/usr/lib/hive/lib/slf4j-log4j12-1.7.5.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation.
SLF4J: Actual binding is of type [org.slf4j.impl.Log4jLoggerFactory]
14/02/20 14:29:24 WARN bonecp.BoneCPConfig: Max Connections < 1. Setting to 20
14/02/20 14:29:24 INFO metastore.ObjectStore: Setting MetaStore object pin classes with hive.metastore.cache.pinobjtypes=”Table,Database,Type,FieldSchema,Order”
14/02/20 14:29:24 INFO metastore.ObjectStore: Initialized ObjectStore
14/02/20 14:29:25 WARN bonecp.BoneCPConfig: Max Connections < 1. Setting to 20
Listing FS Roots..
hdfs://hda1.yc.com:8020/apps/hive/warehouse

但是在通过 ambari 管理界面重启 hive 服务后又会重新自动给你去掉了。
这导致在执行 /usr/lib/hive/bin/metatool -listFSRoot 命令的时候无法连接 mysql 数据库。不知道这是我哪里的配置不对还是 ambari 的 bug 问题。

相关阅读

使用 Apache Ambari 管理 Hadoop http://www.linuxidc.com/Linux/2012-12/76808.htm

Ubuntu 13.04 上搭建 Hadoop 环境 http://www.linuxidc.com/Linux/2013-06/86106.htm

Ubuntu 12.10 +Hadoop 1.2.1 版本集群配置 http://www.linuxidc.com/Linux/2013-09/90600.htm

Ubuntu 上搭建 Hadoop 环境(单机模式 + 伪分布模式)http://www.linuxidc.com/Linux/2013-01/77681.htm

Ubuntu 下 Hadoop 环境的配置 http://www.linuxidc.com/Linux/2012-11/74539.htm

单机版搭建 Hadoop 环境图文教程详解 http://www.linuxidc.com/Linux/2012-02/53927.htm

搭建 Hadoop 环境(在 Winodws 环境下用虚拟机虚拟两个 Ubuntu 系统进行搭建)http://www.linuxidc.com/Linux/2011-12/48894.htm

更多 Hadoop 相关信息见 Hadoop 专题页面 http://www.linuxidc.com/topicnews.aspx?tid=13

正文完
星哥玩云-微信公众号
post-qrcode
 0
星锅
版权声明:本站原创文章,由 星锅 于2022-01-20发表,共计4601字。
转载说明:除特殊说明外本站文章皆由CC-4.0协议发布,转载请注明出处。
【腾讯云】推广者专属福利,新客户无门槛领取总价值高达2860元代金券,每种代金券限量500张,先到先得。
阿里云-最新活动爆款每日限量供应
评论(没有评论)
验证码
【腾讯云】云服务器、云数据库、COS、CDN、短信等云产品特惠热卖中