共计 1521 个字符,预计需要花费 4 分钟才能阅读完成。
在 Ubuntu 下用 eclipse 连接集群查看文件信息提示 9000 端口拒绝连接的错误
Cannot connect to the Map/Reduce location: Hadoop1.0.3
Call to ubuntu/192.168.1.111:9000 failed on connection exception: java.net.ConnectException: 拒绝连接
1. 常见解决办法:配置都很正常,就是连接不了。后来重新配置 hadoop location,把 Map/Reduce Master 和 DFS Master 中的 Host 由 localhost 改成了 ip 地址(192.168.1.111), 然后问题就解决了。奇怪,localhost 不就是本机嘛,而 namenode 主机(192.168.1.111)也是本机。
2.eclipse 的 hadoop 插件与 hadoop 的版本号不一致导致的,你最好使用下载的 hadoop 包解压后的 contri 文件中的 eclipse 插件
3.hadoop-site.xml 文件配置错误
<property>
<name>fs.default.name</name>
<value>hdfs:// 你的用户名:9000</value>
</property>
<property>
<name>mapred.job.tracker</name>
<value>hdfs:// 用户名:9001</value>
</property>
4. 关闭 hdfs 权限:hdfs-site.xml 中
<property>
<!– 是否对 DFS 中的文件进行权限控制 (测试中一般用 false)–>
<name>dfs.permissions</name>
<value>false</value>
</property>
5. 检查 eclipse 插件是否设置了 hadoop 安装目录:将与 linux 下安装的 hadoop 相同版本的 hadoop 解压到 windows 下一个文件夹,然后指定 hadoop 插件目录,插件目录在 preferences 的 map/reduce 的 hadoop installation location
6. 在 windows 的 hosts 文件中添加 hadoop 所有节点的 ip 和主机名
7. 关闭 linux 系统防火墙
8. 把 hadoop 三个配置文件中涉及到的主机名全部改成 ip 地址,master 和 salves 文件也改成 ip
9/etc/hosts 出错
Ubuntu 13.04 上搭建 Hadoop 环境 http://www.linuxidc.com/Linux/2013-06/86106.htm
Ubuntu 12.10 +Hadoop 1.2.1 版本集群配置 http://www.linuxidc.com/Linux/2013-09/90600.htm
Ubuntu 上搭建 Hadoop 环境(单机模式 + 伪分布模式)http://www.linuxidc.com/Linux/2013-01/77681.htm
Ubuntu 下 Hadoop 环境的配置 http://www.linuxidc.com/Linux/2012-11/74539.htm
单机版搭建 Hadoop 环境图文教程详解 http://www.linuxidc.com/Linux/2012-02/53927.htm
搭建 Hadoop 环境(在 Winodws 环境下用虚拟机虚拟两个 Ubuntu 系统进行搭建)http://www.linuxidc.com/Linux/2011-12/48894.htm
更多 Hadoop 相关信息见 Hadoop 专题页面 http://www.linuxidc.com/topicnews.aspx?tid=13