第二种方式:通过执行如下方式命令单独启动HDFS和MapReduce:start-dfs.sh和start-mapred.sh启动,stop-dfs.sh和stop-mapred.sh关闭;
第三种方式:通过执行如下方式命令分别启动各个进程:
hadoop-daemon.sh start namenode
hadoop-daemon.sh start datanode
hadoop-daemon.sh start secondarynamenode
hadoop-daemon.sh start jobtracker
hadoop-daemon.sh start tasktracker
这种方式的执行命令是hadoop-daemon.sh start [进程名称],这种启动方式适合于单独增加、删除节点的情况,在安装集群环境的时候会看到。
验证:
① 执行jps命令查看java进程信息,如果是start-all.sh则一共显示5个java进程。
②在浏览器中浏览Hadoop,输入URL:hadoop-master:50070和hadoop-master:50030。如果想在宿主机Windows中浏览,可以直接通过ip地址加端口号访问,也可以配置C盘中System32/drivers/etc/中的hosts文件,增加DNS主机名映射,例如:192.168.80.100 hadoop-master。
访问效果如下图:
jobtracker
<8>NameNode进程没有启动成功?可以从以下几个方面检查:
没有对NameNode进行格式化操作:hadoop namenode –format(PS:多次格式化也会出错,保险操作是先删除/usr/local/hadoop/tmp文件夹再重新格式化)
Hadoop配置文件只复制没修改: 修改四个配置文件需要改的参数
DNS没有设置IP和hostname的绑定:vi /etc/hosts
SSH的免密码登录没有配置成功:重新生成rsa密钥
<9>Hadoop启动过程中出现以下警告?
可以通过以下步凑去除该警告信息:
① 首先执行命令查看shell脚本:vi start-all.sh(在bin目录下执行),可以看到如下图所示的脚本