hadoop搭建步骤(spark和hadoop的区别)

1.虚拟机环境准备

1) 克隆虚拟机

2) 修改克隆虚拟机的静态ip

3) 修改主机名

4) 关闭防火墙

5) 创建atguigu用户

6) 配置atguigu用户具有root权限

以上6条内容详见《尚硅谷大数据技术之Linux》文档。

hadoop搭建步骤(spark和hadoop的区别)

7)在/opt目录下创建文件夹

(1)在/opt目录下创建module、software文件夹

[atguigu@hadoop101 opt]$ sudo mkdir module

[atguigu@hadoop101 opt]$ sudo mkdir software

(2)修改module、software文件夹的所有者

[atguigu@hadoop101 opt]$ sudo chown atguigu:atguigu module/ software/

[atguigu@hadoop101 opt]$ ll

总用量 8

drwxr-xr-x. 2 atguigu atguigu 4096 1月 17 14:37 module

drwxr-xr-x. 2 atguigu atguigu 4096 1月 17 14:38 software

2.安装jdk

1)卸载现有jdk

(1)查询是否安装java软件:

[atguigu@hadoop101 opt]$ rpm -qa | grep java

(2)如果安装的版本低于1.7,卸载该jdk:

[atguigu@hadoop101 opt]$ sudo rpm -e 软件包

2)用SecureCRT工具将jdk导入到opt目录下面的software文件夹下面

hadoop搭建步骤(spark和hadoop的区别)

“alt+p”进入sftp模式

hadoop搭建步骤(spark和hadoop的区别)

选择jdk1.8拖入

hadoop搭建步骤(spark和hadoop的区别)hadoop搭建步骤(spark和hadoop的区别)

3)在linux系统下的opt目录中查看软件包是否导入成功。

[atguigu@hadoop101 opt]$ cd software/

[atguigu@hadoop101 software]$ ls

hadoop-2.7.2.tar.gz jdk-8u144-linux-x64.tar.gz

4)解压jdk到/opt/module目录下

[atguigu@hadoop101 software]$ tar -zxvf jdk-8u144-linux-x64.tar.gz -C /opt/module/

5)配置jdk环境变量

(1)先获取jdk路径:

[atgui@hadoop101 jdk1.8.0_144]$ pwd

/opt/module/jdk1.8.0_144

(2)打开/etc/profile文件:

[atguigu@hadoop101 software]$ sudo vi /etc/profile

在profile文件末尾添加jdk路径:

#JAVA_HOME

export JAVA_HOME=/opt/module/jdk1.8.0_144

export PATH=$PATH:$JAVA_HOME/bin

(3)保存后退出:

:wq

(4)让修改后的文件生效:

[atguigu@hadoop101 jdk1.8.0_144]$ source /etc/profile

6)测试jdk是否安装成功:

[atguigu@hadoop101 jdk1.8.0_144]# java -version

java version “1.8.0_144”

注意:重启(如果java -version可以用就不用重启)

[atguigu@hadoop101 jdk1.8.0_144]$ sync

[atguigu@hadoop101 jdk1.8.0_144]$ sudo reboot

3.安装Hadoop

0)Hadoop下载地址:

https://archive.apache.org/dist/hadoop/common/hadoop-2.7.2/
  • 用SecureCRT工具将hadoop-2.7.2.tar.gz导入到opt目录下面的software文件夹下面

切换到sftp连接页面,选择Linux下编译的hadoop jar包拖入

hadoop搭建步骤(spark和hadoop的区别)hadoop搭建步骤(spark和hadoop的区别)

2)进入到Hadoop安装包路径下:

[atguigu@hadoop101 ~]$ cd /opt/software/

3)解压安装文件到/opt/module下面

[atguigu@hadoop101 software]$ tar -zxvf hadoop-2.7.2.tar.gz -C /opt/module/

4)查看是否解压成功

[atguigu@hadoop101 software]$ ls /opt/module/

hadoop-2.7.2

5)将hadoop添加到环境变量

(1)获取hadoop安装路径:

[atguigu@ hadoop101 hadoop-2.7.2]$ pwd

/opt/module/hadoop-2.7.2

(2)打开/etc/profile文件:

[atguigu@ hadoop101 hadoop-2.7.2]$ sudo vi /etc/profile

在profie文件末尾添加jdk路径:(shitf+g)

##HADOOP_HOME

export HADOOP_HOME=/opt/module/hadoop-2.7.2

export PATH=$PATH:$HADOOP_HOME/bin

export PATH=$PATH:$HADOOP_HOME/sbin

(3)保存后退出:

:wq

(4)让修改后的文件生效:

[atguigu@ hadoop101 hadoop-2.7.2]$ source /etc/profile

6)测试是否安装成功

[atguigu@hadoop102 ~]$ hadoop version

Hadoop 2.7.2

7)重启(如果hadoop命令不能用再重启):

[atguigu@ hadoop101 hadoop-2.7.2]$ sync

[atguigu@ hadoop101 hadoop-2.7.2]$ sudo reboot

关注我有更多的大数据相关知识分享!

版权声明:(恩蓝小号)内容由互联网(hadoop搭)用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 71441083@qq.com 举报,一经查实,本站将立刻删除。

发表评论

登录后才能评论