您的位置:首页 > 服务器 > > 正文

仅主机模式搭建hadoop集群(阿里云服务器搭建hadoop集群补充)

更多 时间:2021-10-07 00:01:36 类别:服务器 浏览量:696

仅主机模式搭建hadoop集群

阿里云服务器搭建hadoop集群补充
  • 1 阿里云服务器选配

     

  • 首先附上官网链接:阿里云官网

  • 点击上边链接,注册后登陆官网,选择产品选项,然后选择云服务器ECS,就进入云服务器ECS购买界面。
    阿里云服务器搭建hadoop集群补充
    进入云服务ECS购买界面,点击立即购买,在界面中分为一键购买自定义购买,如何对配置没有概念,感觉太麻烦,推荐使用一键购买。本文以一键购买为例,主要是从以下几个方面进行选购:

    • 地域及可用性
    • 实例规格
    • 镜像
    • 网络类型(公网带宽)
    • 购买数量(购买时长)
  • 阿里云服务器搭建hadoop集群补充
    地域及可用性:选择离自己比较近的地域,如我在上海,选择华东2(上海),搭建hadoop集群的时候,购买的多台服务器一定要选择在同一个区域,避免后续配置麻烦。

  • 实例规格: 选择CPU,及CPU运行内存,搭建hadoop集群的时候,master主机的运行内存必须是2G以上,其他节点可以为1G。我选购的3台云服务器的配置为:master:1 vCPU 2GiB,slave1:1 vCPU 1GiB,slave2:1 vCPU 1GiB。

  • 镜像:选择服务器的系统和系统版本,系统可以选择CentOS和Ubuntu,版本无要求,我选择是 CentOS 8.0 64位。
    网络类型(公网带宽):选择带宽,1-200Mbps都可以选择,我选择是1Mbps。

  • -购买数量(购买时长):选择购买数量和购买时长之后,付完款,就可以登陆了。配置越高费用越高。我选择的最低配置一个月:60元。

  • 购买完成后,进入实例。选择远程登陆,输入自己的密码,即可进入系统。进入为命令行模式(黑窗口),不是图形化界面。登陆云服务器的方法,可以通过官网登陆,也可以通过SecureCRT或者Xshell等软件进行登陆,输入的IP地址(外网IP地址)和密码即可。
    阿里云服务器搭建hadoop集群补充

  • 官网上的一个活动,有想法的可以参与一下。
    阿里云大礼包领取

  • 2 使用WEB界面访问hadoop集群

     

  • 使用WEB界面访问HDFS和Yarn,该端口分别为50070和18088,这两个端口在这个文件中hdfs-site.xml、yarn-site.xml设置的。忘记的可以参考上一篇文章:阿里云搭建hadoop集群

  • 使用WEB界面访问HDFS和Yarn的两个条件:

    • 关闭防火墙
    • 云服务器安全组配置端口
  • 关闭防火墙命令

  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • #查看防火墙开启状态
  • systemctl status firewalld
  • #关闭防火墙
  • systemctl stop firewalld
  • #禁止开机启动防火墙
  • systemctl disable firewalld
  • #开启防火墙
  • systemctl start firewalld
  • #设置开机启动防火墙
  • systemctl enable firewalld
  • #重启防火墙
  • systemctl restart firewalld
  • 123456789101112
  • 云服务器安全组配置端口

  • 阿里云服务器搭建hadoop集群补充

  • 进入控制台,选择自己已经开通的云服务器ECS产品,选择网络与安全,点击安全组,选择配置规则,然后选择手动添加,添加如上两个端口。
    阿里云服务器搭建hadoop集群补充
    WEB界面访问HDFS和Yarn,直接在浏览器中输入外网IP地址:50070访问HDFS,外网IP地址:18088访问Yarn。

  • 阿里云服务器搭建hadoop集群补充
    阿里云服务器搭建hadoop集群补充

  • 3 hadoop集群验证功能

     

  • HDFS功能测试
    上传本地文件到HDFS根目录,命令如下:

  • 1
  • 2
  • 3
  • hdfs dfs -put spark-3.0.1-bin-hadoop3.2.tgz hdfs://master:9000 /
  • #也可去掉hdfs://master:9000,core-site.xml中设置的hdfs名字。
  • hdfs dfs -put spark-3.0.1-bin-hadoop3.2.tgz  /
  • 阿里云服务器搭建hadoop集群补充
    本地文件上传到HDFS成功的话,会在web端UtilitiesBrowse the file system 中看到上传的文件,以及文件备份数,文件块大小,文件块的存放位置。

  • Yarn功能测试
    运行一个jar任务,计算pi(圆周率)大小,命令如下:

  • 1
  • hadoop jar /usr/local/hadoop-3.2.1/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.2.1.jar pi 10 10
  • 找到hadoop文件下的mapreduce例子运行,会在web端看到job历史。

  • 阿里云服务器搭建hadoop集群补充

  • 不求点赞 只求有用

  • 您可能感兴趣