|
对应的Pod定义如下:
- apiVersion: v1
- kind: Pod
- metadata:
- name: yarn-master
- labels:
- app: yarn-master
- spec:
- containers:
- - name: yarn-master
- image: kubeguide/hadoop
- imagePullPolicy: IfNotPresent
- ports:
- - containerPort: 9000
- - containerPort: 50070
- env:
- - name: HADOOP_NODE_TYPE
- value: resourceman
- - name: HDFS_MASTER_SERVICE
- valueFrom:
- configMapKeyRef:
- name: ku8-hadoop-conf
- key: HDFS_MASTER_SERVICE
- - name: HDOOP_YARN_MASTER
- valueFrom:
- configMapKeyRef:
- name: ku8-hadoop-conf
- key: HDOOP_YARN_MASTER
- restartPolicy: Always
目前这个方案,还遗留了一个问题有待解决:HDFS NameNode节点重启后的文件系统格式化问题,这个问题可以通过启动脚本来解决,即判断HDFS文件系统是否已经格式化过,如果没有,就启动时候执行格式化命令,否则跳过格式化命令。
安装完毕后,我们可以通过浏览器访问Hadoop的HDFS管理界面,点击主页上的Overview页签会显示我们熟悉的HDFS界面:

切换到Datanodes页签,可以看到每个Datanodes的的信息以及当前状态:

接下来,我们可以登录到NameNode所在的Pod里并执行HDSF命令进行功能性验证,下面的命令执行结果是建立一个HDFS目录,并且上传一个文件到此目录中:
- root@hadoop-master:/usr/local/hadoop/bin# hadoop fs -ls /
- root@hadoop-master:/usr/local/hadoop/bin# hadoop fs -mkdir /leader-us
- root@hadoop-master:/usr/local/hadoop/bin# hadoop fs -ls /
- Found 1 items
- drwxr-xr-x - root supergroup 0 2017-02-17 07:32 /leader-us
- root@hadoop-master:/usr/local/hadoop/bin# hadoop fs -put hdfs.cmd /leader-us
然后,我们可以在HDFS管理界面中浏览HDFS文件系统,验证刚才的操作结果:

接下来,我们再登录到hadoop-master对应的Pod上,启动一个Map-Reduce测试作业——wordcount,作业启动后,我们可以在Yarn的管理界面中看到作业的执行信息,如下图所示:
 (编辑:PHP编程网 - 湛江站长网)
【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!
|