更新时间:2019年07月29日 15时45分15秒 来源:黑马程序员论坛
HDFS伪分布式集群搭建步骤 一、配置免密登录 ssh-keygen -t rsa 一句话回车到底 ssh-copy-id -i ~/.ssh/id_rsa.pub root@node01 跟随提示进行,一般需要yes确认之后输入一次密码就成功了 如果没配置免密登录的话,会出现登录和退出HDFS时,所有节点都需要输一遍密码。(本人亲身实践,虽然还是启动成功了) 二、上传jdk和hadoop压缩包 可以使用ftp或者使用命令rz yum install lrzsz -y 三、解压jdk和hadoop压缩包 建议可以解压到统一的目录下 tar -zxvf 压缩包名 四、配置环境变量 export JAVA_HOME=/opt/software/jdk1.8.0_121 export PATH=$PATH:$JAVA_HOME/bin 必须让环境变量生效,代码如下: source /etc/profile PS:用户变量 .bashrc 系统变量 /etc/profile 系统操作命令(文件的增删改查) bin 系统管理命令(集群的启动、关闭) sbin hadoop配置信息 etc/hadoop 五、修改配置文件 ① slaves配置Datanode节点 ② 修改hdfs-site.xml //设置备份个数 <property> <name>dfs.replication</name> <value>1</value> </property> //secondaryNamenode <property> <name>dfs.namenode.secondary.http-address</name> <value>node01:50090</value> </property> ③ 修改core-site.xml //namenode <property> <name>fs.defaultFS</name> <value>hdfs://node01:9000</value> </property> //namenode启动后产生的信息 <property> <name>hadoop.tmp.dir</name> <value>/var/abc/hadoop/local</value> </property> ④ 把*-env.sh的文件内部所有的java路径改为绝对路径 六、格式化 让所有文件生效,此命令在/opt/software/hadoop/bin目录下 hdfs namenode -format 七、启动命令 此命令在/opt/software/hadoop/sbin目录下 ./start-dfs.sh 八、配置hadoop的环境变量 配置完这两条环境变量之后,可以在任意目录下启动Hadoop集群 export HADOOP_HOME=/opt/software/hadoop-2.6.5 export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin 九、操作HDFS文件系统 创建根目录,首先要写换到hadoop的bin目录下 ./hdfs dfs -mkdir -p /user/root 通过命令hdfs dfs -put 文件名或目录名,上传文件 十、本人在配置时出现的一些问题 /etc/hosts中的网络映射信息必须配置对 配置完环境变量后必须使用source /ect/profile使它生效 HDFS完全分布式集群配置 我是这么做的: 先克隆一台虚拟机,进行一下操作 一、修改hdfs-site.xml配置文件 value的数量不能超过节点数 第二个property标签配置的是secondarynamenode,节点要和主节点Namenode不同 <property> <name>dfs.replication</name> <value>3</value> </property> <property> <name>dfs.namenode.secondary.http-address</name> <value>node02:50090</value> </property> 二、修改core-site.xml配置文件 第一个property标签是配置主节点Namenode 第二个property标签是配置集群启动时产生的信息 <property> <name>fs.defaultFS</name> <value>hdfs://node01:9000</value> </property> <property> <name>hadoop.tmp.dir</name> <value>/var/abc/hadoop/cluster</value> </property> 三、修改slaves配置文件 修改主节点的slaves配置文件如下 node02 node03 node04 进行完这三个操作后再克隆三台虚拟机,然后配置各自的网络 四、配置网络 (之后补充)大概就是修改/ect/sysconfig/network的主机名,修改/ect/sysconfig/network-scripts/ifcfg-eth0中的IP地址,IPADDR修改为此虚拟机的IP,GATEWAY和DNS1为虚拟机的网关,DNS2随意,如下图也行, 修改完成后使用命令service network restart重启网卡,如果还有问题就删掉第二行和地四行,删掉之后若还有问题,请自行百度 ,删除rm -rf /etc/udev/rules.d/70-persistent-net.rules文件,重要的事情说三遍! 重启虚拟机!!!!!!!!!!!!!! 重启虚拟机!!!!!!!!!!!!!! 重启虚拟机!!!!!!!!!!!!!! 在各自的/ect/hosts目录下配置四台虚拟机的网络映射 代码可以参照如下: 注意:IP不可以冲突,必须每台虚拟机都配置 192.168.145.131 node01 192.168.145.132 node02 192.168.145.133 node03 192.168.145.134 node04 五、格式化 让所有文件生效,此命令在/opt/software/hadoop/bin目录下 hdfs namenode -format 六、启动命令 此命令在主节点/opt/software/hadoop/sbin目录下 ./start-dfs.sh --------------------- 原文:https://blog.csdn.net/mhw666/article/details/91610598 有任何问题欢迎在下方留言或者联系学姐 |
推荐了解热门学科
java培训 | Python人工智能 | Web前端培训 | PHP培训 |
区块链培训 | 影视制作培训 | C++培训 | 产品经理培训 |
UI设计培训 | 新媒体培训 | 软件测试培训 | Linux运维 |
大数据培训 | 智能机器人软件开发 |
传智播客是一家致力于培养高素质软件开发人才的科技公司,“黑马程序员”是传智播客旗下高端IT教育品牌。自“黑马程序员”成立以来,教学研发团队一直致力于打造精品课程资源,不断在产、学、研3个层面创新自己的执教理念与教学方针,并集中“黑马程序员”的优势力量,针对性地出版了计算机系列教材50多册,制作教学视频数+套,发表各类技术文章数百篇。
传智播客从未停止思考
传智播客副总裁毕向东在2019IT培训行业变革大会提到,“传智播客意识到企业的用人需求已经从初级程序员升级到中高级程序员,具备多领域、多行业项目经验的人才成为企业用人的首选。”
中级程序员和初级程序员的差别在哪里?
项目经验。毕向东表示,“中级程序员和初级程序员最大的差别在于中级程序员比初级程序员多了三四年的工作经验,从而多出了更多的项目经验。“为此,传智播客研究院引进曾在知名IT企业如阿里、IBM就职的高级技术专家,集中研发面向中高级程序员的课程,用以满足企业用人需求,尽快补全IT行业所需的人才缺口。
何为中高级程序员课程?
传智播客进行了定义。中高级程序员课程,是在当前主流的初级程序员课程的基础上,增加多领域多行业的含金量项目,从技术的广度和深度上进行拓展。“我们希望用5年的时间,打造上百个高含金量的项目,覆盖主流的32个行业。”传智播客课程研发总监于洋表示。
黑马程序员热门视频教程
Python入门教程完整版(懂中文就能学会) | 零起点打开Java世界的大门 |
C++| 匠心之作 从0到1入门学编程 | PHP|零基础入门开发者编程核心技术 |
Web前端入门教程_Web前端html+css+JavaScript | 软件测试入门到精通 |