網站首頁 編程語言 正文
1.在usr目錄下創建Hadoop目錄,將安裝包導入目錄中并解壓文件
?
2.進入vim /etc/profile文件并編輯配置文件
#hadoop export HADOOP_HOME=/usr/hadoop/hadoop-2.6.0 export CLASSPATH=$CLASSPATH:$HADOOP_HOME/lib export PATH=$PATH:$HADOOP_HOME/bin
3.使文件生效
source /etc/profile
4.進入Hadoop目錄下
cd /usr/hadoop/hadoop-2.6.0/etc/hadoop
5.編輯配置文件
(1)進入vim hadoop-env.sh文件添加(java jdk文件所在位置)
export JAVA_HOME=/usr/java/jdk1.8.0_181
?(2)進入 vim core-site.xml(z1:在主節點的ip或者映射名(改成自己的))
<configuration> <property> <name>hadoop.tmp.dir</name> <value>file:/root/hadoop/tmp</value> </property> <!--端口號9000--> <property> <name>fs.default.name</name> <value>hdfs://z1:9000</value> </property> <!--開啟垃圾桶機制單位分鐘--> <property> <name>fs.trash .insterval</name> <value>10080</value> </property> <!--緩沖區大小,實際工作根據服務器性能--> <property> <name>io.file. buffer.sizei</name> <value>4096</value> </property> </configuration> 39,9 底端
(3)Hadoop沒有mapred-site.xml這個文件現將文件復制到這然后進入mapred-site.xml
cp mapred-site.xml.template mapred-site.xml vim mapred-site.xml
?(z1:在主節點的ip或者映射名(改成自己的))
<configuration> <property> <!--指定Mapreduce運行在yarn上--> <name>mapreduce.framework.name</name> <value>yarn</value> </property> <!--開啟MapReduce的小任務模式--> <property> <name>mapred.job.ubertask.enable</name> <value>true</value> </property> <property> <name>mapred.job.tracker</name> <value>z1:9001</value> </property> <property> <name>mapreduce.jobhistory.address</name> <value>CMaster:10020</value> </property> </configuration>
?(4)進入yarn-site.xml
vim yarn-site.xml
??(z1:在主節點的ip或者映射名(改成自己的))
<configuration> <!-- Site specific YARN configuration properties --> <!--配置yarn主節點的位置--> <property> <name>yarn.resourcemanager.hostname</name> <value>z1</value> </property> <property> <!-- mapreduce ,執行shuff1e時獲取數據的方式.--> <description>The address of the appiications manager interface inthe RM.</description> <name>yarn.resourcemanager.address</name> <value>z1:8032</value> </property> <property> <name>yarn.resourcemanager.scheduler.address</name> <value>z1:8030</value> </property> <property> <name>yarn.resourcemanager.webapp.address</name> <value>z1:8088</value> </property> <property> <name>yarn.resourcemanager.webapp.https.address</name> <value>z1:8090</value> </property> <property> <name>yarn.resourcemanager.resource-tracker.address</name> <value>z1:8031</value> </property> <property> <name>yarn.resourcemanager.admin.address</name> <value>z1:8033</value> </property> <property><!--mapreduce執行shuff1e時獲取數據的方式,--> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <property> <!--設置內存,yarn的內存分配--> <name>yarn.scheduler.maximum-a11ocation-mb</name> <value>2024</value> <discription>每個節點可用內存,單位M,默認8182MB</discription> </property> <property> <name>yarn.nodemanager.vmem-pmem-ratio</name> <value>2.1</value> </property> <property> <name>yarn.nodemanager.resource.memory-mb</name> <value>1024</value> </property> <property> <name>yarn.nodemanager.vmem-check-enabled</name> <value>false</value> </property> <property> <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name> <value>org.apache.hadoop.mapred.ShuffleHandler</value> </property> </configuration>
(5)進入hdfs-site.xml
vim hdfs-site.xml
<configuration> <property> <name>dfs.namenode.name.dir</name> <value>file:/usr/hadoop/hadoop-2.6.0/hadoopDesk/namenodeDatas</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>file:/usr/hadoop/hadoop-2.6.0/hadoopDatas/namenodeDatas</value> </property> <property> <!--副本個數--> <name>dfs.replication</name> <value>3</value> </property> <!--設置hdfs的文件權限--> <property> <name>dfs.permissions</name> <value>false</value> </property> <!--設置一個文件切片的大小:128m--> <property> <name>dfs.bloksize</name> <value>134217728</value> </property> </configuration>
6.進入slaves添加主節點和從節點
vim slaves
?添加自己的主節點和從節點(我的是z1,z2,z3)
7.將各個文件復制到其他虛擬機上
scp -r /etc/profile root@z2:/etc/profile #將環境變量profile文件分發到z2節點 scp -r /etc/profile root@z3:/etc/profile #將環境變量profile文件分發到z3節點 scp -r /usr/hadoop root@z2:/usr/ #將hadoop文件分發到z2節點 scp -r /usr/hadoop root@z3:/usr/ #將hadoop文件分發到z3節點
生效兩個從節點的環境變量
source /etc/profile
8.格式化hadoop (僅在主節點中進行操作)
首先查看jps是否啟動hadoop
hadoop namenode -format
當看到Exiting with status 0時說明格式化成功
9.回到Hadoop目錄下(僅在主節點操作)
cd /usr/hadoop/hadoop-2.6.0 sbin/start-all.sh 啟動Hadoop僅在主節點操作
主節點輸入jps效果:?
?
從節點輸jps效果:
?
原文鏈接:https://blog.csdn.net/m0_59383355/article/details/121970211
相關推薦
- 2022-08-03 C++實現圖像目標區裁剪ImageCropping_C 語言
- 2022-05-17 springboot打包為jar
- 2022-07-26 Nginx本地配置SSL訪問的實例教程_nginx
- 2023-04-03 Input系統分發策略及其應用示例詳解_Android
- 2022-03-14 windows環境搭建golang的gin框架簡易教程
- 2022-07-30 HadoopWindows下客戶端環境配置
- 2023-09-18 element-plus 字體變色之cell-style
- 2022-01-27 worker process terminated 進程退出
- 最近更新
-
- window11 系統安裝 yarn
- 超詳細win安裝深度學習環境2025年最新版(
- Linux 中運行的top命令 怎么退出?
- MySQL 中decimal 的用法? 存儲小
- get 、set 、toString 方法的使
- @Resource和 @Autowired注解
- Java基礎操作-- 運算符,流程控制 Flo
- 1. Int 和Integer 的區別,Jav
- spring @retryable不生效的一種
- Spring Security之認證信息的處理
- Spring Security之認證過濾器
- Spring Security概述快速入門
- Spring Security之配置體系
- 【SpringBoot】SpringCache
- Spring Security之基于方法配置權
- redisson分布式鎖中waittime的設
- maven:解決release錯誤:Artif
- restTemplate使用總結
- Spring Security之安全異常處理
- MybatisPlus優雅實現加密?
- Spring ioc容器與Bean的生命周期。
- 【探索SpringCloud】服務發現-Nac
- Spring Security之基于HttpR
- Redis 底層數據結構-簡單動態字符串(SD
- arthas操作spring被代理目標對象命令
- Spring中的單例模式應用詳解
- 聊聊消息隊列,發送消息的4種方式
- bootspring第三方資源配置管理
- GIT同步修改后的遠程分支