黄瓜视频成人app免费_国产美女视频黄a视频免费_欧美电影一区二区三区_欧美一区二区视频在线观看 _日日噜噜夜夜狠狠视频欧美人_欧美国产精品_国产欧美日韩_噜噜噜天天躁狠狠躁夜夜精品

當前位置: 首頁 > 綜合 >

大數據必知必會:Hadoop(3)集群環境安裝

2023-02-10 03:04:31 來源:騰訊云

安裝前準備

集群環境下,至少需要3臺服務器。

IP地址

主機名稱


(資料圖片僅供參考)

10.0.0.5

node1

10.0.0.6

node2

10.0.0.7

node3

需要保證每臺服務器的配置都一致,以下步驟在3臺服務器上都需要做一次。

操作系統準備

本次安裝采用的操作系統是Ubuntu 20.04。

更新一下軟件包列表。

sudo apt-get update

安裝Java 8+

使用命令安裝Java 8。

sudo apt-get install -y openjdk-8-jdk

配置環境變量。

vi ~/.bashrcexport JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64

讓環境變量生效。

source ~/.bashrc

下載Hadoop安裝包

從Hadoop官網Apache Hadoop下載安裝包軟件。

image-20230120200957218

或者直接通過命令下載。

wget https://dlcdn.apache.org/hadoop/common/hadoop-3.3.4/hadoop-3.3.4.tar.gz
image-20230122004400490

分布式集群安裝

分布式集群是在多個節點上運行進程來實現Hadoop集群。

配置域名解析

在后續使用過程中,都使用主機名稱,所以需要配置域名解析。

配置 /etc/hosts

由于該配置文件的修改需要root權限,所以在每個節點上都手動配置。

10.0.0.5 node110.0.0.6 node210.0.0.7 node3

以下配置過程在node1上完成,并且配置完成后將配置文件復制到其他節點。

配置免密登錄

Hadoop分布式集群的運行,需要配置密鑰對實現免密登錄。

創建公私鑰對
hadoop@node1:~$ ssh-keygen -t rsaGenerating public/private rsa key pair.Enter file in which to save the key (/home/hadoop/.ssh/id_rsa): Enter passphrase (empty for no passphrase): Enter same passphrase again: Your identification has been saved in /home/hadoop/.ssh/id_rsaYour public key has been saved in /home/hadoop/.ssh/id_rsa.pubThe key fingerprint is:SHA256:pp2AC1bQAQ5J6CJJCij1QA7bgKOsVxpoPVNi+cxhcyg hadoop@node1The key"s randomart image is:+---[RSA 3072]----+|O=*oo..          ||OX E.* .         ||X+* @ +          ||B+.=.=           ||= o++ . S        ||..o. . = .       || .  . . o        ||                 ||                 |+----[SHA256]-----+
復制公鑰
hadoop@node1:~$ cp ~/.ssh/id_rsa.pub ~/.ssh/authorized_keys
復制到其他節點
hadoop@node1:~$ scp -r .ssh node1:~/id_rsa.pub                                   100%  566     1.7MB/s   00:00    authorized_keys                              100%  566     2.0MB/s   00:00    known_hosts                                  100% 1332     4.5MB/s   00:00    id_rsa                                       100% 2602    10.1MB/s   00:00    hadoop@node1:~$ scp -r .ssh node2:~/hadoop@node2"s password: id_rsa.pub                                   100%  566   934.6KB/s   00:00    authorized_keys                              100%  566   107.3KB/s   00:00    known_hosts                                  100% 1332     2.5MB/s   00:00    id_rsa                                       100% 2602     4.8MB/s   00:00    hadoop@node1:~$ scp -r .ssh node3:~/hadoop@node3"s password: id_rsa.pub                                   100%  566     1.0MB/s   00:00    authorized_keys                              100%  566     1.3MB/s   00:00    known_hosts                                  100% 1332     2.8MB/s   00:00    id_rsa                                       100% 2602     5.2MB/s   00:00    

確保執行ssh命令的時候不需要輸入密碼。

hadoop@node1:~$ ssh node1hadoop@node1:~$ ssh node2hadoop@node1:~$ ssh node3

解壓安裝包

將安裝包解壓到目標路徑。

hadoop@node1:~$ mkdir -p appshadoop@node1:~$ tar -xzf hadoop-3.3.4.tar.gz -C apps
image-20230122005658601

bin目錄下存放的是Hadoop相關的常用命令,比如操作HDFS的hdfs命令,以及hadoop、yarn等命令。

etc目錄下存放的是Hadoop的配置文件,對HDFS、MapReduce、YARN以及集群節點列表的配置都在這個里面。

sbin目錄下存放的是管理集群相關的命令,比如啟動集群、啟動HDFS、啟動YARN、停止集群等的命令。

share目錄下存放了一些Hadoop的相關資源,比如文檔以及各個模塊的Jar包。

配置環境變量

在集群的每個節點上都配置Hadoop的環境變量,Hadoop集群在啟動的時候可以使用start-all.sh一次性啟動集群中的HDFS和Yarn,為了能夠正常使用該命令,需要將其路徑配置到環境變量中。

hadoop@node1:~$ vi ~/.bashrcexport HADOOP_HOME=/home/hadoop/apps/hadoop-3.3.4export HADOOP_CONF_DIR=/home/hadoop/apps/hadoop-3.3.4/etc/hadoopexport YARN_CONF_DIR=/home/hadoop/apps/hadoop-3.3.4/etc/hadoopexport PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH

使環境變量生效。

hadoop@node1:~$ source ~/.bashrc

配置Hadoop集群

Hadoop軟件安裝完成后,每個節點上的Hadoop都是獨立的軟件,需要進行配置才能組成Hadoop集群。Hadoop的配置文件在$HADOOP_HOME/etc/hadoop目錄下,主要配置文件有6個:

hadoop-env.sh主要配置Hadoop環境相關的信息,比如安裝路徑、配置文件路徑等;core-site.xml是Hadoop的核心配置文件,主要配置了Hadoop的NameNode的地址、Hadoop產生的文件目錄等信息;hdfs-site.xml是HDFS分布式文件系統相關的配置文件,主要配置了文件的副本數、HDFS文件系統在本地對應的目錄等;mapred-site.xml是關于MapReduce的配置文件,主要配置MapReduce在哪里運行;yarn-site.xml是Yarn相關的配置文件,主要配置了Yarn的管理節點ResourceManager的地址、NodeManager獲取數據的方式等;workers是集群中節點列表的配置文件,只有在這個文件里面配置了的節點才會加入到Hadoop集群中,否則就是一個獨立節點。

這幾個配置文件如果不存在,可以通過復制配置模板的方式創建,也可以通過創建新文件的方式創建。需要保證在集群的每個節點上這6個配置保持同步,可以在每個節點單獨配置,也可以在一個節點上配置完成后同步到其他節點。

hadoop-env.sh配置

hadoop@node1:~$ vi $HADOOP_HOME/etc/hadoop/hadoop-env.shexport JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64export HADOOP_HOME=/home/hadoop/apps/hadoop-3.3.4export HADOOP_CONF_DIR=/home/hadoop/apps/hadoop-3.3.4/etc/hadoopexport HADOOP_LOG_DIR=/home/hadoop/logs/hadoop

core-site.xml配置

hadoop@node1:~$ vi $HADOOP_HOME/etc/hadoop/core-site.xml          fs.defaultFS      hdfs://node1:8020              hadoop.tmp.dir      /home/hadoop/data/hadoop/temp              hadoop.proxyuser.hadoop.hosts      *              hadoop.proxyuser.hadoop.groups      *    

hdfs-site.xml配置

hadoop@node1:~$ vi $HADOOP_HOME/etc/hadoop/hdfs-site.xml            dfs.replication        3              dfs.namenode.name.dir      /home/hadoop/data/hadoop/hdfs/name              dfs.datanode.data.dir      /home/hadoop/data/hadoop/hdfs/data    

mapred-site.xml配置

hadoop@node1:~$ vi $HADOOP_HOME/etc/hadoop/mapred-site.xml            mapreduce.framework.name        yarn                mapreduce.application.classpath        $HADOOP_HOME/share/hadoop/mapreduce/*:$HADOOP_HOME/share/hadoop/mapreduce/lib/*    

yarn-site.xml配置

hadoop@node1:~$ vi $HADOOP_HOME/etc/hadoop/yarn-site.xml          yarn.nodemanager.aux-services      mapreduce_shuffle                  yarn.resourcemanager.hostname        node1    

workers配置

hadoop@node1:~$ vi $HADOOP_HOME/etc/hadoop/workersnode1node2node3

將軟件及配置信息復制到其他節點

在node1上配置好環境變量及配置文件,可以手動再在其他節點上完成同樣的配置,或者直接將node1的文件復制到其他節點。

hadoop@node1:~$ scp -r .bashrc apps node2:~/hadoop@node1:~$ scp -r .bashrc apps node3:~/

格式化NameNode

在啟動集群前,需要對NameNode進行格式化,在node1上執行以下命令:

hadoop@node1:~$ hdfs namenode -format

啟動集群

在node1上執行start-all.sh命令啟動集群。

hadoop@node1:~$ jps55936 Jpshadoop@node1:~$ start-all.shWARNING: Attempting to start all Apache Hadoop daemons as hadoop in 10 seconds.WARNING: This is not a recommended production deployment configuration.WARNING: Use CTRL-C to abort.Starting namenodes on [node1]Starting datanodesnode2: WARNING: /home/hadoop/logs/hadoop does not exist. Creating.node3: WARNING: /home/hadoop/logs/hadoop does not exist. Creating.Starting secondary namenodes [node1]WARNING: YARN_CONF_DIR has been replaced by HADOOP_CONF_DIR. Using value of YARN_CONF_DIR.Starting resourcemanagerWARNING: YARN_CONF_DIR has been replaced by HADOOP_CONF_DIR. Using value of YARN_CONF_DIR.Starting nodemanagersWARNING: YARN_CONF_DIR has been replaced by HADOOP_CONF_DIR. Using value of YARN_CONF_DIR.node3: WARNING: YARN_CONF_DIR has been replaced by HADOOP_CONF_DIR. Using value of YARN_CONF_DIR.node2: WARNING: YARN_CONF_DIR has been replaced by HADOOP_CONF_DIR. Using value of YARN_CONF_DIR.node1: WARNING: YARN_CONF_DIR has been replaced by HADOOP_CONF_DIR. Using value of YARN_CONF_DIR.hadoop@node1:~$ jps57329 ResourceManager57553 NodeManager57027 SecondaryNameNode58165 Jps56437 NameNode56678 DataNode

驗證Hadoop

訪問HDFS

上傳一個文件到HDFS。

hdfs dfs -put .bashrc /

打開HDFS Web UI查看相關信息,默認端口9870。

image-20230122011646516
image-20230122011729528
image-20230122011803241

訪問YARN

打開YARN Web UI查看相關信息,默認端口8088。

image-20230122011843198

相關命令

HDFS相關的命令

操作HDFS使用的命令是hdfs,命令格式為:

Usage: hdfs [OPTIONS] SUBCOMMAND [SUBCOMMAND OPTIONS]

支持的Client命令主要有:

Client Commands:classpath            prints the class path needed to get the hadoop jar and the required librariesdfs                  run a filesystem command on the file systemenvvars              display computed Hadoop environment variablesfetchdt              fetch a delegation token from the NameNodegetconf              get config values from configurationgroups               get the groups which users belong tolsSnapshottableDir   list all snapshottable dirs owned by the current usersnapshotDiff         diff two snapshots of a directory or diff the current directory contents with a snapshotversion              print the version

YARN相關的命令

操作HDFS使用的命令是yarn,命令格式為:

Usage: yarn [OPTIONS] SUBCOMMAND [SUBCOMMAND OPTIONS] or    yarn [OPTIONS] CLASSNAME [CLASSNAME OPTIONS]  where CLASSNAME is a user-provided Java class

支持的Client命令主要有:

Client Commands:applicationattempt   prints applicationattempt(s) reportapp|application      prints application(s) report/kill application/manage long running applicationclasspath            prints the class path needed to get the hadoop jar and the required librariescluster              prints cluster informationcontainer            prints container(s) reportenvvars              display computed Hadoop environment variablesfs2cs                converts Fair Scheduler configuration to Capacity Scheduler (EXPERIMENTAL)jar             run a jar filelogs                 dump container logsnodeattributes       node attributes cli clientqueue                prints queue informationschedulerconf        Updates scheduler configurationtimelinereader       run the timeline reader servertop                  view cluster informationversion              print the version

yarn jar 可以執行一個jar文件。

驗證案例1,統計含有“dfs”的字符串

創建一個input目錄。

hadoop@node1:~$ hdfs dfs -mkdir /input

將Hadoop的配置文件復制到input目錄下。

hadoop@node1:~$ hdfs dfs -put apps/hadoop-3.3.4/etc/hadoop/*.xml /input/

以下命令用于執行一個Hadoop自帶的樣例程序,統計input目錄中含有dfs的字符串,結果輸出到output目錄。

hadoop@node1:~$ yarn jar $HADOOP_HOME/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.4.jar grep /input /output "dfs[a-z.]+"
image-20230122012114789

在YARN上可以看到提交的Job。

image-20230122012159358

執行結果為:

hadoop@node1:~$ hdfs dfs -cat /output/*1       dfsadmin1       dfs.replication1       dfs.namenode.name.dir1       dfs.datanode.data.dir
驗證案例2,計算圓周率

同樣執行Hadoop自帶的案例,計算圓周率。

hadoop@node1:~$ yarn jar $HADOOP_HOME/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.4.jar pi 10 10

執行結果為:

hadoop@node1:~$ yarn jar $HADOOP_HOME/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.4.jar pi 10 10WARNING: YARN_CONF_DIR has been replaced by HADOOP_CONF_DIR. Using value of YARN_CONF_DIR.Number of Maps  = 10Samples per Map = 10Wrote input for Map #0Wrote input for Map #1Wrote input for Map #2Wrote input for Map #3Wrote input for Map #4Wrote input for Map #5Wrote input for Map #6Wrote input for Map #7Wrote input for Map #8Wrote input for Map #9Starting Job... ...Job Finished in 43.014 secondsEstimated value of Pi is 3.20000000000000000000

在YARN上可以看到提交的Job。

image-20230122012444050
標簽: Hadoop Bash Bash
最近更新
15037178970
婚姻法
有關涉外婚姻中撫養糾紛中的法律適用等問題我國法律有什么解釋?
涉外離婚中子女撫養權問題有哪些?涉外離婚子女撫養有幾種情況?
法律規定涉外離婚孩子撫養費問題如何處理?子女撫養費數額的計算有哪些影響因素?
涉外離婚公證怎么做?涉外離婚公證具體步驟有哪些?
關于涉外離婚的程序具體內容有哪些?涉外離婚的程序有什么法律依據?
異地分居五年一方工資是共同財產嗎?涉外婚姻離婚在哪里辦理?
夫妻分居異地如何訴訟離婚?實踐中法院是怎么認定分居?
涉外離婚途徑有哪幾種?涉外離婚可以委托律師嗎?
離婚的時候境外財產怎么去分割?涉外離婚有什么法律依據?
最高法關于涉外婚姻的解釋是什么?涉外離婚分割財產應遵循的原則有哪些?
知識糾紛
1 哪些可以申請專利?專利可以同時多個人一起申請嗎?
2 專利申請收費標準是怎樣的?申請不同類型的專利所需要的錢不同
3 專利實施許可合同讓與人有哪些主要義務?專利實施許可合同與專利許可合同有什么區別?
4 哪些情形實施專利強制許可?專利強制許可的前提條件是什么?
5 專利無效的法律后果有哪些?專利的無效情形有哪些?
6 專利駁回復審具體有多長時間?哪些情況下專利申請可能被駁回?
7 發明專利權的保護期限是多少年?非專利發明人是否有專利申請權?
8 侵犯專利權的賠償計算方式是什么?侵犯專利權的訴訟時效為多長時間?
公司法
企業改制的含義 有哪些方式?改制后國企員工屬于什么性質?
民營企業改制中的隱形債務問題 面對隱形債務問題應該如何解決?
旅行社經營范圍變更的審核告知事項 旅游業的發展現狀和趨勢
企業無常加班是否可以匿名舉報?強制加班公司沒有加班費怎么辦?
企業清理欠款時應注意什么問題?企業短期借款需要注意哪些事項?
什么是中小企業集合票據和超級短期融資券?一起來了解一下吧!
一人有限責任公司與個人獨資企業的區別 這些知識你都知道嗎?
有限責任公司股權轉讓具體有哪些形式?來了解下這五種形式
一人公司設立時應當注意的問題 一人公司的特征
公司股東之間股權轉讓計稅基礎怎么確認?公司股東之間的股權轉讓要符合什么要件?
合同法
客運合同中旅客的權利義務一覽 主要包括這些內容

2022-09-01

運輸承攬合同司法解釋 運輸合同中承運人的義務有哪些

2022-09-01

裝修合同簽訂流程法律法規一覽 律師解答

2022-09-01

建筑工程承包人最主要的義務一覽 承包合同內容介紹

2022-09-01

監控安裝合同書的內容格式介紹 一般包括這些條款

2022-09-01

委托書可以撤銷嗎 房屋買賣公證可否撤銷

2022-09-01

勞動糾紛
客運合同中旅客的權利義務一覽 主要包括這些內容
運輸承攬合同司法解釋 運輸合同中承運人的義務有哪些
裝修合同簽訂流程法律法規一覽 律師解答
建筑工程承包人最主要的義務一覽 承包合同內容介紹
監控安裝合同書的內容格式介紹 一般包括這些條款
委托書可以撤銷嗎 房屋買賣公證可否撤銷

法律解答網版權所有 2005-2022   備案號:京ICP備2022016840號-59  聯系郵箱:920 891 263@qq.com

久久91麻豆精品一区| 精品国产亚洲一区二区三区在线 | 亚洲欧美激情四射在线日| 天堂中文在线播放| 成人国产精品免费观看| 在线观看黄网| 国产午夜精品一区二区三区欧美 | 免费观看一级特黄欧美大片| 亚洲人成在线观看| 在线成人激情| 日韩欧美你懂的| 精品视频久久| 欧日韩精品视频| gogo人体一区| 色婷婷精品久久二区二区蜜臂av | 久久精品高清| 欧美一级片在线看| 欧美精品尤物在线观看| 日韩一区二区不卡| 国产精品福利在线观看播放| 日韩美女一区二区三区四区| 欧美日韩国产免费观看视频| 欧美日韩国产综合视频在线观看 | 在线91av| 久久国产精品99精品国产| 欧美一区二区少妇| 久久er99热精品一区二区| 一二三在线视频社区| 日韩av高清在线观看| 屁屁影院在线观看| 免费国产亚洲视频| 国模精品一区二区| 国产一区免费电影| av网站网址在线观看| 久久综合色婷婷| 久草在线资源福利站| 亚洲色图在线视频| 黄色成人在线观看网站| 亚洲成a人v欧美综合天堂| 性欧美超级视频| 精品久久久久久国产| 麻豆一区一区三区四区| 在线观看日韩电影| 日韩1区在线| 亚洲色图在线观看| 国产日韩专区| 国产一级网站视频在线| 国产成人无遮挡在线视频| 欧美激情办公室videoshd| 久久影院午夜片一区| 激情开心成人网| 一本一道综合狠狠老| 精品国产一区探花在线观看| 日韩精品视频在线观看免费| 日韩精品亚洲一区二区三区免费| 国产欧美黑人| 亚洲自拍偷拍综合| 精品免费在线| 在线观看av网| 国产精品免费免费| 欧美日韩看看2015永久免费| 精品亚洲国产成av人片传媒 | 欧美成人ⅴideosxxxxx| 欧美优质美女网站| 国产视频久久| 51漫画成人app入口| 日本道色综合久久| 亚洲精品九九| 污污的网站在线看| 日本韩国精品在线| 中文在线一区| 久久青草伊人| 欧美日韩不卡在线| 日本在线播放一区二区三区| 国产精品原创| 欧美一区二区三区视频免费播放| 日韩中文字幕亚洲一区二区va在线| av在线免费播放| 91久久精品日日躁夜夜躁欧美| 激情欧美亚洲| av中文字幕在线看| 欧美日韩国产色站一区二区三区| 日韩av电影天堂| 成人视屏在线观看| 日韩av网站在线| 久久久久9999亚洲精品| 综合亚洲色图| 国产系列电影在线播放网址| 亚洲成人av免费| 国产精品视频久久一区| 成人免费短视频| 日韩av在线资源| 国产嫩草影院久久久久| 红桃成人av在线播放| 韩国福利在线| 91久久精品国产91性色tv| 日韩av午夜在线观看| 久久99国产精品二区高清软件| 亚洲精品国精品久久99热 | 亚洲欧美中日韩| 欧美在线免费一级片| 蜜桃成人365av| 日韩欧美国产一区在线观看| 成人精品视频一区二区三区尤物| youjizzjizz亚洲| 久草视频在线看| 欧美性色综合网| 大美女一区二区三区| 九九视频精品全部免费播放| 18免费在线视频| 67194成人在线观看| caoporen国产精品视频| 色777狠狠狠综合伊人| 亚洲综合图区| 日韩国产一区三区| 综合久久给合久久狠狠狠97色 | 伊人久久综合一区二区| 国产视频精品久久久| 亚洲免费看黄网站| 免费高清在线一区| 秋霞影院一区二区三区| 免费黄网站在线| 亚洲第一男人av| 一区二区三区不卡在线观看 | 美女精品久久| 爱久久·www| 日韩欧美中文一区| 综合在线观看色| 日韩精品亚洲一区二区三区免费| 国产欧美一区二区三区米奇| 日本亚洲精品| 久久精品国产大片免费观看| 韩国一区二区三区视频| 在线视频免费在线观看一区二区| 国内在线精品| 日韩欧美资源站| 超碰在线最新| 亚洲女色av| 色婷婷av一区二区三区软件| 国产成人免费视频网站高清观看视频 | 最猛黑人系列在线播放| 欧美性xxxxx极品| 91免费观看在线| 最新精品国产| 日韩区欧美区| 日本在线观看高清完整版| 亚洲免费视频观看| 色婷婷综合激情| 国产拍揄自揄精品视频麻豆| 久久激情一区| 日韩av有码| 国产999精品在线观看| 黄色网址免费在线观看| 亚洲精品国产综合久久| 色悠久久久久综合欧美99| 91色在线porny| 日本亚洲视频在线| 中文精品电影| 另类春色校园亚洲| 国产精品扒开腿做爽爽爽视频软件| 婷婷国产在线| 日韩成人激情视频| 欧美系列一区二区| 一区二区三区视频在线观看 | 牛牛视频精品一区二区不卡| 国产ktv在线视频| 丁香婷婷在线观看| 美女黄a一级视频| 精品盗摄一区二区三区| 色一情一乱一乱一91av| 国产精品久久久久久久久久免费看| 国产成人精品在线看| 天堂成人免费av电影一区| 欧美日韩激情在线一区二区三区| 大胆国模一区二区三区| 欧美aaaaa性bbbbb小妇| 日本免费在线视频| 中国在线观看免费国语版电影| 亚洲国产毛片完整版| 狠狠躁夜夜躁久久躁别揉| 国产精品久久久久久久久晋中 | 日韩精品三区四区| 一区二区视频欧美| 手机亚洲手机国产手机日韩| 激情亚洲另类图片区小说区| 久久久久伊人| 日本成人伦理电影| 9765激情中文在线| a免费在线观看| 免费观看在线黄色网| 韩国中文免费在线视频| 色网址在线观看| 国产做a爰片久久毛片| 亚洲第一网站| 亚洲成人免费在线视频| 欧美69xxxx| 久久精品国产亚洲夜色av网站| 一区二区三区不卡视频在线观看 | 欧美日韩高清一区二区三区| 美女18一级毛片一品久道久久综合|