`
k_lb
  • 浏览: 860691 次
  • 性别: Icon_minigender_1
  • 来自: 郑州
社区版块
存档分类
最新评论
  • kitleer: 据我所知,国内有款ETL调度监控工具TaskCTL,支持ket ...
    kettle调度

CentOS 安装 hadoop(伪分布模式)

 
阅读更多
在本机上装的CentOS 5.5 虚拟机,

软件准备:jdk 1.6 U26

hadoop:hadoop-0.20.203.tar.gz


ssh检查配置

Linux代码 收藏代码
  1. [root@localhost~]#ssh-keygen-trsa
  2. Generatingpublic/privatersakeypair.
  3. Enterfileinwhichtosavethekey(/root/.ssh/id_rsa):
  4. Createddirectory'/root/.ssh'.
  5. Enterpassphrase(emptyfornopassphrase):
  6. Entersamepassphraseagain:
  7. Youridentificationhasbeensavedin/root/.ssh/id_rsa.
  8. Yourpublickeyhasbeensavedin/root/.ssh/id_rsa.pub.
  9. Thekeyfingerprintis:
  10. a8:7a:3e:f6:92:85:b8:c7:be:d9:0e:45:9c:d1:36:3broot@localhost.localdomain
  11. [root@localhost~]#
  12. [root@localhost~]#cd..
  13. [root@localhost/]#cdroot
  14. [root@localhost~]#ls
  15. anaconda-ks.cfgDesktopinstall.loginstall.log.syslog
  16. [root@localhost~]#cd.ssh
  17. [root@localhost.ssh]#catid_rsa.pub>authorized_keys
  18. [root@localhost.ssh]#
  19. [root@localhost.ssh]#sshlocalhost
  20. Theauthenticityofhost'localhost(127.0.0.1)'can'tbeestablished.
  21. RSAkeyfingerprintis41:c8:d4:e4:60:71:6f:6a:33:6a:25:27:62:9b:e3:90.
  22. Areyousureyouwanttocontinueconnecting(yes/no)?yes
  23. Warning:Permanentlyadded'localhost'(RSA)tothelistofknownhosts.
  24. Lastlogin:TueJun2122:40:312011
  25. [root@localhost~]#

安装jdk

Linux代码 收藏代码
  1. [root@localhostjava]#chmod+xjdk-6u26-linux-i586.bin
  2. [root@localhostjava]#./jdk-6u26-linux-i586.bin
  3. ......
  4. ......
  5. ......
  6. FormoreinformationonwhatdataRegistrationcollectsand
  7. howitismanagedandused,see:
  8. http://java.sun.com/javase/registration/JDKRegistrationPrivacy.html
  9. PressEntertocontinue.....
  10. Done.

安装完成后生成文件夹:jdk1.6.0_26

配置环境变量

Linux代码 收藏代码
  1. [root@localhostjava]#vi/etc/profile
  2. #添加如下信息
  3. #setjavaenvironment
  4. exportJAVA_HOME=/usr/java/jdk1.6.0_26
  5. exportCLASSPATH=$CLASSPATH:$JAVA_HOME/lib:$JAVA_HOME/jre/lib
  6. exportPATH=$JAVA_HOME/lib:$JAVA_HOME/jre/bin:$PATH:$HOME/bin
  7. exportHADOOP_HOME=/usr/local/hadoop/hadoop-0.20.203
  8. exportPATH=$PATH:$HADOOP_HOME/bin
  9. [root@localhostjava]#chmod+x/etc/profile
  10. [root@localhostjava]#source/etc/profile
  11. [root@localhostjava]#
  12. [root@localhostjava]#java-version
  13. javaversion"1.6.0_26"
  14. Java(TM)SERuntimeEnvironment(build1.6.0_26-b03)
  15. JavaHotSpot(TM)ClientVM(build20.1-b02,mixedmode,sharing)
  16. [root@localhostjava]#

修改hosts

Linuxa代码 收藏代码
  1. [root@localhostconf]#vi/etc/hosts
  2. #Donotremovethefollowingline,orvariousprograms
  3. #thatrequirenetworkfunctionalitywillfail.
  4. 127.0.0.1localhost.localdomainlocalhost
  5. ::1localhost6.localdomain6localhost6
  6. 127.0.0.1namenodedatanode01

解压安装hadoop

Linux代码 收藏代码
  1. [root@localhosthadoop]#tarzxvfhadoop-0.20.203.tar.gz
  2. ......
  3. ......
  4. ......
  5. hadoop-0.20.203.0/src/contrib/ec2/bin/image/create-hadoop-image-remote
  6. hadoop-0.20.203.0/src/contrib/ec2/bin/image/ec2-run-user-data
  7. hadoop-0.20.203.0/src/contrib/ec2/bin/launch-hadoop-cluster
  8. hadoop-0.20.203.0/src/contrib/ec2/bin/launch-hadoop-master
  9. hadoop-0.20.203.0/src/contrib/ec2/bin/launch-hadoop-slaves
  10. hadoop-0.20.203.0/src/contrib/ec2/bin/list-hadoop-clusters
  11. hadoop-0.20.203.0/src/contrib/ec2/bin/terminate-hadoop-cluster
  12. [root@localhosthadoop]#

进入hadoop配置conf

Linux代码 收藏代码
  1. ####################################
  2. [root@localhostconf]#vihadoop-env.sh
  3. #添加代码
  4. #setjavaenvironment
  5. exportJAVA_HOME=/usr/java/jdk1.6.0_26
  6. #####################################
  7. [root@localhostconf]#vicore-site.xml
  8. <?xmlversion="1.0"?>
  9. <?xml-stylesheettype="text/xsl"href="configuration.xsl"?>
  10. <!--Putsite-specificpropertyoverridesinthisfile.-->
  11. <configuration>
  12. <property>
  13. <name>fs.default.name</name>
  14. <value>hdfs://namenode:9000/</value>
  15. </property>
  16. <property>
  17. <name>hadoop.tmp.dir</name>
  18. <value>/usr/local/hadoop/hadooptmp</value>
  19. </property>
  20. </configuration>
  21. #######################################
  22. [root@localhostconf]#vihdfs-site.xml
  23. <?xmlversion="1.0"?>
  24. <?xml-stylesheettype="text/xsl"href="configuration.xsl"?>
  25. <!--Putsite-specificpropertyoverridesinthisfile.-->
  26. <configuration>
  27. <property>
  28. <name>dfs.name.dir</name>
  29. <value>/usr/local/hadoop/hdfs/name</value>
  30. </property>
  31. <property>
  32. <name>dfs.data.dir</name>
  33. <value>/usr/local/hadoop/hdfs/data</value>
  34. </property>
  35. <property>
  36. <name>dfs.replication</name>
  37. <value>1</value>
  38. </property>
  39. </configuration>
  40. #########################################
  41. [root@localhostconf]#vimapred-site.xml
  42. <?xmlversion="1.0"?>
  43. <?xml-stylesheettype="text/xsl"href="configuration.xsl"?>
  44. <!--Putsite-specificpropertyoverridesinthisfile.-->
  45. <configuration>
  46. <property>
  47. <name>mapred.job.tracker</name>
  48. <value>namenode:9001</value>
  49. </property>
  50. <property>
  51. <name>mapred.local.dir</name>
  52. <value>/usr/local/hadoop/mapred/local</value>
  53. </property>
  54. <property>
  55. <name>mapred.system.dir</name>
  56. <value>/tmp/hadoop/mapred/system</value>
  57. </property>
  58. </configuration>
  59. #########################################
  60. [root@localhostconf]#vimasters
  61. #localhost
  62. namenode
  63. #########################################
  64. [root@localhostconf]#vislaves
  65. #localhost
  66. datanode01

启动 hadoop

Linux代码 收藏代码
  1. #####################<spanstyle="font-size:small;">格式化namenode##############</span>
  2. [root@localhostbin]#hadoopnamenode-format
  3. 11/06/2300:43:54INFOnamenode.NameNode:STARTUP_MSG:
  4. /************************************************************
  5. STARTUP_MSG:StartingNameNode
  6. STARTUP_MSG:host=localhost.localdomain/127.0.0.1
  7. STARTUP_MSG:args=[-format]
  8. STARTUP_MSG:version=0.20.203.0
  9. STARTUP_MSG:build=http://svn.apache.org/repos/asf/hadoop/common/branches/branch-0.20-security-203-r1099333;compiledby'oom'onWedMay407:57:50PDT2011
  10. ************************************************************/
  11. 11/06/2300:43:55INFOutil.GSet:VMtype=32-bit
  12. 11/06/2300:43:55INFOutil.GSet:2%maxmemory=19.33375MB
  13. 11/06/2300:43:55INFOutil.GSet:capacity=2^22=4194304entries
  14. 11/06/2300:43:55INFOutil.GSet:recommended=4194304,actual=4194304
  15. 11/06/2300:43:56INFOnamenode.FSNamesystem:fsOwner=root
  16. 11/06/2300:43:56INFOnamenode.FSNamesystem:supergroup=supergroup
  17. 11/06/2300:43:56INFOnamenode.FSNamesystem:isPermissionEnabled=true
  18. 11/06/2300:43:56INFOnamenode.FSNamesystem:dfs.block.invalidate.limit=100
  19. 11/06/2300:43:56INFOnamenode.FSNamesystem:isAccessTokenEnabled=falseaccessKeyUpdateInterval=0min(s),accessTokenLifetime=0min(s)
  20. 11/06/2300:43:56INFOnamenode.NameNode:Cachingfilenamesoccuringmorethan10times
  21. 11/06/2300:43:57INFOcommon.Storage:Imagefileofsize110savedin0seconds.
  22. 11/06/2300:43:57INFOcommon.Storage:Storagedirectory/usr/local/hadoop/hdfs/namehasbeensuccessfullyformatted.
  23. 11/06/2300:43:57INFOnamenode.NameNode:SHUTDOWN_MSG:
  24. /************************************************************
  25. SHUTDOWN_MSG:ShuttingdownNameNodeatlocalhost.localdomain/127.0.0.1
  26. ************************************************************/
  27. [root@localhostbin]#
  28. ###########################################
  29. [root@localhostbin]#./start-all.sh
  30. startingnamenode,loggingto/usr/local/hadoop/hadoop-0.20.203/bin/../logs/hadoop-root-namenode-localhost.localdomain.out
  31. datanode01:startingdatanode,loggingto/usr/local/hadoop/hadoop-0.20.203/bin/../logs/hadoop-root-datanode-localhost.localdomain.out
  32. namenode:startingsecondarynamenode,loggingto/usr/local/hadoop/hadoop-0.20.203/bin/../logs/hadoop-root-secondarynamenode-localhost.localdomain.out
  33. startingjobtracker,loggingto/usr/local/hadoop/hadoop-0.20.203/bin/../logs/hadoop-root-jobtracker-localhost.localdomain.out
  34. datanode01:startingtasktracker,loggingto/usr/local/hadoop/hadoop-0.20.203/bin/../logs/hadoop-root-tasktracker-localhost.localdomain.out
  35. [root@localhostbin]#jps
  36. 11971TaskTracker
  37. 11807SecondaryNameNode
  38. 11599NameNode
  39. 12022Jps
  40. 11710DataNode
  41. 11877JobTracker

查看集群状态

Linux代码 收藏代码
  1. [root@localhostbin]#hadoopdfsadmin-report
  2. ConfiguredCapacity:4055396352(3.78GB)
  3. PresentCapacity:464142351(442.64MB)
  4. DFSRemaining:464089088(442.59MB)
  5. DFSUsed:53263(52.01KB)
  6. DFSUsed%:0.01%
  7. Underreplicatedblocks:0
  8. Blockswithcorruptreplicas:0
  9. Missingblocks:0
  10. -------------------------------------------------
  11. Datanodesavailable:1(1total,0dead)
  12. Name:127.0.0.1:50010
  13. DecommissionStatus:Normal
  14. ConfiguredCapacity:4055396352(3.78GB)
  15. DFSUsed:53263(52.01KB)
  16. NonDFSUsed:3591254001(3.34GB)
  17. DFSRemaining:464089088(442.59MB)
  18. DFSUsed%:0%
  19. DFSRemaining%:11.44%
  20. Lastcontact:ThuJun2301:11:15PDT2011
  21. [root@localhostbin]#

其他问题:1

Linux代码 收藏代码
  1. ####################启动报错##########
  2. [root@localhostbin]#./start-all.sh
  3. startingnamenode,loggingto/usr/local/hadoop/hadoop-0.20.203/bin/../logs/hadoop-root-namenode-localhost.localdomain.out
  4. Theauthenticityofhost'datanode01(127.0.0.1)'can'tbeestablished.
  5. RSAkeyfingerprintis41:c8:d4:e4:60:71:6f:6a:33:6a:25:27:62:9b:e3:90.
  6. Areyousureyouwanttocontinueconnecting(yes/no)?y
  7. Pleasetype'yes'or'no':yes
  8. datanode01:Warning:Permanentlyadded'datanode01'(RSA)tothelistofknownhosts.
  9. datanode01:startingdatanode,loggingto/usr/local/hadoop/hadoop-0.20.203/bin/../logs/hadoop-root-datanode-localhost.localdomain.out
  10. <strong><spanstyle="color:#ff0000;">datanode01:Unrecognizedoption:-jvm
  11. datanode01:CouldnotcreatetheJavavirtualmachine.</span>
  12. </strong>
  13. namenode:startingsecondarynamenode,loggingto/usr/local/hadoop/hadoop-0.20.203/bin/../logs/hadoop-root-secondarynamenode-localhost.localdomain.out
  14. startingjobtracker,loggingto/usr/local/hadoop/hadoop-0.20.203/bin/../logs/hadoop-root-jobtracker-localhost.localdomain.out
  15. datanode01:startingtasktracker,loggingto/usr/local/hadoop/hadoop-0.20.203/bin/../logs/hadoop-root-tasktracker-localhost.localdomain.out
  16. [root@localhostbin]#jps
  17. 10442JobTracker
  18. 10533TaskTracker
  19. 10386SecondaryNameNode
  20. 10201NameNode
  21. 10658Jps
  22. ################################################
  23. [root@localhostbin]#vihadoop
  24. elif["$COMMAND"="datanode"];then
  25. CLASS='org.apache.hadoop.hdfs.server.datanode.DataNode'
  26. if[[$EUID-eq0]];then
  27. HADOOP_OPTS="$HADOOP_OPTS-jvmserver$HADOOP_DATANODE_OPTS"
  28. else
  29. HADOOP_OPTS="$HADOOP_OPTS-server$HADOOP_DATANODE_OPTS"
  30. fi
  31. #http://javoft.net/2011/06/hadoop-unrecognized-option-jvm-could-not-create-the-java-virtual-machine/
  32. #改为
  33. elif["$COMMAND"="datanode"];then
  34. CLASS='org.apache.hadoop.hdfs.server.datanode.DataNode'
  35. #if[[$EUID-eq0]];then
  36. #HADOOP_OPTS="$HADOOP_OPTS-jvmserver$HADOOP_DATANODE_OPTS"
  37. #else
  38. HADOOP_OPTS="$HADOOP_OPTS-server$HADOOP_DATANODE_OPTS"
  39. #fi
  40. #或者换非root用户启动
  41. #启动成功

2,启动时要关闭防火墙

查看运行情况:

http://localhost:50070

Firefox显示代码 收藏代码
  1. NameNode'localhost.localdomain:9000'
  2. Started:ThuJun2301:07:18PDT2011
  3. Version:0.20.203.0,r1099333
  4. Compiled:WedMay407:57:50PDT2011byoom
  5. Upgrades:Therearenoupgradesinprogress.
  6. Browsethefilesystem
  7. NamenodeLogs
  8. ClusterSummary
  9. 6filesanddirectories,1blocks=7total.HeapSizeis31.38MB/966.69MB(3%)
  10. ConfiguredCapacity:3.78GB
  11. DFSUsed:52.01KB
  12. NonDFSUsed:3.34GB
  13. DFSRemaining:442.38MB
  14. DFSUsed%:0%
  15. DFSRemaining%:11.44%
  16. LiveNodes:1
  17. DeadNodes:0
  18. DecommissioningNodes:0
  19. NumberofUnder-ReplicatedBlocks:0
  20. NameNodeStorage:
  21. StorageDirectoryTypeState
  22. /usr/local/hadoop/hdfs/nameIMAGE_AND_EDITSActive

http://localhost:50030

Firefox显示代码 收藏代码
  1. namenodeHadoopMap/ReduceAdministration
  2. QuickLinks
  3. *SchedulingInfo
  4. *RunningJobs
  5. *RetiredJobs
  6. *LocalLogs
  7. State:RUNNING
  8. Started:ThuJun2301:07:30PDT2011
  9. Version:0.20.203.0,r1099333
  10. Compiled:WedMay407:57:50PDT2011byoom
  11. Identifier:201106230107
  12. ClusterSummary(HeapSizeis15.31MB/966.69MB)
  13. RunningMapTasksRunningReduceTasksTotalSubmissionsNodesOccupiedMapSlotsOccupiedReduceSlotsReservedMapSlotsReservedReduceSlotsMapTaskCapacityReduceTaskCapacityAvg.Tasks/NodeBlacklistedNodesGraylistedNodesExcludedNodes
  14. 00010000224.00000
  15. SchedulingInformation
  16. QueueNameStateSchedulingInformation
  17. defaultrunningN/A
  18. Filter(Jobid,Priority,User,Name)
  19. Example:'user:smith3200'willfilterby'smith'onlyintheuserfieldand'3200'inallfields
  20. RunningJobs
  21. none
  22. RetiredJobs
  23. none
  24. LocalLogs
  25. Logdirectory,JobTrackerHistoryThisisApacheHadooprelease0.20.203.0

测试:

Linux代码 收藏代码
  1. ##########建立目录名称##########
  2. [root@localhostbin]#hadoopfs-mkdirtestFolder
  3. ###############拷贝文件到文件夹中
  4. [root@localhostlocal]#ls
  5. binetcgameshadoopincludeliblibexecsbinsharesrcSSH_key_file
  6. [root@localhostlocal]#hadoopfs-copyFromLocalSSH_key_filetestFolder
  7. 进入web页面即可查看

参考:http://bxyzzy.blog.51cto.com/854497/352692

附: 准备FTP :yum install vsftpd (方便文件传输 和hadoop无关)

关闭防火墙:service iptables start

启动FTP:service vsftpd start


分享到:
评论

相关推荐

    VMware上CentOS7.0+Hadoop3.1伪分布式搭建

    6. **配置Hadoop伪分布式模式**:修改`/usr/local/hadoop/etc/hadoop/core-site.xml`和`hdfs-site.xml`配置文件,设置HDFS的相关参数,如命名节点和数据节点的位置。在`mapred-site.xml`中指定MapReduce框架。同时,...

    CentOS下安装伪分布式Hadoop-1.2.1

    ### CentOS 下安装伪分布式 Hadoop-1.2.1 的详细步骤 ...至此,已经完成了在 CentOS 下伪分布式模式的 Hadoop-1.2.1 的安装与基本配置。这为后续进行 Hadoop 相关的大数据处理任务提供了坚实的基础。

    VM+CentOS+hadoop2.7搭建hadoop完全分布式集群

    - **Hadoop伪分布部署**:适用于本地测试环境。 - **Zookeeper、Hive、HBase的分布式部署**:提供高可用性和数据仓库支持。 - **Spark、Sqoop、Mahout的分布式部署**:用于提高数据处理性能和数据分析能力。 - **...

    linux下伪分布安装hadoop环境及问题处理

    ### Hadoop伪分布模式在Linux CentOS下的安装与配置详解 #### 一、概览 本文旨在详细介绍如何在Linux CentOS 5.0系统下搭建Hadoop伪分布模式的测试环境,包括必要的步骤、注意事项以及可能遇到的问题及其解决方案...

    Hadoop安装教程_单机_伪分布式配置

    本文档将详细介绍如何在Ubuntu 14.04环境下安装配置Hadoop 2.6.0版本,包括单机模式和伪分布式模式。无论您是初学者还是有一定经验的技术人员,本教程都将帮助您顺利完成Hadoop的安装和配置。 #### 二、环境准备 1....

    在centos上安装hadoop

    在CentOS上安装Hadoop是一项关键的任务,尤其对于学习和实践大数据处理的用户来说。Hadoop是一个开源的分布式计算框架,它允许在廉价硬件上处理大规模数据集。在虚拟机上的CentOS系统上安装Hadoop,可以提供一个安全...

    hadoop伪分布式安装方法步骤

    在本资源中,我们将详细介绍Hadoop伪分布式安装的步骤,包括宿主机和客户机的网络连接、Hadoop的伪分布安装步骤、JDK的安装、Hadoop的安装等。 1. 宿主机和客户机的网络连接 在Hadoop伪分布式安装中,宿主机和客户...

    Hadoop3.1.3安装和单机/伪分布式配置

    ##### (七) Hadoop伪分布式配置 - **步骤**: 1. 修改配置文件`core-site.xml`和`hdfs-site.xml`。 2. 对`core-site.xml`进行配置: - 设置Hadoop的FS默认文件系统为HDFS。 - 设置HDFS的地址。 3. 对`hdfs-...

    hadoop2.7.3伪分布式模式搭建 手把手教学.pdf

    解压后得到的是Hadoop的安装目录,需要进入该目录下的etc/hadoop子目录,对Hadoop的配置文件进行修改以适配伪分布式模式。配置文件主要包括core-site.xml、hdfs-site.xml和yarn-site.xml。 在core-site.xml中,需要...

    在centos7下正确安装伪分布hadoop2.7.2和配置eclipse.docx

    【在CentOS7下正确安装伪分布Hadoop2.7.2和配置Eclipse】 在CentOS7系统中安装和配置Hadoop2.7.2的伪分布式模式,以及为Eclipse开发环境做准备,涉及多个步骤。首先,我们需要创建一个名为`hadoop`的用户,以便更好...

    实验1-安装Hadoop1

    本实验将引导你完成在CentOS 6操作系统上安装Hadoop的过程,涵盖单机模式、伪分布式模式以及分布式模式的安装。这些模式各有特点,适用于不同的学习和开发需求。\n\n**一、单机模式安装**\n\n1. **环境准备**:首先...

    LinuxRedHat、CentOS上搭建Hadoop集群.pdf

    Hadoop有三种工作模式:单机模式、伪分布式模式和完全分布式模式。 1. 单机模式:在单机模式下,Hadoop被配置成以非分布式模式运行的一个独立Java进程。这对调试非常有帮助。 2. 伪分布式模式:Hadoop可以在单节点...

    Linux下Hadoop伪分布式配置及操作命令

    以上知识点详细地阐述了在CentOS系统上配置Hadoop伪分布式环境的全过程,包括了环境准备、JDK安装、环境变量配置、Hadoop配置文件修改、SSH无密码登录配置、集群的启动和使用,以及常用命令的介绍。对于初学者来说,...

    hadoop为分布

    ### Hadoop伪分布式模式安装详解 #### 一、前言 Hadoop伪分布式模式是一种在单机上模拟Hadoop分布式环境的方式。虽然这种方式并非真正的分布式部署,但它通过使用线程来模拟多节点间的通信和数据处理流程。对于...

    Hadoop安装教程_单机_伪分布式配置_CentOS6.4_Hadoop2.6

    根据给定文件的信息,本文将详细介绍如何在 CentOS 6.4 系统中安装 Hadoop 2.6.0,并实现单机模式与伪分布式模式的配置。 ### 环境准备 #### 操作系统环境 - **操作系统**: CentOS 6.4 32位 - **虚拟化平台**: ...

    大数据教程-Hadoop伪分布式安装.pdf

    Hadoop伪分布式安装概览 Hadoop可以运行在多种模式下,包括单机模式、伪分布式模式和完全分布式模式。伪分布式模式是指所有的Hadoop守护进程在一台机器上运行,并且对外表现得就像是一个分布式的集群环境。这种模式...

    Hadoop课程设计,基于Hadoop的好友推荐,在VM虚拟机上搭建CentOS环境(伪分布式)

    【标题】:“Hadoop课程设计,基于Hadoop的好友推荐,在VM虚拟机上搭建CentOS环境(伪分布式)”这一主题涵盖了多个IT领域的关键知识点,包括大数据处理框架Hadoop、虚拟化技术VMware、操作系统CentOS以及数据推荐...

    linux下载,安装,JDK配置,hadoop安装

    - 全分布模式:除了伪分布模式外,还需配置 hosts 文件、SSH 免密登录等,并在所有节点上复制 Hadoop 配置文件。 **3.5 验证Hadoop安装** - **运行 WordCount 示例程序**: - 编写 MapReduce 任务。 - 提交任务...

    1_Hadoop伪分布式安装.docx

    本文档详细介绍了在CentOS系统上进行Hadoop伪分布式安装的过程。 #### 二、CentOS基础配置 **1. 解决Ifconfig查看不到IP的问题** - 虚拟机设置中,确保网络连接设置为NAT模式。 - 使用`ifconfig`或`ip addr`命令...

    CentOS下安装Apache Hadoop(案例).pdf

    在单节点集群中,可能还需要配置伪分布式模式,这通常通过在`hadoop-env.sh`中设置`HADOOP_OPTS`来实现,并在`hdfs-site.xml`中指定`dfs.nameservices`和`dfs.datanode.data.dir`等属性。 完成配置后,可以启动...

Global site tag (gtag.js) - Google Analytics