Hadoop生态系统
Hbase
1、Nosql数据库,key-value存储
2、最大化利用内存
HDFS
1、hadoop distribute file system分布式文件系统
2、最大化利用磁盘
MapReduce
1、编程模型,主要用来做数据分析
2、最大化利用CPU
HDFS设计原则
文件以快(block)方式存储
每个块带下远比多数文件系统来的大(预设64M)
通过副本机制提高可靠度和读取吞吐量
每个区块至少分到三台DataNode上
单一master(NameNode)来协调存储单元数据(metadata)
客户端对文件没有缓存机制(No data caching)
NameNode(NN)
NameNode主要功能提供名称查询服务,它是一个jetty服务器
NameNode保存metadata信息,包括
1、文件ownrship和permissions
2、文件包含哪些块
3、Block保存在哪些DataNode(由DataNode启动时上报)
NameNode的metadata信息在启动后会加载到内存
matedata存储到磁盘文件名为fsimage,
block的位置信息不回保存到fsimage
DataNode(DN)
保存Block
启动DN线程的时候会向NN汇报block信息
通过向NN发送心跳保持与其联系(3秒一次),如果NN10分钟没有收到
DN的心跳,则认为其已经lost,并copy其上的block到其他DN。
Block的副本放置策略
第一个副本:放置在上传文件的DN,如果是集群外提交,则随机挑选
一台磁盘不太满,CPU不太忙的节点
第二个副本:放置在于第一个副本不同的机架的节点上
第三个副本:与第二个副本相同集群的几点
更多副本:随机节点
设置一个Block64MB,如果上传文件小于改值,仍然会占用一个Block的命名空间
(NameNode metadata),但是物理存储上不会占用64MB的空间。
Block的大小和副本数由Client端上传文件到HDFS时设置,其中副本
数可以变更,Block是不可以再上传后变更的。
数据损坏(corruption)处理
当DN读取block的时候,它会计算checksum
如果计算后的checksum,与block创建时值不一样,说明该block已经损坏。
client读取其他DN上的block,NN标记改块已经损坏,然后复制block
达到预期设置的文件备份数
DN在其文件创建后三周验证其checksum
SecondaryNameNode(SNN)
它不是NN的热备份
它可以作为冷备份
1、将本地保存的fsimage导入
2、修改cluster所有DN的NameNode地址
3、修改所有client端NameNode地址
4、or 修改SNN IP为原NNIP
它的工作是帮助NN合并edits log,减少NN启动时间。
HDFS文件权限
与liunx文件权限类似
r:read,w:write,x:execute,权限X对于文件忽略,对于文件夹表示是否允许访问其内容
如果linux系统用户zhangshan使用Hadoop命令创建了一个文件
那么这个文件在HDFS中owner就是zhangshan
HDFS的权限目的,阻止好人做错事,而不是阻止坏人做坏事
HDFS详细,你告诉我你是谁,我就认为你是谁。
安全模式
1、namenode启动的时候,首先将映射文件(fsimage)载人内存,并执行编辑日志(edits)中的各项操作
2、一旦在内存中成功建立文件系统元数据的映射,则创建一个新的fsimage文件(这个操作不需要SecondaryNameData)和一个日志编辑器
3、NameNode开始监听RPC和HTTP请求
4、此刻namenode运行安全模式,即namenode的文件系统对于客服端来说是只读的。(显示目录,显示文件内容等,写、删除、重命名等都会失败)
5、系统中数据块的位置并不是由namenode维护的,而是以块列形式存储在datanode中。
6、在系统的正常操作期间,namenode会在内存中保留所有块位置的映射信息。
7、在安全模式下,各个在datanode 会向namenode发送块列表的最新情况
8、进入和离开安全模式
查看namenode处于哪个状态
hadoop dfsadmin -safemode get
进入安全模式
hadoop dfsadmin -safemode enter
离开安全模式
hadoop dfsadmin -safemode leave
HDFS开发常用命令
hadoop -mkdir /usr/xx/xxx
上传一个文件
hadoop fs -put/copyFromLocal word.txt /usr/hadoop/xxx
删除一个文件和文件夹
hadoop fs -rm /usr/xxxx
查看一个文件夹里有哪些文件
hadoop fs -ls /usr/hadoop/xx
查看某个文件的内容
hadoop fs -text/cat/tail /usr/xxxx
相关推荐
hadoop基本知识总结
大数据与云计算培训学习资料 Hadoop之HDFS基础入门知识介绍 共42页.ppt
hadoop架构的基础知识介绍,此文档为PPT,通过此文档可以对hadoop的基本理论知识有所熟悉。
Hadoop基本知识概括,新手必备
第一章 大数据基础和Zookeeper入门 第二章 Zookeeper操作和Hadoop环境搭建 第三章 HDFS操作 第四章 HDFS的JavaAPI操作和MapReduce入门 第五章 MapReduce的WordCount案例和分区 第六章 MapReduce的排序和序列化 第七...
hadoop入门讲解,讲的都是基础知识,包括背景、构成、应用场景。适合新手入门。
一个hadoop汇报用的ppt,里面有hadoop,hbase,zookeeper,spark的介绍,有源代码的截图和说明,适合没有什么基础的人,都是入门级别的知识,版本是hadoop2.7.3,hbase1.3.1,spark2.1.0
这本书,从零开始介绍了hadoop相关知识,适合零基础的人也适合有一定hadoop基础的人。本书例子详细,操作步骤清楚。
Mapreduce(数据处理),Hadoop的数据来源可以是任何形式,在处理半结构化和非结构化数据上与关系型数据库相比有更好的性能,具有更灵活的处理能力,不管任何数据形式最终会转化为key/value,key/value是基本数据...
001 Linux系统基本知识说明和启动Linux虚拟机 002 配置虚拟机IP地址和如何使用远程工具SecureCRT 003 Linux 环境下基本命令使用及Linux系统中文件的类型和权限 004 Linux 环境下基本命令讲解二 005 Linux 系统远程...
这是一个思维导图式的文件,主要是本人整理的hadoop搭建基本的操作,以伪分布式结构为主的,方便查询内容和学习
自己整理的入门级hadoop概述,把知识点系统的整理了一下。简单介绍了一下hadoop的概念、基本框架等。
讲述了hadoop一些常见问题和知识点,强烈推荐hadoop初学者查看
(一)Spark基础知识 (1)输入start-all.sh启动hadoop相应进程和相关的端口号 (2)启动Spark分布式集群并查看信息 (3)网页端查看集群信息 (4)启动spark-shell控制台 1:local模式启动 2:登录master服务器,在...
Hadoop 的入门级丛书。很好的基本知识参考
通过搭建Hadoop平台,您可以了解Hadoop的基本原理、配置和使用方法,为进一步的大数据分析和处理奠定基础。 二、环境准备 1. 操作系统:本文档以Windows 10操作系统为例,其他操作系统可参考相应版本的安装指南。 ...
hadoop基本概念共10页.pdf.zip
第一天 hadoop的基本概念 伪分布式hadoop集群安装 hdfs mapreduce 演示 第二天 hdfs的原理和使用操作、编程 第三天 mapreduce的原理和编程 第四天 常见mr算法实现和shuffle的机制 第五天 hadoop2.x中HA机制的...