博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
大数据(hadoop-HDFS原理分析)
阅读量:6825 次
发布时间:2019-06-26

本文共 2300 字,大约阅读时间需要 7 分钟。

hot3.png

HDFS概述

HDFS是什么?

源自于Google的GFS论文

      发表于2003年10月
      HDFS是GFS克隆版    
Hadoop Distributed File System 
      易于扩展的分布式文件系统
      运行在大量普通廉价机器上,提供容错机制
      为大量用户提供性能不错的文件存取服务

HDFS的优点:

高容错性

    数据自动保存多个副本
    副本丢失后自动恢复
适合批处理
    移动计算而非数据
    数据位置暴露给计算框架
适合大数据处理
    GB、TB、甚至PB级数据
    百万规模以上的文件数量
    10K+节点规模  
流式文件访问
    一次性写入,多次读取
    保证数据一致性
可构建在廉价机器上
    通过多副本提高可靠性
    提供了容错和恢复机制

HDFS的缺点:

低延迟数据访问

    比如毫秒级
    低延迟与高吞吐率
小文件存取
    占用NameNode大量内存
    寻道时间超过读取时间
并发写入、文件随机修改
    一个文件只能有一个写者
    仅支持append

分布式文件系统的一种实现方式:

9c43fc15b9e7a7baa66090acfb76e1bf2e3.jpg

HDFS设计思想:

3e9938787fa684ded8089f4d35616ee91cc.jpg

HDFS架构:

ae4f0e805a997d075dd7a03755cf66861a8.jpg

541db4d7232b31e8b0c9e2d17e1b2875f70.jpg

bbd7bb2ebf0e0f2a2305c2fa8ebb333fb52.jpg

HDFS数据块(block):

文件被切分成固定大小的数据块

    默认数据块大小为128MB,可配置
    若文件大小不到128MB,则单独存成一个block
为何数据块如此之大
    数据传输时间超过寻道时间(高吞吐率)
一个文件存储方式
    按大小被切分成若干个block,存储到不同节点上
    默认情况下每个block有三个副本

HDFS写流程:

7dc1f076bb436ab0a2bf9b89b6832730248.jpg

HDFS读流程:

22cd93f27172a5b6ad1a9124cd2f9a8eab1.jpg

HDFS典型物理拓扑:

f38a56d7c83df5a7de985229430bcff35ea.jpg

每个机架通常有16-64个节点

HDFS副本放置策略:

一个文件划分成多个block,每个block存多份,如何为每个block选择节点存储这几份数据?

Block副本放置策略:

副本1:同Client的节点上
副本2:不同机架中的节点上
副本3: 与第二个副本同一机架的另一个节点上
其他副本:随机挑选 
1c32e924108a9691c1273e853dfb3126146.jpg

HDFS可靠性策略:

 文件完整性

    ---CRC32校验
    ---用其他副本取代损坏文件
 Heartbeat
    ---Datanode定期向Namenode发heartbeat
 元数据信息
    ---FSImage(文件系统镜像)、Editlog(操作          日志)
    ---多份存储
    ---主备NameNode实时切换
f682f68beaedfae2e9cc2ab2a8b3a8e1f9f.jpg

HDFS不适合存储小文件:

元信息存储在NameNode内存中

    一个节点的内存是有限的
存取大量小文件消耗大量的寻道时间
    类比拷贝大量小文件与拷贝同等大小的一个大文件
NameNode存储block数目是有限的
    一个block元信息消耗大约150byte内存
    存储一亿个block,大约需要20GB内存
    如果一个文件大小为10K,则一亿个文件大小仅为1TB(但要消耗掉NameNode20GB内存)

HDFS访问方式:

HDFS Shell命令

HDFS Java API

HDFS Fuse:实现了fuse协议

HDFS lib hdfs:C/C++访问接口

HDFS其他语言编程API

    使用thrift实现
    支持C++、Python、php、C#等语言

HDFS Shell命令一概览:

db31905ac6ab2e83c0948b2d69930b3a594.jpg

hadoop fs 命令一文件操作命令:

e7ab769c47d9f92b623b31ccdb4d83a26c9.jpg

HADOOP Shell命令一文件操作命令:

将本地文件上传到HDFS上

bin/hadoop fs –copyFromLocal  /local/data  /hdfs/data

删除文件/目录

bin/hadoop fs –rm  /hdfs/data

创建目录

bin/hadoop fs –mkdir  /hdfs/data

HDFS Shell命令一管理命令:

6825717393c4e30caa07c15952798e80022.jpg

HDFS Shell命令一管理脚本

d7b43c219a479fd53414c4e93c2dbc8d528.jpg

HDFS Shell命令一文件管理命令fsck

     检查hdfs中文件的健康状况

     查找缺失的块以及过少或过多副本的块
     查看一个文件的所有数据块位置
     删除损坏的数据块
c39c2f43ee7f5f15685c6b8db3a3e938091.jpg

HDFS Shell命令一文件管理命令fsck

53f7c94ffe398a47a2a2c696690712dd710.jpg

HDFS Shell命令一数据均衡器balancer

数据块重分布

  bin/start-balancer.sh-threshold <percentage of disk capacity>     
percentage of disk capacity
  HDFS达到平衡状态的磁盘使用率偏差值
  值越低各节点越平衡,但消耗时间也更长

HDFS Java API介绍

configuration类:

    该类的对象封装了配置信息,这些配置信息来自core-*.xml
FileSystem类:
    文件系统类,可使用该类的方法对文件/目录进行操作。一般通过FileSystem的静态方法get获得一个文件系统对象
FSDataInputStream和FSDataOutputStream类:
    HDFS中的输入输出流。分别通过FileSystem的Open方法和create方法获得

以上类均来自java包:org.apache.hadoop.fs

HDFS Java程序举例

将本地文件拷贝到HDFS上

Configution config=new Configution();
FileSystem hdfs = FileSystem.get(config);
Path srcPath = new Path(srcFile);
Path dstPath = new Path(dstFile);
hdfs.copyFromLocalFile(srcPath, dstPath);

HDFS 多语言API一借助thrift

f3ff091150a575bfe9f6b5eb4d1447a212b.jpg

 

 

 

 

转载于:https://my.oschina.net/u/3728166/blog/3038333

你可能感兴趣的文章
thinking in java
查看>>
Can not deserialize instance of java.lang.Integer out of START_ARRAY token
查看>>
矩阵按列按行归一化到L2范数的原理和最精简Matlab代码(转)
查看>>
如何方便的建立远程链接服务器
查看>>
Python自动化测试白羊座-week3文件操作
查看>>
centos安装jenkins
查看>>
JS合并两个数组的方法
查看>>
VBS将本地的Excel数据导入到SQL Server中
查看>>
ruby "==" "equal"
查看>>
JS 将数字转化成为货币格式
查看>>
cookie,session
查看>>
linux 定时任务
查看>>
iOS--动画--GitHub前50名的Objective-C动画相关库
查看>>
豆瓣电影
查看>>
如何扩展Orchard
查看>>
代码生成就用Razor模板
查看>>
jquery插件--ajaxfileupload.js上传文件原理分析
查看>>
时辰表
查看>>
界面自动化框架偶遇
查看>>
例题6-17 UVa10562 Undraw the Trees(树)
查看>>