HDFS读写的示例分析

这篇文章主要介绍了HDFS读写的示例分析,具有一定借鉴价值,感兴趣的朋友可以参考下,希望大家阅读完这篇文章之后大有收获,下面让小编带着大家一起了解一下。

专注于为中小企业提供网站制作、成都做网站服务,电脑端+手机端+微信端的三站合一,更高效的管理,为中小企业高邑免费做网站提供优质的服务。我们立足成都,凝聚了一批互联网行业人才,有力地推动了数千家企业的稳健成长,帮助中小企业通过网站建设实现规模扩充和转变。

一、HDFS读写之前提

NameNode(元数据节点):存放元数据(名称空间、副本数、权限、块列表、集群配置信息),不包含数据节点。元数据节点将文件系统元数据存储在内存中。

1.DataNode(数据节点):真正存储数据的地方,以数据块为单位。默认数据块大小为128M。数据节点周期性的将所有存储块信息发送给元数据节点。客户端通过和NameNode节点沟通后,再向数据节点对数据读出或写入。

2.SecondaryNameNode(从元数据节点):并不是元数据节点的备用节点,而是配合元数据节点工作,与元数据节点有不同的工作。SecondaryNameNode周期性地将元数据节点的命名空间镜像文件和修改日志合并,帮助元数据节点将内存中元数据信息存储到磁盘上。

3.Client(客户端):客户端就是需要获取HDFS系统中文件的应用程序和接口,引发HDFS的读/写等操作。

值得注意的是:

1.namenode实际客户端只上传一个datanode,其余两个是namenode完成的。让datenote自己复制的。然后复制完成以后逐级返回结果给namenode。如果2,3datanode复制失败,再有namenode分配新的datanode地址。对于客户端来说默认上传一个datanode就可以了,其余的由datanode自己复制。

2.datanode切片是由客户端完成的。datanode第二三个副本的上传和第一个上传是异步的。

二、HDFS中的写流程:

1.根namenode通信请求上传文件,namenode检查目标文件是否已存在,父目录是否存在。

2.namenode返回是否可以上传。

3.client请求第一个 block该传输到哪些datanode服务器上。

4.namenode返回3个datanode服务器ABC。

5.client请求3台dn中的一台A上传数据(本质上是一个RPC调用,建立pipeline),A收到请求会继续调用B,然后B调用C,将真个pipeline建立完成,逐级返回客户端。

6.client开始往A上传第一个block(先从磁盘读取数据放到一个本地内存缓存),以packet为单位,A收到一个packet就会传给B,B传给C;A每传一个packet会放入一个应答队列等待应答。

7.当一个block传输完成之后,client再次请求namenode上传第二个block的服务器。

三、hdfs中的读流程:

1.跟namenode通信查询元数据,找到文件块所在的datanode服务器。

2.挑选一台datanode(就近原则,然后随机)服务器,请求建立socket流。

3.datanode开始发送数据。(从磁盘里面读取数据放入流,以packet为单位来做校验)

4.客户端以packet为单位接收,先在本地缓存,然后写入目标文件。

感谢你能够认真阅读完这篇文章,希望小编分享的“HDFS读写的示例分析”这篇文章对大家有帮助,同时也希望大家多多支持创新互联,关注创新互联行业资讯频道,更多相关知识等着你来学习!


分享文章:HDFS读写的示例分析
链接分享:http://scyanting.com/article/jjsdhh.html