Hadoop核心组件:四步通晓HDFS-创新互联
Hadoop分布式文件系统(HDFS)被设计成适合运行在通用硬件上的分布式文件系统,它提供高吞吐量来访问应用程序的数据,适合那些有着超大数据集的应用程序,那么在实际应用中我们如何来操作使用呢?
创新互联建站服务项目包括尼玛网站建设、尼玛网站制作、尼玛网页制作以及尼玛网络营销策划等。多年来,我们专注于互联网行业,利用自身积累的技术优势、行业经验、深度合作伙伴关系等,向广大中小型企业、政府机构等提供互联网行业的解决方案,尼玛网站推广取得了明显的社会效益与经济效益。目前,我们服务的客户以成都为中心已经辐射到尼玛省份的部分城市,未来相信会继续扩大服务区域并继续获得客户的支持与信任!一、HDFS操作方式:
1、命令行操作
–FsShell:
$ hdfs dfs
2、其他的计算框架-如spark
通过URI,比如: hdfs://nnhost:port/file…,调用HDFS的协议、主机、端口或者对外提供的服务媒、以及文件,在spark的程序中实现对HDFS的访问。
3、其他程序:
(1)Java的API,借助于其他的一些计算框架或者分析工具都可以访问HDFS,如Sqoop加载数据到HDFS,Flume加载日志到HDFS,Impala基于HDFS进行查询
(2)REST API:通过HTP的方式访问HDFS。
二、重点关注HDFS命令行的方式:
(1)从本地磁盘拷贝文件foo.txt到HDFS的用户目录
–文件将会拷贝到/user/username/foo.txt
(2)获取用户home目录的目录列表
(3)获取HDFS的根目录
(4)显示HDFS文件/user/fred/bar.txt内容
(5)拷贝文件到本地磁盘,命名为baz.txt
(6)在用户home目录下创建input目录
(7)删除input_old目录和所有里面的内容
三、通过HUe进行操作。
通过File Browser可以浏览和管理HDFS的目录和文件,也可以创建、移动、重命名、修改、上传、下载和删除目录和文件,以及查看文件内容
四、HDFS推荐
HDFS是所有数据的仓库,在使用HDFS的时候应该对其目录(如日志目录、数据目录)进行合理地规划和组织。最佳实践方式是定义标准目录结构以及把阶段临时的数据分开。规划示例如下:
(1)/user-用户目录,存放属于个别用户的数据和配置信息
(2)/etl-ETL阶段的数据
(3)/tmp-临时生成的用户在用户间共享的数据
(4)/data-整个组织用来分析的和处理的数据集
(5)/app-非数据文件,比如:配置文件,JAR文件,SQL文件等
掌握以上四步对于应用HDFS有着重要的作用和意义,但是大家应该根据自己的情况循序渐进,注重实践,才可以不断取得进步。我平时喜欢找一些案例进行分析,从而锻炼提升自己的技能,这个比较喜欢“大数据cn ”这个微信服务平台。但是真知更多源于实践,只有学习和了解他人的经验,才可以走的更高更远,我爱关注微信订阅号“大数据时代学习中心”,研究各位数据大牛的经验分享,对于促进我个人的技术成长有着非凡的意义。
另外有需要云服务器可以了解下创新互联scvps.cn,海内外云服务器15元起步,三天无理由+7*72小时售后在线,公司持有idc许可证,提供“云服务器、裸金属服务器、高防服务器、香港服务器、美国服务器、虚拟主机、免备案服务器”等云主机租用服务以及企业上云的综合解决方案,具有“安全稳定、简单易用、服务可用性高、性价比高”等特点与优势,专为企业上云打造定制,能够满足用户丰富、多元化的应用场景需求。
分享文章:Hadoop核心组件:四步通晓HDFS-创新互联
标题来源:http://scyanting.com/article/dcsogi.html