主页 > 新闻资讯 > Hadoop基础包括哪些?学习Hadoop需要什么基础

Hadoop基础包括哪些?学习Hadoop需要什么基础

作者:张老师 浏览次数: 2020-02-03 17:51
在大数据背景下,企业搭建大数据平台成为趋势,而相应地也需要大数据人才来实现平台搭建的任务。企业招聘大数据人才,掌握Hadoop可以说是基本的要求,而学习Hadoop,也需要大数据从业人员做好相关的准备。那么Hadoop基础包括哪些,学习Hadoop需要什么基础,下面我们来详细了解一下。

Hadoop基础,首先需要了解得一个重要概念就是分布式技术。

Hadoop基础包括哪些

所谓分布式,其实就是针对于海量大数据处理而设计的解决方案。一台机器的存储是有限的,相应的数据处理也受到限制。打个比方,10TB数据,一台机器无法处理,那么就用10台机器来处理,分而治之,大大提升了普通设备的数据处理能力。

Hadoop当中,负责分布式处理的主要工具,就是MapReduce分布式处理框架。MapReduce,可以拆分成Map和Reduce两个阶段来理解,每个Map处理的数据是独立,Reduce就是合,10TB的数据“分”1TB,之后将结果“合”在一起存储。

而说到存储,这也涉及到Hadoop当中的另一个核心组件HDFS。HDFS是Hadoop的分布式文件系统,数据存储在HDFS上,然后MapReduce进行处理HDFS上的数据,数据处理完成后之后的结果存储,还涉及到分布式数据库HBase。

Hadoop基础的四大核心模块包括:

Hadoop common:支持其他模块的工具类,为Hadoop模块提供基础设置

Hadoop HDFS:分布式文件系统,提供存储

Hadoop YARN:任务调度和集群资源管理

Hadoop MapReduce:分布式离线计算框架

作为学习者,从这四个基础开始,逐步深入去学习,是非常关键的。当然,这并不是说Hadoop只需要掌握这些就够了,事实上,Hadoop发展至今,已经形成了比较完备的大数据处理流程,系统组件也在适应新的需求不断更新,作为大数据从业人员,也需要不断学习,跟上新的技术趋势。

关于Hadoop基础包括哪些,以上就是一个简单的介绍了。Hadoop是大数据学习当中必须掌握的重点之一,从基础开始,逐步深入学习掌握,这样才能在接下来的技术体系学习当中更快地入门。成都加米谷大数据,专业大数据培训机构,大数据开发培训班2020春季班即将开班,详情可联系客服了解!
热点排行
推荐文章
立即申请>>