主页 > 新闻资讯 > Hadoop基础入门:Hadoop学习需要掌握哪些知识?

Hadoop基础入门:Hadoop学习需要掌握哪些知识?

作者:张老师 浏览次数: 2020-01-07 11:54
在大数据技术知识的学习中,Hadoop是主要的框架之一,Hadoop系统当中涉及到二十几个组件,构成了一个体系庞大的数据处理系统。而学习Hadoop,对于Hadoop生态系统当中的所有知识,应该怎样开始学习呢?今天我们就主要为大家分享Hadoop基础入门知识点,让你从入门学习开始不迷茫。

Hadoop生态系统,目前已经发展到了二十几个组件了,在基础入门阶段,首先对于各个组件分别解决什么问题,需要有清楚的认识,其次从核心组件开始学起,当涉及到需要解决具体的问题需要哪个组件的时候,再逐步加入其它的组件来综合理解运用。

Hadoop基础入门

Hadoop的核心组件,毫无疑问是HDFS和MapReduce,前者负责解决分布式存储,后者负责解决分布式计算,而储存和计算毫无疑问是大数据处理当中最关键的两个部分。

Mapreduce主要负责大数据的计算,在Hadoop基础入门阶段,需要掌握:

什么是mapreduce?

Mapreduce的工作原理是什么?

Mapreduce的工作流程是什么?

Mapreduce的编程模型是什么?

shuffle是什么?

partition是什么?

combiner是什麽?

他们三者之间的关系是什么?

map的个数由谁来决定,如何计算?

reduce个数由谁来决定,如何计算?

在大数据的计算过程中,存储是起到很大的支撑作用的,在MapReduce的过程中,伴随着HDFS,一边计算一边存储,最终将计算完成后的数据整合起来,写入数据库当中存储起来。

涉及到数据库,那么就又需要了解Hadoop的数据库,也就是Hbase。Hbase是NoSQL数据库,学习阶段需要对Hbase表的设计,Rowkey的设计,Hbase性能的调优,Hbase和Hive、Impala的结合等做到很好的掌握。

而对于HDFS,主要负责分布式存储,在入门阶段,需要学习:

什么是HDFS及HDFS架构设计?

HDFS体系结构简介及优缺点?

Hdfs如何存储数据?

Hdfs如何读取数据?

Hdfs如何写入文件?

Hdfs的副本存放策略?

如何访问HDFS?

HDFS数据如何复制?

Namenode的热备?

对于Hadoop基础入门,掌握了MapReduce和HDFS之后,Hadoop体系当中的核心技术也就基本掌握了,其他的一些组件工具再结合起来掌握,基本上Hadoop这块问题就不大了。成都加米谷大数据,大数据技术分享,大数据培训学习,更多课程详情可联系客服了解!
热点排行
推荐文章
立即申请>>