Hadoop作为现今的企业大数据工程师们需要掌握的核心技术,在面试当中是肯定会问到的,很多人在面试之前,其实对于Hadoop的技术掌握是OK的,但是因为面试时落到口头表达上,却容易头脑空白。今天呢,我们就来为大家分享一些面试时常见的Hadoop基础试题。
Hadoop技术体系当中的知识,很多人在实际的编码操作上其实是没有问题的,但是落到书面表达或者口头表达上,往往由于紧张等原因,容易出现失误,所以事先做点准备,还是会有一定的好处的。
Hadoop基础试题:
①Namenode的重要性是什么?
NameNode其实相当于是Hadoop的大脑,负责管理大数据系统当中的任务快,当client提出请求时,提供相应的地址。如果NameNode关闭,文件系统将脱机。
②是否可以在不同集群之间复制文件?如果是的话,怎么能做到这一点?
Hadoop集群之间是可以实现复制文件的,可以通过Distcp工具来完成,通过执行MapReduce任务来完成数据的复制。Hadoop环境中的主要挑战是在各集群之间复制数据,distcp也将提供多个datanode来并行复制数据。
③什么是检查点?
在Hadoop系统当中,对文件数据的修改不是直接写回到磁盘的,很多操作是先缓存到内存的Buffer中,当遇到一个检查点Checkpoint时,系统会强制将内存中的数据写回磁盘,当然此时才会记录日志,从而产生持久的修改状态。
④什么是机架感知?
Hadoop将尝试限制存在于同一机架中的datanode之间的网络流量。为了提高容错能力,名称节点会尽可能把数据块的副本放到多个机架上。综合考虑这两点的基础上Hadoop设计了机架感知功能。
⑤投机性执行
如果一个节点正在执行比主节点慢的任务。那么就需要在另一个节点上冗余地执行同一个任务的一个实例。所以首先完成的任务会被接受,另一个可能会被杀死。这个过程被称为“投机执行”。
关于Hadoop基础试题,以上就是为大家例举的一些在面试当中经常会被问到的,当然,这只是一部分,在面试当中,企业会基于对岗位的要求,对面试者的能力做出全面的考察和评估。成都加米谷大数据,
专业大数据培训机构,提供就业面试指导,详情可咨询客服了解!