主页 > 新闻资讯 > 大数据毕业后去什么岗位就业?有什么要求

大数据毕业后去什么岗位就业?有什么要求

作者:张老师 浏览次数: 2020-07-14 17:58
一年一度的高考结束,焦急等待分数的同时,大家也对未来的学校、专业、就业等非常关注。近几年来大热的大数据专业,也有越来越多的小伙伴开始关注到,作为新兴职业领域,很多人还不够了解。那么大数据毕业后去什么岗位就业?有什么要求?今天我们来详细聊一聊。

目前来说,国内IT、通讯、行业招聘中,有10%都是和大数据相关的,且比例还在上升。大数据在国内的发展很快,而人才却非常有限,相关岗位缺口也在不断增加。

大数据毕业后去什么岗位就业

那么大数据毕业后去什么岗位就业?有什么要求?

一、大数据开发工程师

工作职责:

1.参与公司大数据平台的研发、建设;

2.参与公司数据仓库建模和ETL架构设计;

3.参与大数据技术难点攻关,集群的性能调优;

技能要求:

1.熟练java、scala等大数据开发相关的语言;

2.熟悉Hadoop生态,灵活运用Hbase、Spark、Storm等技术实现PB量级数据的加工处理;

3.熟悉Linux平台,精通Shell脚本,编码基本功扎实;

二、数据挖掘工程师

工作职责:

1.根据业务场景要求,分析数据,挖掘用户特征,对终端用户进行精准画像;

2.负责离线/实时数据存储、加工处理,保证数据质量,负责数据监控体系建立和维护;

3.负责数据清洗、处理和挖掘工作。

技能要求:

1.熟悉Payton,Scala,R,Java、SQL语言,有扎实的数据结构和算法功底;

2.精通Hadoop、Hive、Sparkstorm/hbase/presto/等大数据技术,对大数据技术的发展有深入的研究;

3.清晰的逻辑分析和表达能力和自己的见解;

三、大数据运维工程师

工作职责:

1、负责数据平台和数据产品的运维工作实施,例如集群安装、升级发布、扩缩容、故障处理、用户权限管理等理性运维工作;

2、负责管理Hadoop集群运行,稳定提供平台服务;

3、协助公司大数据部门对Hadoop集群进行优化、数据提取等工作;

技能要求:

1、熟悉Hadoop各发行版的安装、部署,熟悉ambari,Hortonworks HDP等平台优先;

3、熟悉hadoop、HBase、Hive、Spark、Storm等的原理并具有这些系统的配置管理、问题定位、扩缩容、性能监控、性能调优、权限管理经验;

4、熟悉Linux文件系统、内核、性能调优,TCP/IP、HTTP等协议,掌握网络故障排错方法;

5、精通linux系统和基于linux的一系列调试与配置工具,Python或Java编程语言加分;

6、熟练掌握shell、python、perl之一的脚本编程,能够用脚本语言快速编写各类系统维护脚本。

四、数据分析师

岗位职责:

1.抽象数据分析需求,形成有竞争力的数据产品,帮助产品业务更深刻的理解并运用数据;

2.基于对互联网产品和业务的深入理解的基础上,独立承担复杂分析任务,为产品方向提供决策支持;

3.负责相关项目性工作的数据支持、业务报表的制作;

4.建立产品业务相关的数据统计模型;

5.建立各个环节工作预警及时,对相关数据异常情况提前预警。

技能要求:

1.良好的数据分析能力,有丰富的数据分析、挖掘、清洗和建模的经验;

2.熟悉互联网数据采集,具备大数据处理能力,熟练运用SQL,掌握hive等相关数据工具;

3.善于沟通,具有良好的团队合作精神。

关于大数据毕业后去什么岗位就业,有什么要求,以上就为大家做了简单的介绍了。大数据正在快速发展当中,相关的岗位需求也在不断增加,掌握专业技能,始终是入行的关键。加米谷大数据,成都大数据培训机构,大数据开发、数据分析与挖掘,本月正在招生中,课程大纲及试学资料,可联系客服领取!
热点排行
推荐文章
立即申请>>