主页 > 新闻资讯 > 数据运维工程师主要是做什么?运维难不难

数据运维工程师主要是做什么?运维难不难

作者:张老师 浏览次数: 2020-09-10 18:05
进入大数据时代以来,与数据相关的岗位在增加,并且很多传统的IT岗位,也在面临着数据相关的技能要求的提升。比如说运维工程师,涉及到海量的数据,也要求更高的技能。那么数据运维工程师主要是做什么,运维难不难,今天我们来具体聊一聊。

在企业级的大数据系统平台当中,开发和运维都是非常重要的,尤其是涉及到规模庞大的数据,从硬件设备和软件系统,都需要投入相应的精力去进行维护。

数据运维工程师主要是做什么

数据运维工程师主要是做什么?通常来说,包括但不限于以下几个层面:

首先是服务器设备,数据中心里可以说有海量的服务器设备,几乎清一色采用的是Linux系统,掌握一些Linux操作系统的命令是必不可少的。

同时,还要至少熟悉一个内置编辑器:VI或Nano,至少熟悉一个发行版,比如Centos、Debian、Ubuntu,要熟悉很多Linux运维的命令,以便出了问题知道如何分析服务器的运行状态,对LAMP或LNMP、FTP、DNS、SAMBA、EMAIL、NTP、DHCP等Linux可以支持的基础协议要了解,熟悉这些协议的故障处理。

其次,是服务器一些虚拟化软件技术,比如KVM,虚拟化技术在数据中心里应用已非常普遍,对KVM不熟悉将很难开展运维工作,所以要掌握常用的虚拟化技术,以及KVM的工作原理,包括在CPU、内存、存储、网络等各个部分的虚拟化,最为重要的是要掌握KVM的各种管理工具:OpenStack、CloudStack、OpenNebula、Zstack等。

第三,要会编写一些程序脚本,比如使用Shell、Python、Perl等脚本语言做一些自动化运行脚本、诊断故障的脚本,使用这些脚本可以提升工作效率,将重复性的简单工作交给脚本程序处理,也可以通过这些脚本判断故障发生的位置和原因。

第四,数据中心里那么设备,仅掌握服务器是不够的,网络、安全都是需要重点学习的地方。在出现问题时,懂得在各个网络位置抓包,来确认故障设备或线路,会使用Linux的tcpdump抓包或者ethreal、sniffer、Wireshark等抓包软件,会在网络设备上配置镜像,将关心的流量抓出来进行分析。

第五,要掌握一下运维平台工具,利用这些工具做运维,很多事情往往可以事半功倍,例如:SSH证书、Nagios、Puppet、Zabbix、Cacti、SaltStack、Pssh、Fabric等,这些都是开源的免费网络监控工具,用好了,发现问题及时解决。

关于数据运维工程师主要是做什么,运维难不难,以上就为大家做了简单的介绍了。大数据时代的运维工程师,需要做好技能提升,应对大数据背景下的运维工作新要求。加米谷大数据,成都大数据培训机构,大数据开发、数据分析与挖掘,零基础班本月正在招生中,课程大纲及试学视频可联系客服领取!
热点排行
推荐文章
立即申请>>