大数据运维实习生
200-250/天
大数据运维实习生 200-250/天
北京
本科
5天/周
5个月
发布于 6月24日
职位描述
PythonShellHadoopSparkHBase大数据
岗位职责: 1、负责公司大数据集群的日常运维,包括hadoop、yarn、presto、flink、kafka、spark、hbase、hive、ranger等组件的服务的可用性 2、负责公司大数据离线、实时任务的监控维护和故障处理 3、负责公司调度的搭建、维护、任务、工作流的配置 4、设计大数据服务运营指标,持续推动优化,提升系统性能、稳定性、易用性 任职要求: 1、计算机本科及以上学历,了解大数据运维,具备开发能力 2、了解大数据组件(hbase、hive、spark、flink、kafka等)的搭建、优化、故障处理 3、了解shell/python, 编写脚本处理日常重复内容 4、了解linux基础运维和批量管理工具ansible,快速定位机器问题 5、了解docker容器技术(k8s/马拉松) 6、了解CDH、HDP大数据集群的搭建、维护、参数优化、报警机制
工作地址
北京市海淀区花园北路35号院9号楼健康智谷11层