大数据
10-20K
大数据 10-20K
上海
学历不限
1-3年
发布于 11月12日
职位描述
HadoopSparkPythonShellSQL数据仓库ETL数据分析
工作职责
1. 参与大数据平台和数据仓库的规划、建设、运维、监控和优化工作;
2. 维护数据平台层次架构,并根据实际情况解决源数据的传输、清洗、转换、加载入库工作,如ETL任务开发,shell和hql脚本开发,处理ETL异常问题,保障数据及时、准确等;
3. 根据业务需求,进行数仓日常数据分析、数据报表开发,并解决报表、BI、后台系统及调度系统的集成工作;
4. 参与维护大数据平台,能快速高效解决遇到的问题,保证大数据平台各核心服务运行的稳定、高效;
5. 大数据和数据仓库相关文档的编写。
任职要求
1. 熟悉常见数仓(维度建模,范式建模)建模理论,并有数仓实际设计开发经验;
2. 熟悉数据库/数据仓库分层设计、宽表设计、星型模型设计;
3. 熟悉Hadoop/Hive/Spark等大数据生态系统,掌握基于Hadoop/Hive等分布式系统的ETL、数据分析、BI报表;
4. 精通SQL编写、优化工作,具备海量数据处理和Hive/Spark性能调优经验;
5. 熟悉Hadoop生态圈,熟练使用CDH平台,熟悉hdfs、MapReduce 、yarn、hive、spark、impala、ZooKeeper等常用组件;
6. 熟练掌握Shell/Python等至少一种语言,具备良好的coding习惯和代码风格;
7. 2年以上数据仓库建设开发经验;
8. 优秀的逻辑思维能力和业务需求分析能力;
9. 较好的沟通、学习和自驱能力,积极的工作态度;
10. 强烈的责任心和主动Push能力。
工作地址
上海市浦东新区上海市浦东新区