拥有4年的大数据开发经验,负责 原平台中Hadoop的任务向spark的转型。
Hadoop的开发经验 4年
spark的开发经验 2年
熟练使用 hive、zeppelin 等开发工具进行数据校验、查看等
用实时的flink的任务开发
优化原Hadoop平台的任务,调整逻辑代码 优化mapper个数 降低资源20%。
在spark的开发中,推动架构升级,从原来的1.6 升级到2.3.
job的优化经验丰富
大数据平台 etl数据抽取合并整理
spark 上百个job的开发、优化、调试
大数据工具类的开发
专门为BI部门提供 种类繁多的报表
有 离线统计的 数据 和 实时程度到秒级别的实时报表
有 通过 nifi 完成 近实时的数据抽取工作,保证hdfs上能否拥有近实时的数据 供 spark、Hadoop的任务 读取,提供数据读取基础。