ID:345569

Nick Hui

高级数据开发工程师

  • 公司信息:
  • cognizant
  • 工作经验:
  • 6年
  • 兼职日薪:
  • 1000元/8小时
  • 兼职时间:
  • 可工作日远程
  • 可工作日驻场(自由职业原因)
  • 所在区域:
  • 上海
  • 浦东

技术能力

1.熟练掌握 python3 编程,会java、shell、scala语言
2.熟悉 aws 服务,hadoop生态
3.采集方面,掌握python的爬虫框架scrapy
4.数据处理 ,掌握数据清洗etl相关技能,kettle,airflow, pyspark
5.数据存储 ,熟练mysql,熟悉hive,hbase,oracle,sqlserver,redis,mongdb,postgresql等数据库
6.python框架,擅长django,熟悉flask、fastapi框架
7.web前端:能熟练使用html、css、javascript语言,掌握jquery、vue、react框架
8.部署:熟悉linux,docker管理, jekins , aws

项目经验

数据迁移项目 .
背景:主数据来自诺华公司concur报销数据,eapproval数据等,最终生成7 张报 告,原系统用的sqlserver的存储过程生成报告,繁琐而复杂,公司不用原系统了,决定走spark服务,
开发过程:
1、 建立数据模型,生成sttm报告
2、 根据数据模型将数据分层,大的层级有3层
第一层:raw层,主要将原始文件数据接进来,根据业务情况分增量数据和全量数据,又分了三层,pre_landing层(对原始文件进行处理成统一csv文件并备份),landing层(将csv文件写入redshift库),landing_merge层(对增量数据做处理).
第二层:unified 层,将raw层的各个表数据进行清洗,并做逻辑关联处理,落地到redshift库中(底层数据在s3上)
第三层:publish层,将unified层数据做逻辑处理落地到postgresql数据库中,再读取各个表数据生成7张报告推送到publish层的s3上
3、 开发并部署,主要使用的pyspark做开发,用jekins做部署,用airflow 做调度,生成的gluejob运行在aws的云服务上

案例展示

  • 人力资源数据中台

    人力资源数据中台

    该项目旨在帮助HR以及上层领导实时掌握各部门员工的动态信息,包括但不限于(入职、考勤、薪酬、安全事件、组织绩效、离职)等 开发过程: 1、 同数据组经理调研落实大领导的实际需求以及各HR小组的需求,设计开发规范、开发流程、预期效果等(临时兼任产品经理) 2、 了解整个公司

  • 数据迁移

    数据迁移

    (因为保密协议项目图片无法取出) 该项目是个数据迁移项目 . 背景:主数据来自诺华公司concur报销数据,eapproval数据等,最终生成7 张报 告,原系统用的sqlserver的存储过程生成报告,繁琐而复杂,公司不用原系统了,决定走spark服务, 开发过程: 1

查看案例列表(含更多 0 个案例)

信用行为

  • 接单
    0
  • 评价
    0
  • 收藏
    0
微信扫码,建群沟通

发布任务

企业点击发布任务,工程师会在任务下报名,招聘专员也会在1小时内与您联系,1小时内精准确定人才

微信接收人才推送

关注猿急送微信平台,接收实时人才推送

接收人才推送
联系需求方端客服
联系需求方端客服