ID:194538

事与愿违

大数据 JAVA开发

  • 公司信息:
  • 福建星网锐捷通讯股份有限公司
  • 工作经验:
  • 3年
  • 兼职日薪:
  • 500元/8小时
  • 兼职时间:
  • 下班后
  • 周六
  • 周日
  • 可工作日远程
  • 所在区域:
  • 成都
  • 高新

技术能力

JAVA方面
1、熟悉使用MYSQL、redis、springboot等工具
2、有springcloud开发的相关经验
3、docker部署相关技术
大数据方面
1. 熟练掌握JavaSE 集合、IO、多线程等基础知识,熟悉Hive编程和调优
2. 掌握Spark,研究过Spark源码,深入理解Spark工作机制。掌握Spark任务的执行流程
3. 掌握Hadoop集群的搭建(CDH)与维护
4. zookeeper的使用,了解一定的原理
5. 熟练编写SQL
6. 会使用Hive、RabbitMQ、Hbase、Kafka、Flume、ES、mongodb、sqoop等大数
据技术
7. 了解常见设计模式
8. 搭建过Ambari与CDH
9. 获得了国家工信部的大数据工程师证书

项目经验

(一)风险控制及用户积分值计算
项目介绍:基于用户的行为做出的两套系统,供管理层决策使用,风险控制为了更有效的控制杜绝刷量用户,提出的一个风险控制系统,用户积分值计算系统是根据用户的各种行为进行积分控制的一个系统,之后给活动中心提供了一个Kafka分拣系统
系统架构:elasticsearch、spark streaming、mongodb、Kafka、rabbitmq、drools
责任描述:
ELK日志分析系统搭建
解决上亿级别的数据的快速检索问题(ELK:Elasticsearch + logstash + kibana)
原始数据清洗转换
Kafka分拣系统的开发
用户积分值计算(drools规则引擎)
(二)国寿开门红项目
19年9月项目正式启动,开发周期紧,工作量大,上海中国人寿数据中心驻点开发,需要与人寿大数据运维人员进行沟通协调,在他们的cdh集群上做数据采集处理分析还有业务数据抽取,该项目意为把以前分散的用户集中管理,对数据进行进一步挖掘
责任描述
1.前端埋点数据采集
2.埋点数据清洗转换存储
3.部分业务功能的开发
4从hbase定时抽取业务数据到mysql做数据支持
5.hive定时分析数据写入mysql
6.从国寿kafka拉取数据做业务数据支持
(三)中国人寿长期照护系统
中国人寿项目,项目以上线,并且目前项目二期已经开始,该项目是为积极应对人口老龄化的问题,国家开展的长期护理保险试点,旨在与失能人口,特别是重度失能老人提供基本生活照料与基本生活密切相关的医疗护理提供资金或服务保障,成都市2017年7月开始长期照护保险试点,该项目是spring cloud微服务框架开发的
责任描述:
1.app与web端部分业务功能开发
2.数据统计的居家照护模块的统计开发
3.与前端对接接口
3.后期维护
(四)眉山医疗巡查系统
项目19年完成,但是因甲方原因,一直未能上线,20年3月正式上线,二期也一直在商务洽谈中,5月会启动二期开发,项目开发周期为3个月,后期bug修改和需求变更耗时3个月,20年正式上线,该项目是spring cloud微服务框架开发
责任描述:
1.公共模块的开发
2.部分业务接口的开发
3.部分统计功能的开发
4.与前端接口对接
5.docker化部署工作

案例展示

  • 中国人寿开门红项目

    中国人寿开门红项目

    该项目是为了中国人寿挖掘客户价值的项目,旨在对潜在客户已经忠实进行分析,并且对他们进行精准化推荐相关保险,19年9月项目正式启动,开发周期紧,工作量大,上海中国人寿数据中心驻点开发,需要与人寿大数据运维人员进行沟通协调,在他们的cdh集群上做数据采集处理分析还有业务数据抽取 责

  • 中国人寿长期照护系统

    中国人寿长期照护系统

    中国人寿项目,项目以上线,并且目前项目二期已经开始,该项目是为积极应对人口老龄化的问题,国家开展的长期护理保险试点,旨在与失能人口,特别是重度失能老人提供基本生活照料与基本生活密切相关的医疗护理提供资金或服务保障,成都市2017年7月开始长期照护保险试点 责任描述: 1.sp

查看案例列表(含更多 0 个案例)

信用行为

  • 接单
    0
  • 评价
    0
  • 收藏
    0
微信扫码,建群沟通

发布任务

企业点击发布任务,工程师会在任务下报名,招聘专员也会在1小时内与您联系,1小时内精准确定人才

微信接收人才推送

关注猿急送微信平台,接收实时人才推送

接收人才推送
联系需求方端客服
联系需求方端客服