1、熟练使用 Java 语言,进行大数据开发,熟悉多线程,JVM 及垃圾回收机制。
2、熟练使用 Scala 语言,实现 SparkCore、Spark Sql、Spark Streaming 开发。
3、熟练使用 SQL 和 HQL,完成基于 Hive 数据的分析。
4、熟练使用 Linux 命令,能够进行 Shell 脚本的开发。
5、熟悉 MR 中 shuffle 运行原理,并能够使用 MR 进行业务开发熟悉 Yarn 中的资源调度过程和
Hadoop 相关组件及 Hadoop 高可用的搭建。
6、熟练使用 Hive 对分布在不同层次的海量数据做分析处理,能够对 Hive 进行调优。
7、熟练掌握 Spark,深入理解 Spark 工作机制,能够对 Spark 进行调优。
8、熟悉 Kafka 消息系统的工作机制以及 kafka 集群部署。
9、熟悉 Zookeeper 的架构,运行原理能为集群提供协调服务。
10、熟练使用 Flume、Sqoop、Datax 进行数据同步。
12、熟悉 Hbase 存储架构和 Phoenix 整合使用。
13、熟悉 Mysql 数据库,熟练编写 Sql 语句。
14、熟悉 Redis 的数据类型以及常规操作,了解 Redis 的持久化和主从配置。
1.负责大数据平台搭建与维护,保障大数据平台正常运行和各个环节开发人员的正常使用。
2.参与部分静态数据获取与清洗,为下游系统提供数据支撑和接口
3.参与实时数据采集与处理应用程序的开发,参与能耗公式内存应用程序的开发
4.参与前端应用层平台搭建javaweb系统,为数据分析实现可视化展现
1、参与实时、离线数据仓库建设,负责大数据实时与离线处理程序开发。 2、理解并合理抽象业务需求,与业务团队紧密合作,发挥数据价值。 3、程序执行性能分析以及调优
公司在原有的电商分析系统上,对系统进行升级,通过实时检测并收集用户的行为数据,快 速分析用户浏览信息,关注内容等数据,定位用户需求和喜好,构建标签化用户信息,抽象出一 个用户的信息全貌,通过用户画像进行精准商品提供,提高用户体验和调正销售策略,为公司在 平台上针对不同用户推