1、负责海量用户行为数据的处理,在分布式计算平台基础上建立高效、实时的数据 pipeline; 2、负责推荐系统、广告系统的数据分析,发现模式与规律,为实验解释、系统改进提供数据支持; 3、负责 Hadoop,Spark 等大数据基础设施和平台的改进,解决大规模生产环境集群可用性和性能优化问题。
1、本科及以上学历,计算机相关专业; 2、热爱计算机科学和互联网技术,优秀的编码能力,乐于快速学习和尝试新技术、新工具; 3、对数据敏感,掌握量化分析方法,善于从数据中发现问题,提出假设并使用数据进行验证; 4、对至少一项分布式计算平台有使用经验,例如 Hadoop,Spark,Hive,Storm,Kafka 等; 5、有参与开源项目对社区有贡献的经历,有互联网公司实习经历,有大数据处理或用户行为数据分析经验者优先。