工作职责:
-负责构建大数据分析平台以及数据分析和挖掘工作
-负责基于百度数据的离线和实时流分析
-参与支撑业务的数据模型建设及数据指标的计算和分析
-运用Hadoop、Spark、ES等分布式计算平台
职位要求:
2年以上工作经验,计算机相关专业
-对Spark及Hadoop技术有深入了解
-丰富的编程经验、数据挖掘经验优先
-熟练使用SQL,有良好的编码习惯,对分布式有深刻理解
-了解Windows、Unix、Linux等主流操作系统原理,熟练运用系统层支持应用开发
-技术视野开阔,有强烈的上进心和求知欲,善于学习和运用新知识,勇于解决难题
-善于沟通和逻辑表达,拥有优秀的分析问题和解决问题的能力,良好的团队合作精神和积极主动的沟通意识
-有激情,具有自我驱动力,追求卓越
具有以下条件者优先:
-计算机领域相关的编程大赛获奖、专业期刊发表文章或者有发明专利等
-具备大数据云平台、计算存储平台、可视化开发平台经验,熟悉软件工程开发流程
-具备专业领域的计算机知识和技能: Storm/Hive/Hbase/Storm/Kafka等