5个大数据开发工程师的岗位要求
岗位要求1:
1)熟悉物资供应链全流程;
2)熟悉仓储物资管理与如何进行库存资源盘活利用;
3)能运用“先进先出”原则开展库龄计算方法的研究工作;
4)针对库龄管理方法的研究成果,分析各类型、各阶段的物资库龄预警机制;
5)物资的盘活利用情况进行分析,以及时发现成本物资盘活利用工作的薄弱环节,支撑管理人员制定相应的成本物资管理策略;
岗位要求2:
1.本科及其以上学历,3年以上大数据系统开发经验,处理过10TB以上的数据存储、处理和分析工作;
2.熟练使用Hadoop生态体系相关技术(zookeeper、Hadoop、Hbase、hive、Spark,flink等组件),及MongoDB、MySQL等常用数据库,有深入的理解和丰富的使用经验,有源码优化经验优先;
3.熟练使用flume、sqoop、kettle、kafka和Elasticsearch等主流的数据整合、信息索引技术和工具;
4.编程能力扎实,熟练使用java、python、scala等编程语言,具有良好的数据结构、算法、操作系统等计算机基本知识;
5.对技术有强烈的进取心,具有良好的沟通能力和团队合作精神、优秀的分析问题和解决问题的能力;
6.有金融大数据平台或者风控平台的开发及设计经验优先。
岗位要求3:
1. 5年以上工作经验,计算机相关专业本科以上;
2. 精通Hadoop大数据平台架构,具有扎实的Scala/Java等开发语言;并可以开发高效可靠的代码;
3. 了解分布式系统、大数据平台,有完整的数据工程项目经验,具备一定的框架设计以及抽象能力;
4. 熟悉spark、Hive、storm等计算框架者优先,对分布式存储和计算原理有较深的理解;
5. 良好的团队精神以及合作意识,热爱技术,高度自驱,追求卓越,对数据敏感;
6. 对批量计算、流式计算、时序数据处理、存储引擎、资源调度等一项或多项有深入理解优先,党员优先!
岗位要求4:
1、计算机/应用数学等相关专业、全日制本科以上学历 ,1-3年工作经验;
scala python2、熟悉存储系统、分布式算法、计算机网络,理解大型分布式存储系统工作原理 ;
3、熟悉Hadoop生态组件,拥有HDFS、Spark、HBase、MapReduce、Kafka等相关框架开发经验;
4、熟悉GIS技术,如Arcgis、PostGIS等,能够处理矢量和栅格数据;
5、熟练掌握JAVA、Scala编程语言;
6、熟悉数据库技术、包括关系型数据库(如MySQL、PostgreSQL)和非关系型数据库(如Redis)。
岗位要求5:
1. 本科及以上学历,有1年以上大数据开发、数据仓库开发、数据分析相关经验;
2. 熟练掌握Hive SQL、python、Shell等开发语言,熟悉Hadoop、Hive、Spark等相关大数据工具;
3. 熟悉Hive SQL、spark常用性能调优方法,熟悉常用的机器学习(如决策树、逻辑回归、聚类等)算法者优先;
4、有海量数据处理的项目经验,有数据仓库或数据产品的架构设计能力;
5、具有良好的沟通、团队协作以及项目管理能力,做事积极主动,乐于学习新知识。
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。
发表评论