大数据开发工程师的岗位要求5个
岗位要求1:
1、统招本科及以上学历,5年以上JAVA开发经验;
2、熟悉Java语言和面向对象设计开发,熟悉多线程程序开发,对多线程技术、异步、并发有较深入理解;
3、具备Hadoop及Spark大数据框架上的开发经验。
4、熟悉MySQL,MongoDB,Redis,应用开发、配置、维护及性能优化;
6、对系统架构、设计模式、软件工程等有较深入的理解;
7、具有高度责任感和主动性,良好的团队合作能力和沟通能力及自我管理能力,代码编写规范,技术扎实,逻辑思维能力强,乐于学习和分享新技术。
岗位要求2:
  1、计算机等相关专业硕士学历;
  2、3年以上软件开发经验,精通Java开发,至少2年以上Hadoop相关开发经验;
  3、熟悉分布式系统、分布式计算系统的工作机制,具有大规模数据平台,高并发大型系统,大数据等架构设计和开发经验;
  4、熟悉sqoop、Hive、hbase、spark等大数据生态组件;
  5、精通linux shell和sql脚本;
  6、有java web开发经验者优先;
  7、良好的团队精神和沟通能力,很强的逻辑思维能力和学习能力。
岗位要求3:
1、本科及以上学历,计算机或相关专业
2、具备扎实的数据结构及算法功底,掌握Java/Scala/Python等至少一门编程语言,具有1年
以上开发经验
3、熟悉主流大数据组件,包括Hadoop、Spark、hive、Flink、Hudi
4、熟悉olap引擎原理,包括presto,impala,ClickHouse,doris等,有方案设计、性能优化经验者优先
5、对技术有强烈的兴趣,喜欢钻研,具有良好的学习和沟通能力
岗位要求4:
1. 本科及以上学历,计算机、软件工程、数学、统计学及相关专业,3年大数据项目开发经验;
2. 精通Java、Scala,有扎实的Java基础;
3. 熟练掌握传统关系型数据库Mysql等,掌握MVC框架、RPC框架Dubbo、MQ、SpringBoot、Redis、分布式基础服务组件等;
4. 熟练掌握Hadoop生态圈相关技术,Hadoop、HBase、Kafka、Hive、Spark等组件的工作原理;并有基于Hadoop处理海量数据的实际项目经验;
5. 有数据仓库建设的经验;能独立搭建、调优并维护Elasticsearch、Hive、Presto、Spark、Kafka、Redis等服务;
6. 主动性强,具有良好的沟通、协调和组织能力,富有团队精神,有较强的文档编写能力。
岗位要求5:
熟悉Java,熟悉Scala、Python其中之一;
熟悉IO机制、网络通讯、多线程等基础知识框架,熟悉缓存、消息队列、索引查询等机制;
熟悉Spark SQL、Streaming等;
熟悉Hadoop、Storm等,对其中1个或多个分布式系统有应用经验;
熟悉HBase、Redis等;
hbase工作原理保持大数据行业相关技术持续学习的热情,了解行业最新技术动态;
熟悉MPI、TBB、CUDA等高性能计算者优先;
具有良好的沟通能力和协调能力,优秀的学习能力,具备良好的团队精神,能承受工作压力,富有进取心

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。