6个大数据开发工程师的岗位要求
岗位要求1:
1.精通阿里Dataphin,阿里大数据软件相关开发经验3年以上,有丰富的参数配置及调优经验。
2. 具有商业类客户交付经验 ETL开发
3. 具有数据上云经验
4. 使用过阿里RDS 有建模经验
hbase工作原理岗位要求2:
1)熟悉Linux/Unix平台,熟练使用常用命令;
2)精通Java开发,对多线程、消息队列等并有较为深刻的理解和实践;
3)熟练使用Tomcat等常见中间件;
4)精通Doris数据库,有数据仓库相关经验者优先;
5)熟悉kettle、datax、sqoop、flume等数据同步工具的一种或多种;
6)良好的沟通能力、团队精神和服务意识;
7)善于学习新知识,动手能力强,有进取心。
岗位要求3:
1. 计算机基础知识扎实,包括操作系统、计算机网络、数据结构、基础算法、数据库等。
2. 编程能力扎实,至少熟练掌握Java/Python一门以上编程或脚本语言,有清晰的编程思路。
3. 热衷于并擅长troubleshooting 和 performance tuning,喜好专治各种性能和异常的疑难杂症,并乐于做技术剖析、总结沉淀。
4. 具备良好的沟通协调能力,和很强的责任心,具备优秀的推动力。在提供改进和落地的同时,提供可量化的手段和指标
5. 对代码的健壮性和可运维性有高要求;足够“偷懒”,热爱coding,擅长以技术解决人力问题,支撑海量服务器运行优化
加分项
1.精通linux文件系统、内核、linux性能调优、TCP/IP、HTTP等协议,有良好的网络、数据存储、计算机体系结构方面的知识,对常见的系统隐患、系统故障有系统性总结和实际处理经验
2.熟悉一种或者多种大数据生态技术(Kafka、HBase、Hive、Hadoop、Spark等),熟悉源码者优先。
岗位要求4:
1、本科以上学历,计算机或相关专业,2年以上Hadoop架构开发经验;
2、愿意学习先进技术与新架构,如TiDB,有基于TiDB HTAP的数据平台开发经验优先;
3、精通Java或Scala开发,熟悉Linux/Unix环境,熟悉容器;
4、基于Hadoop大数据体系有深入认识,具备相关产品(Hadoop、Hive、Hbase、Spark等)项目开发经验,有Hadoop集搭建和管理经验,读过Hadoop或Hbase源码或二次开发经验的优先;
5、态度端正,有较强责任心,具有较强的沟通表达能力、逻辑思维能力和文档编写能力。
岗位要求5:
1、本科2年以上相关工作经验,计算机、数学相关专业优先;
2、有2年以上大数据系统架构与设计、重大模块设计经验,对大数据的技术趋势和SOA模式、微服务模式有较深的理解;
3、 深入理解Hadoop ,及各种大数据计算框架,熟练使用Hadoop、Spark、FLink、HDFS、Hbase、Kafka、ElasticSearch、Kudu、Tidb、Druid有优化经验者优先;
4、JAVA基础扎实,熟悉常用的设计模式,对JVM原理有一定的了解
5、了解数据仓库建设理论与方法、具备丰富的实践经验。精通SQL,有海量数据处理经验
者优先;
6、良好的跨组织协调、学习和沟通能力,乐于接受挑战。
岗位要求6:
1、2年以上的VM/容器/k8s集实战运维经验,熟悉Linux、容器、K8S原理与日常操作使用,熟练掌握Java/Python/PHP/GO/Shell 等至少一门语言; 2、熟练掌握Tcp/http协议,能对常见的网络问题进行基本分析,熟悉DNS、NTP、DHCP等常见基础服务使用;
3、熟练掌握主流应用类服务技术架构、数据库以及各种中间件技术(MySQL、Nginx、Redis等);
4、熟悉常用的开源监控/日志分析系统,如 Prometheus、zabbix、ELK; 5、能够接受派驻客户现场进行工作,熟悉安全生产的相关规定并遵守,具有良好的团队协作、沟通能力、客户服务意识;
6、熟悉阿里云ECS/SLB/MQ/OSS/EDAS等产品,有ACP、ACE证书优先;
补充岗位要求
1、有大数据开发经验优先,Hadoop,Spark,Flink等;
2、使用过阿里大数据产品优先,例如DataWorks、MaxCompute等
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。
发表评论