【工作职责】
1、从0到1建设大数据计算和存储集群,包括但不限于Hadoop/Hive/Kafka/Spark/Elasticsearch/Fli
2、负责公司大数据集群的运维工作,包括节点规划、部署、监控、权限管理和问题处理,确保可用性和稳定性;
3、负责集群容量规划、扩容及版本迭代,大数据集群的性能分析和优化调整;
4、设计和实现公司大数据集群的运维、监控和管理平台;
5、持续学习和研究大数据分布式存储与计算相关运维技术,持续优化集群服务。
【任职要求】
1、本科及以上学历,计算机、软件相关专业;
2、对 CDH大数据组件栈有深入了解与使用经验,或对开源Apache Hadoop生态圈有长期运维经验;
3、熟悉 Linux/Unix 系统、网络、硬件等相关知识,能够独立排查及解决操作系统和网络层面的问题;
4、具备脚本编程能力,如Python、Shell等,能够编写自动化运维脚本,提高工作效率;
5、能够独立完成大数据集群的日常运维工作,包括部署、扩容缩容、监控、故障排查和性能优化等(主要包含Hadoop/Hive/Kafka/Spark/Elasticsearch/Fli
6、熟悉容器化技术docker,能编写dockerfile,有k8s经验的优先;
7、对云平台有一定的了解,有阿里云使用经验者优先;
9、有大数据运维平台开发和使用经验优先。
https://nd.zhiye.com/campus
求职过程请勿缴纳费用,谨防诈骗!若信息不实请举报。 您还可以 举报此职位
福州市人事人才公共服务中心版权所有 地址:福州市鼓楼区古田路128号劳动大厦二层
人才交流科:0591-83849356
互联网信息服务备案登记证号:闽ICP备13015274号