大資料運維工程師的工作職責
大資料需要負責公司產品的技術支援、安裝除錯、客戶使用培訓及相關硬體的安裝除錯。下面是小編為您精心整理的。
1
職責:
1、負責和參與公司大資料基礎架構平臺規劃,運維,監控和優化工作,保障資料平臺服務的穩定性和可用性;
2、研究大資料前沿技術,改進現有系統的服務和運維架構,提升系統可靠性和可運維性;
3、負責和參與自動化運維繫統及平臺的建設;
4、負責優化部門運維流程提升運維效率。
任職要求:
1、統招本科及以上學歷,計算機相關專業,2年以上網際網路運維工作經驗;
2、熟悉Linux作業系統及常見開源軟體***Nginx,Tomcat,Zabbix等***的配置,管理及優化,能夠獨立排查及解決作業系統層的各類問題;
3、熟悉Hadoop/Kafka/Hbase/Spark/Elasticsearch/Hive的元件原理及運維方式;
4、精通Python,shell,瞭解JAVA;有良好的系統性能優化及故障排除能力;
5、具有很強的責任心、執行力、服務意識、學習能力和抗壓能力;
6、具備較好的溝通能力、主動性和團隊合作精神。
2
職責:
1、負責Hadoop、HBase、Hive、Spark等大資料平臺 規劃、部署、監控、系統優化等,確保高可用;
2、負責公司大資料平臺的運維管理工作,叢集容量規劃、擴容及效能優化;
3、處理公司大資料平臺各類異常和故障,確保系統平臺的穩定執行;
4、設計實現大規模分散式叢集的運維、監控和管理平臺;
5、深入研究大資料業務相關運維技術,持續優化叢集服務架構,探索新的大資料運維技及發展方向;
6、為資料倉庫、資料探勘建模等資料應用專案提供執行環境支援。
崗位要求:
1、掌握Linux作業系統的配置,管理及優化,能夠獨立排查及解決作業系統層的各類問題;
2、熟練掌握Python, shell中的至少一門語言,有Python運維工具開發經驗優先;
3、熟悉 Hadoop生態及高效能快取相關的各種工具並有實戰經驗,包括但不限於Hadoop、HBase、Hive、Spark、impala、zookeeper、kafka、Elasticsearch、oozie、yarn、Scribe、Flume、Storm等;
4、具有叢集運維經驗,以及大負載下的容量評估、問題定位、架構優化等能力優先;有分散式系統***計算/儲存***開發經驗優先;
5、熟悉zabbix/ganglia/Prometheus/grafana系統的組合構件及使用;
6、精通ELK系統,有過大規模ELK配置管理、調優經驗,有過ElasticSearch搜尋和分析引擎開發經驗者優先;
3
職責:
1、負責大資料平臺架構的規劃、設計、搭建;
2、負責大資料平臺的運維保障工作;
3、負責運維相關資料分析,以及報表產出;
4、為線上服務高效穩定執行負責,支撐業務和資料量的快速擴張;
5、深入理解大資料平臺架構,發現並解決重大故障及效能瓶頸;
6、研究跟進大資料架構領域新技術並分享。
工作要求:
1、熟悉大資料產品生態圈,包括但不限於HDFS、YARN、Hive、HBase、Spark等;
2、精通Linux/Unix系統;
3、有資料分析經驗優先,精通一門以上指令碼語言***shell/perl/python等***,熟悉java/C/C++/Golang等開發語言一種及以上;
4、有2年以上大資料平臺相關運維開發經驗,瞭解分散式平臺執行的原理,並有實際部署維護經驗;
5、學習能力和主動性強,具有鑽研精神,充滿激情,樂於接受挑戰;
6、良好的服務意識,善於團隊協作,專案管理,主動思考,自我驅動力強。
4
1.負責公司大資料業務叢集的運維工作***Hadoop/Hbase/Hive/Yarn/Spark/impala/kudu等***確保叢集環境的穩定可用;
2.負責叢集容量規劃、擴容及效能優化;
3.負責大資料叢集效能監控與優化,故障處理,資料備份及容災恢復,叢集出現異常時,能快速定位問題,並及時給出解決方案;
4.設計實現大規模分散式叢集的運維、監控和管理平臺;
5.參與/主導業務架構設計,在設計階段給出可運維性改進建議;
6.深入研究大資料業務相關運維技術,持續優化叢集服務架構,探索新的大資料運維技術及發展方向;
7.參與例如伺服器維護、專案維護、監控維護等常見運維事務
5
職責:
1. 完成大資料平臺日常運維工作***上線/日常監控/問題定位/指令碼開發***,涉及HDP/Hadoop/Spark/Tensorflow/Flink/Storm/Presto/Kudu/Alluxio等開源元件;
2. 完成大資料自研平臺工具運營,比如報表平臺、排程平臺和效能監控平臺;
3. 提升系統可靠性,完善監控策略,優化運維流程,提升部門運維效率,保證7*24服務;
4. 參與開源社群建設,提升公司開源影響力;
任職條件:
1. 熟悉Hadoop工作原理,熟悉Hadoop、Hive、Storm、Presto、Flink、 Alluixo、Kudu等開源元件的搭建、維護以及問題定位;
2. 熟悉Linux作業系統,熟練掌握Linux常用命令,瞭解ansible/puppet;
3. 熟練掌握shell/python/java;
4. 熟悉hive/spark sql工作原理,熟悉SQL語法,掌握資料庫的維護工作;
5. 對自動化運維有一定見解,使用過各種開源工具完成日常運維工作;
6. 有大資料平臺維護經驗優先;
7. 掌握dockerfile,瞭解大資料與k8s結合者優先;
8. 參與開源社群,有程式碼貢獻或者高質量部落格文章者優先;
- 大資料運維工程師的工作職責
- 健康抗衰老食品
- 大資料運維工程師的基本職責
- 教師心理健康與師德培育論文
- 中級運維工程師的主要職責描述
- 成熟的簽名
- 建築施工檔案管理論文範文
- 網站運維工程師的崗位職責描述
- 湖北省地理高考試題
- 桌面運維工程師的主要職責描述
- 經典的玲瓏塔繞口令完整版
- 產品工程師的具體職責描述
- 幾多愁古箏譜
- 運維工程師的崗位職責描述
- 2017年工程專案管理實施方案
- 服裝店長個人簡歷範文怎麼寫
- 銀行員工個人簡歷範文怎麼寫
- 電氣自動化簡歷範文3篇
- 電焊工求職簡歷範文3篇
- 電氣工程師簡歷怎麼寫
- 康熙字典五行屬金的字
- 康熙字典五行屬木的字
- 康熙字典五行屬水的字
- 康熙字典五行屬火的字
- 康熙字典五行屬土的字