首頁 > 制度大全 > 阿里健康合資公司大數據開發工程師職位描述與崗位職責任職要求

阿里健康合資公司大數據開發工程師職位描述與崗位職責任職要求

2024-07-29 閱讀 6946

職位描述

崗位職責

1、負責公司數據平臺項目的ETL設計、實現以及優化。

2、負責ETL流程優化,關鍵問題解決;

3、研究醫院信息化數據,負責數據建模、數據存儲設計;

4、使用ETL技術對醫院信息系統數據進行提取、清洗、轉換和整合;

5、負責基于Hadoop/Spark生態的大數據離線/實時處理平臺開發;

6、負責基于阿里云的maxcompute的大數據離線處理平臺開發;

7、負責數據源調研、入庫、開發的全流程工作,并保證數據質量;

崗位要求

1、有2年以上醫療行業數據建模經驗;了解數據建模方法論,并且在項目中實踐甚至優化擴展;有大型項目建模經驗優先;對數據模型有獨到理解;

2、熟悉大數據平臺,了解Hadoop、Hive、Hbase,有大型數據中心運維經驗或實施經驗者優先;

3、2年以上醫院業務信息化實施開發經歷優先;有His、Emr開發經驗優先;

4、有數據倉庫ETL經驗,對調度、元數據、數據質量等有一定理解;

5、有良好的邏輯思維能力,主動思考,善于學習,與團隊溝通無障礙;

6、熟悉java,python,shell,scala等任一種開發語言;

7、擁有良好的溝通、表達能力,工作認真負責,學習能力強,執行力強,樂于接受挑戰并具備較好的承壓能力;

篇2:高級大數據開發工程師職位描述與崗位職責任職要求

職位描述

崗位職責

1.基于公司大數據產品進行數據開發,包括數據的采集,清洗,預處理,存儲,建模,分析挖掘等

2.根據業務用戶需要分析數據,提供數據支持

3.參與公司大數據產品的運維和監控,保障數據質量和服務穩定性

任職要求

1.具備本科以上學歷,計算機,軟件以及相關專業,5年以上大數據開發經驗

2.熟悉數據倉庫維度建模,并能根據客戶需求進行數據開發,向模型更新數據

3.使用過至少一種以上的ETL工具

4.熟練掌握Java,對Hadoop相關的技術和組件(HDFS,MR,Hbase,Hive,Spark,Storm,Kafka等)有全面深入了解

5.熟練掌握Shell或者Python中的一種

6.具備Spark開發經驗者優先

7.具備實時計算(Kafka+Storm/SparkStreaming)經驗者優先

8.具備數據分析和數據挖掘方面經驗者優先

篇3:中級大數據開發工程師職位描述與崗位職責任職要求

職位描述

職責描述

1、參與公司商業智能平臺的研發工作;

2、參與公司商業智能平臺的升級改造工作,包括運維工作。

任職要求

1、正規院校本科及以上學歷,軟件、計算機、通信、信息安全、網絡工程等相關專業;

2、良好的Java開發背景,熟悉Spring/MyBatis技術體系;

3、良好的SQL功底,熟悉MySQL或Oracle數據庫;

4、熟悉Linux;

5、了解開源Pentaho產品,包括PRD、Mondrian、SaiKu、Kettle等;

6、熟悉Hadoop、Hive、HBase、Storm、Spark等大數據平臺;

7、溝通能力強,有較強的學習能力,有較強的責任心與良好的團隊協作能力。