阿里健康合資公司大數據開發工程師職位描述與崗位職責任職要求
職位描述:
崗位職責:
1、負責公司數據平臺項目的ETL設計、實現以及優化。
2、負責ETL流程優化,關鍵問題解決;
3、研究醫院信息化數據,負責數據建模、數據存儲設計;
4、使用ETL技術對醫院信息系統數據進行提取、清洗、轉換和整合;
5、負責基于Hadoop/Spark生態的大數據離線/實時處理平臺開發;
6、負責基于阿里云的maxcompute的大數據離線處理平臺開發;
7、負責數據源調研、入庫、開發的全流程工作,并保證數據質量;
崗位要求:
1、有2年以上醫療行業數據建模經驗;了解數據建模方法論,并且在項目中實踐甚至優化擴展;有大型項目建模經驗優先;對數據模型有獨到理解;
2、熟悉大數據平臺,了解Hadoop、Hive、Hbase,有大型數據中心運維經驗或實施經驗者優先;
3、2年以上醫院業務信息化實施開發經歷優先;有His、Emr開發經驗優先;
4、有數據倉庫ETL經驗,對調度、元數據、數據質量等有一定理解;
5、有良好的邏輯思維能力,主動思考,善于學習,與團隊溝通無障礙;
6、熟悉java,python,shell,scala等任一種開發語言;
7、擁有良好的溝通、表達能力,工作認真負責,學習能力強,執行力強,樂于接受挑戰并具備較好的承壓能力;
篇2:高級大數據開發工程師職位描述與崗位職責任職要求
職位描述:
崗位職責:
1.基于公司大數據產品進行數據開發,包括數據的采集,清洗,預處理,存儲,建模,分析挖掘等
2.根據業務用戶需要分析數據,提供數據支持
3.參與公司大數據產品的運維和監控,保障數據質量和服務穩定性
任職要求:
1.具備本科以上學歷,計算機,軟件以及相關專業,5年以上大數據開發經驗
2.熟悉數據倉庫維度建模,并能根據客戶需求進行數據開發,向模型更新數據
3.使用過至少一種以上的ETL工具
4.熟練掌握Java,對Hadoop相關的技術和組件(HDFS,MR,Hbase,Hive,Spark,Storm,Kafka等)有全面深入了解
5.熟練掌握Shell或者Python中的一種
6.具備Spark開發經驗者優先
7.具備實時計算(Kafka+Storm/SparkStreaming)經驗者優先
8.具備數據分析和數據挖掘方面經驗者優先
篇3:中級大數據開發工程師職位描述與崗位職責任職要求
職位描述:
職責描述:
1、參與公司商業智能平臺的研發工作;
2、參與公司商業智能平臺的升級改造工作,包括運維工作。
任職要求:
1、正規院校本科及以上學歷,軟件、計算機、通信、信息安全、網絡工程等相關專業;
2、良好的Java開發背景,熟悉Spring/MyBatis技術體系;
3、良好的SQL功底,熟悉MySQL或Oracle數據庫;
4、熟悉Linux;
5、了解開源Pentaho產品,包括PRD、Mondrian、SaiKu、Kettle等;
6、熟悉Hadoop、Hive、HBase、Storm、Spark等大數據平臺;
7、溝通能力強,有較強的學習能力,有較強的責任心與良好的團隊協作能力。