首頁 > 制度大全 > 大數據研發崗位職責

大數據研發崗位職責

2024-07-24 閱讀 5816

大數據研發職位描述:

1、理解數據的產品應用場景邏輯,通過統計方法和通用分布式框架工具語言如hadoop,不斷加強數據服務質量;

2、負責數據清洗、轉換、建模等工作,對海量用戶行為數據通過hadoop/spark等進行離線和實時處理;

3、參與用戶畫像、個性化推薦系統等數據產品的開發工作

4、參與數據、工具平臺相關的功能接口、數據接口開發,完成業務功能;

崗位要求:

1、精通java或scala語言,具有面向對象編程思想,對底層實現有一定研究;

2、精通sparksql、sparkstreaming等編程,具有實際大型分布式集群項目開發經驗;

3、熟悉Linux操作系統,熟悉Linuxshell編程;

4、熟悉mysql,redis等常用數據庫,jetty等中間件;

5、熟悉分布式存儲或NoSQL數據庫技術,如hbase等;

6、熟悉Hadoop生態環境,精通以下一種或多種大數據技術,如flume、Kafka、Hdfs、MR、elasticsearch;

7、熟悉常用的數據挖掘算法優先。職位描述:

1、理解數據的產品應用場景邏輯,通過統計方法和通用分布式框架工具語言如hadoop,不斷加強數據服務質量;

2、負責數據清洗、轉換、建模等工作,對海量用戶行為數據通過hadoop/spark等進行離線和實時處理;

3、參與用戶畫像、個性化推薦系統等數據產品的開發工作

4、參與數據、工具平臺相關的功能接口、數據接口開發,完成業務功能;

崗位要求:

1、精通java或scala語言,具有面向對象編程思想,對底層實現有一定研究;

2、精通sparksql、sparkstreaming等編程,具有實際大型分布式集群項目開發經驗;

3、熟悉Linux操作系統,熟悉Linuxshell編程;

4、熟悉mysql,redis等常用數據庫,jetty等中間件;

5、熟悉分布式存儲或NoSQL數據庫技術,如hbase等;

6、熟悉Hadoop生態環境,精通以下一種或多種大數據技術,如flume、Kafka、Hdfs、MR、elasticsearch;

7、熟悉常用的數據挖掘算法優先。

篇2:數據倉庫研發工程師崗位職責

搜狗金融-數據倉庫研發工程師-北京-02173(MJ001926)搜狗北京搜狗科技發展有限公司,北京搜狗科技,搜狗,搜狗科技,搜狗翻譯,搜狗詞典,搜狗崗位職責:

1、數據倉庫、數據集市的數據模型設計

2、數據倉庫ETL規則設計和開發

3、利用HQL進行數據清洗,根據應用場景建立數據集市。

4、數據倉庫數據導入,建表,日常任務跑批,日志監控。

5、數據倉庫需求調研和需求分析

任職條件:

1、熟悉python,熟練使用shell編程解決數據清洗;

2、熟練使用Hadoop、Hive、Sqoop,熟練使用hiveSQL并有一定編寫map/reduce開發經驗;

3、熟悉數據倉庫建模理論,了解數據倉庫數據分層架構,精通3NF和多維數據模型設計;

4、具備大中型數據倉庫架構設計、模型設計、ETL設計的相關經驗;

5、具備海量數據處理、有性能調優經、金融、電商、電信、互聯網行業數據模型經驗者優先

這是一款定位于服務平臺互聯網用戶的金融產品,由搜狗公司內部孵化,深度挖掘搜狗在互聯網端的用戶規模優勢以及多年的大數據能力積累。在當下大熱的互聯網金融領域,搜狗將發揮用戶服務和智能算法優勢,并結合平臺的綜合運營實力。

篇3:數據研發工程師崗位職責

數據研發工程師投中信息上海投中信息咨詢股份有限公司,投中信息職責描述:

1.負責數據源調研、入庫、開發的全流程工作(數據采集、清洗、匯總、集成等),并保證數據質量;

2.有較強的自學能力,能夠根據需要學習相關業務和技術知識,并能靈活運用;

3.負責對公司平臺的數據進行整理、挖掘及分析工作;

4.基于公司現有產品,提出可擴展,高性能,高可用性設計方案;

任職要求:

1.熟練掌握Java編程語言,熟悉Python腳本語言,并靈活運用到實際工作中及解決技術問題;

2.熟悉Hadoop+Spark大數據處理工具和技術,有兩年以上的實際大數據處理經驗;

3.熟練掌握一至兩種開源ETL工具軟件;

4.熟悉常見機器學習算法(如邏輯回歸、SVM、神經網絡、決策樹、貝葉斯等);

5.對機器學習/深度學習有興趣,并具有一定的理解和研究,熟悉Tensorflow、Torch等常見框架;有實際項目開發經驗者優先;

6.善于分析和解決問題,富有想象力和學習能力,良好的團隊合作精神;

7.責任心強,工作踏實,團隊協作精神,具備快速解決問題的能力。