大數據項目主管職位描述與崗位職責任職要求
職位描述:
崗位職責:
1.負責業務需求的溝通、分析,挖掘潛在業務需求,撰寫需求說明書;根據項目計劃做好項目各個階段的組織工作,將工作落實到位;承擔業務需求到Hadoop技術體系應用轉換工作;大數據平臺部署、管理、優化等;
2.負責調查項目的技術現狀和技術需求,編寫技術需求書和實施技術方案,協調解決開發中的技術難題,負責執行項目計劃并實現項目目標;;
3.負責大數據項目功能分解、功能質量保障、風險管理、與客戶協調溝通;
4.參與大數據平臺的數據生命周期規劃、管理及數據管理規范制定;
5.根據項目需求,分析數據,建立適應的模型并解決業務需求,并規劃和設計出對應的數據專題應用,以提升數據價值;。
任職資格:
1.本科以上學歷,計算機相關專業,2年以上相關工作經驗;
2.熟練掌握hadoop、hive、hbase、spark、kafka、storm等相關大數據技術,并具備基于以上技術的項目管理實施經驗;
3.對數據類項目的架構、流程、數據加工作業、作業調度、作業監控、元數據、數據質量管理有深刻認識,并能運用到大數據項目管理中;
4.具備大數據采集、清洗、挖掘相關系統實施經驗,有傳統數據倉庫項目管理實施經驗者優先考慮。
篇2:大數據主管崗位職責
大數據技術主管廣東智慧電子信息產業股份有限公司廣東智慧電子信息產業股份有限公司,廣東智慧電子,廣東智慧電子公司,智慧電子職責描述:
1.負責基于hadoop/storm/spark生態的大數據存儲平臺搭建和部署;
2.參與數據抽取、清洗、轉化等數據處理程序開發;
3.參與數據倉庫的設計以及基于大數據平臺上業務數據挖掘。
4.參與大數據分布式應用系統服務器端或客戶端軟件開發工作。
5.參與用戶建模等算法設計和優化;
6.分析用戶行為數據,設計合理的算法模型及策略;
7.協助完成日常數據分析;
崗位要求:
1.大學本科或以上學歷,計算機相關專業,兩年以上工作經驗,spark/hadoop全棧優先,精通任意一棧者也可;
2.熟悉hadoop、spark、spark生態圈及hadoop生態圈中的常用組件,如Spark、Hive、zookeeper、Kafka、Storm、Redis、HBase、Presto等全部或者部分組件;
3.熟悉數據庫開發例如:Oracle、MySQL;
4.熟悉Java開發,有大數據平臺相關開發經驗;
5.掌握至少一種NoSQL數據庫;
6.熟悉linux環境和命令,能編寫簡單的shell腳本;
7.工作積極主動,具備較強的溝通能力;具有良好的學習能力和團隊合作精神
篇3:算法主管大數據方向職位描述與崗位職責任職要求
職位描述:
崗位描述:
1.從事前沿大規模人工智能與機器學習算法的研究與分布式開發;
2.將算法應用到海量數據中,提升/挖掘IOT物聯網大數據場景及大數據平臺建設;
3.提供開放平臺,提供業內領先的人工智能與機器學習服務.
?
任職要求:
1.碩士博士學位及博士后研究,計算機相關專業畢業;
2.五年以上實際機器學習或深度學習應用工作經驗;
3.豐富的實際問題解決經驗;
4.有豐富C++或Java開發經驗,熟練Phython,R;
5.熟悉patternrecognitionandclassification及常用統計模型和機器學習算法;
6.對概率統計和機器學習基本原理有扎實理解;
7.精通machinelearning,datamining,andalgorithm研發;
8.熟悉Caffe/TensorFlow/MXNet/Torch/Theano等訓練框架;
9.熟悉Linux開發環境,熟悉開源工具,有相關領域經驗者優先.
有機會接觸千億級海量數據的離線和實時的數據處理,涉及Java,Spark,Hive,Sparkstreaming,Hbase,Elasticsearch,Flink等大數據的前沿技術和多云的統一架構。