職位描述
該職位還未進行加V認證,請仔細了解后再進行投遞!
工作職責:
1、負責大數據平臺基礎上的應用開發,包括報表系統、數倉建設;
2、負責數據倉庫和大數據處理ETL流程開發以及模型設計;
3、負責基于HADOOP生態技術進行海量數據的ETL處理、分析、統計、挖掘工作;
4、完成數據指標的統計、多維分析和報表展現;
5、總結和編寫相關的開發文檔;并能夠根據規劃需求制定相關技術方案。
任職資格:
1、2025屆本科及以上學歷,計算機相關專業;
2、熟悉linux開發環境及linux基本操作命令;
3、熟悉PostgreSQL、Mysql、Hive、Redis等數據庫;
4、熟悉SQL、PL/SQL、PERL、Python等腳本語言開發;
5、熟悉hadoop及hadoop生態圈中的常用組件,如Spark、HBase、Hive、Zookeeper、Kafka、Solr等;
6、熟悉數據ETL、數據模型分層設計等基本理論;
7、擁有實際的Hadoop的項目實踐經營,有Spark、Flink使用經驗者優先;
8、熟悉機器學習或深度學習,Python數據挖掘經營優先;
7、有良好的代碼習慣,有效編寫單元測試。
1、負責大數據平臺基礎上的應用開發,包括報表系統、數倉建設;
2、負責數據倉庫和大數據處理ETL流程開發以及模型設計;
3、負責基于HADOOP生態技術進行海量數據的ETL處理、分析、統計、挖掘工作;
4、完成數據指標的統計、多維分析和報表展現;
5、總結和編寫相關的開發文檔;并能夠根據規劃需求制定相關技術方案。
任職資格:
1、2025屆本科及以上學歷,計算機相關專業;
2、熟悉linux開發環境及linux基本操作命令;
3、熟悉PostgreSQL、Mysql、Hive、Redis等數據庫;
4、熟悉SQL、PL/SQL、PERL、Python等腳本語言開發;
5、熟悉hadoop及hadoop生態圈中的常用組件,如Spark、HBase、Hive、Zookeeper、Kafka、Solr等;
6、熟悉數據ETL、數據模型分層設計等基本理論;
7、擁有實際的Hadoop的項目實踐經營,有Spark、Flink使用經驗者優先;
8、熟悉機器學習或深度學習,Python數據挖掘經營優先;
7、有良好的代碼習慣,有效編寫單元測試。
工作地點
地址:廣州天河區天河區花城大道777號長線大廈


職位發布者
億迅HR
廣東億迅科技有限公司

-
通信/電信/網絡設備/增值服務
-
1000人以上
-
國有企業
-
廣州市天河區龍口中路130號B座