職位描述
該職位還未進行加V認證,請仔細了解后再進行投遞!
【崗位職責】:
1、大數據平臺架構設計與規劃
- 根據集團業務需求及技術發展趨勢,主導大數據平臺的整體架構設計,確保平臺具備高穩定性、可擴展性及高效性,制定長期技術演進路線。
- 設計數據存儲、計算引擎、數據集成與治理等核心模塊的技術架構,優化數據采集、清洗、存儲及分析流程。
2 、技術選型與平臺搭建
- 負責大數據技術棧的選型(如Hadoop/CDH、Spark、Flink、Kafka等),搭建并維護基于CDH的分布式大數據平臺,確保技術組件與業務場景高度適配。
- 主導數據倉庫建模、實時流計算框架開發,支持BI分析及數據挖掘應用。
3 、平臺運維體系化構建
- 建立全鏈路監控體系,覆蓋硬件資源(CPU/存儲/網絡)、系統服務(HDFS/YARN)、數據質量(ETL任務、延遲率)等維度,制定標準化監控指標與告警規則。
- 設計自動化運維工具與流程,處理平臺故障及預警事件,保障7×24小時高可用性。
4 、性能優化與監控
- 分析平臺性能瓶頸,優化計算任務調度、存儲資源分配及集群負載均衡,提升數據處理效率(如Spark作業調優、Hive查詢加速)。
- 定期開展壓力測試與容量規劃,預判資源需求并動態調整集群規模。
5 、數據安全機制建設
- 制定數據安全策略,包括敏感數據加密、訪問權限控制(基于RBAC模型)、審計日志追蹤等,防止數據泄露與非法訪問。
- 設計災備方案與數據恢復機制,確保數據完整性與業務連續性。
【任職要求】:
1 、學歷與經驗
- 本科及以上學歷,計算機、數學、統計學或相關專業,5年以上大數據架構設計經驗,3年以上大型分布式系統(PB級數據)實戰經驗。
2 、技術能力
- 精通Hadoop生態技術(HDFS/Hive/HBase/Spark/Flink),熟悉CDH平臺部署與運維,具備源碼級調優能力。
- 掌握數據治理工具(如Apache Atlas)、實時計算框架(如Storm/Kafka Streams)及容器化技術(Docker/Kubernetes)。
- 熟悉數據安全標準(如GDPR),具備數據脫敏、權限管理及安全審計實施經驗。
3 、運維與問題解決
- 具備全鏈路故障排查能力,熟悉運維工具鏈(如Prometheus/Grafana/Zabbix),能快速定位并解決集群性能問題。
- 主導過大數據平臺從0到1的建設,有金融、能源等高安全要求行業經驗優先。
4 、軟技能
- 優秀的跨部門溝通能力,能主導技術方案評審并推動落地,具備團隊管理與技術培訓經驗。
- 對技術前沿敏感,持續關注AI/機器學習與大數據融合趨勢(如TensorFlow在數據分析中的應用)。
【豐厚福利,團隊全方位關懷】
周末雙休、住房/通訊/交通/餐費補貼、五險一金、補充商業險、年度體檢、帶薪病假、帶薪年假、節假日禮品、團建基金等。
工作地點
地址:廣州番禺區廣州-番禺區海大科學園2號樓6樓
