行業(yè)
運營商
支持的業(yè)務應用
· 網(wǎng)絡管理和優(yōu)化,包括基礎(chǔ)設(shè)施建設(shè)優(yōu)化和網(wǎng)絡運營管理和優(yōu)化;
· 市場與精準營銷,包括客戶畫像、關(guān)系鏈研究、精準營銷、實時營銷和個性化推薦;
· 客戶關(guān)系管理,包括客服中心優(yōu)化和客戶生命周期管理。
· 企業(yè)運營管理,包括業(yè)務運營監(jiān)控和經(jīng)營分析。
· 數(shù)據(jù)商業(yè)化指數(shù)據(jù)對外商業(yè)化。
影響
· 消除數(shù)據(jù)訪問瓶頸和發(fā)現(xiàn)用戶使用習慣,開展更有針對性的營銷。
· Hbase管理賬單數(shù)據(jù),海量用戶隨機查和響應得到保證。
使用的技術(shù)
· Cloudera商業(yè)版
· 使用的組件:cloudera manager 、hbase、 kudu、yarn、hive、hdfs、sentry、kerberos、spark等
大數(shù)據(jù)規(guī)模
400+生產(chǎn)性CDH
傳統(tǒng)數(shù)據(jù)倉庫無法有效存儲日益增長的業(yè)務數(shù)據(jù)
隨著運營商業(yè)務數(shù)據(jù)量的增加,同時伴隨應用復雜導致的數(shù)據(jù)量的進一步增加,海量的數(shù)據(jù)增加了運營商業(yè)務系統(tǒng)數(shù)據(jù)存儲和處理壓力;而數(shù)據(jù)倉庫無法線性擴容,導致運營商信息系統(tǒng)出現(xiàn)管理難度加大、成本高、擴容壓力大、效率下降等問題。運營商的用戶上網(wǎng)記錄數(shù)據(jù)量巨大,之前采用的方案是在網(wǎng)關(guān)上用戶流量必經(jīng)地方采集,分析流量數(shù)據(jù),然后生成上網(wǎng)記錄話單,話單量非常大。
傳統(tǒng)數(shù)據(jù)倉庫無法有效處理新型的業(yè)務數(shù)據(jù)
運營商對于電子渠道越來越重視,現(xiàn)在很多的業(yè)務直接在網(wǎng)站就可以辦理, 用戶可以定制一些電信業(yè)務,或者進行查詢。所有用戶在網(wǎng)站上的這些行為,其實也是一定程度上的運行測試行為。運營商以前做的分析,主要都是關(guān)于客戶交費是否及時、信用度是否較好,但并沒有把網(wǎng)站上的用戶關(guān)注度或行為特點記錄下來。如果將這部分數(shù)據(jù)跟原有的數(shù)據(jù)庫進行整合分析,就能將用戶個人的購買行為輪廓真正地描繪出來。,其數(shù)據(jù)都是文本、圖片或視頻等非結(jié)構(gòu)化數(shù)據(jù),不同于傳統(tǒng)通信業(yè)務分析特點,需要對內(nèi)容等非結(jié)構(gòu)化、大容量信息進行有效分析,傳統(tǒng)的架構(gòu)處理難以應付。現(xiàn)在通過一些技術(shù)手段逐漸可以實現(xiàn)和逐漸完善。
分散建設(shè)的系統(tǒng)和標準化程度較低的數(shù)據(jù)急需大數(shù)據(jù)平臺統(tǒng)一管理
運營商當前很多業(yè)務系統(tǒng)建設(shè)分散,難以實現(xiàn)資源和應用的共享。經(jīng)營分析、信令監(jiān)測、綜合網(wǎng)絡分析、不良信息監(jiān)測、上網(wǎng)日志留存等大數(shù)據(jù)系統(tǒng)分專業(yè)建設(shè),其中部分系統(tǒng)分省建設(shè),造成資源重復建設(shè)、應用重復開發(fā)、專家資源無法共享。另外,數(shù)據(jù)的分散存儲、標準化缺失是運營商面臨的一個重大問題,各大數(shù)據(jù)系統(tǒng)數(shù)據(jù)模型不統(tǒng)一,跨系統(tǒng)綜合分析需求不斷增加。難以滿足業(yè)務發(fā)展的需要。高可擴展的、成本低的新的大數(shù)據(jù)架構(gòu)成為重要方向。
融合架構(gòu)下的集中化商業(yè)智能平臺需要大數(shù)據(jù)提供數(shù)據(jù)和營銷支持
運營商實施數(shù)據(jù)管理和分析的一個重要平臺是商業(yè)智能平臺,隨著數(shù)據(jù)量的激增以及客戶營銷定位要求提升,具備集中化的、強大擴展性和高可用性的商業(yè)智能系統(tǒng)平臺構(gòu)建成為運營商基于大數(shù)據(jù)應用的關(guān)鍵一環(huán)。比如,運營商一方面要求商業(yè)智能平臺支持海量結(jié)構(gòu)化及非結(jié)構(gòu)化數(shù)據(jù)分析挖掘,此外,結(jié)合用戶上網(wǎng)日志及互聯(lián)網(wǎng)網(wǎng)頁內(nèi)容,為精準行銷提供用戶行為偏好分析;為互聯(lián)網(wǎng)業(yè)務發(fā)展提供大趨勢及業(yè)務競品分析能力。由于集中化建設(shè),集中化 BI 系統(tǒng)將面臨著數(shù)據(jù)規(guī)模大、數(shù)據(jù)處理復雜、混合負載多樣等多種挑戰(zhàn),傳統(tǒng)的單一數(shù)據(jù)倉庫技術(shù)難以滿足,需要引入大數(shù)據(jù)技術(shù)。
解決方案
采用cloudera多租戶企業(yè)大數(shù)據(jù)平臺,對內(nèi)業(yè)務提升、運營優(yōu)化以消費者為中心,開展用戶行為模式的分析與數(shù)據(jù)挖掘,支撐各類數(shù)據(jù)應用,包括基礎(chǔ)設(shè)施建設(shè)和網(wǎng)絡運營管理優(yōu)化,挖掘新業(yè)務并實現(xiàn)精準營銷,客戶服務優(yōu)化、企業(yè)運營決策支持等。
對外提供數(shù)據(jù)服務運營商整合數(shù)據(jù),通過數(shù)據(jù)挖掘脫敏生成結(jié)果數(shù)據(jù)集,提供給企業(yè)客戶,幫助企業(yè)了解用戶,提高競爭力,包括精準廣告、數(shù)據(jù)報告、精準營銷、能力開放和能力租用等。
整體部署架構(gòu):
· 使用mapreduce和spark來進行數(shù)據(jù)的轉(zhuǎn)換和處理;
· 使用hbase來管理海量數(shù)據(jù);
· 使用hive impala kudu等對數(shù)據(jù)進行分析處理;
· 使用flink進行流式處理。
03
基礎(chǔ)運維
包括平臺監(jiān)控、集群巡檢、數(shù)據(jù)備份遷移:hbase數(shù)據(jù)遷移,hive數(shù)據(jù)遷移。
疑難問題解決
· hive canary指標高,hive metastore連接緩慢,元數(shù)據(jù)同步異常,造成任務的失敗,業(yè)務層面無法完成對數(shù)據(jù)的分析,影響數(shù)據(jù)的發(fā)布如月末計費。
· sentry授權(quán)無法同步為hdfs acl權(quán)限,業(yè)務層面每次對表數(shù)據(jù)進行處理時需要重復授權(quán),降低處理的時效性。
· hbase 長時間rit情況,業(yè)務層面hbase表無法訪問,話單表單,實時展示的數(shù)據(jù)延遲。
· ha情況下NAMENODE備節(jié)點無法checkpoint合并元數(shù)據(jù),業(yè)務層面如果namenode的宕機可能導致集群不可用,各類計算都不能正常進行。
· 集群使用cm管理節(jié)點管理集群,運維人員手動通 過cm頁面指標或者后臺指標對集群進行巡檢重復工作,工作效率低
· 集群使用多租戶的方式,cm沒有多租戶的統(tǒng)一管理界面,配置多租戶流程較為復雜重復事情耗時長。
高級調(diào)優(yōu)
· 基準性能指標提取統(tǒng)計:hdfs jmx指標hbase指標,hive線程網(wǎng)絡流量等進行分析,深度優(yōu)化,提高集群的性能。
· 平臺升級/安全加固:平臺從cdh5.9升級到cdh5.14方案確認及實施;平臺各關(guān)鍵組件web界面安全加固方案設(shè)計;
namenode元數(shù)據(jù)遷移方案;數(shù)據(jù)傾斜情況整改方案。
· 集群擴容:集群橫向擴容降低對業(yè)務的影響方案設(shè)計。
· 集群性能調(diào)優(yōu):hbase表數(shù)據(jù),表分布,表數(shù)量,進行整改,降低長時間rit發(fā)生率。
· 關(guān)鍵數(shù)據(jù)匯總及時性提升15% ;
· 集群因惡意攻擊造成重大事故為零;
· 集群及組件健康度顯著提高;
· 因操作失誤造成的生產(chǎn)事故為零;
· 集群穩(wěn)定性顯著提高。
碧茂科技作為專業(yè)大數(shù)據(jù)解決方案服務商,致力于國家數(shù)字化轉(zhuǎn)型戰(zhàn)略。在中科院上海計算技術(shù)研究所的引領(lǐng)下,引進國外先進技術(shù)和行業(yè)解決方案。與Cloudera、華為、星環(huán)等廠商密切合作。為客戶提供從系統(tǒng)架構(gòu)、數(shù)據(jù)治理到人才培養(yǎng),全生命周期的技術(shù)支持,構(gòu)建更穩(wěn)定、更高效、更安全的企業(yè)級大數(shù)據(jù)平臺。
轉(zhuǎn)載自公眾號:碧茂科技2020年12月17日https://mp.weixin.qq.com/s/SxIKjgyMPeiAleCc6khNsA