中文字幕在线观看,亚洲а∨天堂久久精品9966,亚洲成a人片在线观看你懂的,亚洲av成人片无码网站,亚洲国产精品无码久久久五月天

“雙11”背后的 安全運維二三事

2019-12-23    來源:

容器云強勢上線!快速搭建集群,上萬Linux鏡像隨意使用

一年一度的天貓“雙11”不僅交易額每年都實現(xiàn)了快速增長,而且這一特別的節(jié)日也成了新消費力量最好的體現(xiàn)。新的消費人群、新的消費場景和模式,以及新的消費供給,給人們帶來了完全不同的體驗。

在這場規(guī)模龐大的交易盛宴背后,為交易提供支撐的前臺、中臺和后臺,如何在極限的高并發(fā)情況下保持交易系統(tǒng)的高效、穩(wěn)定和可靠?又有多少奮戰(zhàn)在一線的企業(yè)IT管理和運維人員,加班加點,保證業(yè)務(wù)的連續(xù)性?還有多少安全的守護者,為了交易的安全熬紅了雙眼?
 

在“雙11”的熱潮漸漸退卻之時,我們則要逐一揭開“雙11”背后那些不為人知的技術(shù)細節(jié)、運維體驗和安全技巧。



撐得住“雙11”的那朵云


“不是任何一朵云都能撐住像‘雙11’這樣的流量。”阿里巴巴集團CTO、阿里云智能總裁張建鋒表示。
 

2019年天貓“雙11”再次刷新世界紀錄:總成交額2684億元,訂單峰值54.4萬筆/秒,單日數(shù)據(jù)處理量970PB。這是在阿里巴巴核心系統(tǒng)今年已100%上云的情況完成的創(chuàng)紀錄之舉。阿里巴巴這朵云經(jīng)受住了“雙11”這一世界級流量洪峰。
 

用公共云承載一個萬億規(guī)模的核心系統(tǒng),阿里云做到了。可以肯定的是,未來阿里的全部系統(tǒng)都將運行在阿里云上。
 

其實,從去年開始,阿里已經(jīng)決定將整個阿里巴巴的核心系統(tǒng)全部遷移到云上。阿里為什么敢為天下先?首先,阿里云是阿里自己從頭研發(fā)的一朵云,每一行代碼都是自己的,累積、驗證、迭代了十年,這就是大家今天看到的“飛天操作系統(tǒng)”;阿里云將原來專用的技術(shù)變成公共云,所有核心系統(tǒng)都在公共云上,讓所有人都可以來享受普惠的服務(wù)。
 

今年的“雙11”已經(jīng)證明,阿里云100%核心系統(tǒng)上云是成功的。這背后不僅僅是簡單的替換,上云之后,系統(tǒng)整體性能有了非常大的提升。在交易開始的前十分鐘,消費者基本沒有感受到任何抖動,購物非常順暢。這主要得益于阿里云在以下幾方面的優(yōu)化:
 

首先,在核心虛擬機層面,阿里自研的神龍架構(gòu)基于自研的服務(wù)器實現(xiàn)虛擬化,其性能的輸出是穩(wěn)定的、線性的;其次,阿里自研的OceanBase金融級分布式數(shù)據(jù)庫與PolarDB數(shù)據(jù)庫同樣表現(xiàn)優(yōu)異,其每秒峰值遠超原來采用的Oracle傳統(tǒng)數(shù)據(jù)庫;再次,實現(xiàn)計算與存儲的分離,阿里巴巴有一個專門的存儲池,所有數(shù)據(jù)都是從遠端存取,存儲的擴展非常方便;最后,大規(guī)模采用RDMA網(wǎng)絡(luò),保證訪問性能。
 

今年的“雙11“總共處理了970P的數(shù)據(jù)。在每個一個時間點,所處理的工作負載又各不相同,同時還要實現(xiàn)實時處理,難度就更大。阿里采用了分而治之的措施,在零點時,將大部分計算機資源分配給交易等應(yīng)用,在一點之后,則把數(shù)據(jù)分配給數(shù)據(jù)處理系統(tǒng)。
 

今年“雙11”除了數(shù)據(jù)的批處理以外,還有大量的流處理,即實時處理所有數(shù)據(jù),每生成一筆訂單,系統(tǒng)就會自動將數(shù)據(jù)逐層匯集上來。阿里采用的這一流式處理系統(tǒng),每秒能處理25億筆記錄。
 

飛天操作系統(tǒng)能夠在10萬臺級別以上的服務(wù)器中做調(diào)度。管理如此龐大的服務(wù)器,除了飛天操作系統(tǒng)之外,還需要管理所有的消息流轉(zhuǎn)。因此,阿里自研了MQ消息系統(tǒng),這是目前全球最大的一個消息系統(tǒng)。從飛天操作系統(tǒng)、大數(shù)據(jù)處理平臺到智能化應(yīng)用,這些技術(shù)疊加起來,構(gòu)成了一個強大的分布式的云平臺,才掌起了阿里整個經(jīng)濟體的所有核心應(yīng)用。
 

特別值得一提的是,阿里今年發(fā)布了自研的芯片含光800。明年的“雙11”,阿里大量的人工智能應(yīng)用都會跑在自研的芯片之上。
 

硬件、數(shù)據(jù)庫、云計算操作系統(tǒng),再加上核心應(yīng)用平臺,阿里以自研為起點,始終保持快速創(chuàng)新、快速迭代,才能在“雙11”這樣的硬仗面前,游刃有余,從容不迫。
 

騰訊云的兩場“大考”


S9總決賽直播與“雙11”,這是騰訊云要小心應(yīng)對的兩場“大考”。大考,考驗的就是云廠商智能調(diào)度CDN的能力、彈性伸縮的計算能力、支撐海量高并發(fā)的數(shù)據(jù)庫能力,以及技術(shù)保障和護航的能力。
 

今年,騰訊云為S9直播提供了全網(wǎng)90%流量的護航,直播流量承載再創(chuàng)新高;同時,在“雙11”電商大促過程中,騰訊云服務(wù)了國內(nèi)90%的電商企業(yè)。

 

CDN靈活調(diào)度



 

臨近11月10日23點,S9比賽進入最扣人心弦的決勝局。對于“剁手黨”來說,“雙11”大戰(zhàn)即將進入最后的備戰(zhàn)階段。23點左右,騰訊云工程師監(jiān)測到上海某運營商帶寬幾分鐘內(nèi)飆升兩倍,大流量瞬間涌入超出預(yù)期,起因是眾多用戶涌入某平臺觀看S9直播。與此同時,電商平臺的流量隨時可能迎來爆發(fā)。騰訊云的護航工程師按照既定預(yù)案,自動啟動彈性擴容,將部分空閑資源納入調(diào)度,迅速解決問題,保證直播和大促同時順暢進行。
 

23:20,F(xiàn)PX戰(zhàn)隊奪冠,S9直播進入尾聲。騰訊云的第一場“大考”安然度過。此時,一波網(wǎng)友已經(jīng)完成網(wǎng)購,而為慶祝“FPX奪冠”,新的買家涌入電商平臺,新一波流量沖頂。



彈 彈 彈

零點過后,“雙11”流量逐漸回落。當(dāng)11月11日的太陽升起后,新一輪的采購熱潮又起。8點、12點,電商行業(yè)先后迎來流量峰值,就這樣流量一直繼續(xù)增長到11月11日20:00。大約到21:30,“雙11”大促流量頂級峰值到來。22點以后,峰值回落,接近24點,電商平臺再次迎來一次流量小高峰,之后回落。
 

大促流量峰值充滿不確定性,并發(fā)數(shù)是日常流量的數(shù)倍,這將給業(yè)務(wù)系統(tǒng)帶來巨大壓力。騰訊云負載均衡CLB可以實時調(diào)整集群規(guī)模,將流量快速分發(fā)到多臺云主機上,以適應(yīng)促銷流量的增長,甚至無需人工介入。另一方面,騰訊云支持快速創(chuàng)建云主機。比如,騰訊云自研的基于KVM的極速虛擬化技術(shù)方案Havisor,能夠在30ms內(nèi)啟動一臺虛擬機,創(chuàng)造了業(yè)界目前最快啟動一臺虛擬機的記錄。
 

在大促過后,電商業(yè)務(wù)恢復(fù)到正常狀態(tài),不再需要額外的計算資源。騰訊云的彈性擴縮架構(gòu)可以將資源回收,避免產(chǎn)生額外成本。
 

11月12日凌晨兩點,最后幾位護航的騰訊云工程師合上了電腦。騰訊云的第二場“大考”順利結(jié)束。今年“雙11”期間,騰訊云的計算資源較去年同期增長近1.5倍。
 

騰訊云相關(guān)團隊提前一個月就開始調(diào)度資源,協(xié)調(diào)護航人員。在“雙11”大促期間,騰訊云有近200位工程師為客戶護航。

 

直播、大促兩不誤

一位參與多次護航任務(wù)的騰訊云工程師表示,電商大促已經(jīng)進行了很多年,且每年促銷好幾次,騰訊云的服務(wù)完全可以保證用戶在前臺買得熱火朝天,而后臺業(yè)務(wù)風(fēng)平浪靜。
 

一個新的趨勢是,直播和電商的結(jié)合正變得越來越緊密。舉例來說 ,東南亞電商平臺Shopee將國內(nèi)火熱的“直播答題”運用到大促當(dāng)中,在“雙11”期間,Shopee組織了多場直播答題活動,吸引了眾多用戶訪問。在國內(nèi),以蘑菇街為代表的電商平臺積極嘗試“直播電商”,通過網(wǎng)紅帶貨。
 

騰訊云支撐S9頂級流量賽事的直播技術(shù)正在支持越來越多的電商企業(yè)。比如,針對美妝直播場景,騰訊云為客戶提供定制的高碼率視頻流加美顏插件,主播在展示美妝等產(chǎn)品時更容易打動受眾。在電商平臺上,有用手機進行直播的小型場次,也有平臺方請明星用專業(yè)設(shè)備進行大型直播活動,騰訊云通過私有協(xié)議+RTMP標(biāo)準協(xié)議的混合兼容方式,可以靈活應(yīng)對不同的并發(fā)場景和設(shè)備。
 

商家在直播時,可以自動開啟云端錄制、主播手動截流、生成短視頻等功能,通過短視頻的二次傳播,再次導(dǎo)流,從而形成新的流量轉(zhuǎn)化。騰訊云給越來越多具有不同需求的企業(yè)提供可靠支撐,創(chuàng)造增量。
 

5.6億元背后的“中臺”故事


良品鋪子作為國內(nèi)零食類龍頭企業(yè),自2019年初以來業(yè)務(wù)快速增長,在今年“雙11”期間,良品鋪子全渠道銷售額達到5.6億元,相比去年有巨大飛躍。
 

良品鋪子“雙11”領(lǐng)卡會員數(shù)突破1130萬,服務(wù)用戶239萬人。這些數(shù)據(jù)背后,少不了云徙科技的功勞:新一代會員中臺,實現(xiàn)了對全渠道8000萬會員的高效運營與統(tǒng)一管理;利用大數(shù)據(jù)分析能力,從海量會員數(shù)據(jù)中獲取洞察,對復(fù)購意愿強的老顧客實施精準觸達,為預(yù)熱期廣聲量告知、爆發(fā)期全面搶流促轉(zhuǎn)化提供了精細化、全天候的數(shù)字化保障。
 

助力良品鋪子制勝“雙11”的背后,是云徙科技基于中臺架構(gòu)的智能營銷邏輯。
 

云徙基于“業(yè)務(wù)+數(shù)據(jù)”雙中臺核心技術(shù),以及i-CDP全域會員和i-marketing營銷智能兩大產(chǎn)品,幫助良品鋪子升級新一代會員中臺,構(gòu)建“雙11”營銷樞紐。
 

2019年9月,隨著會員中臺的升級,搭乘云徙i-CDP全域會員產(chǎn)品,良品鋪子實現(xiàn)了從各個渠道觸點獲取會員數(shù)據(jù),并對這些海量數(shù)據(jù)進行統(tǒng)一的存儲和管理,打造屬于企業(yè)數(shù)據(jù)“蓄水池”。利用不同的引擎(包括ID、標(biāo)簽、規(guī)則、分析與推薦引擎)進行整合分析,自動為會員貼上標(biāo)簽、建立畫像,便于從數(shù)據(jù)中挖掘信息。在數(shù)據(jù)應(yīng)用層,通過對會員進行人群分類,獲得細分人群的畫像以及行為和營銷數(shù)據(jù)報告,同時可實現(xiàn)客戶的全生命周期管理。
 

在這之上,通過云徙i-marketing營銷智能產(chǎn)品進一步發(fā)揮數(shù)據(jù)的潛能。利用大數(shù)據(jù)分析技術(shù),幫助運營人員優(yōu)化營銷決策,將“雙11”信息精準定向推送給目標(biāo)用戶。
 

基于會員中臺,良品鋪子在“雙11”期間實現(xiàn)了最快1小時內(nèi)完成百萬級營銷策略,全天候響應(yīng)、全場景覆蓋,觸達率高達99.7%。會員中臺的落成,幫助良品鋪子摒棄了傳統(tǒng)的“手動給會員貼標(biāo)簽”的工作模式;跁䥺T中臺,良品鋪子可以實現(xiàn)會員畫像的自動化創(chuàng)建,同時可以快速從其海量會員中篩選出活動的目標(biāo)人群,大大縮短了時間,實現(xiàn)降本提效。
 

通過云徙提供的OneID,可利用圖算法找出分布在不同渠道,如天貓、京東、美團、餓了么等不同會員賬號之間的關(guān)聯(lián)關(guān)系,識別出同一個會員,在“雙11”期間不會對同一會員多次推送活動短信,不會引起會員的反感,在提升品牌認知度的同時也能增加體驗舒適度。
 

從線上到線下,良品鋪子擁有超過50個渠道。過去,多個系統(tǒng)之間的會員數(shù)據(jù)相互割裂,存在信息孤島。會員的積分、卡券等權(quán)益信息不互通,為會員體驗的提升帶來了極大弊端。利用會員中臺,良品鋪子完成了全渠道、多系統(tǒng)間的信息互通,構(gòu)建了統(tǒng)一的會員管理體系,增加了良品鋪子品牌的粉絲粘性。會員中臺將幫助良品鋪子從容應(yīng)對數(shù)字化挑戰(zhàn),決勝新零售時代。
 

前前后后 團隊如何分工協(xié)作


在今年“雙11”期間,除了電商們忙東忙西的促銷活動和徹夜狂歡的買家“剁手黨”,對IT圈來說,恐怕最忙的要屬運維人員了。
 

像“雙11”這樣的典型場景,不僅是對數(shù)據(jù)中心各種設(shè)備的考驗,同時也是對背后技術(shù)服務(wù)及運維人員的挑戰(zhàn)。
 

對此,UCloud“重保”項目組是深有體會,在他們眼中,“雙11”不止是24小時,而是整整籌備了3個月,可謂是歷經(jīng)“上弦月-滿月-下弦月”的3次循環(huán)。
 

這種典型高并發(fā)峰值的業(yè)務(wù),通常面臨性能、鏈路、容量、容災(zāi)、安全等挑戰(zhàn)。“重保”項目組的存在就是為了協(xié)助客戶穩(wěn)定的度過業(yè)務(wù)高峰,他們在其中扮演非常重要的角色。通常來說,為應(yīng)對這種突如其來的高并發(fā)場景,需要在活動的前、中、后期,都要能夠提供包括技術(shù)和人員上的全力支持。
 

在活動前期,銷售人員和服務(wù)經(jīng)理就要深入客戶,了解業(yè)務(wù)特性、活動推廣模式、業(yè)務(wù)QPS等情況,制定雙11大促保障方案,把控全盤。
 

而此時,后端技術(shù)團隊也要相應(yīng)跟進,進行分工協(xié)作。比如,小M同學(xué)負責(zé)數(shù)據(jù)庫風(fēng)險排查、數(shù)據(jù)庫瓶頸分析并輸出優(yōu)化方案,小L同學(xué)負責(zé)NATGW風(fēng)險規(guī)避以及細化監(jiān)控參數(shù),大M同學(xué)負責(zé)資源容量規(guī)劃,Noc團隊負責(zé)資源結(jié)構(gòu)性調(diào)控……
 

此外,技術(shù)服務(wù)專家組全程緊盯雙11期間的“大盤”情況,全力支撐整點秒殺、福袋領(lǐng)取、五折搶購等“巔峰時刻”,為客戶提供強力的后盾。
 

最終,UCloud“重保”項目組保障客戶大促活動圓滿完成。
 

其實不僅是“雙11”活動,新游戲開服、視頻直播、紅包秒搶等等,在一年中客戶經(jīng)常會遇到類似這樣的高并發(fā)場景,在應(yīng)對工作上類似,但也有所區(qū)分。
 

例如,在針對UCloud“重保”項目組遇到的另一個明星線上給用戶派發(fā)紅包活動中,服務(wù)經(jīng)理需要提前與客戶運維團隊溝通紅包活動特性、業(yè)務(wù)需求(峰值、并發(fā)量等)、核實重點資源等,同時結(jié)合歷史活動數(shù)據(jù)、構(gòu)建紅包業(yè)務(wù)增長與資源負載上升的數(shù)據(jù)模型,并且根據(jù)客戶當(dāng)前架構(gòu)制定容災(zāi)調(diào)度預(yù)案。
 

而后端技術(shù)團隊根據(jù)客戶活動期間的流量及負載情況進行相應(yīng)的調(diào)度優(yōu)化,并根據(jù)客戶業(yè)務(wù)狀況和活動規(guī)劃,在活動期間持續(xù)輸出數(shù)據(jù)庫等產(chǎn)品的優(yōu)化建議,全力支撐每一個明星“撒幣”時刻,而流量明星則考驗著IT系統(tǒng)的“流量”極限。
 

技術(shù)服務(wù)團隊則定點定時密切關(guān)注大盤情況,與后端技術(shù)團隊保持聯(lián)動。同時依據(jù)活動期間每日發(fā)生的問題、資源使用情況等信息進行相應(yīng)梳理并提供業(yè)務(wù)日報。
 

就是這樣,UCloud重保項目組幫助客戶一次次平穩(wěn)度過了流量“巔峰”,在完成客戶托付的同時, UCloud重保項目組也一次次在挑戰(zhàn)中得到成長。

高并發(fā)之下的安全挑戰(zhàn)


今年的“雙11”交易量再創(chuàng)新高,在商家與消費者狂歡的背后,是一群又一群安全運維人員的默默付出。
 

交易量的節(jié)節(jié)攀升也意味著網(wǎng)絡(luò)流量的倍增,特別是在今年的活動期間,單就天貓零點訂單峰值就達到54.4萬筆/秒。這是商家之“幸”,但卻讓安全運維人員“戰(zhàn)戰(zhàn)兢兢”。
 

對技術(shù)人員來說,首當(dāng)其沖的問題是如何應(yīng)對高并發(fā)訪問、高頻交易、安全攻擊帶來的種種挑戰(zhàn)。
 

從消費者購物的整個環(huán)節(jié)來看,消費者不僅僅是訪問電商平臺,其所做的查詢、交易等,同時也涉及電商平臺所對接的物流系統(tǒng)、保險公司、支付系統(tǒng)、庫存系統(tǒng)等的關(guān)聯(lián)平臺。而這些平臺背后都面臨這些挑戰(zhàn)。F5中國區(qū)技術(shù)總監(jiān)陳亮詳細分析了這些挑戰(zhàn)。
 

首先是高并發(fā)量,客戶需要思考其架構(gòu)是否有彈性,擁有可拓展空間或彈性拓展手段。
 

二是在交易穩(wěn)定性方面,系統(tǒng)不穩(wěn)定將會影響交易過程,甚至導(dǎo)致交易失敗,因此客戶需要考慮其現(xiàn)有IT架構(gòu)的可靠性。
 

三是交易時延,交易時延會導(dǎo)致用戶打不開頁面,亦或造成交易失敗等,也會給用戶體驗帶來負面影響。
 

最后是交易安全,消費者希望敏感信息不被竊取,企業(yè)面臨薅羊毛等惡意行為,所以企業(yè)需考慮現(xiàn)有IT架構(gòu)是否可阻擋混雜在正常交易中的安全攻擊行為。
 

以上挑戰(zhàn)使得企業(yè)的IT建設(shè)向以下趨勢發(fā)展:
 

一是資源池化,即資源管理。資源的池化可有效應(yīng)對用戶的彈性可拓展需求。
 

二是云化,并確保在多云環(huán)境下的一致性。
 

三是安全保障。比如在秒殺等促銷活動時,確保有效客戶公平競爭,而非機器人等惡意資源占用。還應(yīng)考慮動態(tài)的安全策略調(diào)整機制,以實現(xiàn)基于流程和業(yè)務(wù)的安全防范。
 

四是可視化(網(wǎng)絡(luò)層和應(yīng)用層)。最終用戶的可視化信息如果可及時反饋給IT,則可以給資源分配、用戶行為的分析、動態(tài)的策略調(diào)整帶來幫助。同時,通過可視化,也可以在第一時間幫助業(yè)務(wù)部門了解日活/月活用戶數(shù)量,訪問者歸屬地,訪問體驗等情況。
 

其實“雙11”只是高并發(fā)的一個特殊案例。在陳亮看來,如今并不局限于電商行業(yè),各行各業(yè)都會出現(xiàn)借助熱點事件,通過互聯(lián)網(wǎng)發(fā)布新的業(yè)務(wù),進行促銷的活動。在這期間,各行各業(yè)都將面臨應(yīng)用安全和流量激增的挑戰(zhàn)。
 

F5正在致力于從企業(yè)的應(yīng)用代碼到最終用戶的全路徑應(yīng)用敏捷交付與應(yīng)用安全可靠保證,并從以下三個方面保障客戶安全:
 

在客戶層面的可信任訪問控制上,對終端及身份識別來判斷客戶可信度;完善基礎(chǔ)架構(gòu)設(shè)施層面包括邊界安全、域名安全、加密流量編排等措施;通過部署WAF、安全API等來保障應(yīng)用層面的安全。
 

此外,F(xiàn)5還提供基于機器學(xué)習(xí),用戶行為分析等手段,阻斷惡意機器人的訪問。


“超級大腦”保障海外包裹快速過檢


據(jù)調(diào)查,2016年-2019年前三季度,四線-六線城市進口品牌下單量占比增速高于一線-三線城市。小鎮(zhèn)青年在進口品牌商品的下單金額、下單用戶數(shù)的同比增幅分別高達65%、60%。
 

在這股熱情的帶動下,各電商今年“雙11”海淘戰(zhàn)場的拼殺更加白熱化,隨之而來的是海關(guān)監(jiān)管業(yè)務(wù)量全面爆發(fā),通關(guān)速度成為了海淘體驗是否順暢的“試金石”。
 

海關(guān)處理海淘包裹的速度有多快?每小時處理上千件跨境電商包裹,大部分包裹最快僅需十幾秒就完成通關(guān),無征稅的包裹6秒通關(guān)驗放,且絕大多數(shù)包裹無需拆箱。 這背后,有顆“超級大腦”的支撐。
 

通過可視化分析,海關(guān)在快件實際運抵前就完成了篩查和評估,預(yù)先精準鎖定高風(fēng)險的“目標(biāo)”,絕大部分守法合規(guī)的低風(fēng)險快件、直購電商被“超級大腦”判斷后直接“讀秒放行”。不僅提高了通關(guān)效率,也提升了海關(guān)監(jiān)管和風(fēng)險防控的準確性。
 

“超級大腦”其實是一個多方數(shù)據(jù)共享,互聯(lián)互通的海關(guān)大數(shù)據(jù)平臺,驅(qū)動海關(guān)、監(jiān)管、征稅、查私和編制海關(guān)統(tǒng)計智能化和自動化的處理,除了要支撐現(xiàn)有業(yè)務(wù)系統(tǒng)外,還必須能夠盤活海關(guān)數(shù)據(jù)資產(chǎn)。而建設(shè)這樣一個平臺,要進行數(shù)據(jù)采集、數(shù)據(jù)管理、數(shù)據(jù)建模、數(shù)據(jù)分析、數(shù)據(jù)可視化幾個步驟,必定需要強有力的IT基礎(chǔ)支撐。對服務(wù)器來說,不僅需要具備強大的單機處理能力,更要具備良好的可靠性和穩(wěn)定性。
 

為保障“超級大腦”不間斷、快速的計算力需求,浪潮為海關(guān)總署提供了以雙路服務(wù)器NF5280M5為核心的解決方案。其采用了不同層次的高可用技術(shù),例如豐富的硬盤RAID機制,內(nèi)存的熱備、鏡像、糾錯,以及電源風(fēng)扇的冗余熱插拔設(shè)計,具備了完善的軟硬件錯誤容忍能力。以內(nèi)存智能管理技術(shù)為例,在系統(tǒng)啟動前會對內(nèi)存進行診斷,錯誤或有隱患單元會被移出可用區(qū)域,在系統(tǒng)運行過程中實時對內(nèi)存進行監(jiān)控,處理錯誤或隱患,內(nèi)存錯誤檢測處理精度可達Bit級別,內(nèi)存錯誤引發(fā)的故障降低90%以上。
 

同時,靈活的擴展性也可圈可點。在不影響平臺正常使用情況下,海關(guān)大數(shù)據(jù)平臺可以隨用戶數(shù)據(jù)規(guī)模的擴大或功能的完善進行擴容,滿足未來幾年業(yè)務(wù)發(fā)展需求。
 

依托浪潮服務(wù)器打造的大數(shù)據(jù)平臺,海關(guān)總署的數(shù)據(jù)處理能力大幅提升,還可以兼容不同類型的數(shù)據(jù)庫,動態(tài)選擇合適的數(shù)據(jù)源和計算引擎執(zhí)行查詢請求,性能提升3倍以上,有效降低客戶的運維成本。
 

大數(shù)據(jù)平臺還實現(xiàn)了對海關(guān)數(shù)據(jù)的大集中,不僅有效解決了資源利用率低、響應(yīng)效率低、業(yè)務(wù)連續(xù)性低等問題,也為推動口岸各部門信息共享,準確核查企業(yè)進出口申報的真實性,有效改善進出口貿(mào)易秩序,實現(xiàn)全國通關(guān)一體化奠定了基礎(chǔ)。
 

良好用戶體驗的背后是高可靠產(chǎn)品品質(zhì)保障


隨著電商行業(yè)競爭的加劇,追求更好的用戶體驗成為各大電商努力的目標(biāo),而在這兩年的發(fā)展趨勢中尤為如此,這樣的趨勢也加快了實體商店、線上渠道和配送中心對云、物聯(lián)網(wǎng)及大數(shù)據(jù)的使用進程。
 

“雙11”活動證明了這一趨勢的正確性,就在幾年前,商家網(wǎng)站和數(shù)據(jù)中心因“雙11”期間超高的流量峰值而宕機的場景還歷歷在目,由此帶來的用戶體驗給商家?guī)砹瞬恍〉膿p失。
 

在此背景下,對技術(shù)的投入和重視成為零售商力圖擊敗競爭對手的有力手段。但根據(jù)維諦技術(shù)(Vertiv)在2018年的調(diào)查報告顯示,在應(yīng)用新技術(shù)與實際操作相結(jié)合來實現(xiàn)更完善的客戶體驗方面,仍有四分之一的零售商處于滯后狀態(tài)。
 

現(xiàn)實狀況與期待目標(biāo)仍有較大差距,這也意味著在接下來的幾年中,對技術(shù)及相關(guān)設(shè)備的投入將會增加,該調(diào)查顯示,用于線上零售的數(shù)據(jù)中心空間(包括本地部署空間和主機托管空間)預(yù)計將增加20%。同時,為支撐實體店應(yīng)用程序的使用情況,云托管數(shù)量也將增加33%。
 

技術(shù)的增持也將改變零售業(yè)當(dāng)前的某些現(xiàn)狀,零售商也必將加速調(diào)整其運營方式。為了支持這種轉(zhuǎn)變,零售商正在采用全新的物理基礎(chǔ)設(shè)施,這些基礎(chǔ)設(shè)施的可靠性更高,并且易于快速部署。這些基于標(biāo)準化、模塊化設(shè)計的技術(shù),具備可擴容性和前沿科技適用性。只有具備安全穩(wěn)定且高可靠的產(chǎn)品品質(zhì),才能有效應(yīng)對各種復(fù)雜多變的交易場景,才能給用戶一個完美的購物體驗。
 

“雙11”活動正是在這種場景下的重要戰(zhàn)場,提升客戶基礎(chǔ)設(shè)施的可用性、容量和效率是維諦技術(shù)歷來的目標(biāo)。
 

其中,在阿里巴巴、京東部署的多個核心數(shù)據(jù)中心中,就是通過應(yīng)用維諦技術(shù)(Vertiv)的產(chǎn)品方案,以保障數(shù)據(jù)中心的穩(wěn)定運行,尤其是在“雙11”期間的高并發(fā)流量時刻,維諦技術(shù)在可靠性、可擴展性、快速部署等方面,確?蛻魯(shù)據(jù)中心安全穩(wěn)定運行,輕松幫助客戶應(yīng)對數(shù)據(jù)洪峰的沖擊。
 

為“雙11”保駕護航的幕后


如今,“雙11”已成為一年一度的全民購物節(jié),各大商家摩拳擦掌,絞盡腦汁來吸引消費者,得益于消費者超強的購買力,各電商的銷售額屢破記錄,為這場全民狂歡節(jié)保駕護航的幕后,運維保障人員同樣功不可沒。
 

眾所周知,“雙11”是一個高并發(fā)的應(yīng)用場景,每秒鐘千萬級的訪問量、幾十萬次的交易量極易導(dǎo)致服務(wù)器崩潰,一旦無法訪問,必然影響到客戶體驗。因此數(shù)據(jù)中心的保障變得尤為重要、刻不容緩,往往一個細小的失誤,都將造成重大損失。
 

作為一名運維老將,萬國數(shù)據(jù)已連續(xù)多年參與“雙11”運維保障工作,成功幫助客戶平穩(wěn)度過“雙11”。
 

為保障“雙11”的順利進行,萬國數(shù)據(jù)提前擬定了詳盡的預(yù)案,協(xié)助網(wǎng)絡(luò)運營商完成重保期間通信網(wǎng)絡(luò)的運行保障工作和應(yīng)急響應(yīng)制度,并完成了全面的設(shè)備系統(tǒng)維護、服務(wù)商備件存儲情況檢查,做到有備無患。
 

在數(shù)據(jù)中心的出入口,萬國數(shù)據(jù)調(diào)動了高級別的安保資源,在人員把控層面上確保重要設(shè)備的安全性,并禁止所有網(wǎng)絡(luò)和物理線路的變更及施工。
 

緊急供水車和應(yīng)急柴油車在現(xiàn)場待命,保證在市政供電供水出現(xiàn)問題情況下有充足的后備時間,同時可以在區(qū)域內(nèi)靈活調(diào)配柴油和水資源,能迅速提供應(yīng)急保障。
 

消防方面的應(yīng)急設(shè)備同樣必不可少,以確保在火災(zāi)風(fēng)險出現(xiàn)時,能迅速啟動消防應(yīng)急預(yù)案,做到萬無一失。
 

此外,對數(shù)據(jù)中心機房環(huán)境,溫度、濕度是否正常,空調(diào)、供電系統(tǒng)是否運行良好,地板、天窗、消防、監(jiān)控等都逐項做了檢查準備,力保“雙11”期間正常運行。
 

客服團隊嚴陣以待,隨時準備接待每一位客戶。工程師團隊也全部就位,做好遠程協(xié)助服務(wù)響應(yīng),保障客戶IT設(shè)備的運行穩(wěn)定。聯(lián)同設(shè)備服務(wù)商工程師駐場待命,提供緊急現(xiàn)場支持,以便出現(xiàn)故障時,和工程師團隊共同處理,減少中間的溝通環(huán)節(jié),縮短故障處理時間。
 

“雙11”0點的在線交易速度和體驗直接影響到商家的銷售量和平臺的口碑,在這種“人滿為患”的時間,龐大的商家業(yè)務(wù)背后是高達幾千G的峰值流量。為保障網(wǎng)絡(luò)的正常,通過網(wǎng)絡(luò)監(jiān)控及協(xié)同網(wǎng)絡(luò)運營商完成重保期間通信網(wǎng)絡(luò)的運行保障工作和應(yīng)急響應(yīng)制度。
 

對于值得關(guān)注的重要事件,工程師進行密切協(xié)同,根據(jù)預(yù)案進行快速行動,讓一次次可能會擴散的風(fēng)險消弭于無形。
 

從機房基礎(chǔ)設(shè)施、電源動力、互聯(lián)網(wǎng)出口、網(wǎng)絡(luò)安全、光纜保障等方面,期間不間斷的看護和守候,為客戶提供了堅實的后勤保障,全力確保 “雙11”活動順利進行。
 

“雙11”促銷狂潮帶來的流量壓力一波波涌來,得益于準備充分、應(yīng)急措施得當(dāng),萬國數(shù)據(jù)運營的數(shù)據(jù)中心成功應(yīng)對了“雙11”考驗,沒有出現(xiàn)任何一起安全事故,客戶的各項業(yè)務(wù)得以可靠有效地運行。


標(biāo)簽: 雙11 安全運維 

版權(quán)申明:本站文章部分自網(wǎng)絡(luò),如有侵權(quán),請聯(lián)系:west999com@outlook.com
特別注意:本站所有轉(zhuǎn)載文章言論不代表本站觀點!
本站所提供的圖片等素材,版權(quán)歸原作者所有,如需使用,請與原作者聯(lián)系。

上一篇:【2019IT運維十大樣板工程】山東省城市商業(yè)銀行合作聯(lián)盟 BPC業(yè)務(wù)性能監(jiān)控項目

下一篇:Vicor 將在開放式數(shù)據(jù)中心委員會峰會上展示其最新 48V 電源模塊創(chuàng)新技術(shù)