中文字幕在线观看,亚洲а∨天堂久久精品9966,亚洲成a人片在线观看你懂的,亚洲av成人片无码网站,亚洲国产精品无码久久久五月天

“雙11”背后的 安全運維二三事

2019-12-23    來源:

容器云強勢上線!快速搭建集群,上萬Linux鏡像隨意使用

一年一度的天貓“雙11”不僅交易額每年都實現了快速增長,而且這一特別的節(jié)日也成了新消費力量最好的體現。新的消費人群、新的消費場景和模式,以及新的消費供給,給人們帶來了完全不同的體驗。

在這場規(guī)模龐大的交易盛宴背后,為交易提供支撐的前臺、中臺和后臺,如何在極限的高并發(fā)情況下保持交易系統(tǒng)的高效、穩(wěn)定和可靠?又有多少奮戰(zhàn)在一線的企業(yè)IT管理和運維人員,加班加點,保證業(yè)務的連續(xù)性?還有多少安全的守護者,為了交易的安全熬紅了雙眼?
 

在“雙11”的熱潮漸漸退卻之時,我們則要逐一揭開“雙11”背后那些不為人知的技術細節(jié)、運維體驗和安全技巧。



撐得住“雙11”的那朵云


“不是任何一朵云都能撐住像‘雙11’這樣的流量。”阿里巴巴集團CTO、阿里云智能總裁張建鋒表示。
 

2019年天貓“雙11”再次刷新世界紀錄:總成交額2684億元,訂單峰值54.4萬筆/秒,單日數據處理量970PB。這是在阿里巴巴核心系統(tǒng)今年已100%上云的情況完成的創(chuàng)紀錄之舉。阿里巴巴這朵云經受住了“雙11”這一世界級流量洪峰。
 

用公共云承載一個萬億規(guī)模的核心系統(tǒng),阿里云做到了。可以肯定的是,未來阿里的全部系統(tǒng)都將運行在阿里云上。
 

其實,從去年開始,阿里已經決定將整個阿里巴巴的核心系統(tǒng)全部遷移到云上。阿里為什么敢為天下先?首先,阿里云是阿里自己從頭研發(fā)的一朵云,每一行代碼都是自己的,累積、驗證、迭代了十年,這就是大家今天看到的“飛天操作系統(tǒng)”;阿里云將原來專用的技術變成公共云,所有核心系統(tǒng)都在公共云上,讓所有人都可以來享受普惠的服務。
 

今年的“雙11”已經證明,阿里云100%核心系統(tǒng)上云是成功的。這背后不僅僅是簡單的替換,上云之后,系統(tǒng)整體性能有了非常大的提升。在交易開始的前十分鐘,消費者基本沒有感受到任何抖動,購物非常順暢。這主要得益于阿里云在以下幾方面的優(yōu)化:
 

首先,在核心虛擬機層面,阿里自研的神龍架構基于自研的服務器實現虛擬化,其性能的輸出是穩(wěn)定的、線性的;其次,阿里自研的OceanBase金融級分布式數據庫與PolarDB數據庫同樣表現優(yōu)異,其每秒峰值遠超原來采用的Oracle傳統(tǒng)數據庫;再次,實現計算與存儲的分離,阿里巴巴有一個專門的存儲池,所有數據都是從遠端存取,存儲的擴展非常方便;最后,大規(guī)模采用RDMA網絡,保證訪問性能。
 

今年的“雙11“總共處理了970P的數據。在每個一個時間點,所處理的工作負載又各不相同,同時還要實現實時處理,難度就更大。阿里采用了分而治之的措施,在零點時,將大部分計算機資源分配給交易等應用,在一點之后,則把數據分配給數據處理系統(tǒng)。
 

今年“雙11”除了數據的批處理以外,還有大量的流處理,即實時處理所有數據,每生成一筆訂單,系統(tǒng)就會自動將數據逐層匯集上來。阿里采用的這一流式處理系統(tǒng),每秒能處理25億筆記錄。
 

飛天操作系統(tǒng)能夠在10萬臺級別以上的服務器中做調度。管理如此龐大的服務器,除了飛天操作系統(tǒng)之外,還需要管理所有的消息流轉。因此,阿里自研了MQ消息系統(tǒng),這是目前全球最大的一個消息系統(tǒng)。從飛天操作系統(tǒng)、大數據處理平臺到智能化應用,這些技術疊加起來,構成了一個強大的分布式的云平臺,才掌起了阿里整個經濟體的所有核心應用。
 

特別值得一提的是,阿里今年發(fā)布了自研的芯片含光800。明年的“雙11”,阿里大量的人工智能應用都會跑在自研的芯片之上。
 

硬件、數據庫、云計算操作系統(tǒng),再加上核心應用平臺,阿里以自研為起點,始終保持快速創(chuàng)新、快速迭代,才能在“雙11”這樣的硬仗面前,游刃有余,從容不迫。
 

騰訊云的兩場“大考”


S9總決賽直播與“雙11”,這是騰訊云要小心應對的兩場“大考”。大考,考驗的就是云廠商智能調度CDN的能力、彈性伸縮的計算能力、支撐海量高并發(fā)的數據庫能力,以及技術保障和護航的能力。
 

今年,騰訊云為S9直播提供了全網90%流量的護航,直播流量承載再創(chuàng)新高;同時,在“雙11”電商大促過程中,騰訊云服務了國內90%的電商企業(yè)。

 

CDN靈活調度



 

臨近11月10日23點,S9比賽進入最扣人心弦的決勝局。對于“剁手黨”來說,“雙11”大戰(zhàn)即將進入最后的備戰(zhàn)階段。23點左右,騰訊云工程師監(jiān)測到上海某運營商帶寬幾分鐘內飆升兩倍,大流量瞬間涌入超出預期,起因是眾多用戶涌入某平臺觀看S9直播。與此同時,電商平臺的流量隨時可能迎來爆發(fā)。騰訊云的護航工程師按照既定預案,自動啟動彈性擴容,將部分空閑資源納入調度,迅速解決問題,保證直播和大促同時順暢進行。
 

23:20,FPX戰(zhàn)隊奪冠,S9直播進入尾聲。騰訊云的第一場“大考”安然度過。此時,一波網友已經完成網購,而為慶祝“FPX奪冠”,新的買家涌入電商平臺,新一波流量沖頂。



彈 彈 彈

零點過后,“雙11”流量逐漸回落。當11月11日的太陽升起后,新一輪的采購熱潮又起。8點、12點,電商行業(yè)先后迎來流量峰值,就這樣流量一直繼續(xù)增長到11月11日20:00。大約到21:30,“雙11”大促流量頂級峰值到來。22點以后,峰值回落,接近24點,電商平臺再次迎來一次流量小高峰,之后回落。
 

大促流量峰值充滿不確定性,并發(fā)數是日常流量的數倍,這將給業(yè)務系統(tǒng)帶來巨大壓力。騰訊云負載均衡CLB可以實時調整集群規(guī)模,將流量快速分發(fā)到多臺云主機上,以適應促銷流量的增長,甚至無需人工介入。另一方面,騰訊云支持快速創(chuàng)建云主機。比如,騰訊云自研的基于KVM的極速虛擬化技術方案Havisor,能夠在30ms內啟動一臺虛擬機,創(chuàng)造了業(yè)界目前最快啟動一臺虛擬機的記錄。
 

在大促過后,電商業(yè)務恢復到正常狀態(tài),不再需要額外的計算資源。騰訊云的彈性擴縮架構可以將資源回收,避免產生額外成本。
 

11月12日凌晨兩點,最后幾位護航的騰訊云工程師合上了電腦。騰訊云的第二場“大考”順利結束。今年“雙11”期間,騰訊云的計算資源較去年同期增長近1.5倍。
 

騰訊云相關團隊提前一個月就開始調度資源,協(xié)調護航人員。在“雙11”大促期間,騰訊云有近200位工程師為客戶護航。

 

直播、大促兩不誤

一位參與多次護航任務的騰訊云工程師表示,電商大促已經進行了很多年,且每年促銷好幾次,騰訊云的服務完全可以保證用戶在前臺買得熱火朝天,而后臺業(yè)務風平浪靜。
 

一個新的趨勢是,直播和電商的結合正變得越來越緊密。舉例來說 ,東南亞電商平臺Shopee將國內火熱的“直播答題”運用到大促當中,在“雙11”期間,Shopee組織了多場直播答題活動,吸引了眾多用戶訪問。在國內,以蘑菇街為代表的電商平臺積極嘗試“直播電商”,通過網紅帶貨。
 

騰訊云支撐S9頂級流量賽事的直播技術正在支持越來越多的電商企業(yè)。比如,針對美妝直播場景,騰訊云為客戶提供定制的高碼率視頻流加美顏插件,主播在展示美妝等產品時更容易打動受眾。在電商平臺上,有用手機進行直播的小型場次,也有平臺方請明星用專業(yè)設備進行大型直播活動,騰訊云通過私有協(xié)議+RTMP標準協(xié)議的混合兼容方式,可以靈活應對不同的并發(fā)場景和設備。
 

商家在直播時,可以自動開啟云端錄制、主播手動截流、生成短視頻等功能,通過短視頻的二次傳播,再次導流,從而形成新的流量轉化。騰訊云給越來越多具有不同需求的企業(yè)提供可靠支撐,創(chuàng)造增量。
 

5.6億元背后的“中臺”故事


良品鋪子作為國內零食類龍頭企業(yè),自2019年初以來業(yè)務快速增長,在今年“雙11”期間,良品鋪子全渠道銷售額達到5.6億元,相比去年有巨大飛躍。
 

良品鋪子“雙11”領卡會員數突破1130萬,服務用戶239萬人。這些數據背后,少不了云徙科技的功勞:新一代會員中臺,實現了對全渠道8000萬會員的高效運營與統(tǒng)一管理;利用大數據分析能力,從海量會員數據中獲取洞察,對復購意愿強的老顧客實施精準觸達,為預熱期廣聲量告知、爆發(fā)期全面搶流促轉化提供了精細化、全天候的數字化保障。
 

助力良品鋪子制勝“雙11”的背后,是云徙科技基于中臺架構的智能營銷邏輯。
 

云徙基于“業(yè)務+數據”雙中臺核心技術,以及i-CDP全域會員和i-marketing營銷智能兩大產品,幫助良品鋪子升級新一代會員中臺,構建“雙11”營銷樞紐。
 

2019年9月,隨著會員中臺的升級,搭乘云徙i-CDP全域會員產品,良品鋪子實現了從各個渠道觸點獲取會員數據,并對這些海量數據進行統(tǒng)一的存儲和管理,打造屬于企業(yè)數據“蓄水池”。利用不同的引擎(包括ID、標簽、規(guī)則、分析與推薦引擎)進行整合分析,自動為會員貼上標簽、建立畫像,便于從數據中挖掘信息。在數據應用層,通過對會員進行人群分類,獲得細分人群的畫像以及行為和營銷數據報告,同時可實現客戶的全生命周期管理。
 

在這之上,通過云徙i-marketing營銷智能產品進一步發(fā)揮數據的潛能。利用大數據分析技術,幫助運營人員優(yōu)化營銷決策,將“雙11”信息精準定向推送給目標用戶。
 

基于會員中臺,良品鋪子在“雙11”期間實現了最快1小時內完成百萬級營銷策略,全天候響應、全場景覆蓋,觸達率高達99.7%。會員中臺的落成,幫助良品鋪子摒棄了傳統(tǒng)的“手動給會員貼標簽”的工作模式;跁䥺T中臺,良品鋪子可以實現會員畫像的自動化創(chuàng)建,同時可以快速從其海量會員中篩選出活動的目標人群,大大縮短了時間,實現降本提效。
 

通過云徙提供的OneID,可利用圖算法找出分布在不同渠道,如天貓、京東、美團、餓了么等不同會員賬號之間的關聯關系,識別出同一個會員,在“雙11”期間不會對同一會員多次推送活動短信,不會引起會員的反感,在提升品牌認知度的同時也能增加體驗舒適度。
 

從線上到線下,良品鋪子擁有超過50個渠道。過去,多個系統(tǒng)之間的會員數據相互割裂,存在信息孤島。會員的積分、卡券等權益信息不互通,為會員體驗的提升帶來了極大弊端。利用會員中臺,良品鋪子完成了全渠道、多系統(tǒng)間的信息互通,構建了統(tǒng)一的會員管理體系,增加了良品鋪子品牌的粉絲粘性。會員中臺將幫助良品鋪子從容應對數字化挑戰(zhàn),決勝新零售時代。
 

前前后后 團隊如何分工協(xié)作


在今年“雙11”期間,除了電商們忙東忙西的促銷活動和徹夜狂歡的買家“剁手黨”,對IT圈來說,恐怕最忙的要屬運維人員了。
 

像“雙11”這樣的典型場景,不僅是對數據中心各種設備的考驗,同時也是對背后技術服務及運維人員的挑戰(zhàn)。
 

對此,UCloud“重保”項目組是深有體會,在他們眼中,“雙11”不止是24小時,而是整整籌備了3個月,可謂是歷經“上弦月-滿月-下弦月”的3次循環(huán)。
 

這種典型高并發(fā)峰值的業(yè)務,通常面臨性能、鏈路、容量、容災、安全等挑戰(zhàn)。“重保”項目組的存在就是為了協(xié)助客戶穩(wěn)定的度過業(yè)務高峰,他們在其中扮演非常重要的角色。通常來說,為應對這種突如其來的高并發(fā)場景,需要在活動的前、中、后期,都要能夠提供包括技術和人員上的全力支持。
 

在活動前期,銷售人員和服務經理就要深入客戶,了解業(yè)務特性、活動推廣模式、業(yè)務QPS等情況,制定雙11大促保障方案,把控全盤。
 

而此時,后端技術團隊也要相應跟進,進行分工協(xié)作。比如,小M同學負責數據庫風險排查、數據庫瓶頸分析并輸出優(yōu)化方案,小L同學負責NATGW風險規(guī)避以及細化監(jiān)控參數,大M同學負責資源容量規(guī)劃,Noc團隊負責資源結構性調控……
 

此外,技術服務專家組全程緊盯雙11期間的“大盤”情況,全力支撐整點秒殺、福袋領取、五折搶購等“巔峰時刻”,為客戶提供強力的后盾。
 

最終,UCloud“重保”項目組保障客戶大促活動圓滿完成。
 

其實不僅是“雙11”活動,新游戲開服、視頻直播、紅包秒搶等等,在一年中客戶經常會遇到類似這樣的高并發(fā)場景,在應對工作上類似,但也有所區(qū)分。
 

例如,在針對UCloud“重保”項目組遇到的另一個明星線上給用戶派發(fā)紅包活動中,服務經理需要提前與客戶運維團隊溝通紅包活動特性、業(yè)務需求(峰值、并發(fā)量等)、核實重點資源等,同時結合歷史活動數據、構建紅包業(yè)務增長與資源負載上升的數據模型,并且根據客戶當前架構制定容災調度預案。
 

而后端技術團隊根據客戶活動期間的流量及負載情況進行相應的調度優(yōu)化,并根據客戶業(yè)務狀況和活動規(guī)劃,在活動期間持續(xù)輸出數據庫等產品的優(yōu)化建議,全力支撐每一個明星“撒幣”時刻,而流量明星則考驗著IT系統(tǒng)的“流量”極限。
 

技術服務團隊則定點定時密切關注大盤情況,與后端技術團隊保持聯動。同時依據活動期間每日發(fā)生的問題、資源使用情況等信息進行相應梳理并提供業(yè)務日報。
 

就是這樣,UCloud重保項目組幫助客戶一次次平穩(wěn)度過了流量“巔峰”,在完成客戶托付的同時, UCloud重保項目組也一次次在挑戰(zhàn)中得到成長。

高并發(fā)之下的安全挑戰(zhàn)


今年的“雙11”交易量再創(chuàng)新高,在商家與消費者狂歡的背后,是一群又一群安全運維人員的默默付出。
 

交易量的節(jié)節(jié)攀升也意味著網絡流量的倍增,特別是在今年的活動期間,單就天貓零點訂單峰值就達到54.4萬筆/秒。這是商家之“幸”,但卻讓安全運維人員“戰(zhàn)戰(zhàn)兢兢”。
 

對技術人員來說,首當其沖的問題是如何應對高并發(fā)訪問、高頻交易、安全攻擊帶來的種種挑戰(zhàn)。
 

從消費者購物的整個環(huán)節(jié)來看,消費者不僅僅是訪問電商平臺,其所做的查詢、交易等,同時也涉及電商平臺所對接的物流系統(tǒng)、保險公司、支付系統(tǒng)、庫存系統(tǒng)等的關聯平臺。而這些平臺背后都面臨這些挑戰(zhàn)。F5中國區(qū)技術總監(jiān)陳亮詳細分析了這些挑戰(zhàn)。
 

首先是高并發(fā)量,客戶需要思考其架構是否有彈性,擁有可拓展空間或彈性拓展手段。
 

二是在交易穩(wěn)定性方面,系統(tǒng)不穩(wěn)定將會影響交易過程,甚至導致交易失敗,因此客戶需要考慮其現有IT架構的可靠性。
 

三是交易時延,交易時延會導致用戶打不開頁面,亦或造成交易失敗等,也會給用戶體驗帶來負面影響。
 

最后是交易安全,消費者希望敏感信息不被竊取,企業(yè)面臨薅羊毛等惡意行為,所以企業(yè)需考慮現有IT架構是否可阻擋混雜在正常交易中的安全攻擊行為。
 

以上挑戰(zhàn)使得企業(yè)的IT建設向以下趨勢發(fā)展:
 

一是資源池化,即資源管理。資源的池化可有效應對用戶的彈性可拓展需求。
 

二是云化,并確保在多云環(huán)境下的一致性。
 

三是安全保障。比如在秒殺等促銷活動時,確保有效客戶公平競爭,而非機器人等惡意資源占用。還應考慮動態(tài)的安全策略調整機制,以實現基于流程和業(yè)務的安全防范。
 

四是可視化(網絡層和應用層)。最終用戶的可視化信息如果可及時反饋給IT,則可以給資源分配、用戶行為的分析、動態(tài)的策略調整帶來幫助。同時,通過可視化,也可以在第一時間幫助業(yè)務部門了解日活/月活用戶數量,訪問者歸屬地,訪問體驗等情況。
 

其實“雙11”只是高并發(fā)的一個特殊案例。在陳亮看來,如今并不局限于電商行業(yè),各行各業(yè)都會出現借助熱點事件,通過互聯網發(fā)布新的業(yè)務,進行促銷的活動。在這期間,各行各業(yè)都將面臨應用安全和流量激增的挑戰(zhàn)。
 

F5正在致力于從企業(yè)的應用代碼到最終用戶的全路徑應用敏捷交付與應用安全可靠保證,并從以下三個方面保障客戶安全:
 

在客戶層面的可信任訪問控制上,對終端及身份識別來判斷客戶可信度;完善基礎架構設施層面包括邊界安全、域名安全、加密流量編排等措施;通過部署WAF、安全API等來保障應用層面的安全。
 

此外,F5還提供基于機器學習,用戶行為分析等手段,阻斷惡意機器人的訪問。


“超級大腦”保障海外包裹快速過檢


據調查,2016年-2019年前三季度,四線-六線城市進口品牌下單量占比增速高于一線-三線城市。小鎮(zhèn)青年在進口品牌商品的下單金額、下單用戶數的同比增幅分別高達65%、60%。
 

在這股熱情的帶動下,各電商今年“雙11”海淘戰(zhàn)場的拼殺更加白熱化,隨之而來的是海關監(jiān)管業(yè)務量全面爆發(fā),通關速度成為了海淘體驗是否順暢的“試金石”。
 

海關處理海淘包裹的速度有多快?每小時處理上千件跨境電商包裹,大部分包裹最快僅需十幾秒就完成通關,無征稅的包裹6秒通關驗放,且絕大多數包裹無需拆箱。 這背后,有顆“超級大腦”的支撐。
 

通過可視化分析,海關在快件實際運抵前就完成了篩查和評估,預先精準鎖定高風險的“目標”,絕大部分守法合規(guī)的低風險快件、直購電商被“超級大腦”判斷后直接“讀秒放行”。不僅提高了通關效率,也提升了海關監(jiān)管和風險防控的準確性。
 

“超級大腦”其實是一個多方數據共享,互聯互通的海關大數據平臺,驅動海關、監(jiān)管、征稅、查私和編制海關統(tǒng)計智能化和自動化的處理,除了要支撐現有業(yè)務系統(tǒng)外,還必須能夠盤活海關數據資產。而建設這樣一個平臺,要進行數據采集、數據管理、數據建模、數據分析、數據可視化幾個步驟,必定需要強有力的IT基礎支撐。對服務器來說,不僅需要具備強大的單機處理能力,更要具備良好的可靠性和穩(wěn)定性。
 

為保障“超級大腦”不間斷、快速的計算力需求,浪潮為海關總署提供了以雙路服務器NF5280M5為核心的解決方案。其采用了不同層次的高可用技術,例如豐富的硬盤RAID機制,內存的熱備、鏡像、糾錯,以及電源風扇的冗余熱插拔設計,具備了完善的軟硬件錯誤容忍能力。以內存智能管理技術為例,在系統(tǒng)啟動前會對內存進行診斷,錯誤或有隱患單元會被移出可用區(qū)域,在系統(tǒng)運行過程中實時對內存進行監(jiān)控,處理錯誤或隱患,內存錯誤檢測處理精度可達Bit級別,內存錯誤引發(fā)的故障降低90%以上。
 

同時,靈活的擴展性也可圈可點。在不影響平臺正常使用情況下,海關大數據平臺可以隨用戶數據規(guī)模的擴大或功能的完善進行擴容,滿足未來幾年業(yè)務發(fā)展需求。
 

依托浪潮服務器打造的大數據平臺,海關總署的數據處理能力大幅提升,還可以兼容不同類型的數據庫,動態(tài)選擇合適的數據源和計算引擎執(zhí)行查詢請求,性能提升3倍以上,有效降低客戶的運維成本。
 

大數據平臺還實現了對海關數據的大集中,不僅有效解決了資源利用率低、響應效率低、業(yè)務連續(xù)性低等問題,也為推動口岸各部門信息共享,準確核查企業(yè)進出口申報的真實性,有效改善進出口貿易秩序,實現全國通關一體化奠定了基礎。
 

良好用戶體驗的背后是高可靠產品品質保障


隨著電商行業(yè)競爭的加劇,追求更好的用戶體驗成為各大電商努力的目標,而在這兩年的發(fā)展趨勢中尤為如此,這樣的趨勢也加快了實體商店、線上渠道和配送中心對云、物聯網及大數據的使用進程。
 

“雙11”活動證明了這一趨勢的正確性,就在幾年前,商家網站和數據中心因“雙11”期間超高的流量峰值而宕機的場景還歷歷在目,由此帶來的用戶體驗給商家?guī)砹瞬恍〉膿p失。
 

在此背景下,對技術的投入和重視成為零售商力圖擊敗競爭對手的有力手段。但根據維諦技術(Vertiv)在2018年的調查報告顯示,在應用新技術與實際操作相結合來實現更完善的客戶體驗方面,仍有四分之一的零售商處于滯后狀態(tài)。
 

現實狀況與期待目標仍有較大差距,這也意味著在接下來的幾年中,對技術及相關設備的投入將會增加,該調查顯示,用于線上零售的數據中心空間(包括本地部署空間和主機托管空間)預計將增加20%。同時,為支撐實體店應用程序的使用情況,云托管數量也將增加33%。
 

技術的增持也將改變零售業(yè)當前的某些現狀,零售商也必將加速調整其運營方式。為了支持這種轉變,零售商正在采用全新的物理基礎設施,這些基礎設施的可靠性更高,并且易于快速部署。這些基于標準化、模塊化設計的技術,具備可擴容性和前沿科技適用性。只有具備安全穩(wěn)定且高可靠的產品品質,才能有效應對各種復雜多變的交易場景,才能給用戶一個完美的購物體驗。
 

“雙11”活動正是在這種場景下的重要戰(zhàn)場,提升客戶基礎設施的可用性、容量和效率是維諦技術歷來的目標。
 

其中,在阿里巴巴、京東部署的多個核心數據中心中,就是通過應用維諦技術(Vertiv)的產品方案,以保障數據中心的穩(wěn)定運行,尤其是在“雙11”期間的高并發(fā)流量時刻,維諦技術在可靠性、可擴展性、快速部署等方面,確保客戶數據中心安全穩(wěn)定運行,輕松幫助客戶應對數據洪峰的沖擊。
 

為“雙11”保駕護航的幕后


如今,“雙11”已成為一年一度的全民購物節(jié),各大商家摩拳擦掌,絞盡腦汁來吸引消費者,得益于消費者超強的購買力,各電商的銷售額屢破記錄,為這場全民狂歡節(jié)保駕護航的幕后,運維保障人員同樣功不可沒。
 

眾所周知,“雙11”是一個高并發(fā)的應用場景,每秒鐘千萬級的訪問量、幾十萬次的交易量極易導致服務器崩潰,一旦無法訪問,必然影響到客戶體驗。因此數據中心的保障變得尤為重要、刻不容緩,往往一個細小的失誤,都將造成重大損失。
 

作為一名運維老將,萬國數據已連續(xù)多年參與“雙11”運維保障工作,成功幫助客戶平穩(wěn)度過“雙11”。
 

為保障“雙11”的順利進行,萬國數據提前擬定了詳盡的預案,協(xié)助網絡運營商完成重保期間通信網絡的運行保障工作和應急響應制度,并完成了全面的設備系統(tǒng)維護、服務商備件存儲情況檢查,做到有備無患。
 

在數據中心的出入口,萬國數據調動了高級別的安保資源,在人員把控層面上確保重要設備的安全性,并禁止所有網絡和物理線路的變更及施工。
 

緊急供水車和應急柴油車在現場待命,保證在市政供電供水出現問題情況下有充足的后備時間,同時可以在區(qū)域內靈活調配柴油和水資源,能迅速提供應急保障。
 

消防方面的應急設備同樣必不可少,以確保在火災風險出現時,能迅速啟動消防應急預案,做到萬無一失。
 

此外,對數據中心機房環(huán)境,溫度、濕度是否正常,空調、供電系統(tǒng)是否運行良好,地板、天窗、消防、監(jiān)控等都逐項做了檢查準備,力保“雙11”期間正常運行。
 

客服團隊嚴陣以待,隨時準備接待每一位客戶。工程師團隊也全部就位,做好遠程協(xié)助服務響應,保障客戶IT設備的運行穩(wěn)定。聯同設備服務商工程師駐場待命,提供緊急現場支持,以便出現故障時,和工程師團隊共同處理,減少中間的溝通環(huán)節(jié),縮短故障處理時間。
 

“雙11”0點的在線交易速度和體驗直接影響到商家的銷售量和平臺的口碑,在這種“人滿為患”的時間,龐大的商家業(yè)務背后是高達幾千G的峰值流量。為保障網絡的正常,通過網絡監(jiān)控及協(xié)同網絡運營商完成重保期間通信網絡的運行保障工作和應急響應制度。
 

對于值得關注的重要事件,工程師進行密切協(xié)同,根據預案進行快速行動,讓一次次可能會擴散的風險消弭于無形。
 

從機房基礎設施、電源動力、互聯網出口、網絡安全、光纜保障等方面,期間不間斷的看護和守候,為客戶提供了堅實的后勤保障,全力確保 “雙11”活動順利進行。
 

“雙11”促銷狂潮帶來的流量壓力一波波涌來,得益于準備充分、應急措施得當,萬國數據運營的數據中心成功應對了“雙11”考驗,沒有出現任何一起安全事故,客戶的各項業(yè)務得以可靠有效地運行。


標簽: 雙11 安全運維 

版權申明:本站文章部分自網絡,如有侵權,請聯系:west999com@outlook.com
特別注意:本站所有轉載文章言論不代表本站觀點!
本站所提供的圖片等素材,版權歸原作者所有,如需使用,請與原作者聯系。

上一篇:【2019IT運維十大樣板工程】山東省城市商業(yè)銀行合作聯盟 BPC業(yè)務性能監(jiān)控項目

下一篇:Vicor 將在開放式數據中心委員會峰會上展示其最新 48V 電源模塊創(chuàng)新技術