中文字幕在线观看,亚洲а∨天堂久久精品9966,亚洲成a人片在线观看你懂的,亚洲av成人片无码网站,亚洲国产精品无码久久久五月天

“雙11”背后的 安全運(yùn)維二三事

2019-12-23    來(lái)源:

容器云強(qiáng)勢(shì)上線!快速搭建集群,上萬(wàn)Linux鏡像隨意使用

一年一度的天貓“雙11”不僅交易額每年都實(shí)現(xiàn)了快速增長(zhǎng),而且這一特別的節(jié)日也成了新消費(fèi)力量最好的體現(xiàn)。新的消費(fèi)人群、新的消費(fèi)場(chǎng)景和模式,以及新的消費(fèi)供給,給人們帶來(lái)了完全不同的體驗(yàn)。

在這場(chǎng)規(guī)模龐大的交易盛宴背后,為交易提供支撐的前臺(tái)、中臺(tái)和后臺(tái),如何在極限的高并發(fā)情況下保持交易系統(tǒng)的高效、穩(wěn)定和可靠?又有多少奮戰(zhàn)在一線的企業(yè)IT管理和運(yùn)維人員,加班加點(diǎn),保證業(yè)務(wù)的連續(xù)性?還有多少安全的守護(hù)者,為了交易的安全熬紅了雙眼?
 

在“雙11”的熱潮漸漸退卻之時(shí),我們則要逐一揭開(kāi)“雙11”背后那些不為人知的技術(shù)細(xì)節(jié)、運(yùn)維體驗(yàn)和安全技巧。



撐得住“雙11”的那朵云


“不是任何一朵云都能撐住像‘雙11’這樣的流量。”阿里巴巴集團(tuán)CTO、阿里云智能總裁張建鋒表示。
 

2019年天貓“雙11”再次刷新世界紀(jì)錄:總成交額2684億元,訂單峰值54.4萬(wàn)筆/秒,單日數(shù)據(jù)處理量970PB。這是在阿里巴巴核心系統(tǒng)今年已100%上云的情況完成的創(chuàng)紀(jì)錄之舉。阿里巴巴這朵云經(jīng)受住了“雙11”這一世界級(jí)流量洪峰。
 

用公共云承載一個(gè)萬(wàn)億規(guī)模的核心系統(tǒng),阿里云做到了?梢钥隙ǖ氖,未來(lái)阿里的全部系統(tǒng)都將運(yùn)行在阿里云上。
 

其實(shí),從去年開(kāi)始,阿里已經(jīng)決定將整個(gè)阿里巴巴的核心系統(tǒng)全部遷移到云上。阿里為什么敢為天下先?首先,阿里云是阿里自己從頭研發(fā)的一朵云,每一行代碼都是自己的,累積、驗(yàn)證、迭代了十年,這就是大家今天看到的“飛天操作系統(tǒng)”;阿里云將原來(lái)專用的技術(shù)變成公共云,所有核心系統(tǒng)都在公共云上,讓所有人都可以來(lái)享受普惠的服務(wù)。
 

今年的“雙11”已經(jīng)證明,阿里云100%核心系統(tǒng)上云是成功的。這背后不僅僅是簡(jiǎn)單的替換,上云之后,系統(tǒng)整體性能有了非常大的提升。在交易開(kāi)始的前十分鐘,消費(fèi)者基本沒(méi)有感受到任何抖動(dòng),購(gòu)物非常順暢。這主要得益于阿里云在以下幾方面的優(yōu)化:
 

首先,在核心虛擬機(jī)層面,阿里自研的神龍架構(gòu)基于自研的服務(wù)器實(shí)現(xiàn)虛擬化,其性能的輸出是穩(wěn)定的、線性的;其次,阿里自研的OceanBase金融級(jí)分布式數(shù)據(jù)庫(kù)與PolarDB數(shù)據(jù)庫(kù)同樣表現(xiàn)優(yōu)異,其每秒峰值遠(yuǎn)超原來(lái)采用的Oracle傳統(tǒng)數(shù)據(jù)庫(kù);再次,實(shí)現(xiàn)計(jì)算與存儲(chǔ)的分離,阿里巴巴有一個(gè)專門的存儲(chǔ)池,所有數(shù)據(jù)都是從遠(yuǎn)端存取,存儲(chǔ)的擴(kuò)展非常方便;最后,大規(guī)模采用RDMA網(wǎng)絡(luò),保證訪問(wèn)性能。
 

今年的“雙11“總共處理了970P的數(shù)據(jù)。在每個(gè)一個(gè)時(shí)間點(diǎn),所處理的工作負(fù)載又各不相同,同時(shí)還要實(shí)現(xiàn)實(shí)時(shí)處理,難度就更大。阿里采用了分而治之的措施,在零點(diǎn)時(shí),將大部分計(jì)算機(jī)資源分配給交易等應(yīng)用,在一點(diǎn)之后,則把數(shù)據(jù)分配給數(shù)據(jù)處理系統(tǒng)。
 

今年“雙11”除了數(shù)據(jù)的批處理以外,還有大量的流處理,即實(shí)時(shí)處理所有數(shù)據(jù),每生成一筆訂單,系統(tǒng)就會(huì)自動(dòng)將數(shù)據(jù)逐層匯集上來(lái)。阿里采用的這一流式處理系統(tǒng),每秒能處理25億筆記錄。
 

飛天操作系統(tǒng)能夠在10萬(wàn)臺(tái)級(jí)別以上的服務(wù)器中做調(diào)度。管理如此龐大的服務(wù)器,除了飛天操作系統(tǒng)之外,還需要管理所有的消息流轉(zhuǎn)。因此,阿里自研了MQ消息系統(tǒng),這是目前全球最大的一個(gè)消息系統(tǒng)。從飛天操作系統(tǒng)、大數(shù)據(jù)處理平臺(tái)到智能化應(yīng)用,這些技術(shù)疊加起來(lái),構(gòu)成了一個(gè)強(qiáng)大的分布式的云平臺(tái),才掌起了阿里整個(gè)經(jīng)濟(jì)體的所有核心應(yīng)用。
 

特別值得一提的是,阿里今年發(fā)布了自研的芯片含光800。明年的“雙11”,阿里大量的人工智能應(yīng)用都會(huì)跑在自研的芯片之上。
 

硬件、數(shù)據(jù)庫(kù)、云計(jì)算操作系統(tǒng),再加上核心應(yīng)用平臺(tái),阿里以自研為起點(diǎn),始終保持快速創(chuàng)新、快速迭代,才能在“雙11”這樣的硬仗面前,游刃有余,從容不迫。
 

騰訊云的兩場(chǎng)“大考”


S9總決賽直播與“雙11”,這是騰訊云要小心應(yīng)對(duì)的兩場(chǎng)“大考”。大考,考驗(yàn)的就是云廠商智能調(diào)度CDN的能力、彈性伸縮的計(jì)算能力、支撐海量高并發(fā)的數(shù)據(jù)庫(kù)能力,以及技術(shù)保障和護(hù)航的能力。
 

今年,騰訊云為S9直播提供了全網(wǎng)90%流量的護(hù)航,直播流量承載再創(chuàng)新高;同時(shí),在“雙11”電商大促過(guò)程中,騰訊云服務(wù)了國(guó)內(nèi)90%的電商企業(yè)。

 

CDN靈活調(diào)度



 

臨近11月10日23點(diǎn),S9比賽進(jìn)入最扣人心弦的決勝局。對(duì)于“剁手黨”來(lái)說(shuō),“雙11”大戰(zhàn)即將進(jìn)入最后的備戰(zhàn)階段。23點(diǎn)左右,騰訊云工程師監(jiān)測(cè)到上海某運(yùn)營(yíng)商帶寬幾分鐘內(nèi)飆升兩倍,大流量瞬間涌入超出預(yù)期,起因是眾多用戶涌入某平臺(tái)觀看S9直播。與此同時(shí),電商平臺(tái)的流量隨時(shí)可能迎來(lái)爆發(fā)。騰訊云的護(hù)航工程師按照既定預(yù)案,自動(dòng)啟動(dòng)彈性擴(kuò)容,將部分空閑資源納入調(diào)度,迅速解決問(wèn)題,保證直播和大促同時(shí)順暢進(jìn)行。
 

23:20,F(xiàn)PX戰(zhàn)隊(duì)奪冠,S9直播進(jìn)入尾聲。騰訊云的第一場(chǎng)“大考”安然度過(guò)。此時(shí),一波網(wǎng)友已經(jīng)完成網(wǎng)購(gòu),而為慶祝“FPX奪冠”,新的買家涌入電商平臺(tái),新一波流量沖頂。



彈 彈 彈

零點(diǎn)過(guò)后,“雙11”流量逐漸回落。當(dāng)11月11日的太陽(yáng)升起后,新一輪的采購(gòu)熱潮又起。8點(diǎn)、12點(diǎn),電商行業(yè)先后迎來(lái)流量峰值,就這樣流量一直繼續(xù)增長(zhǎng)到11月11日20:00。大約到21:30,“雙11”大促流量頂級(jí)峰值到來(lái)。22點(diǎn)以后,峰值回落,接近24點(diǎn),電商平臺(tái)再次迎來(lái)一次流量小高峰,之后回落。
 

大促流量峰值充滿不確定性,并發(fā)數(shù)是日常流量的數(shù)倍,這將給業(yè)務(wù)系統(tǒng)帶來(lái)巨大壓力。騰訊云負(fù)載均衡CLB可以實(shí)時(shí)調(diào)整集群規(guī)模,將流量快速分發(fā)到多臺(tái)云主機(jī)上,以適應(yīng)促銷流量的增長(zhǎng),甚至無(wú)需人工介入。另一方面,騰訊云支持快速創(chuàng)建云主機(jī)。比如,騰訊云自研的基于KVM的極速虛擬化技術(shù)方案Havisor,能夠在30ms內(nèi)啟動(dòng)一臺(tái)虛擬機(jī),創(chuàng)造了業(yè)界目前最快啟動(dòng)一臺(tái)虛擬機(jī)的記錄。
 

在大促過(guò)后,電商業(yè)務(wù)恢復(fù)到正常狀態(tài),不再需要額外的計(jì)算資源。騰訊云的彈性擴(kuò)縮架構(gòu)可以將資源回收,避免產(chǎn)生額外成本。
 

11月12日凌晨?jī)牲c(diǎn),最后幾位護(hù)航的騰訊云工程師合上了電腦。騰訊云的第二場(chǎng)“大考”順利結(jié)束。今年“雙11”期間,騰訊云的計(jì)算資源較去年同期增長(zhǎng)近1.5倍。
 

騰訊云相關(guān)團(tuán)隊(duì)提前一個(gè)月就開(kāi)始調(diào)度資源,協(xié)調(diào)護(hù)航人員。在“雙11”大促期間,騰訊云有近200位工程師為客戶護(hù)航。

 

直播、大促兩不誤

一位參與多次護(hù)航任務(wù)的騰訊云工程師表示,電商大促已經(jīng)進(jìn)行了很多年,且每年促銷好幾次,騰訊云的服務(wù)完全可以保證用戶在前臺(tái)買得熱火朝天,而后臺(tái)業(yè)務(wù)風(fēng)平浪靜。
 

一個(gè)新的趨勢(shì)是,直播和電商的結(jié)合正變得越來(lái)越緊密。舉例來(lái)說(shuō) ,東南亞電商平臺(tái)Shopee將國(guó)內(nèi)火熱的“直播答題”運(yùn)用到大促當(dāng)中,在“雙11”期間,Shopee組織了多場(chǎng)直播答題活動(dòng),吸引了眾多用戶訪問(wèn)。在國(guó)內(nèi),以蘑菇街為代表的電商平臺(tái)積極嘗試“直播電商”,通過(guò)網(wǎng)紅帶貨。
 

騰訊云支撐S9頂級(jí)流量賽事的直播技術(shù)正在支持越來(lái)越多的電商企業(yè)。比如,針對(duì)美妝直播場(chǎng)景,騰訊云為客戶提供定制的高碼率視頻流加美顏插件,主播在展示美妝等產(chǎn)品時(shí)更容易打動(dòng)受眾。在電商平臺(tái)上,有用手機(jī)進(jìn)行直播的小型場(chǎng)次,也有平臺(tái)方請(qǐng)明星用專業(yè)設(shè)備進(jìn)行大型直播活動(dòng),騰訊云通過(guò)私有協(xié)議+RTMP標(biāo)準(zhǔn)協(xié)議的混合兼容方式,可以靈活應(yīng)對(duì)不同的并發(fā)場(chǎng)景和設(shè)備。
 

商家在直播時(shí),可以自動(dòng)開(kāi)啟云端錄制、主播手動(dòng)截流、生成短視頻等功能,通過(guò)短視頻的二次傳播,再次導(dǎo)流,從而形成新的流量轉(zhuǎn)化。騰訊云給越來(lái)越多具有不同需求的企業(yè)提供可靠支撐,創(chuàng)造增量。
 

5.6億元背后的“中臺(tái)”故事


良品鋪?zhàn)幼鳛閲?guó)內(nèi)零食類龍頭企業(yè),自2019年初以來(lái)業(yè)務(wù)快速增長(zhǎng),在今年“雙11”期間,良品鋪?zhàn)尤冷N售額達(dá)到5.6億元,相比去年有巨大飛躍。
 

良品鋪?zhàn)?ldquo;雙11”領(lǐng)卡會(huì)員數(shù)突破1130萬(wàn),服務(wù)用戶239萬(wàn)人。這些數(shù)據(jù)背后,少不了云徙科技的功勞:新一代會(huì)員中臺(tái),實(shí)現(xiàn)了對(duì)全渠道8000萬(wàn)會(huì)員的高效運(yùn)營(yíng)與統(tǒng)一管理;利用大數(shù)據(jù)分析能力,從海量會(huì)員數(shù)據(jù)中獲取洞察,對(duì)復(fù)購(gòu)意愿強(qiáng)的老顧客實(shí)施精準(zhǔn)觸達(dá),為預(yù)熱期廣聲量告知、爆發(fā)期全面搶流促轉(zhuǎn)化提供了精細(xì)化、全天候的數(shù)字化保障。
 

助力良品鋪?zhàn)又苿?ldquo;雙11”的背后,是云徙科技基于中臺(tái)架構(gòu)的智能營(yíng)銷邏輯。
 

云徙基于“業(yè)務(wù)+數(shù)據(jù)”雙中臺(tái)核心技術(shù),以及i-CDP全域會(huì)員和i-marketing營(yíng)銷智能兩大產(chǎn)品,幫助良品鋪?zhàn)由?jí)新一代會(huì)員中臺(tái),構(gòu)建“雙11”營(yíng)銷樞紐。
 

2019年9月,隨著會(huì)員中臺(tái)的升級(jí),搭乘云徙i-CDP全域會(huì)員產(chǎn)品,良品鋪?zhàn)訉?shí)現(xiàn)了從各個(gè)渠道觸點(diǎn)獲取會(huì)員數(shù)據(jù),并對(duì)這些海量數(shù)據(jù)進(jìn)行統(tǒng)一的存儲(chǔ)和管理,打造屬于企業(yè)數(shù)據(jù)“蓄水池”。利用不同的引擎(包括ID、標(biāo)簽、規(guī)則、分析與推薦引擎)進(jìn)行整合分析,自動(dòng)為會(huì)員貼上標(biāo)簽、建立畫像,便于從數(shù)據(jù)中挖掘信息。在數(shù)據(jù)應(yīng)用層,通過(guò)對(duì)會(huì)員進(jìn)行人群分類,獲得細(xì)分人群的畫像以及行為和營(yíng)銷數(shù)據(jù)報(bào)告,同時(shí)可實(shí)現(xiàn)客戶的全生命周期管理。
 

在這之上,通過(guò)云徙i-marketing營(yíng)銷智能產(chǎn)品進(jìn)一步發(fā)揮數(shù)據(jù)的潛能。利用大數(shù)據(jù)分析技術(shù),幫助運(yùn)營(yíng)人員優(yōu)化營(yíng)銷決策,將“雙11”信息精準(zhǔn)定向推送給目標(biāo)用戶。
 

基于會(huì)員中臺(tái),良品鋪?zhàn)釉?ldquo;雙11”期間實(shí)現(xiàn)了最快1小時(shí)內(nèi)完成百萬(wàn)級(jí)營(yíng)銷策略,全天候響應(yīng)、全場(chǎng)景覆蓋,觸達(dá)率高達(dá)99.7%。會(huì)員中臺(tái)的落成,幫助良品鋪?zhàn)愚饤壛藗鹘y(tǒng)的“手動(dòng)給會(huì)員貼標(biāo)簽”的工作模式。基于會(huì)員中臺(tái),良品鋪?zhàn)涌梢詫?shí)現(xiàn)會(huì)員畫像的自動(dòng)化創(chuàng)建,同時(shí)可以快速?gòu)钠浜A繒?huì)員中篩選出活動(dòng)的目標(biāo)人群,大大縮短了時(shí)間,實(shí)現(xiàn)降本提效。
 

通過(guò)云徙提供的OneID,可利用圖算法找出分布在不同渠道,如天貓、京東、美團(tuán)、餓了么等不同會(huì)員賬號(hào)之間的關(guān)聯(lián)關(guān)系,識(shí)別出同一個(gè)會(huì)員,在“雙11”期間不會(huì)對(duì)同一會(huì)員多次推送活動(dòng)短信,不會(huì)引起會(huì)員的反感,在提升品牌認(rèn)知度的同時(shí)也能增加體驗(yàn)舒適度。
 

從線上到線下,良品鋪?zhàn)訐碛谐^(guò)50個(gè)渠道。過(guò)去,多個(gè)系統(tǒng)之間的會(huì)員數(shù)據(jù)相互割裂,存在信息孤島。會(huì)員的積分、卡券等權(quán)益信息不互通,為會(huì)員體驗(yàn)的提升帶來(lái)了極大弊端。利用會(huì)員中臺(tái),良品鋪?zhàn)油瓿闪巳、多系統(tǒng)間的信息互通,構(gòu)建了統(tǒng)一的會(huì)員管理體系,增加了良品鋪?zhàn)悠放频姆劢z粘性。會(huì)員中臺(tái)將幫助良品鋪?zhàn)訌娜輵?yīng)對(duì)數(shù)字化挑戰(zhàn),決勝新零售時(shí)代。
 

前前后后 團(tuán)隊(duì)如何分工協(xié)作


在今年“雙11”期間,除了電商們忙東忙西的促銷活動(dòng)和徹夜狂歡的買家“剁手黨”,對(duì)IT圈來(lái)說(shuō),恐怕最忙的要屬運(yùn)維人員了。
 

像“雙11”這樣的典型場(chǎng)景,不僅是對(duì)數(shù)據(jù)中心各種設(shè)備的考驗(yàn),同時(shí)也是對(duì)背后技術(shù)服務(wù)及運(yùn)維人員的挑戰(zhàn)。
 

對(duì)此,UCloud“重保”項(xiàng)目組是深有體會(huì),在他們眼中,“雙11”不止是24小時(shí),而是整整籌備了3個(gè)月,可謂是歷經(jīng)“上弦月-滿月-下弦月”的3次循環(huán)。
 

這種典型高并發(fā)峰值的業(yè)務(wù),通常面臨性能、鏈路、容量、容災(zāi)、安全等挑戰(zhàn)。“重保”項(xiàng)目組的存在就是為了協(xié)助客戶穩(wěn)定的度過(guò)業(yè)務(wù)高峰,他們?cè)谄渲邪缪莘浅V匾慕巧。通常?lái)說(shuō),為應(yīng)對(duì)這種突如其來(lái)的高并發(fā)場(chǎng)景,需要在活動(dòng)的前、中、后期,都要能夠提供包括技術(shù)和人員上的全力支持。
 

在活動(dòng)前期,銷售人員和服務(wù)經(jīng)理就要深入客戶,了解業(yè)務(wù)特性、活動(dòng)推廣模式、業(yè)務(wù)QPS等情況,制定雙11大促保障方案,把控全盤。
 

而此時(shí),后端技術(shù)團(tuán)隊(duì)也要相應(yīng)跟進(jìn),進(jìn)行分工協(xié)作。比如,小M同學(xué)負(fù)責(zé)數(shù)據(jù)庫(kù)風(fēng)險(xiǎn)排查、數(shù)據(jù)庫(kù)瓶頸分析并輸出優(yōu)化方案,小L同學(xué)負(fù)責(zé)NATGW風(fēng)險(xiǎn)規(guī)避以及細(xì)化監(jiān)控參數(shù),大M同學(xué)負(fù)責(zé)資源容量規(guī)劃,Noc團(tuán)隊(duì)負(fù)責(zé)資源結(jié)構(gòu)性調(diào)控……
 

此外,技術(shù)服務(wù)專家組全程緊盯雙11期間的“大盤”情況,全力支撐整點(diǎn)秒殺、福袋領(lǐng)取、五折搶購(gòu)等“巔峰時(shí)刻”,為客戶提供強(qiáng)力的后盾。
 

最終,UCloud“重保”項(xiàng)目組保障客戶大促活動(dòng)圓滿完成。
 

其實(shí)不僅是“雙11”活動(dòng),新游戲開(kāi)服、視頻直播、紅包秒搶等等,在一年中客戶經(jīng)常會(huì)遇到類似這樣的高并發(fā)場(chǎng)景,在應(yīng)對(duì)工作上類似,但也有所區(qū)分。
 

例如,在針對(duì)UCloud“重保”項(xiàng)目組遇到的另一個(gè)明星線上給用戶派發(fā)紅包活動(dòng)中,服務(wù)經(jīng)理需要提前與客戶運(yùn)維團(tuán)隊(duì)溝通紅包活動(dòng)特性、業(yè)務(wù)需求(峰值、并發(fā)量等)、核實(shí)重點(diǎn)資源等,同時(shí)結(jié)合歷史活動(dòng)數(shù)據(jù)、構(gòu)建紅包業(yè)務(wù)增長(zhǎng)與資源負(fù)載上升的數(shù)據(jù)模型,并且根據(jù)客戶當(dāng)前架構(gòu)制定容災(zāi)調(diào)度預(yù)案。
 

而后端技術(shù)團(tuán)隊(duì)根據(jù)客戶活動(dòng)期間的流量及負(fù)載情況進(jìn)行相應(yīng)的調(diào)度優(yōu)化,并根據(jù)客戶業(yè)務(wù)狀況和活動(dòng)規(guī)劃,在活動(dòng)期間持續(xù)輸出數(shù)據(jù)庫(kù)等產(chǎn)品的優(yōu)化建議,全力支撐每一個(gè)明星“撒幣”時(shí)刻,而流量明星則考驗(yàn)著IT系統(tǒng)的“流量”極限。
 

技術(shù)服務(wù)團(tuán)隊(duì)則定點(diǎn)定時(shí)密切關(guān)注大盤情況,與后端技術(shù)團(tuán)隊(duì)保持聯(lián)動(dòng)。同時(shí)依據(jù)活動(dòng)期間每日發(fā)生的問(wèn)題、資源使用情況等信息進(jìn)行相應(yīng)梳理并提供業(yè)務(wù)日?qǐng)?bào)。
 

就是這樣,UCloud重保項(xiàng)目組幫助客戶一次次平穩(wěn)度過(guò)了流量“巔峰”,在完成客戶托付的同時(shí), UCloud重保項(xiàng)目組也一次次在挑戰(zhàn)中得到成長(zhǎng)。

高并發(fā)之下的安全挑戰(zhàn)


今年的“雙11”交易量再創(chuàng)新高,在商家與消費(fèi)者狂歡的背后,是一群又一群安全運(yùn)維人員的默默付出。
 

交易量的節(jié)節(jié)攀升也意味著網(wǎng)絡(luò)流量的倍增,特別是在今年的活動(dòng)期間,單就天貓零點(diǎn)訂單峰值就達(dá)到54.4萬(wàn)筆/秒。這是商家之“幸”,但卻讓安全運(yùn)維人員“戰(zhàn)戰(zhàn)兢兢”。
 

對(duì)技術(shù)人員來(lái)說(shuō),首當(dāng)其沖的問(wèn)題是如何應(yīng)對(duì)高并發(fā)訪問(wèn)、高頻交易、安全攻擊帶來(lái)的種種挑戰(zhàn)。
 

從消費(fèi)者購(gòu)物的整個(gè)環(huán)節(jié)來(lái)看,消費(fèi)者不僅僅是訪問(wèn)電商平臺(tái),其所做的查詢、交易等,同時(shí)也涉及電商平臺(tái)所對(duì)接的物流系統(tǒng)、保險(xiǎn)公司、支付系統(tǒng)、庫(kù)存系統(tǒng)等的關(guān)聯(lián)平臺(tái)。而這些平臺(tái)背后都面臨這些挑戰(zhàn)。F5中國(guó)區(qū)技術(shù)總監(jiān)陳亮詳細(xì)分析了這些挑戰(zhàn)。
 

首先是高并發(fā)量,客戶需要思考其架構(gòu)是否有彈性,擁有可拓展空間或彈性拓展手段。
 

二是在交易穩(wěn)定性方面,系統(tǒng)不穩(wěn)定將會(huì)影響交易過(guò)程,甚至導(dǎo)致交易失敗,因此客戶需要考慮其現(xiàn)有IT架構(gòu)的可靠性。
 

三是交易時(shí)延,交易時(shí)延會(huì)導(dǎo)致用戶打不開(kāi)頁(yè)面,亦或造成交易失敗等,也會(huì)給用戶體驗(yàn)帶來(lái)負(fù)面影響。
 

最后是交易安全,消費(fèi)者希望敏感信息不被竊取,企業(yè)面臨薅羊毛等惡意行為,所以企業(yè)需考慮現(xiàn)有IT架構(gòu)是否可阻擋混雜在正常交易中的安全攻擊行為。
 

以上挑戰(zhàn)使得企業(yè)的IT建設(shè)向以下趨勢(shì)發(fā)展:
 

一是資源池化,即資源管理。資源的池化可有效應(yīng)對(duì)用戶的彈性可拓展需求。
 

二是云化,并確保在多云環(huán)境下的一致性。
 

三是安全保障。比如在秒殺等促銷活動(dòng)時(shí),確保有效客戶公平競(jìng)爭(zhēng),而非機(jī)器人等惡意資源占用。還應(yīng)考慮動(dòng)態(tài)的安全策略調(diào)整機(jī)制,以實(shí)現(xiàn)基于流程和業(yè)務(wù)的安全防范。
 

四是可視化(網(wǎng)絡(luò)層和應(yīng)用層)。最終用戶的可視化信息如果可及時(shí)反饋給IT,則可以給資源分配、用戶行為的分析、動(dòng)態(tài)的策略調(diào)整帶來(lái)幫助。同時(shí),通過(guò)可視化,也可以在第一時(shí)間幫助業(yè)務(wù)部門了解日活/月活用戶數(shù)量,訪問(wèn)者歸屬地,訪問(wèn)體驗(yàn)等情況。
 

其實(shí)“雙11”只是高并發(fā)的一個(gè)特殊案例。在陳亮看來(lái),如今并不局限于電商行業(yè),各行各業(yè)都會(huì)出現(xiàn)借助熱點(diǎn)事件,通過(guò)互聯(lián)網(wǎng)發(fā)布新的業(yè)務(wù),進(jìn)行促銷的活動(dòng)。在這期間,各行各業(yè)都將面臨應(yīng)用安全和流量激增的挑戰(zhàn)。
 

F5正在致力于從企業(yè)的應(yīng)用代碼到最終用戶的全路徑應(yīng)用敏捷交付與應(yīng)用安全可靠保證,并從以下三個(gè)方面保障客戶安全:
 

在客戶層面的可信任訪問(wèn)控制上,對(duì)終端及身份識(shí)別來(lái)判斷客戶可信度;完善基礎(chǔ)架構(gòu)設(shè)施層面包括邊界安全、域名安全、加密流量編排等措施;通過(guò)部署WAF、安全API等來(lái)保障應(yīng)用層面的安全。
 

此外,F(xiàn)5還提供基于機(jī)器學(xué)習(xí),用戶行為分析等手段,阻斷惡意機(jī)器人的訪問(wèn)。


“超級(jí)大腦”保障海外包裹快速過(guò)檢


據(jù)調(diào)查,2016年-2019年前三季度,四線-六線城市進(jìn)口品牌下單量占比增速高于一線-三線城市。小鎮(zhèn)青年在進(jìn)口品牌商品的下單金額、下單用戶數(shù)的同比增幅分別高達(dá)65%、60%。
 

在這股熱情的帶動(dòng)下,各電商今年“雙11”海淘戰(zhàn)場(chǎng)的拼殺更加白熱化,隨之而來(lái)的是海關(guān)監(jiān)管業(yè)務(wù)量全面爆發(fā),通關(guān)速度成為了海淘體驗(yàn)是否順暢的“試金石”。
 

海關(guān)處理海淘包裹的速度有多快?每小時(shí)處理上千件跨境電商包裹,大部分包裹最快僅需十幾秒就完成通關(guān),無(wú)征稅的包裹6秒通關(guān)驗(yàn)放,且絕大多數(shù)包裹無(wú)需拆箱。 這背后,有顆“超級(jí)大腦”的支撐。
 

通過(guò)可視化分析,海關(guān)在快件實(shí)際運(yùn)抵前就完成了篩查和評(píng)估,預(yù)先精準(zhǔn)鎖定高風(fēng)險(xiǎn)的“目標(biāo)”,絕大部分守法合規(guī)的低風(fēng)險(xiǎn)快件、直購(gòu)電商被“超級(jí)大腦”判斷后直接“讀秒放行”。不僅提高了通關(guān)效率,也提升了海關(guān)監(jiān)管和風(fēng)險(xiǎn)防控的準(zhǔn)確性。
 

“超級(jí)大腦”其實(shí)是一個(gè)多方數(shù)據(jù)共享,互聯(lián)互通的海關(guān)大數(shù)據(jù)平臺(tái),驅(qū)動(dòng)海關(guān)、監(jiān)管、征稅、查私和編制海關(guān)統(tǒng)計(jì)智能化和自動(dòng)化的處理,除了要支撐現(xiàn)有業(yè)務(wù)系統(tǒng)外,還必須能夠盤活海關(guān)數(shù)據(jù)資產(chǎn)。而建設(shè)這樣一個(gè)平臺(tái),要進(jìn)行數(shù)據(jù)采集、數(shù)據(jù)管理、數(shù)據(jù)建模、數(shù)據(jù)分析、數(shù)據(jù)可視化幾個(gè)步驟,必定需要強(qiáng)有力的IT基礎(chǔ)支撐。對(duì)服務(wù)器來(lái)說(shuō),不僅需要具備強(qiáng)大的單機(jī)處理能力,更要具備良好的可靠性和穩(wěn)定性。
 

為保障“超級(jí)大腦”不間斷、快速的計(jì)算力需求,浪潮為海關(guān)總署提供了以雙路服務(wù)器NF5280M5為核心的解決方案。其采用了不同層次的高可用技術(shù),例如豐富的硬盤RAID機(jī)制,內(nèi)存的熱備、鏡像、糾錯(cuò),以及電源風(fēng)扇的冗余熱插拔設(shè)計(jì),具備了完善的軟硬件錯(cuò)誤容忍能力。以內(nèi)存智能管理技術(shù)為例,在系統(tǒng)啟動(dòng)前會(huì)對(duì)內(nèi)存進(jìn)行診斷,錯(cuò)誤或有隱患單元會(huì)被移出可用區(qū)域,在系統(tǒng)運(yùn)行過(guò)程中實(shí)時(shí)對(duì)內(nèi)存進(jìn)行監(jiān)控,處理錯(cuò)誤或隱患,內(nèi)存錯(cuò)誤檢測(cè)處理精度可達(dá)Bit級(jí)別,內(nèi)存錯(cuò)誤引發(fā)的故障降低90%以上。
 

同時(shí),靈活的擴(kuò)展性也可圈可點(diǎn)。在不影響平臺(tái)正常使用情況下,海關(guān)大數(shù)據(jù)平臺(tái)可以隨用戶數(shù)據(jù)規(guī)模的擴(kuò)大或功能的完善進(jìn)行擴(kuò)容,滿足未來(lái)幾年業(yè)務(wù)發(fā)展需求。
 

依托浪潮服務(wù)器打造的大數(shù)據(jù)平臺(tái),海關(guān)總署的數(shù)據(jù)處理能力大幅提升,還可以兼容不同類型的數(shù)據(jù)庫(kù),動(dòng)態(tài)選擇合適的數(shù)據(jù)源和計(jì)算引擎執(zhí)行查詢請(qǐng)求,性能提升3倍以上,有效降低客戶的運(yùn)維成本。
 

大數(shù)據(jù)平臺(tái)還實(shí)現(xiàn)了對(duì)海關(guān)數(shù)據(jù)的大集中,不僅有效解決了資源利用率低、響應(yīng)效率低、業(yè)務(wù)連續(xù)性低等問(wèn)題,也為推動(dòng)口岸各部門信息共享,準(zhǔn)確核查企業(yè)進(jìn)出口申報(bào)的真實(shí)性,有效改善進(jìn)出口貿(mào)易秩序,實(shí)現(xiàn)全國(guó)通關(guān)一體化奠定了基礎(chǔ)。
 

良好用戶體驗(yàn)的背后是高可靠產(chǎn)品品質(zhì)保障


隨著電商行業(yè)競(jìng)爭(zhēng)的加劇,追求更好的用戶體驗(yàn)成為各大電商努力的目標(biāo),而在這兩年的發(fā)展趨勢(shì)中尤為如此,這樣的趨勢(shì)也加快了實(shí)體商店、線上渠道和配送中心對(duì)云、物聯(lián)網(wǎng)及大數(shù)據(jù)的使用進(jìn)程。
 

“雙11”活動(dòng)證明了這一趨勢(shì)的正確性,就在幾年前,商家網(wǎng)站和數(shù)據(jù)中心因“雙11”期間超高的流量峰值而宕機(jī)的場(chǎng)景還歷歷在目,由此帶來(lái)的用戶體驗(yàn)給商家?guī)?lái)了不小的損失。
 

在此背景下,對(duì)技術(shù)的投入和重視成為零售商力圖擊敗競(jìng)爭(zhēng)對(duì)手的有力手段。但根據(jù)維諦技術(shù)(Vertiv)在2018年的調(diào)查報(bào)告顯示,在應(yīng)用新技術(shù)與實(shí)際操作相結(jié)合來(lái)實(shí)現(xiàn)更完善的客戶體驗(yàn)方面,仍有四分之一的零售商處于滯后狀態(tài)。
 

現(xiàn)實(shí)狀況與期待目標(biāo)仍有較大差距,這也意味著在接下來(lái)的幾年中,對(duì)技術(shù)及相關(guān)設(shè)備的投入將會(huì)增加,該調(diào)查顯示,用于線上零售的數(shù)據(jù)中心空間(包括本地部署空間和主機(jī)托管空間)預(yù)計(jì)將增加20%。同時(shí),為支撐實(shí)體店應(yīng)用程序的使用情況,云托管數(shù)量也將增加33%。
 

技術(shù)的增持也將改變零售業(yè)當(dāng)前的某些現(xiàn)狀,零售商也必將加速調(diào)整其運(yùn)營(yíng)方式。為了支持這種轉(zhuǎn)變,零售商正在采用全新的物理基礎(chǔ)設(shè)施,這些基礎(chǔ)設(shè)施的可靠性更高,并且易于快速部署。這些基于標(biāo)準(zhǔn)化、模塊化設(shè)計(jì)的技術(shù),具備可擴(kuò)容性和前沿科技適用性。只有具備安全穩(wěn)定且高可靠的產(chǎn)品品質(zhì),才能有效應(yīng)對(duì)各種復(fù)雜多變的交易場(chǎng)景,才能給用戶一個(gè)完美的購(gòu)物體驗(yàn)。
 

“雙11”活動(dòng)正是在這種場(chǎng)景下的重要戰(zhàn)場(chǎng),提升客戶基礎(chǔ)設(shè)施的可用性、容量和效率是維諦技術(shù)歷來(lái)的目標(biāo)。
 

其中,在阿里巴巴、京東部署的多個(gè)核心數(shù)據(jù)中心中,就是通過(guò)應(yīng)用維諦技術(shù)(Vertiv)的產(chǎn)品方案,以保障數(shù)據(jù)中心的穩(wěn)定運(yùn)行,尤其是在“雙11”期間的高并發(fā)流量時(shí)刻,維諦技術(shù)在可靠性、可擴(kuò)展性、快速部署等方面,確?蛻魯(shù)據(jù)中心安全穩(wěn)定運(yùn)行,輕松幫助客戶應(yīng)對(duì)數(shù)據(jù)洪峰的沖擊。
 

為“雙11”保駕護(hù)航的幕后


如今,“雙11”已成為一年一度的全民購(gòu)物節(jié),各大商家摩拳擦掌,絞盡腦汁來(lái)吸引消費(fèi)者,得益于消費(fèi)者超強(qiáng)的購(gòu)買力,各電商的銷售額屢破記錄,為這場(chǎng)全民狂歡節(jié)保駕護(hù)航的幕后,運(yùn)維保障人員同樣功不可沒(méi)。
 

眾所周知,“雙11”是一個(gè)高并發(fā)的應(yīng)用場(chǎng)景,每秒鐘千萬(wàn)級(jí)的訪問(wèn)量、幾十萬(wàn)次的交易量極易導(dǎo)致服務(wù)器崩潰,一旦無(wú)法訪問(wèn),必然影響到客戶體驗(yàn)。因此數(shù)據(jù)中心的保障變得尤為重要、刻不容緩,往往一個(gè)細(xì)小的失誤,都將造成重大損失。
 

作為一名運(yùn)維老將,萬(wàn)國(guó)數(shù)據(jù)已連續(xù)多年參與“雙11”運(yùn)維保障工作,成功幫助客戶平穩(wěn)度過(guò)“雙11”。
 

為保障“雙11”的順利進(jìn)行,萬(wàn)國(guó)數(shù)據(jù)提前擬定了詳盡的預(yù)案,協(xié)助網(wǎng)絡(luò)運(yùn)營(yíng)商完成重保期間通信網(wǎng)絡(luò)的運(yùn)行保障工作和應(yīng)急響應(yīng)制度,并完成了全面的設(shè)備系統(tǒng)維護(hù)、服務(wù)商備件存儲(chǔ)情況檢查,做到有備無(wú)患。
 

在數(shù)據(jù)中心的出入口,萬(wàn)國(guó)數(shù)據(jù)調(diào)動(dòng)了高級(jí)別的安保資源,在人員把控層面上確保重要設(shè)備的安全性,并禁止所有網(wǎng)絡(luò)和物理線路的變更及施工。
 

緊急供水車和應(yīng)急柴油車在現(xiàn)場(chǎng)待命,保證在市政供電供水出現(xiàn)問(wèn)題情況下有充足的后備時(shí)間,同時(shí)可以在區(qū)域內(nèi)靈活調(diào)配柴油和水資源,能迅速提供應(yīng)急保障。
 

消防方面的應(yīng)急設(shè)備同樣必不可少,以確保在火災(zāi)風(fēng)險(xiǎn)出現(xiàn)時(shí),能迅速啟動(dòng)消防應(yīng)急預(yù)案,做到萬(wàn)無(wú)一失。
 

此外,對(duì)數(shù)據(jù)中心機(jī)房環(huán)境,溫度、濕度是否正常,空調(diào)、供電系統(tǒng)是否運(yùn)行良好,地板、天窗、消防、監(jiān)控等都逐項(xiàng)做了檢查準(zhǔn)備,力保“雙11”期間正常運(yùn)行。
 

客服團(tuán)隊(duì)嚴(yán)陣以待,隨時(shí)準(zhǔn)備接待每一位客戶。工程師團(tuán)隊(duì)也全部就位,做好遠(yuǎn)程協(xié)助服務(wù)響應(yīng),保障客戶IT設(shè)備的運(yùn)行穩(wěn)定。聯(lián)同設(shè)備服務(wù)商工程師駐場(chǎng)待命,提供緊急現(xiàn)場(chǎng)支持,以便出現(xiàn)故障時(shí),和工程師團(tuán)隊(duì)共同處理,減少中間的溝通環(huán)節(jié),縮短故障處理時(shí)間。
 

“雙11”0點(diǎn)的在線交易速度和體驗(yàn)直接影響到商家的銷售量和平臺(tái)的口碑,在這種“人滿為患”的時(shí)間,龐大的商家業(yè)務(wù)背后是高達(dá)幾千G的峰值流量。為保障網(wǎng)絡(luò)的正常,通過(guò)網(wǎng)絡(luò)監(jiān)控及協(xié)同網(wǎng)絡(luò)運(yùn)營(yíng)商完成重保期間通信網(wǎng)絡(luò)的運(yùn)行保障工作和應(yīng)急響應(yīng)制度。
 

對(duì)于值得關(guān)注的重要事件,工程師進(jìn)行密切協(xié)同,根據(jù)預(yù)案進(jìn)行快速行動(dòng),讓一次次可能會(huì)擴(kuò)散的風(fēng)險(xiǎn)消弭于無(wú)形。
 

從機(jī)房基礎(chǔ)設(shè)施、電源動(dòng)力、互聯(lián)網(wǎng)出口、網(wǎng)絡(luò)安全、光纜保障等方面,期間不間斷的看護(hù)和守候,為客戶提供了堅(jiān)實(shí)的后勤保障,全力確保 “雙11”活動(dòng)順利進(jìn)行。
 

“雙11”促銷狂潮帶來(lái)的流量壓力一波波涌來(lái),得益于準(zhǔn)備充分、應(yīng)急措施得當(dāng),萬(wàn)國(guó)數(shù)據(jù)運(yùn)營(yíng)的數(shù)據(jù)中心成功應(yīng)對(duì)了“雙11”考驗(yàn),沒(méi)有出現(xiàn)任何一起安全事故,客戶的各項(xiàng)業(yè)務(wù)得以可靠有效地運(yùn)行。


標(biāo)簽: 雙11 安全運(yùn)維 

版權(quán)申明:本站文章部分自網(wǎng)絡(luò),如有侵權(quán),請(qǐng)聯(lián)系:west999com@outlook.com
特別注意:本站所有轉(zhuǎn)載文章言論不代表本站觀點(diǎn)!
本站所提供的圖片等素材,版權(quán)歸原作者所有,如需使用,請(qǐng)與原作者聯(lián)系。

上一篇:【2019IT運(yùn)維十大樣板工程】山東省城市商業(yè)銀行合作聯(lián)盟 BPC業(yè)務(wù)性能監(jiān)控項(xiàng)目

下一篇:Vicor 將在開(kāi)放式數(shù)據(jù)中心委員會(huì)峰會(huì)上展示其最新 48V 電源模塊創(chuàng)新技術(shù)