中文字幕在线观看,亚洲а∨天堂久久精品9966,亚洲成a人片在线观看你懂的,亚洲av成人片无码网站,亚洲国产精品无码久久久五月天

聯(lián)通大數(shù)據(jù) 5000 臺規(guī)模集群故障自愈實踐

2019-08-29    來源:raincent

容器云強(qiáng)勢上線!快速搭建集群,上萬Linux鏡像隨意使用

背景

作為運維人員,做得最多的工作就是日常巡檢、故障恢復(fù)。公司集群規(guī)模越龐大,故障發(fā)生率和故障實例數(shù)也在成倍增加。每天來到公司,第一件事兒就是要看看有哪些機(jī)器壞了?壞哪兒了?集群存儲還夠嗎?底層數(shù)據(jù)存儲是否均衡?然后針對每個故障逐一解決。筆者親身經(jīng)歷就是過年連懶覺都睡不成,集群故障了,一個電話過來立馬清醒,然后默默地恢復(fù)故障。這樣的經(jīng)歷我覺得每個運維人都含著淚經(jīng)歷過。

改變

通過采集分析 Prometheus 里的告警數(shù)據(jù),利用 fabric 或 ansible 等多線程安全并發(fā)遠(yuǎn)程連接工具,執(zhí)行相關(guān)角色實例的恢復(fù)工作。

 

 

fabric 建立連接執(zhí)行恢復(fù)命令。

 

 

目前集群規(guī)模將近 5000 臺,其中兩個大規(guī)模的集群節(jié)點數(shù)均為一千多臺。

目前自動化恢復(fù)涉及的集群日常運維操作有:

計算節(jié)點檢測出使用 swap 交換分區(qū),將會自動清理 swap 分區(qū)并關(guān)閉 swap 分區(qū);

計算節(jié)點檢測出時鐘偏差,將會自動糾偏時鐘偏差;

Cloudera Manager 代理掛掉,將會自動重啟;

主機(jī)檢測出有壞盤,壞盤更換完成后,自動恢復(fù);

角色實例檢測出異常掉線,自動恢復(fù)上線(如 NameNode、DataNode、ResourceManager、NodeManager 等);

集群存在多個節(jié)點多塊磁盤存儲剩余空間不足,自動進(jìn)行磁盤級別的數(shù)據(jù) Balancer;

集群存儲達(dá)到閾值,自動進(jìn)行節(jié)點級別的數(shù)據(jù) Balancer。

自動化恢復(fù)的適用場景很多,但一定要做到嚴(yán)謹(jǐn)?shù)貙ΠY下藥,并且要考慮清楚問題的嚴(yán)重性和普遍性。

以上 7 點自動恢復(fù)是集群常見故障,該類故障頻發(fā)且影響范圍較小,并不會影響集群的可用性,因此可以實施自動化恢復(fù)。

對于平臺罕見故障,且該故障有一定概率會對平臺造成部分功能性能影響的,最好的辦法是做好告警和應(yīng)急處理。

下面分享幾個自動化恢復(fù)實踐:

1)計算節(jié)點檢測出使用 swap 交換分區(qū),將會自動清理 swap 分區(qū)并關(guān)閉 swap 分區(qū)。

根據(jù)監(jiān)控數(shù)據(jù),獲取 swap 開啟的計算機(jī)點,遠(yuǎn)程連接進(jìn)行 swap 分區(qū)關(guān)閉。

def recover_HOST_MEMORY_SWAPPING(self,list):

com=("swapoff -a")
for i in range(len(list)):
con = Connection(list[i]['ipAddress'], port=22, user=user, connect_timeout=360, forward_agent=True,
connect_kwargs={'password': self.password})
con.sudo(command=com,password=self.password,shell=False,hide='stderr',encoding='utf-8',pty=True)
con.close()

2)Cloudera Manager 代理掛掉,將會自動重啟。

根據(jù)監(jiān)控數(shù)據(jù),獲取 agent 異常下線的計算節(jié)點,遠(yuǎn)程連接進(jìn)行 agent 上線操作。

def recover_HOST_SCM_HEALTH(self,list):

com=("/opt/cm-5.13.1/etc/init.d/cloudera-scm-agent restart")
for i in range(len(list)):
con = Connection(list[i]['ipAddress'], port=22, user=user, connect_timeout=360, forward_agent=True,
connect_kwargs={'password': self.password})
con.sudo(command=com,password=self.password,shell=False,hide='stderr',encoding='utf-8',pty=True)
con.close()

3)計算節(jié)點檢測出時鐘偏差,將會自動糾偏時鐘偏差。

由于集群資源每天有將近 16 小時處于打滿狀態(tài),容易造成集群部分計算節(jié)點負(fù)載過高,導(dǎo)致節(jié)點上的 DN、NM 掉線。這時候需要重啟計算節(jié)點,但重啟節(jié)點會造成機(jī)器時鐘偏差,通過監(jiān)控告警我們檢測到了時鐘偏差,接下來通過讀取 Prometheus 中的時鐘偏差節(jié)點信息,來進(jìn)行時鐘源同步操作。

 

 

具體時鐘偏差恢復(fù)的代碼實例如下:

from fabric import Connection
def recover_HOST_CLOCK_OFFSET(self,list):
com=["systemctl stop ntpd","ntpdate ntp_src","sleep 1","ntpdate ntp_src","sleep 1","ntpdate ntp_src","sleep 1","systemctl start ntpd","/opt/cm-5.13.1/etc/init.d/cloudera-scm-agent restart"]
for i in range(len(list)):
con = Connection(list[i]['ipAddress'], port=22, user=user, connect_timeout=360, forward_agent=True,
connect_kwargs={'password': self.password})
for j in range(len(com)):
con.sudo(command=com[j], password=self.password, shell=False, hide='stderr', encoding='utf-8', pty=True)
con.close()

4)集群角色異常退出。

如下圖:監(jiān)控告警發(fā)現(xiàn) NodeManager 實例發(fā)生故障實踐在 2019-08-12 04:28:02,一般這個時間段,運維人員都在深度睡眠。這時自愈程序?qū)⒏鶕?jù)告警自動恢復(fù)角色實例,恢復(fù)實踐周期在 5 分鐘之內(nèi),于 2019-08-12 04:32:02 DN 實例和 NM 實例恢復(fù)上線。

 

 

 

 

當(dāng)前集群使用的 CDH5.13.1 版本,可以直接通過 CM_API 實現(xiàn)角色實例自愈,如果是手工搭建版本,可以使用 fabric 或者 Paramiko 連接到節(jié)點啟動相應(yīng)角色實例。

「CM_API 使用說明」參考鏈接: https://cloudera.github.io/cm_api/docs/python-client-swagger/

具體 DN 角色自愈代碼如下:

import cm_client
api_url = api_host + ':' + port + '/api/' + api_version
api_client = cm_client.ApiClient(api_url)
cluster_api_instance = cm_client.ClustersResourceApi(api_client)

# Lists all known clusters.
api_response = cluster_api_instance.read_clusters(view='SUMMARY')
for cluster in api_response.items:
print (cluster.name, "-", cluster.full_version)


if cluster.full_version.startswith("5."):
services_api_instance = cm_client.ServicesResourceApi(api_client)
services = services_api_instance.read_services(cluster.name, view='FULL')

for service in services.items:
#print (service.name)
if service.type == 'HDFS':
hdfs = service
if cluster.full_version.startswith("5."):
roles_api_instance = cm_client.RolesResourceApi(api_client)

// 根據(jù)集群名稱,服務(wù)實例名稱獲取相對應(yīng)的角色實例列表
role_response = roles_api_instance.read_roles(cluster.name, hdfs.name, view='FULL')
// 獲取狀態(tài)為 bad 的 dn 角色實例(手工搭建集群可以通過讀取 prometheus 的告警數(shù)據(jù)進(jìn)行掉線角色實例的恢復(fù)。)
bad_dn_roles = [role.name for role in role_response.items if (role.type == 'DATANODE' and role.health_summary == 'BAD')]
roles_cmd_api_instance = cm_client.RoleCommandsResourceApi(api_client)
role_names = cm_client.ApiRoleNameList(bad_dn_roles)
// 重啟角色實例
cmd_list = roles_cmd_api_instance.restart_command(cluster.name, hdfs.name, body=role_names)
for cmd in cmd_list.items:
print (cmd.name, "(", cmd.id, cmd.active, cmd.success, ")")

執(zhí)行完成后,返回執(zhí)行結(jié)果:

 

 

5)集群個別節(jié)點上的磁盤存儲超過 90% 的閾值。

背景:集群節(jié)點數(shù)過多后,默認(rèn)的數(shù)據(jù)落盤策略為輪訓(xùn),由于部分節(jié)點存儲異構(gòu),會導(dǎo)致有部分節(jié)點存儲打滿,這時我們可以修改數(shù)據(jù)落盤策略為剩余空間策略,即根據(jù)節(jié)點剩余存儲空間的多少來決定數(shù)據(jù)優(yōu)先落盤的順序。

但是,即使這樣解決了節(jié)點存儲的均衡,也不能解決個別磁盤的存儲打滿,在 Apache 社區(qū)的 Hadoop3 版本中 dfs.disk.balancer 才可以使用。在 CDH5.13.1 的 Hadoop2.6.0 版本,已經(jīng)可以使用該功能。但是磁盤何時快打滿無法預(yù)測,并且在大規(guī)模集群中,往往多了一個賬期的數(shù)據(jù),就會有大量的磁盤達(dá)到存儲告警閾值。當(dāng) HDFS 集群單節(jié)點內(nèi)部多塊數(shù)據(jù)硬盤數(shù)據(jù)傾斜時,會造成熱點硬盤使用量激增,甚至打滿,此時集群 balance 是無用的,就需要用 DiskBalancer,這時我們就可以根據(jù)告警信息來自動化的進(jìn)行磁盤數(shù)據(jù)均衡。

開啟方法:

修改 hdfs-site.xml 文件。

 

 

true 表示開啟 DiskBalancer。

命令:

hdfs diskbalancer -[command] [options]

command:

♦ plan(制定平衡計劃)

可執(zhí)行參數(shù):

–bandwidth :平衡帶寬,默認(rèn)單位 M/S
–out :計劃輸出目錄
–v: 輸出計劃

♦ execute(執(zhí)行計劃)
♦ query(查詢進(jìn)度)
♦ cancel(取消計劃)

實例:

DN 節(jié)點 lf-319-sq210 發(fā)生數(shù)據(jù)傾斜。

 

 

登陸到 lf-319-sq210 主機(jī),切換至 HDFS 用戶。

制定平衡計劃:

hdfs diskbalancer -plan lf-319-sq210.plan.json --out ~/2019-Jul-20-15-25-29 --thresholdPercentage 10

 

 

執(zhí)行平衡計劃:

hdfs diskbalancer -execute /var/lib/hadoop-hdfs/2019-Jul-20-15-25-29/lf-319-sq210.plan.json

 

 

查詢計劃:

hdfs diskbalancer -query lf-319-sq210

 

 

圈中部分為正在進(jìn)行,PLAN_DONE 為完成。

過一段時間觀察 lf-319-sq210 磁盤情況:

 

 

可以清晰的看出,磁盤已經(jīng)開始平衡了。

以上是磁盤級別的數(shù)據(jù)平衡操作步驟,以下是通過 fabric 進(jìn)行遠(yuǎn)程命令的執(zhí)行,以實現(xiàn)自動化恢復(fù)。

def recover_DATA_NODE_FREE_SPACE_REMAINING(self,list):
com=("su hdfs -c 'whoami;export JAVA_HOME=/opt/jdk;export CLASSPATH=.:$JAVA_HOME/lib:$CLASSPATH;export PATH=$JAVA_HOME/bin:$PATH;hdfs diskbalancer -plan $HOSTNAME.plan.json --out ~/`date \'+diskbalancer_%Y_%m_%d\'` --thresholdPercentage 10;sleep 5;hdfs diskbalancer -execute /var/lib/hadoop-hdfs/`date \'+diskbalancer_%Y_%m_%d\'`/$HOSTNAME.plan.json'")
for i in range(len(list)):
con = Connection(list[i]['ipAddress'], port=22, user=user, connect_timeout=360, forward_agent=True,
connect_kwargs={'password': self.password})
con.sudo(command=com,password=self.password,shell=False,hide='stderr',encoding='utf-8',pty=True)
con.close()

集群自愈也是大規(guī)模集群治理工作的一項重要環(huán)節(jié),遵循降本增效、安全至上的原則,能減少運維人員的大量常規(guī)工作量,也能及時有效地恢復(fù)故障,減少小故障引發(fā)集群大事故的可能性。

作者介紹:

余澈,中國聯(lián)通大數(shù)據(jù)技術(shù)部平臺組核心技術(shù)負(fù)責(zé)人,項目管理高級工程師,具有多年大數(shù)據(jù)平臺運維管理及開發(fā)優(yōu)化經(jīng)驗。管理過多個上千節(jié)點集群,擅長對外多租戶平臺的維護(hù)開發(fā)。信科院大數(shù)據(jù)性能測試、功能測試主力,大廠 PK 獲得雙項第一。

標(biāo)簽: 聯(lián)通大數(shù)據(jù)

版權(quán)申明:本站文章部分自網(wǎng)絡(luò),如有侵權(quán),請聯(lián)系:west999com@outlook.com
特別注意:本站所有轉(zhuǎn)載文章言論不代表本站觀點!
本站所提供的圖片等素材,版權(quán)歸原作者所有,如需使用,請與原作者聯(lián)系。

上一篇:淺談“完美無瑕”的分布式系統(tǒng)

下一篇:10+ JavaScript 數(shù)據(jù)可視化庫