中文字幕在线观看,亚洲а∨天堂久久精品9966,亚洲成a人片在线观看你懂的,亚洲av成人片无码网站,亚洲国产精品无码久久久五月天

Apache Flink進階(一):Runtime核心機制剖析

2019-09-09    來源:raincent

容器云強勢上線!快速搭建集群,上萬Linux鏡像隨意使用

本文主要介紹 Flink Runtime 的作業(yè)執(zhí)行的核心機制。如果你對于 Apache  Flink  了解不多,可以先閱讀 Apache  Flink  零基礎入門系列文章。

1. 綜述

本文將首先介紹 Flink Runtime 的整體架構(gòu)以及 Job 的基本執(zhí)行流程,然后介紹在這個過程中 Flink 是怎么進行資源管理、作業(yè)調(diào)度以及錯誤恢復的。最后,本文還將簡要介紹 Flink Runtime 層當前正在進行的一些工作。

2. Flink Runtime 整體架構(gòu)

Flink 的整體架構(gòu)如圖 1 所示。Flink 是可以運行在多種不同的環(huán)境中的,例如,它可以通過單進程多線程的方式直接運行,從而提供調(diào)試的能力。它也可以運行在 Yarn 或者 K8S 這種資源管理系統(tǒng)上面,也可以在各種云環(huán)境中執(zhí)行。

 

 

圖 1. Flink 的整體架構(gòu),其中 Runtime 層對不同的執(zhí)行環(huán)境提供了一套統(tǒng)一的分布式執(zhí)行引擎。

針對不同的執(zhí)行環(huán)境,F(xiàn)link 提供了一套統(tǒng)一的分布式作業(yè)執(zhí)行引擎,也就是 Flink Runtime 這層。Flink 在 Runtime 層之上提供了 DataStream 和 DataSet 兩套 API,分別用來編寫流作業(yè)與批作業(yè),以及一組更高級的 API 來簡化特定作業(yè)的編寫。本文主要介紹 Flink Runtime 層的整體架構(gòu)。

Flink Runtime 層的主要架構(gòu)如圖 2 所示,它展示了一個 Flink 集群的基本結(jié)構(gòu)。Flink Runtime 層的整個架構(gòu)主要是在 FLIP-6 中實現(xiàn)的,整體來說,它采用了標準 master-slave 的結(jié)構(gòu),其中左側(cè)白色圈中的部分即是 master,它負責管理整個集群中的資源和作業(yè);而右側(cè)的兩個 TaskExecutor 則是 Slave,負責提供具體的資源并實際執(zhí)行作業(yè)。

 

 

圖 2. Flink 集群的基本結(jié)構(gòu)。Flink Runtime 層采用了標準的 master-slave 架構(gòu)。

其中,Master 部分又包含了三個組件,即 Dispatcher、ResourceManager 和 JobManager。其中,Dispatcher 負責接收用戶提供的作業(yè),并且負責為這個新提交的作業(yè)拉起一個新的 JobManager 組件。ResourceManager 負責資源的管理,在整個 Flink 集群中只有一個 ResourceManager。JobManager 負責管理作業(yè)的執(zhí)行,在一個 Flink 集群中可能有多個作業(yè)同時執(zhí)行,每個作業(yè)都有自己的 JobManager 組件。這三個組件都包含在 AppMaster 進程中。

基于上述結(jié)構(gòu),當用戶提交作業(yè)的時候,提交腳本會首先啟動一個 Client 進程負責作業(yè)的編譯與提交。它首先將用戶編寫的代碼編譯為一個 JobGraph,在這個過程,它還會進行一些檢查或優(yōu)化等工作,例如判斷哪些 Operator 可以 Chain 到同一個 Task 中。然后,Client 將產(chǎn)生的 JobGraph 提交到集群中執(zhí)行。此時有兩種情況,一種是類似于 Standalone 這種 Session 模式,AM 會預先啟動,此時 Client 直接與 Dispatcher 建立連接并提交作業(yè)即可。另一種是 Per-Job 模式,AM 不會預先啟動,此時 Client 將首先向資源管理系統(tǒng) (如 Yarn、K8S)申請資源來啟動 AM,然后再向 AM 中的 Dispatcher 提交作業(yè)。

當作業(yè)到 Dispatcher 后,Dispatcher 會首先啟動一個 JobManager 組件,然后 JobManager 會向 ResourceManager 申請資源來啟動作業(yè)中具體的任務。這時根據(jù) Session 和 Per-Job 模式的區(qū)別, TaskExecutor 可能已經(jīng)啟動或者尚未啟動。如果是前者,此時 ResourceManager 中已有記錄了 TaskExecutor 注冊的資源,可以直接選取空閑資源進行分配。否則,ResourceManager 也需要首先向外部資源管理系統(tǒng)申請資源來啟動 TaskExecutor,然后等待 TaskExecutor 注冊相應資源后再繼續(xù)選擇空閑資源進程分配。目前 Flink 中 TaskExecutor 的資源是通過 Slot 來描述的,一個 Slot 一般可以執(zhí)行一個具體的 Task,但在一些情況下也可以執(zhí)行多個相關聯(lián)的 Task,這部分內(nèi)容將在下文進行詳述。ResourceManager 選擇到空閑的 Slot 之后,就會通知相應的 TM “將該 Slot 分配分 JobManager XX ”,然后 TaskExecutor 進行相應的記錄后,會向 JobManager 進行注冊。JobManager 收到 TaskExecutor 注冊上來的 Slot 后,就可以實際提交 Task 了。

TaskExecutor 收到 JobManager 提交的 Task 之后,會啟動一個新的線程來執(zhí)行該 Task。Task 啟動后就會開始進行預先指定的計算,并通過數(shù)據(jù) Shuffle 模塊互相交換數(shù)據(jù)。

以上就是 Flink Runtime 層執(zhí)行作業(yè)的基本流程?梢钥闯,F(xiàn)link 支持兩種不同的模式,即 Per-job 模式與 Session 模式。如圖 3 所示,Per-job 模式下整個 Flink 集群只執(zhí)行單個作業(yè),即每個作業(yè)會獨享 Dispatcher 和 ResourceManager 組件。此外,Per-job 模式下 AppMaster 和 TaskExecutor 都是按需申請的。因此,Per-job 模式更適合運行執(zhí)行時間較長的大作業(yè),這些作業(yè)對穩(wěn)定性要求較高,并且對申請資源的時間不敏感。與之對應,在 Session 模式下,F(xiàn)link 預先啟動 AppMaster 以及一組 TaskExecutor,然后在整個集群的生命周期中會執(zhí)行多個作業(yè)?梢钥闯,Session 模式更適合規(guī)模小,執(zhí)行時間短的作業(yè)。

 

 

圖 3. Flink Runtime 支持兩種作業(yè)執(zhí)行的模式。

3. 資源管理與作業(yè)調(diào)度

本節(jié)對 Flink 中資源管理與作業(yè)調(diào)度的功能進行更深入的說明。實際上,作業(yè)調(diào)度可以看做是對資源和任務進行匹配的過程。如上節(jié)所述,在 Flink 中,資源是通過 Slot 來表示的,每個 Slot 可以用來執(zhí)行不同的 Task。而在另一端,任務即 Job 中實際的 Task,它包含了待執(zhí)行的用戶邏輯。調(diào)度的主要目的就是為了給 Task 找到匹配的 Slot。邏輯上來說,每個 Slot 都應該有一個向量來描述它所能提供的各種資源的量,每個 Task 也需要相應的說明它所需要的各種資源的量。但是實際上在 1.9 之前,F(xiàn)link 是不支持細粒度的資源描述的,而是統(tǒng)一的認為每個 Slot 提供的資源和 Task 需要的資源都是相同的。從 1.9 開始,F(xiàn)link 開始增加對細粒度的資源匹配的支持的實現(xiàn),但這部分功能目前仍在完善中。

作業(yè)調(diào)度的基礎是首先提供對資源的管理,因此我們首先來看下 Flink 中資源管理的實現(xiàn)。如上文所述,F(xiàn)link 中的資源是由 TaskExecutor 上的 Slot 來表示的。如圖 4 所示,在 ResourceManager 中,有一個子組件叫做 SlotManager,它維護了當前集群中所有 TaskExecutor 上的 Slot 的信息與狀態(tài),如該 Slot 在哪個 TaskExecutor 中,該 Slot 當前是否空閑等。當 JobManger 來為特定 Task 申請資源的時候,根據(jù)當前是 Per-job 還是 Session 模式,ResourceManager 可能會去申請資源來啟動新的 TaskExecutor。當 TaskExecutor 啟動之后,它會通過服務發(fā)現(xiàn)找到當前活躍的 ResourceManager 并進行注冊。在注冊信息中,會包含該 TaskExecutor 中所有 Slot 的信息。 ResourceManager 收到注冊信息后,其中的 SlotManager 就會記錄下相應的 Slot 信息。當 JobManager 為某個 Task 來申請資源時, SlotManager 就會從當前空閑的 Slot 中按一定規(guī)則選擇一個空閑的 Slot 進行分配。當分配完成后,如第 2 節(jié)所述,RM 會首先向 TaskManager 發(fā)送 RPC 要求將選定的 Slot 分配給特定的 JobManager。TaskManager 如果還沒有執(zhí)行過該 JobManager 的 Task 的話,它需要首先向相應的 JobManager 建立連接,然后發(fā)送提供 Slot 的 RPC 請求。在 JobManager 中,所有 Task 的請求會緩存到 SlotPool 中。當有 Slot 被提供之后,SlotPool 會從緩存的請求中選擇相應的請求并結(jié)束相應的請求過程。

 

 

圖 4. Flink 中資源管理功能各模塊交互關系。

當 Task 結(jié)束之后,無論是正常結(jié)束還是異常結(jié)束,都會通知 JobManager 相應的結(jié)束狀態(tài),然后在 TaskManager 端將 Slot 標記為已占用但未執(zhí)行任務的狀態(tài)。JobManager 會首先將相應的 Slot 緩存到 SlotPool 中,但不會立即釋放。這種方式避免了如果將 Slot 直接還給 ResourceManager,在任務異常結(jié)束之后需要重啟時,需要立刻重新申請 Slot 的問題。通過延時釋放,F(xiàn)ailover 的 Task 可以盡快調(diào)度回原來的 TaskManager,從而加快 Failover 的速度。當 SlotPool 中緩存的 Slot 超過指定的時間仍未使用時,SlotPool 就會發(fā)起釋放該 Slot 的過程。與申請 Slot 的過程對應,SlotPool 會首先通知 TaskManager 來釋放該 Slot,然后 TaskExecutor 通知 ResourceManager 該 Slot 已經(jīng)被釋放,從而最終完成釋放的邏輯。

除了正常的通信邏輯外,在 ResourceManager 和 TaskExecutor 之間還存在定時的心跳消息來同步 Slot 的狀態(tài)。在分布式系統(tǒng)中,消息的丟失、錯亂不可避免,這些問題會在分布式系統(tǒng)的組件中引入不一致狀態(tài),如果沒有定時消息,那么組件無法從這些不一致狀態(tài)中恢復。此外,當組件之間長時間未收到對方的心跳時,就會認為對應的組件已經(jīng)失效,并進入到 Failover 的流程。

在 Slot 管理基礎上,F(xiàn)link 可以將 Task 調(diào)度到相應的 Slot 當中。如上文所述,F(xiàn)link 尚未完全引入細粒度的資源匹配,默認情況下,每個 Slot 可以分配給一個 Task。但是,這種方式在某些情況下會導致資源利用率不高。如圖 5 所示,假如 A、B、C 依次執(zhí)行計算邏輯,那么給 A、B、C 分配分配單獨的 Slot 就會導致資源利用率不高。為了解決這一問題,F(xiàn)link 提供了 Share Slot 的機制。如圖 5 所示,基于 Share Slot,每個 Slot 中可以部署來自不同 JobVertex 的多個任務,但是不能部署來自同一個 JobVertex 的 Task。如圖 5 所示,每個 Slot 中最多可以部署同一個 A、B 或 C 的 Task,但是可以同時部署 A、B 和 C 的各一個 Task。當單個 Task 占用資源較少時,Share Slot 可以提高資源利用率。 此外,Share Slot 也提供了一種簡單的保持負載均衡的方式。

 

 

圖 5.Flink Share Slot 示例。使用 Share Slot 可以在每個 Slot 中部署來自不同 JobVertex 的多個 Task。

基于上述 Slot 管理和分配的邏輯,JobManager 負責維護作業(yè)中 Task 執(zhí)行的狀態(tài)。如上文所述,Client 端會向 JobManager 提交一個 JobGraph,它代表了作業(yè)的邏輯結(jié)構(gòu)。JobManager 會根據(jù) JobGraph 按并發(fā)展開,從而得到 JobManager 中關鍵的 ExecutionGraph。ExecutionGraph 的結(jié)構(gòu)如圖 5 所示,與 JobGraph 相比,ExecutionGraph 中對于每個 Task 與中間結(jié)果等均創(chuàng)建了對應的對象,從而可以維護這些實體的信息與狀態(tài)。

 

 

圖 6.Flink 中的 JobGraph 與 ExecutionGraph。ExecutionGraph 是 JobGraph 按并發(fā)展開所形成的,它是 JobMaster 中的核心數(shù)據(jù)結(jié)構(gòu)。

在一個 Flink Job 中是包含多個 Task 的,因此另一個關鍵的問題是在 Flink 中按什么順序來調(diào)度 Task。如圖 7 所示,目前 Flink 提供了兩種基本的調(diào)度邏輯,即 Eager 調(diào)度與 Lazy From Source。Eager 調(diào)度如其名子所示,它會在作業(yè)啟動時申請資源將所有的 Task 調(diào)度起來。這種調(diào)度算法主要用來調(diào)度可能沒有終止的流作業(yè)。與之對應,Lazy From Source 則是從 Source 開始,按拓撲順序來進行調(diào)度。簡單來說,Lazy From Source 會先調(diào)度沒有上游任務的 Source 任務,當這些任務執(zhí)行完成時,它會將輸出數(shù)據(jù)緩存到內(nèi)存或者寫入到磁盤中。然后,對于后續(xù)的任務,當它的前驅(qū)任務全部執(zhí)行完成后,F(xiàn)link 就會將這些任務調(diào)度起來。這些任務會從讀取上游緩存的輸出數(shù)據(jù)進行自己的計算。這一過程繼續(xù)進行直到所有的任務完成計算。

 

 

圖 7. Flink 中兩種基本的調(diào)度策略。其中 Eager 調(diào)度適用于流作業(yè),而 Lazy From Source 適用于批作業(yè)。

4. 錯誤恢復

在 Flink 作業(yè)的執(zhí)行過程中,除正常執(zhí)行的流程外,還有可能由于環(huán)境等原因?qū)е赂鞣N類型的錯誤。整體上來說,錯誤可能分為兩大類:Task 執(zhí)行出現(xiàn)錯誤或 Flink 集群的 Master 出現(xiàn)錯誤。由于錯誤不可避免,為了提高可用性,F(xiàn)link 需要提供自動錯誤恢復機制來進行重試。

對于第一類 Task 執(zhí)行錯誤,F(xiàn)link 提供了多種不同的錯誤恢復策略。如圖 8 所示,第一種策略是 Restart-all,即直接重啟所有的 Task。對于 Flink 的流任務,由于 Flink 提供了 Checkpoint 機制,因此當任務重啟后可以直接從上次的 Checkpoint 開始繼續(xù)執(zhí)行。因此這種方式更適合于流作業(yè)。第二類錯誤恢復策略是 Restart-individual,它只適用于 Task 之間沒有數(shù)據(jù)傳輸?shù)那闆r。這種情況下,我們可以直接重啟出錯的任務。

 

 

圖 8.Restart-all 錯誤恢復策略示例。該策略會直接重啟所有的 Task。

 

 

圖 9.Restart-individual 錯誤恢復策略示例。該策略只適用于 Task 之間不需要數(shù)據(jù)傳輸?shù)淖鳂I(yè),對于這種作業(yè)可以只重啟出現(xiàn)錯誤的 Task。

由于 Flink 的批作業(yè)沒有 Checkpoint 機制,因此對于需要數(shù)據(jù)傳輸?shù)淖鳂I(yè),直接重啟所有 Task 會導致作業(yè)從頭計算,從而導致一定的性能問題。為了增強對 Batch 作業(yè),F(xiàn)link 在 1.9 中引入了一種新的 Region-Based 的 Failover 策略。在一個 Flink 的 Batch 作業(yè)中 Task 之間存在兩種數(shù)據(jù)傳輸方式,一種是 Pipeline 類型的方式,這種方式上下游 Task 之間直接通過網(wǎng)絡傳輸數(shù)據(jù),因此需要上下游同時運行;另外一種是 Blocking 類型的試,如上節(jié)所述,這種方式下,上游的 Task 會首先將數(shù)據(jù)進行緩存,因此上下游的 Task 可以單獨執(zhí)行;谶@兩種類型的傳輸,F(xiàn)link 將 ExecutionGraph 中使用 Pipeline 方式傳輸數(shù)據(jù)的 Task 的子圖叫做 Region,從而將整個 ExecutionGraph 劃分為多個子圖。可以看出,Region 內(nèi)的 Task 必須同時重啟,而不同 Region 的 Task 由于在 Region 邊界存在 Blocking 的邊,因此,可以單獨重啟下游 Region 中的 Task。

基于這一思路, 如果某個 Region 中的某個 Task 執(zhí)行出現(xiàn)錯誤,可以分兩種情況進行考慮。如圖 8 所示,如果是由于 Task 本身的問題發(fā)生錯誤,那么可以只重啟該 Task 所屬的 Region 中的 Task,這些 Task 重啟之后,可以直接拉取上游 Region 緩存的輸出結(jié)果繼續(xù)進行計算。

另一方面,如圖如果錯誤是由于讀取上游結(jié)果出現(xiàn)問題,如網(wǎng)絡連接中斷、緩存上游輸出數(shù)據(jù)的 TaskExecutor 異常退出等,那么還需要重啟上游 Region 來重新產(chǎn)生相應的數(shù)據(jù)。在這種情況下,如果上游 Region 輸出的數(shù)據(jù)分發(fā)方式不是確定性的(如 KeyBy、Broadcast 是確定性的分發(fā)方式,而 Rebalance、Random 則不是,因為每次執(zhí)行會產(chǎn)生不同的分發(fā)結(jié)果),為保證結(jié)果正確性,還需要同時重啟上游 Region 所有的下游 Region。

 

 

圖 10.Region-based 錯誤恢復策略示例一。如果是由于下游任務本身導致的錯誤,可以只重啟下游對應的 Region。

 

 

圖 11.Region-based 錯誤恢復策略示例二。如果是由于上游失敗導致的錯誤,那么需要同時重啟上游的 Region 和下游的 Region。實際上,如果下游的輸出使用了非確定的數(shù)據(jù)分割方式,為了保持數(shù)據(jù)一致性,還需要同時重啟所有上游 Region 的下游 Region。

除了 Task 本身執(zhí)行的異常外,另一類異常是 Flink 集群的 Master 進行發(fā)生異常。目前 Flink 支持啟動多個 Master 作為備份,這些 Master 可以通過 ZK 來進行選主,從而保證某一時刻只有一個 Master 在運行。當前活路的 Master 發(fā)生異常時, 某個備份的 Master 可以接管協(xié)調(diào)的工作。為了保證 Master 可以準確維護作業(yè)的狀態(tài),F(xiàn)link 目前采用了一種最簡單的實現(xiàn)方式,即直接重啟整個作業(yè)。實際上,由于作業(yè)本身可能仍在正常運行,因此這種方式存在一定的改進空間。

5. 未來展望

Flink 目前仍然在 Runtime 部分進行不斷的迭代和更新。目前來看,F(xiàn)link 未來可能會在以下幾個方式繼續(xù)進行優(yōu)化和擴展:

更完善的資源管理:從 1.9 開始 Flink 開始了對細粒度資源匹配的支持;诩毩6鹊馁Y源匹配,用戶可以為 TaskExecutor 和 Task 設置實際提供和使用的 CPU、內(nèi)存等資源的數(shù)量,F(xiàn)link 可以按照資源的使用情況進行調(diào)度。這一機制允許用戶更大范圍的控制作業(yè)的調(diào)度,從而為進一步提高資源利用率提供了基礎。

統(tǒng)一的 Stream 與 Batch:Flink 目前為流和批分別提供了 DataStream 和 DataSet 兩套接口,在一些場景下會導致重復實現(xiàn)邏輯的問題。未來 Flink 會將流和批的接口都統(tǒng)一到 DataStream 之上。

更靈活的調(diào)度策略:Flink 從 1.9 開始引入調(diào)度插件的支持,從而允許用戶來擴展實現(xiàn)自己的調(diào)度邏輯。未來 Flink 也會提供更高性能的調(diào)度策略的實現(xiàn)。

Master Failover 的優(yōu)化:如上節(jié)所述,目前 Flink 在 Master Failover 時需要重啟整個作業(yè),而實際上重啟作業(yè)并不是必須的邏輯。Flink 未來會對 Master failover 進行進一步的優(yōu)化來避免不必要的作業(yè)重啟。

標簽:  Flink 

版權(quán)申明:本站文章部分自網(wǎng)絡,如有侵權(quán),請聯(lián)系:west999com@outlook.com
特別注意:本站所有轉(zhuǎn)載文章言論不代表本站觀點!
本站所提供的圖片等素材,版權(quán)歸原作者所有,如需使用,請與原作者聯(lián)系。

上一篇:《數(shù)據(jù)安全能力成熟度模型》成國標,明年3月實施

下一篇:TensorFlow與PyTorch之爭,哪個框架最適合深度學習