超融合架構(gòu)技術(shù)白皮書_第1頁
超融合架構(gòu)技術(shù)白皮書_第2頁
超融合架構(gòu)技術(shù)白皮書_第3頁
超融合架構(gòu)技術(shù)白皮書_第4頁
超融合架構(gòu)技術(shù)白皮書_第5頁
已閱讀5頁,還剩109頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認(rèn)領(lǐng)

文檔簡介

3 3 42XX超融合技術(shù)架構(gòu) 62.1超融合架構(gòu)概述 6 62.2XX超融合架構(gòu)組成模塊 6 62.3aSV計算虛擬化平臺 7 72.3.2aSV技術(shù)原理 82.3.3aSV的技術(shù)特性 192.3.4aSV的特色技術(shù) 242.4aSAN存儲虛擬化 28 282.4.2aSAN技術(shù)原理 292.4.3aSAN存儲數(shù)據(jù)可靠性保障 412.4.4XXaSAN功能特性 482.5aNet網(wǎng)絡(luò)虛擬化 49 492.5.2aNET網(wǎng)絡(luò)虛擬化技術(shù)原理 502.5.3aNet功能特性 562.5.4XXaNet的特色技術(shù) 573XX超融合架構(gòu)產(chǎn)品介紹 錯誤!未定義書簽。 錯誤!未定義書簽。 錯誤!未定義書簽。4XX超融合架構(gòu)帶來的核心價值 60 60 20世紀(jì)90年代,隨著Windows的廣泛使用及Linux服務(wù)器操作系統(tǒng)的我們現(xiàn)在正處于一場幾十年未見的企業(yè)級數(shù)據(jù)中心革命性轉(zhuǎn)變中,究其核心,這一轉(zhuǎn)變是由“軟件”基礎(chǔ)設(shè)施的崛起而驅(qū)動。虛擬機、虛擬網(wǎng)絡(luò)和存儲設(shè)備能夠以高速自動化的方式分配與重新配置,不會受到非動態(tài)設(shè)置的硬件基礎(chǔ)設(shè)施的限制,在“軟件定義數(shù)據(jù)中心”的模型下,用戶首先考慮的是應(yīng)用,根據(jù)應(yīng)用的模式便可靈活的調(diào)配其所需的IT基礎(chǔ)架構(gòu)資源,也就是通過軟件化足上面所述的虛擬化,標(biāo)準(zhǔn)化和自動化訴求外,秉承XX公司產(chǎn)品的優(yōu)秀基因,本書介紹的內(nèi)容大致如下:第一章、在前言部分,給您對云計算,云平臺有一個概括性的認(rèn)識,并對第二章、講述超融合架構(gòu)中的主要功能模塊,各個功能模塊的技術(shù)細(xì)節(jié)介第三章、介紹XX超融合架構(gòu)涵蓋的產(chǎn)品。第三章、向您介紹XX超融合架構(gòu)中的技術(shù)在為客戶帶來的核心價值。第四章、分享超融合架構(gòu)在客戶中的實際應(yīng)用場景,并給出XX超融合架構(gòu)22XX超融合技術(shù)架構(gòu)2.1.1超融合架構(gòu)的定義2.2.1系統(tǒng)總體架構(gòu)VMVMVMVMaSV服務(wù)器虛擬化通用交換機aSwitchvSSLaNET網(wǎng)絡(luò)虛擬化通用X86服務(wù)器aSAN存儲虛擬化XX超融合架構(gòu)圖所后續(xù)章節(jié),會針對超融合架構(gòu)中的三大功能模塊:aSV、aSAN、aNet所計算資源虛擬化技術(shù)就是將通用的x86服務(wù)器經(jīng)過虛擬化軟件,對最終用戶呈現(xiàn)標(biāo)準(zhǔn)的虛擬機。這些虛擬機就像同一個廠家生產(chǎn)的系列化的產(chǎn)品一樣,虛擬機的定義:虛擬機(VirtualMachine)是由虛擬化層提供的高效、獨立的虛擬計算機系統(tǒng),每臺虛擬機都是一個完整的系統(tǒng),它具有處理器、內(nèi)存、虛擬機與物理服務(wù)器相比:虛擬機不是由真實的電子元件組成,而是由一組虛擬組件(文件)組成,這些虛擬組件與物理服務(wù)器的硬件配置無關(guān),關(guān)鍵抽象解耦2.可便捷地將整個系統(tǒng)(包括虛擬硬件、操作系統(tǒng)和配置好的應(yīng)用程序)遷移;擬機監(jiān)視器(VirtualMachineMonitor)。TypeType-I:裸金屬梁構(gòu)Hypervisor,常見的Hypervisor分兩類:Type-I(裸金屬型)實硬件資源的訪問都要通過VMM來完成,作為底層硬件的直接操作者,系統(tǒng)。這種方案的性能處于主機虛擬化與操作系統(tǒng)虛擬化之間。代表是VMwareESXServer、CitrixXenServer和MicrosoftHyper-V,LinuxK內(nèi)核,導(dǎo)致性能是三種虛擬化技術(shù)中最差的。主機虛擬化技術(shù)代表是中的LinuxKVM虛擬化,即為TypeCPU,并可利用它編譯出可運行在powerkvm用戶空間種模式:客戶模式(有自己的內(nèi)核和用戶模式)。在kvm模型中,每一個虛擬動使用字符設(shè)備/dev/kvm作為管理接口;另一個是模擬PC硬件的用戶空間組件,這是一個稍作修改的qemu進程。同時,aSV采用KVM優(yōu)勢有:嵌入到Linux正式Kernel(提高兼容性)代碼級資源調(diào)用(提高性能)虛擬機就是一個進程(內(nèi)存易于管理)>直接支持NUMA技術(shù)(提高擴展性)>保持開源發(fā)展模式(強大的社區(qū)支持)經(jīng)典的虛擬化方法就是使用“特權(quán)解除”和“陷入-模擬”的方式,即將GuestOS運行在非特權(quán)級,而將VMM運行于最高特權(quán)級(完全控制系統(tǒng)資不是特權(quán)指令(稱為臨界指令),因此“特權(quán)解除”并不能導(dǎo)致他們發(fā)生陷入測,捕捉后模擬”的過程進行優(yōu)化。該派內(nèi)部之實現(xiàn)又有些差別,其中以行時將VM上執(zhí)行的GuestOS指令,翻譯成x86指令集的一個子集,其中的敏感指令被替換成陷入指令。翻譯過程與指令執(zhí)行交叉進行,不含敏感指令的改)半虛擬化的基本思想是通過修改GuestOS的代碼,將含有敏感指令的操作,替換為對VMM的超調(diào)用Hypercall,類似OS的系統(tǒng)調(diào)用,將控制權(quán)轉(zhuǎn)移到VMM,該技術(shù)因VMM項目而廣為人知。該技術(shù)的優(yōu)勢在于VM的性能能接近于物理機,缺點在于需要修改GuestOS(如:Windows不支持修改)及增加的維護成本,關(guān)鍵修改GuestOS會導(dǎo)致操作系統(tǒng)對特定hypervisor的依賴性,因此很多虛擬化廠商基于VMM開發(fā)的虛擬化產(chǎn)品部分已經(jīng)放棄了Linux半虛擬化,而專注基于硬件輔助的全虛擬化開發(fā),來支持未經(jīng)修改的操作系統(tǒng)。3、X86“硬件輔助虛擬化”其基本思想就是引入新的處理器運行模式和新的指令,使得VMM和GuestOS運行于不同的模式下,GuestOS運行于受控模式指令在受控模式下全部會陷入VMM,這樣就解決了部分非特權(quán)的敏感指令的“陷入-模擬”難題,而且模式切換時上下文的保存恢復(fù)由硬件來完成,這樣就種處理器工作模式:根(Root)操作模式和非根(Non-root)操作模式。VMM運作在Root操作模式下,而GuestOS運行在Non-root操作模式下。運行在這兩個操作模式的0環(huán)。這樣,既能使VMM運行在0環(huán),也能使GuestOS運行在0環(huán),避免了修改GuestOS。Root操作模式和Non-root操作模式的切換是通過新增的CPU指令(如:VMXON,VMXOFF)來完成。支持任何操作系統(tǒng)的虛擬化而無須修改OS內(nèi)核,得到了虛擬化軟件廠商的支持。硬件輔助虛擬化技術(shù)已經(jīng)逐漸消除軟件虛擬化技術(shù)之間的差別,并成為未vCPU機制Gos物理CPU:每個物理CPU關(guān)聯(lián)著一個C執(zhí)行隊列1敏混度:VMM費責(zé)CFUEpCFU上的調(diào)度vCPU調(diào)度機制對虛擬機來說,不直接感知物理CPU,虛擬機的計算單元通過vCPU對象來呈現(xiàn)。虛擬機只看到VMM呈現(xiàn)給它的vCPU。在VMM中,每個vCPU對應(yīng)一個VMCS(Virtual-MachineControlStructure)結(jié)構(gòu),當(dāng)vcpu被從物理CPU上切換下來的時候,其運行上下文會被保存在其對應(yīng)的VMCS結(jié)構(gòu)中;GomtosGu*tO當(dāng)vcpu被切換到pcpu上運行時,其運行上下文會從對應(yīng)的VMCS結(jié)構(gòu)中導(dǎo)入到物理CPU上。通過這種方式,實現(xiàn)各vCPU之間的獨立運行。從虛擬機系統(tǒng)的結(jié)構(gòu)與功能劃分可以看出,客戶操作系統(tǒng)與虛擬機監(jiān)視器共同構(gòu)成了虛擬機系統(tǒng)的兩級調(diào)度框架,如圖所示是一個多核環(huán)境下虛擬機系統(tǒng)的兩級調(diào)度框架??蛻舨僮飨到y(tǒng)負(fù)責(zé)第2級調(diào)度,即線程或進程在vCPU上的調(diào)度(將核心線程映射到相應(yīng)的虛擬CPU上)。虛擬機監(jiān)視器負(fù)責(zé)第1級調(diào)度,即vCPU在物理處理單元上的調(diào)度。兩級調(diào)度的調(diào)度策略和機制不存在依賴關(guān)系。vCPU調(diào)度器負(fù)責(zé)物理處理器資源在各個虛擬機之間的分配與調(diào)度,本質(zhì)上即把各個虛擬機中的vCPU按照一定的策略和機制調(diào)度在物理處理單元上可以采用任意的策略來分配物理資源,滿足虛擬機的不同需求。vCPU可以調(diào)度在一個或多個物理處理單元執(zhí)行(分時復(fù)用或空間復(fù)用物理處理單元),也可以與物理處理單元建立一對一固定的映射關(guān)系(限制訪問指定的物理處理單元)。因為VMM(VirtualMachineMonitor)掌控所有系統(tǒng)資源,因此VMM握有整個內(nèi)存資源,其負(fù)責(zé)頁式內(nèi)存管理,維護虛擬地址到機器地址的映射關(guān)系。因GuestOS本身亦有頁式內(nèi)存管理機制,則有VMM的整個系統(tǒng)就比正常系統(tǒng)多了一層映射:A.虛擬地址(VA),指GuestOS提供給其應(yīng)用程序使用的線性地址空間;B.物理地址(PA),經(jīng)VMM抽象的、虛擬機看到的偽物理地址;C.機器地址(MA),真實的機器地址,即地址總線上出現(xiàn)的地址信號;映射。實際運行時,用戶程序訪問VA1,經(jīng)GuestOS的頁表轉(zhuǎn)換得到PA1,再由VMM介入,使用VMM的頁表將PA1轉(zhuǎn)換為MA1。普通MMU只能完成一次虛擬地址到物理地址的映射,在虛擬機環(huán)境下,經(jīng)過MMU轉(zhuǎn)換所得到的“物理地址”并不是真正的機器地址。若需得到真正的機器地址,必須由VMM介入,再經(jīng)過一次映射才能得到總線上使用的機器地址。如果虛擬機的每個內(nèi)存訪問都需要VMM介入,并由軟件模擬地址轉(zhuǎn)換的效率是很低下的,幾乎不具有實際可用性,為實現(xiàn)虛擬地址到機器地址的高效轉(zhuǎn)換,現(xiàn)普遍采用的思想是:由VMM根據(jù)映射f和g生成復(fù)合的映射fg,并直接將這個映射關(guān)系寫入MMU。當(dāng)前采用的頁表虛擬化方法主要是MMU類虛擬化(MMUParavirtualization)和影子頁表,后者已被內(nèi)存的硬件輔助1、MMUParavirtualization其基本原理是:當(dāng)GuestOS創(chuàng)建一個新的頁表時,會從它所維護的空閑頁表的寫權(quán)限,之后GuestOS對該頁表的寫操作都會陷入到器頁面,而且不得包含對頁表頁面的可寫映射。后VMM會根據(jù)自己所維護的映射關(guān)系,將頁表項中的物理地址替換為相應(yīng)的機器地址,最后再把修改過的2、內(nèi)存硬件輔助虛擬化GPAGVA>內(nèi)存的硬件輔助虛擬化技術(shù)是用于替代虛擬化技術(shù)中軟件實現(xiàn)的“影子頁表”的一種硬件輔助虛擬化技術(shù),其基本原理是:GVA(客戶操作系統(tǒng)的虛擬地址)->GPA(客戶操作系統(tǒng)的物理地址)->HPA(宿主操作系統(tǒng)的物理地址)兩次地址轉(zhuǎn)換都由CPU硬件自動完成(軟件實現(xiàn)內(nèi)存開銷大、性能差)。以VT-x技術(shù)的頁表擴充技術(shù)ExtendedPageTable(EPT)為例,首先VMM預(yù)先把客戶機物理地址轉(zhuǎn)換到機器地址的EPT頁表設(shè)置到CPU中;其次客戶GuestGuestOSVMMHardware①勤謗求③②2、前端/后端模擬:其它其決①SR-IOVIntslVT-dFC-SI勘蒙①服務(wù)器架構(gòu)下把內(nèi)存放到單一的存儲池中,這對于單處理器或單核心的系統(tǒng)工作良好。但是這種傳統(tǒng)的統(tǒng)一訪問方式,在多核心同時訪問內(nèi)存空間時會導(dǎo)致因此NUMA改變了內(nèi)存對CPU的呈現(xiàn)方式。這是通過對服務(wù)器每個CPU的內(nèi)存進行分區(qū)來實現(xiàn)的。每個分區(qū)(或內(nèi)存塊)稱為NUMA節(jié)點,而和該分區(qū)相關(guān)的處理器可以更快地訪問NUMA內(nèi)存點爭用服務(wù)器上的資源(其它的內(nèi)存分區(qū)分配給其它處理器)。NUMA的概念跟緩存相關(guān)。處理器的速度要比內(nèi)存快得多,因此數(shù)據(jù)總是被移動到更快的本地緩存,這里處理器訪問的速度要比通用內(nèi)存快得多。NUMA本質(zhì)上為每個處理器配置了獨有的整體系統(tǒng)緩存,減少了多處理器試圖NUMA與服務(wù)器虛擬化完全兼容,而且NUMA也可以支持任意一個處理器訪問服務(wù)器上的任何一塊內(nèi)存區(qū)域。某個處理器當(dāng)然可以訪問位于不同區(qū)域上的內(nèi)存數(shù)據(jù),但是需要更多本地NUMA節(jié)點之外的傳輸,并且需要目標(biāo)NUMA節(jié)點的確認(rèn)。這增加了整體開銷,影響了CPU和內(nèi)存子系統(tǒng)的性能。NUMA對虛擬機負(fù)載不存在任何兼容性問題,但是理論上虛擬機最完美的方式應(yīng)該是在某個NUMA節(jié)點內(nèi)。這可以防止處理器需要跟其它的NUMA節(jié)XXXX的aSV支持NUMA技術(shù),使得hypervisor和上層OS內(nèi)存互連,這SR-IOV通常針對虛擬化服務(wù)器的技術(shù)是通過軟件模擬共享和虛擬化網(wǎng)絡(luò)適配器的一個物理端口,以滿足虛擬機的I/O需求,模擬軟件的多個層為虛擬機作了法,主要利用iNIC實現(xiàn)網(wǎng)橋卸載虛擬網(wǎng)卡,允許將物理網(wǎng)絡(luò)適配器的SR-IOV虛擬功能直接分配給虛擬機,可以提高網(wǎng)絡(luò)吞吐量,并縮短網(wǎng)絡(luò)延遲,同時減一項標(biāo)準(zhǔn),是虛擬通道(在物理網(wǎng)卡上對上層軟件系統(tǒng)虛擬出多個物理通道,供服務(wù)。通過SR-IOV一個PCle設(shè)備不僅可以導(dǎo)出多個PCI物理功能,還可以配到一個虛擬機,能夠讓網(wǎng)絡(luò)傳輸繞過軟件模擬層,直接分配到虛擬機,實現(xiàn)在這個模型中,不需要任何透傳,因為虛擬化在終端設(shè)備上發(fā)生,允許管理程序簡單地將虛擬功能映射到VM上以實現(xiàn)本機設(shè)備性能和隔離安全。SR-IOV虛擬出的通道分為兩個類型:創(chuàng)建虛擬機虛擬機開關(guān)機、重啟、掛起虛擬機上的操作系統(tǒng)安裝創(chuàng)建模板更新虛擬機硬件配置遷移虛擬機及/或虛擬機的存儲資源分析虛擬機的資源利用情況2.3.4aSV的特色技術(shù)Windows系統(tǒng)驅(qū)動保護保護虛擬磁盤文件虛擬磁盤驅(qū)動擬塊設(shè)備虛擬磁盤應(yīng)用情況)在虛擬化環(huán)境中,如果生產(chǎn)環(huán)境的應(yīng)用整合到硬件資源相對匱乏的物理主機上,虛擬機的資源需求往往會成為瓶頸,全部資源需求很有可能超過主機的aSV虛擬化管理平臺提供的動態(tài)資源調(diào)度技術(shù),通過引入一個自動化機制,持續(xù)地動態(tài)平衡資源能力,將虛擬機遷移到有更多可用資源的主機上,確保每個虛擬機在任何節(jié)點都能及時地調(diào)用相應(yīng)的資源。即便大量運行對CPU和內(nèi)存占用較高的虛擬機(比如數(shù)據(jù)庫虛擬機),只要開啟了動態(tài)資源調(diào)度功能,就可實現(xiàn)全自動化的資源分配和負(fù)載平衡功能,也可以顯著地降低數(shù)據(jù)中心的成aSV的動態(tài)資源調(diào)度功能其實現(xiàn)原理:通過跨越集群之間的心跳機制,定則來判斷是否需要為該主機在集群內(nèi)尋找有更多可用資源的主機,以將該主機上的虛擬機通過虛擬機遷移技術(shù)遷移到另外一臺具有更多合適資源的服務(wù)器上,或者將該服務(wù)器上其它的虛擬機遷移出去,從而保證某個關(guān)鍵虛擬機的資源需多USB映射用加密的服務(wù)器,轉(zhuǎn)化到虛擬化后,需要將插在虛擬化平臺上的硬件key,映業(yè)界給出的方案有三種:一、采用主機映射:直接采用主機映射的方式來完成,缺點是不支持網(wǎng)絡(luò)二、采用UsbAnywhere:通過使用中間設(shè)備,將中間設(shè)備IP化,然后在虛擬機上安裝驅(qū)動并配置對端設(shè)備的方式進行的。缺點是需要guest虛擬機內(nèi)三、采用底層硬件虛擬化加網(wǎng)絡(luò)代理:支持熱遷移、網(wǎng)絡(luò)映射、無需修改guest機內(nèi)部。最終實現(xiàn),物理設(shè)備遷移到虛擬化平臺后,可以直接無縫的操作讀取原usb硬件設(shè)備。同時解決上述兩種方案中的缺陷,破除了在虛擬化推熱遷移功能的實現(xiàn)機制:由于整體方案是基于網(wǎng)絡(luò)代理處理,所以在遷移aSV采用上述的第三種方案,融入了對多USB的支持,帶來的優(yōu)勢有:2、guest虛擬機無需安裝插件;3、能支持熱遷移,跨主機映射,適應(yīng)VMP集群環(huán)境;4、虛擬機遷移完成可以自動掛載上原usb設(shè)備;5、可以簡化集成為類似usbhub的小設(shè)備,與VMP配套,搭建usb映射環(huán)境6、虛擬機故障重啟、目標(biāo)端usb設(shè)備網(wǎng)絡(luò)中斷等異常情況恢復(fù)后自動重映射。2.4.1存儲虛擬化概述采用計算虛擬化技術(shù)給服務(wù)器帶來更高的資源利用率、給業(yè)務(wù)帶來更便捷的部署,降低了TCO,與此同時,服務(wù)器虛擬化的部署給存儲帶來以下挑戰(zhàn):相比傳統(tǒng)的物理服務(wù)器方式,單個存儲系統(tǒng)承載了更多的業(yè)務(wù),存儲系統(tǒng)需要更強勁的性能來支撐;采用共享存儲方式部署虛擬機,單個卷上可能承載幾十或上百的虛擬機,導(dǎo)致卷IO呈現(xiàn)更多的隨機特征,這對傳統(tǒng)的Cache技術(shù)提出挑戰(zhàn);單個卷承載多個虛擬機業(yè)務(wù),要求存儲系統(tǒng)具備協(xié)調(diào)虛擬機訪問競爭,保證對IO吞吐要求高的虛擬機獲取到資源實現(xiàn)性能目標(biāo);單個卷上承載較多的虛擬機,需要卷具有很高的IO性能,這對傳統(tǒng)受限于業(yè)界典型的分布式存儲技術(shù)主要有分布式文件系統(tǒng)存儲、分布式對象存儲和分布式塊設(shè)備存儲等幾種形式。分布式存儲技術(shù)ServerSAN及其相關(guān)產(chǎn)品已經(jīng)日趨成熟,并在IT行業(yè)得到了廣泛的使用和驗證,例如互聯(lián)網(wǎng)搜索引擎中使用的分布式文件存儲,商業(yè)化公有云中使用的分布式塊存儲等。分布式存儲軟件系統(tǒng)具有以下特點:高可靠:采用集群管理方式,不存在單點故障,靈活配置多數(shù)據(jù)副本,不同數(shù)據(jù)副本存放在不同的機架、服務(wù)器和硬盤上,單個物理設(shè)備故障不影響業(yè)務(wù)的使用,系統(tǒng)檢測到設(shè)備故障后可以自動重建數(shù)據(jù)副本;高擴展:沒有集中式存儲控制器,支持平滑擴容易管理:存儲軟件直接部署在服務(wù)器上,沒有單獨的存儲專用硬件設(shè)備,通過Web頁面的方式進行存儲的管理,配置和維護簡XXaSAN概述aSAN是XX在充分掌握了用戶對虛擬化環(huán)境存儲方面的需求基礎(chǔ)上,推出以aSAN分布式存儲軟件為核心的解決方案,aSAN是基于分布式文件系統(tǒng)Glusterfs開發(fā)的面對存儲虛擬化的一款產(chǎn)品,并作為超融合架構(gòu)中的重要組成機制保障、故障自動重構(gòu)機制等諸多存儲技術(shù),能夠滿足關(guān)鍵業(yè)務(wù)的存儲需求,2.4.2aSAN技術(shù)原理aSAN基于底層Hypervisor之上,通過主機管理、磁盤管理、緩存技術(shù)、儲的空間,通過向VMP提供訪問接口,使得虛擬機可以進aSAN需要基于VMP集群獲取集群內(nèi)主機信息,因此在構(gòu)建aSAN時,首先會要求建立VMP集群,所以在aSAN的環(huán)境中,至少需要2臺主機節(jié)點來構(gòu)建aSAN。由于下一節(jié)磁盤管理的策略與副本設(shè)置有直接管理,因此在講解磁盤管理度是文件級別。例如兩個副本,即把文件A同時保存到磁盤1和磁盤2上。并文件A文件A服務(wù)層磁盤2不一定是技術(shù)特點:存儲池可用空間=集群全部機械磁盤空間/副本數(shù)(同構(gòu)情況),因此副本底層管理的副本對上層服務(wù)是透明的,上層無法感知副本的存在。磁盤管在沒有故障等異常情況下,文件副本數(shù)據(jù)是始終一致的,不存在所謂主副如果對文件A進行修改,如寫入一段數(shù)據(jù),這段數(shù)據(jù)會被同時寫到兩個副本文件。如果是從文件A讀取一段數(shù)據(jù),則aSAN磁盤管理服務(wù)根據(jù)集群內(nèi)主機數(shù)和aSAN初始化時所選擇的副本數(shù)了支持主機故障而不影響數(shù)據(jù)完整性的目標(biāo),復(fù)制卷的磁盤組的每個磁盤都必須是在不同主機上。即需要做到跨主機副本。跨主機副本的關(guān)鍵在于復(fù)制卷磁以下面場景為列(兩臺主機,每臺主機各三塊磁盤組建兩個副本):主機A主機A?復(fù)制卷1復(fù)制卷3當(dāng)構(gòu)建兩副本,并且兩臺主機磁盤數(shù)相同時。主機間的磁盤會——對應(yīng)組成復(fù)制卷。邏輯視圖如下:文件A從邏輯視圖上,可以看出來和前面提到的單主機邏輯視圖并沒有本質(zhì)上的區(qū)別,只是最底層的磁盤分組時,保證了復(fù)制卷內(nèi)下面的磁盤不在同一主機內(nèi),SSD讀緩存加速原理在aSAN里面,會默認(rèn)把系統(tǒng)內(nèi)的SSD磁盤作為緩存盤使用,下面介紹首先需要區(qū)分aSAN客戶端和服務(wù)端概念。在aSAN里面,負(fù)責(zé)處理底層磁盤IO稱為服務(wù)端;負(fù)責(zé)向上層提供存儲接口(如訪問的掛載點)稱為客戶端。端)。邏輯視圖如下:復(fù)制卷1磁盤1 下面拋開底層的分布卷、復(fù)制卷、磁盤分組等概念,僅在客戶端上理解上層文件訪問入口上層文件訪問入口SSD讀緩存模塊與服務(wù)端進行通信B、C三個文件,可以分別各緩存讀過的一部分?jǐn)?shù)據(jù),沒簡單地看,SSD讀緩存模塊工作在文件訪問入口和服務(wù)端通信層之間。所有對文件的IO動作都會經(jīng)過SSD讀緩存模塊進行處理。下面分別針對首次文件讀取、二次文件讀取、文件寫入3個過程說明工作流程?!袷状挝募x取上層文件訪問入口上層文件訪問入口SSD讀緩存模塊SSD磁盤與服務(wù)端進行通信(底層過程省略)未緩存數(shù)據(jù)塊的首次讀操作步驟說明:1.從上層下來一個針對A文件的區(qū)間塊[A1,A2]的讀操作,由于該數(shù)據(jù)塊是首次讀取,沒命中SSD讀緩存。該讀操作會直接傳遞到下去,進入流程2。2.[A1,A2]的讀操作繼續(xù)傳遞到服務(wù)端,進行具體的讀操作,完成后返回,進入流程33.數(shù)據(jù)塊[A1,A2]在流程3里面返回到SSD讀緩存模塊,進入流程44.SSD讀緩存模塊會把數(shù)據(jù)塊[A1,A2]復(fù)制一份保存到SSD磁盤并建立相關(guān)索引,對應(yīng)4.1。原數(shù)據(jù)塊[A1,A2]繼續(xù)往上返回到上層響應(yīng)讀操作,對應(yīng)4.2。注意4.1、4.2是并發(fā)進行,因此這個緩存動作不會對原5.至此,數(shù)據(jù)塊[A1,A2]就被保存到SSD磁盤內(nèi),以備下次讀取直接從Read[A1,A2]32針對已緩存數(shù)據(jù)塊的二次讀取步驟說明:假設(shè)數(shù)據(jù)塊[A1,A2]已經(jīng)緩存到SSD磁盤內(nèi),1.從上層下來一個同樣是針對A文件的區(qū)間塊[A1,A2]的讀操2.由于該數(shù)據(jù)塊[A1,A2]已經(jīng)有緩存,在SSD讀緩存模塊里面命中索引,從而直接向SSD磁盤發(fā)起讀出緩存數(shù)據(jù)塊3.緩存數(shù)據(jù)塊[A1,A2]從SSD磁盤返回到SSD讀緩存模塊,進入流程44.SSD讀緩存模塊把緩存數(shù)據(jù)塊[A1,A2]返回給上層。至此,對緩存數(shù)據(jù)塊[A1,A2]的重復(fù)讀取直接在客戶端返回,避免了服務(wù)雖然當(dāng)前aSAN實現(xiàn)的讀緩存,但對于讀緩需要做相應(yīng)的處理,以保證緩存的內(nèi)容始終和底層磁盤一致,并且是最新的,aSAN讀緩存模塊對寫操作進行處理實質(zhì)是基于最近訪問原則,即最近寫入的數(shù)據(jù)在不久的將來被讀出的概率會比較高,例如文件共享服務(wù)器,某人傳aSAN讀緩存對寫操作的處理從實現(xiàn)上分為首次寫預(yù)緩存、二次寫更新緩2.寫操作一直傳遞到服務(wù)端,寫入到底層磁盤,操作完成后會返回結(jié)果,進入流程3據(jù)已經(jīng)成功寫入,則進入流程4。如果返回結(jié)果是失敗,則不會進入流程4,而是直接返回結(jié)果到上層。相關(guān)索引,對應(yīng)4.1。原返回結(jié)果繼續(xù)往上返回到上層響應(yīng)讀操作,對應(yīng)4.2。注意4.1、4.2是并發(fā)進行,因此這個緩存動作不會對原操作造成延時。至此,數(shù)據(jù)塊[A1,A2]的寫入也會保存到SSD磁盤上,以備下次訪問。下次訪問的流程與二次文件讀取流程相同,從而提升了下次訪問數(shù)據(jù)的速度?!鑫募K二次寫更新緩存SSD讀緩存文件塊寫更新是指對SSD讀緩存已緩存的數(shù)據(jù)塊進行更新的動作。WRITE[A1,A2SSD磁盤Update[A1,A2]假設(shè)數(shù)據(jù)塊[A1,A2]原來已經(jīng)有緩存了,現(xiàn)在上層再次對[A1,A2]來一次寫操作(例如更新內(nèi)容)。進入流程3據(jù)已經(jīng)成功寫入,可以更新SSD讀緩存數(shù)據(jù),進入流程4。如果返回4.SSD讀緩存模塊會把數(shù)據(jù)塊[A1,A2]復(fù)制一份更新到SSD磁盤并建立相關(guān)索引,對應(yīng)4.1。原返回結(jié)果繼續(xù)往上返回到上層響應(yīng)讀操作,對應(yīng)4.2。注意4.1、4.2是并發(fā)進行,因此這個緩存動作不會對原操作造成延時。SSD寫緩存加速原理SSD寫緩存功能在aSAN2.0開始支持。SSD寫緩存工作在服務(wù)端。由于寫緩存工作在服務(wù)端,也就是說在每個副本上都有寫緩存,即副本的。即使有SSD磁盤突然損壞,也能在副本數(shù)范圍內(nèi)保證數(shù)據(jù)的安全。分布卷分布卷(掛載點/客戶端)復(fù)制卷1磁盤1(服務(wù)端)磁盤Y磁盤z(服務(wù)端)磁盤x(服務(wù)端)復(fù)制卷NSSD寫緩存原理是在機械硬盤上增加一層SSD寫緩存層,見下圖:上層10輸入模塊上層10輸入模塊2SSD寫緩存模塊SSD磁盤45機械磁盤SSD寫緩存數(shù)據(jù)流分成藍(lán)色和紅色兩部分。這兩部分是同時在運行的,沒有先后關(guān)系。藍(lán)色部分是虛擬機有數(shù)據(jù)寫入SSD緩存,紅色部分是從SSD緩存讀出數(shù)據(jù)回寫到機械磁盤。流程如下:2.SSD寫緩存模塊把數(shù)據(jù)寫入到SSD磁盤,并獲得返回值。3.SSD寫緩存模塊在確定數(shù)據(jù)寫入SSD磁盤后,即立即返回上層模塊寫入成功4.SSD寫緩存模塊在緩存數(shù)據(jù)累計到一定量后,從SSD磁盤讀出數(shù)據(jù)5.SSD寫緩存把從SSD磁盤讀出的數(shù)據(jù)回寫到機械磁盤。其中,第4、5步是在后臺自動進行的,不會干擾第1、2、3步的邏輯。從SSD磁盤回寫到機械磁盤是需要累積一定數(shù)據(jù)量后才會進行觸發(fā)的。這上層10輸入模塊1.Read4.Returnfromcache2.CheckcahceSSD寫緩存模塊SSD磁盤3.Hitcache流程說明:1.上層下發(fā)讀請求2.SSD寫緩存模塊先檢查數(shù)據(jù)是否還在緩存內(nèi)未回寫3.命中緩存,返回數(shù)據(jù)(如果不命中緩存,則會返回從底層數(shù)據(jù)盤讀取)4.向上層返回數(shù)據(jù)如果上層持續(xù)對SSD寫緩存進行大量不間斷的數(shù)據(jù)寫入,直到SSD寫緩存空間用完。這時的上次繼續(xù)寫入數(shù)據(jù)的速度就會下降至約等于寫緩存回寫機械上層寫入數(shù)據(jù)流上層寫入數(shù)據(jù)流機械磁盤當(dāng)SSD磁盤用滿時會出現(xiàn)寫入數(shù)據(jù)流速度<=回寫數(shù)據(jù)流速度。在虛擬機層面看,就是寫入數(shù)據(jù)下降到機械盤速度。如果持續(xù)出現(xiàn)這種情況,說明SSD磁盤容量不足以應(yīng)對業(yè)務(wù)IO寫性能,需要增加SSD緩存盤解決。場景下,如果一個SSD磁盤損壞后,其他副本的SSD還正常情況下,對數(shù)據(jù)安全不會造成影響。一旦SSD離線超過10分鐘,緩存數(shù)據(jù)就視作失效,進入副本修復(fù)流程。由于所有數(shù)據(jù)都是被SSD接管的,因此如果是誤拔出SSD硬盤,需要在10分鐘內(nèi)插回來,否則會認(rèn)為該副本數(shù)據(jù)全部需要重建。2.4.3aSAN存儲數(shù)據(jù)可靠性保障如果在磁盤故障后,超過了設(shè)置的超時時間依然沒有人工介入處理,aSAN將會自動進行數(shù)據(jù)重建,以保證數(shù)據(jù)副本數(shù)完備,確保數(shù)據(jù)可靠性。同aSAN在初始化階段會自動配置至少把集群里副本數(shù)個磁盤作為熱備盤。注意不是每個主機一個熱備盤,而是一個集群里面全局使用。熱備盤在初始化例如兩個副本時會至少保留兩個熱備盤,三個副本時會至少保留三個熱備盤。這些熱備盤不會集中在一個主機上面,而是分布在不同主機上(符合副本跨主機原則)。下面以3主機2副本,每主機4個硬盤為例子。復(fù)制卷3復(fù)制卷3主機A主機B主機C復(fù)制卷1A1B1C1A2B2C2復(fù)制卷4A3B3復(fù)制卷5上圖是3主機2副本,每主機4磁盤的分組例子。其中磁盤A4、磁盤C3當(dāng)任何一個主機的任意一個硬盤發(fā)生故障時,都可以按照跨主機副本原則復(fù)制卷3復(fù)制卷3主機C復(fù)制卷1B1復(fù)制卷2B2復(fù)制卷4B3復(fù)制卷5C4主機B主機AA3A2B4A1復(fù)制卷3復(fù)制卷3主機A主機B主機C復(fù)制卷1A1B1C1復(fù)制卷2A2B2復(fù)制卷4A3B3復(fù)制卷5復(fù)制卷3復(fù)制卷3復(fù)制卷1A1B1C1復(fù)制卷2A2A3B3復(fù)制卷5A4*B4C4在aSAN自動使用熱備盤替換故障磁盤后,UI上依然會顯示原來的故障磁盤損壞,可以進行更換磁盤。這時新替換的硬盤會作為新熱備盤使用,不需要執(zhí)行數(shù)據(jù)回遷。這一點與前文沒有熱備盤會做數(shù)據(jù)回遷是不一樣的。復(fù)制卷3復(fù)制卷3主機B復(fù)制卷181復(fù)制卷2A2復(fù)制告4C4新復(fù)制卷5主機A主機CA1故障磁盤替換所有過程都可以帶業(yè)務(wù)進行,不需要停機停止業(yè)務(wù),就可以aSAN在多主機集群下,復(fù)制卷有個最高原則:跨主機建立復(fù)制卷。該原則的目的是為了達(dá)到在主機出現(xiàn)故障時,數(shù)據(jù)依然可用。在2主機2副本模式在2主機2副本模式下,當(dāng)主機B整個離線或,可以看到任何一個復(fù)制卷都依然有一個副本存在主機A上,數(shù)據(jù)依然可用略為復(fù)雜的例子(先不考慮有熱備盤):復(fù)制卷3復(fù)制卷3A1B1C1復(fù)制卷2A2B2C2復(fù)制卷4A3B3C3復(fù)制卷5A4B4C4復(fù)制卷6因此這時全局?jǐn)?shù)據(jù)依然可用。在主機故障后,在aSAN高級設(shè)備里面有這樣一個故障時間策略執(zhí)行相應(yīng)的處理:假如入主機故障后直到超過設(shè)定的故障時間依然沒有人工介入處理,那么aSAN會采取自動替換動作在其他主機上重建副本。復(fù)制卷1A1B1C1復(fù)制卷2A2B2CA3B3C3A1B1A3C對比上面2張圖,可以看出在主機C故障并超時后,aSAN會在集群范圍內(nèi)尋找最佳借用磁盤組建復(fù)制卷,從而重建副本。這里的主機副本自動重建機制和單個故障硬盤的自動重建機制并沒有本質(zhì)差別,只是同時做了多個故障盤注意,主機自動重建是有代價的,會復(fù)用其他磁盤的空間和性能。因此在條件允許情況下,應(yīng)盡快替換主機。如果不想aSAN才超時自動重建,可以到副本修復(fù)是指當(dāng)某個磁盤出現(xiàn)離線再上線后,保存在上面的文件副本可能是舊數(shù)據(jù),需要按照其他在線的文件副本進行修復(fù)的一個行為。典型的情況是通過采用副本快速修復(fù)技術(shù),即對于短暫離線的副本,只修復(fù)少量差異數(shù)據(jù),從而避免了整個文件進行對比修復(fù),達(dá)到快速修改的目的,同時,aSAN對業(yè)務(wù)IO和修復(fù)IO做了優(yōu)先級控制,從而避免了副本修復(fù)IO對業(yè)務(wù)IO的影2.4.4XXaSAN功能特性自動精簡配置(ThinProvisioning)是一種先進的、智能的、高效的容量分配和管理技術(shù),它擴展了存儲管理功能,可以用小的物理容量為操作系統(tǒng)提供超大容量的虛擬存儲空間。并且隨著應(yīng)用的數(shù)據(jù)量增長,實際存儲空間也可空間”,可以顯著減少已分配但是未使用的存儲空間。如果采用傳統(tǒng)的磁盤分配方法,需要用戶對當(dāng)前和未來業(yè)務(wù)發(fā)展規(guī)模進行正確的預(yù)判,提前做好空間資源的規(guī)劃。在實際中,由于對應(yīng)用系統(tǒng)規(guī)模的估計不準(zhǔn)確,往往會造成容量分配的浪費,比如為一個應(yīng)用系統(tǒng)預(yù)分配了5TB的空間,但該應(yīng)用卻只需要1TB的容量,這就造成了4TB的容量浪費,而且這4TB容量被分配了之后,很難再被別的應(yīng)用系統(tǒng)使用。即使是最優(yōu)秀的系統(tǒng)管理員,也不可能恰如其分的為應(yīng)用分配好存儲資源,而沒有任何的浪費。根據(jù)業(yè)界的權(quán)威統(tǒng)計,由于預(yù)分配了太大的存儲空間而導(dǎo)致的資源浪費,大約占總存儲空間的30%左右。aSAN采用了自動精簡配置技術(shù)有效的解決了存儲資源的空間分配難題,提高了資源利用率。采用自動精簡配置技術(shù)的數(shù)據(jù)卷分配給用戶的是一個邏輯的虛擬容量,而不是一個固定的物理空間,只有當(dāng)用戶向該邏輯資源真正寫數(shù)aSAN私網(wǎng)鏈路聚合aSAN的私網(wǎng)鏈路聚合是為了提高網(wǎng)絡(luò)可靠性和性能設(shè)置而提出的。使用aSAN私網(wǎng)鏈路聚合不需要交換機上配置鏈路聚合,由存儲私網(wǎng)負(fù)責(zé)鏈路聚合路。而aSAN私網(wǎng)鏈路聚合采用按照TCP連接進行均分,兩臺主機間的不同TCP連接可使用不同物理鏈路。在保障可靠性的同時,還達(dá)到了更加充分的利aSAN采用一致性復(fù)制協(xié)議來保證多個副本數(shù)據(jù)的一致性,即只有當(dāng)所有據(jù)都是完全一致,從任一副本讀到的數(shù)據(jù)都是相同的。如果某個副本中的某個2.5.1網(wǎng)絡(luò)虛擬化概述網(wǎng)絡(luò)虛擬化也是構(gòu)建超融合架構(gòu)中非常重要的一部分,如果在云計算、虛就會存在諸多問題:一、如何保障虛擬機在保持相應(yīng)的網(wǎng)絡(luò)策略不變的情況下進行2.5.2aNET網(wǎng)絡(luò)虛擬化技術(shù)原理SDNSDN(SoftwareDefinedNetwork,軟件定義網(wǎng)絡(luò))是一種創(chuàng)新性的網(wǎng)狹義的SDN:主要指的是通過OpenFlow來實現(xiàn)。架構(gòu)上大同小異,用一副標(biāo)準(zhǔn)的SDN規(guī)范圖來說明下:SDNapplicationOsSControllerplaneCoordinatorAgent(20)DataplaneCoordinatorAgent(21)agreements,credentials,policy,etc.)可以這幅圖看出實現(xiàn)SDN的重點在Dataplane和Controllerplane,以開放取代封閉,以通用替代專有——將原本傳統(tǒng)的專業(yè)網(wǎng)元設(shè)備上的網(wǎng)絡(luò)功能提取出來虛擬化,運行在通用的硬件平臺上,業(yè)界稱這種變化為NFV。NFV(NetworkFunctionsVirtualisation網(wǎng)絡(luò)功能虛擬化)的目標(biāo)是希望通過廣泛采用的硬件承載各種各樣的網(wǎng)絡(luò)軟件功能,實現(xiàn)軟件的靈活加載,在數(shù)據(jù)中心、網(wǎng)絡(luò)節(jié)點和用戶端等各個位置靈活的配置,加快網(wǎng)絡(luò)部署和調(diào)整的速度,降低業(yè)務(wù)部署的復(fù)雜度及總體投資成本,提高網(wǎng)絡(luò)設(shè)備的統(tǒng)一化、通用化、通過NFV技術(shù),將網(wǎng)絡(luò)功能資源進行虛擬化,使得網(wǎng)絡(luò)資源升級為虛擬網(wǎng)絡(luò)的束縛,可以在全網(wǎng)范圍內(nèi)按需流動,呈現(xiàn)出網(wǎng)絡(luò)資源的統(tǒng)一池化狀態(tài),傳統(tǒng)數(shù)據(jù)平面:在典型的虛擬化網(wǎng)絡(luò)場景下,數(shù)據(jù)包將由網(wǎng)絡(luò)接口卡接收,然后進行分類并生成規(guī)定的動作,并對數(shù)據(jù)包付諸實施。在傳統(tǒng)的Linux模式下,系統(tǒng)接收數(shù)據(jù)包和將數(shù)據(jù)包發(fā)送出系統(tǒng)的過程占了包處理中很大一部分時間,換句話說,即使用戶空間應(yīng)用程序什么都不做,而只是將數(shù)據(jù)包從接收端口傳送到發(fā)送端當(dāng)網(wǎng)卡從網(wǎng)絡(luò)接收到一個數(shù)據(jù)幀后,會使用直接內(nèi)存訪問(DMA)將數(shù)據(jù)幀傳送到針對這一目的而預(yù)先分配的內(nèi)核緩沖區(qū)內(nèi),更新適當(dāng)?shù)慕邮彰枋龇h(huán),然后發(fā)出中斷通知數(shù)據(jù)幀的到達(dá)。操作系統(tǒng)對中斷進行處理,更新環(huán),然后將數(shù)據(jù)幀交給網(wǎng)絡(luò)堆棧。網(wǎng)絡(luò)堆棧對數(shù)據(jù)進行處理,如果數(shù)據(jù)幀的目的地是本地套接字,那么就將數(shù)據(jù)復(fù)制到該套接字,而擁有該套接字的用戶空間應(yīng)用程序進行傳輸時,用戶應(yīng)用程序通過系統(tǒng)調(diào)用將數(shù)據(jù)寫入到一個套接字,使Linux內(nèi)核將數(shù)據(jù)從用戶緩沖區(qū)復(fù)制到內(nèi)核緩沖區(qū)中。然后網(wǎng)絡(luò)堆棧對數(shù)據(jù)進行處理,并根據(jù)需要對其進行封裝,然后再調(diào)用網(wǎng)卡驅(qū)動程序。網(wǎng)卡驅(qū)動程序網(wǎng)卡將數(shù)據(jù)幀從內(nèi)核緩沖區(qū)轉(zhuǎn)移到自己內(nèi)置的先進先出(FIFO)緩沖區(qū),然后將數(shù)據(jù)幀傳輸?shù)骄W(wǎng)絡(luò)。接著網(wǎng)卡會發(fā)出一個中斷,通知數(shù)據(jù)幀已經(jīng)成功傳傳統(tǒng)模式下CPU損耗主要發(fā)生在如下幾個地方:中斷處理:這包括在接收到中斷時暫停正在執(zhí)行的任務(wù),對中斷進行處理加,系統(tǒng)將會花費越來越多的時間來處理中斷,當(dāng)流量速度達(dá)到10G以太網(wǎng)卡的線路速度時就會嚴(yán)重影響性能。而對于有著多個10G以太網(wǎng)卡的情況,那么上下文切換:上下文切換指的是將來自當(dāng)前執(zhí)行線程的寄存器和狀態(tài)信息加以保存,之后再將來自被搶占線程的寄存器和狀態(tài)信息加以恢復(fù),使該線程系統(tǒng)調(diào)用:系統(tǒng)調(diào)用會造成用戶模式切換到內(nèi)核模式,然后再切換回用戶數(shù)據(jù)復(fù)制:數(shù)據(jù)幀會從內(nèi)核緩沖區(qū)復(fù)制到用戶套接字,并從用戶套接字復(fù)調(diào)度:調(diào)度程序使每個線程都能運行很短的一段時間,造成多任務(wù)內(nèi)核中并發(fā)執(zhí)行的假象。當(dāng)發(fā)生調(diào)度定時器中斷或在其他一些檢查時間點上,Linux調(diào)度程序就會運行,以檢查當(dāng)前線程是否時間已到。當(dāng)調(diào)度程序決定應(yīng)該運行Linux等通用操作系統(tǒng),必須公平地對待網(wǎng)絡(luò)應(yīng)用程序和非網(wǎng)絡(luò)應(yīng)用程序,對于Intel和Broadcom的e1000e,igb,ixgbe,bnx2,tg3,bnx2x等可編程網(wǎng)卡,支持高性能方案,對e1000等網(wǎng)卡,支持通用方案。保證硬件兼容性。機制,真正做到網(wǎng)卡收包一次拷貝,所有進程共享引用的方式,數(shù)據(jù)可以從網(wǎng)卡傳送到內(nèi)核、應(yīng)用層、虛擬機而無需再次拷貝。內(nèi)存池自動增長,自動回收。單數(shù)據(jù)線程親和鎖定到硬件線程,避免內(nèi)核和用戶空間之間的上下文切換、在理想情況下,當(dāng)數(shù)據(jù)包到達(dá)系統(tǒng)時,所有處理該數(shù)據(jù)包所需的信息最好都已經(jīng)在內(nèi)核的本地高速緩存中。我們可以設(shè)想一下,如果當(dāng)數(shù)據(jù)包到達(dá)時,查找表項目、數(shù)據(jù)流上下文、以及連接控制塊都已經(jīng)在高速緩存中的話,那么就可以直接對數(shù)據(jù)包進行處理,而無需“掛起”并等待外部順序內(nèi)存訪問完成。內(nèi)核態(tài)的小BUG,可能導(dǎo)致系統(tǒng)宕機,而應(yīng)用層進程,最程死掉,我們設(shè)計了檢測監(jiān)控機制,在最極端的情況,即使進程意外死亡,也數(shù)據(jù)平面負(fù)責(zé)報文的轉(zhuǎn)發(fā),是整個系統(tǒng)的核心,數(shù)據(jù)平面由多個數(shù)據(jù)轉(zhuǎn)發(fā)線程和一個控制線程組成,控制線程負(fù)責(zé)接收控制進程配置的消息,數(shù)據(jù)線程在數(shù)據(jù)線程中實現(xiàn)快速路徑與慢速路徑分離的報文處理方式,報文的轉(zhuǎn)發(fā)是基于session的,一條流匹配到一個session,該條流的第一個報文負(fù)責(zé)查找各種表項,創(chuàng)建session,并將查找表項的結(jié)果記錄到session中,該條流的后續(xù)的報文只需查找session,并根據(jù)session中記錄的信息對報文進行處理和轉(zhuǎn)系統(tǒng)中所有的報文都是由數(shù)據(jù)線程接收的,需要做轉(zhuǎn)發(fā)的報文,不需要送到linux協(xié)議棧,直接在數(shù)據(jù)線程中處理后從網(wǎng)卡發(fā)出,對于到設(shè)備本身的報文(如ssh,telnet,ospf,bgp,dhcp等等),數(shù)據(jù)線程無法直接處理,通過TUNaNet數(shù)據(jù)層面,在六核2.0GHz英特爾至強處理器L5638上使用最長前綴匹配(LPM)時,對于使用六個核心中的四個核心、每個核一個線程、四個10G以太網(wǎng)端口的情況,64字節(jié)數(shù)據(jù)包的IP第三層轉(zhuǎn)發(fā)性能達(dá)到了900萬pps。這比原始Linux的性能差不多提高了九倍(原始Linux在雙處理器六核2.4GHz模式下的性能為100萬pps)。數(shù)據(jù)面為底層處理和數(shù)據(jù)包IO提供了與硬件打交道的功能,而應(yīng)用層協(xié)議棧在上方提供了一個優(yōu)化的網(wǎng)絡(luò)堆棧實現(xiàn)。與LinuxSMP解決方案相比,降低了對Linux內(nèi)核的依賴性,從而具有更好的擴展性和穩(wěn)定性?!窨刂破矫嬗辛藬?shù)據(jù)面和協(xié)

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論