王炎坤--RHEL中虛擬化集群_第1頁(yè)
王炎坤--RHEL中虛擬化集群_第2頁(yè)
王炎坤--RHEL中虛擬化集群_第3頁(yè)
王炎坤--RHEL中虛擬化集群_第4頁(yè)
王炎坤--RHEL中虛擬化集群_第5頁(yè)
已閱讀5頁(yè),還剩35頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

1、安徽工業(yè)經(jīng)濟(jì)職業(yè)技術(shù)學(xué)院職業(yè)技術(shù)學(xué)院畢業(yè)設(shè)計(jì)學(xué)生姓名: 王炎坤 學(xué) 號(hào): 200931304 所在學(xué)院: 安徽工業(yè)經(jīng)濟(jì)職業(yè)技術(shù)學(xué)院 專 業(yè): 計(jì)算機(jī)網(wǎng)絡(luò) 設(shè)計(jì)(論文)題目: RHEL中集群虛擬化研究 指導(dǎo)教師: 朱小彥 2011 年 11 月 22 日摘 要隨著計(jì)算機(jī)技術(shù)的發(fā)展和越來越廣泛的應(yīng)用,人們對(duì)計(jì)算機(jī)的依賴程度也越來越高。計(jì)算機(jī)的可靠性和可用性也變得越來越重要。虛擬化技術(shù)很早就在計(jì)算機(jī)體系結(jié)構(gòu)、操作系統(tǒng)、編譯器和編程語言等領(lǐng)域得到了廣泛應(yīng)用。該技術(shù)實(shí)現(xiàn)了資源的邏輯抽象和統(tǒng)一表示,在服務(wù)器、網(wǎng)絡(luò)及存儲(chǔ)管理等方面都有著突出的優(yōu)勢(shì),大大降低了管理復(fù)雜度,提高了資源利用率,提高了運(yùn)營(yíng)效率,從而

2、有效地控制了成本。由于在大規(guī)模數(shù)據(jù)中心管理和基于互聯(lián)網(wǎng)的解決方案交付運(yùn)營(yíng)方面有著巨大的價(jià)值,服務(wù)器虛擬化技術(shù)受到人們的高度重視,人們普遍相信虛擬化將成為未來數(shù)據(jù)中心的重要組成部分。盡管單臺(tái)計(jì)算機(jī)的性能和可靠性越來越好,但還是有許多現(xiàn)實(shí)的要求是單臺(tái)計(jì)算機(jī)難以達(dá)到的。計(jì)算機(jī)集群技術(shù)就是將多臺(tái)計(jì)算機(jī)組織起來進(jìn)行協(xié)同工作來模擬一臺(tái)功能更強(qiáng)大的計(jì)算機(jī)的技術(shù)。本文首先對(duì)虛擬化和現(xiàn)有服務(wù)器集群系統(tǒng)的技術(shù)進(jìn)行了分析,介紹了幾個(gè)典型的虛擬化系統(tǒng)和集群系統(tǒng),重點(diǎn)討論了VMWare ESX 架構(gòu)虛擬化、負(fù)載均衡集群(LVS)和高可用集群(High Availability)的工作原理和實(shí)現(xiàn)技術(shù)。然后根據(jù)現(xiàn)有的集群技

3、術(shù)的缺點(diǎn)進(jìn)行了改進(jìn),將虛擬化、負(fù)載均衡集群和高可用集群整合在一起,結(jié)合虛擬化和Linux技術(shù)實(shí)現(xiàn)了三層構(gòu)架的WWW服務(wù)器集群,以較低的價(jià)格達(dá)到了昂貴的商業(yè)硬件存儲(chǔ)解決方案所實(shí)現(xiàn)的效果。關(guān)鍵字:虛擬化 VMWare Linux 集群 High Availability AbstractWith the development of computer technology and more widely used, peoples dependence on computers is also increasing.Reliability and availability of computers

4、 has become increasingly important.Virtualization technology is already in the computer architecture, operating systems, compilers, and programming language widely used areas.The technology to achieve a logical abstraction of resources and unity of that in the server, network and storage management,

5、 all have outstanding advantages, greatly reducing management complexity, improve resource utilization, improve operating efficiency, thereby effectively control thecosts.Since large-scale data center management and Internet-based solution delivery operations has a tremendous value, the server virtu

6、alization technology by people attach great importance to the widespread belief that virtualization will become the important part of the data center.Although a single computers performance and reliability is getting better, but still there are many practical requirements are difficult to achieve a

7、single computer.Computer cluster technology is to be organized in multiple computers to work together to simulate a more powerful computer technology.Firstly, the existing server virtualization and cluster analysis techniques were introduced a few typical systems and cluster virtualization, VMWare E

8、SX architecture focused on virtualization, load balancing cluster (LVS) and high-availability cluster (High Availability) working principle and implementation of technology.Then the shortcomings of the existing clustering technology has improved, virtualization, load balancing, high availability clu

9、sters and cluster together, combining virtualization and Linux technology to achieve the three-tier architecture of the WWW server clusters, to achieve a lower priceexpensive hardware storage solutions business achieved results.Key words: Virtualization VMWare Linux Cluster High AvailabilityII目錄摘 要I

10、AbstractII第一章 引言11.1 選題背景和意義11.2 國(guó)內(nèi)外的研究現(xiàn)狀2第二章 虛擬化技術(shù)42.1 硬件虛擬化42.2 軟件虛擬化5第三章 集群技術(shù)63.1 集群的定義63.2 集群的分類63.3 集群的優(yōu)點(diǎn)7第四章 研究平臺(tái)所采用的關(guān)鍵技術(shù)84.1 雙機(jī)熱備技術(shù)84.2 IP負(fù)載調(diào)度均衡技術(shù)84.3 IP-SAN存儲(chǔ)技術(shù)8第五章 系統(tǒng)實(shí)現(xiàn)過程105.1 系統(tǒng)實(shí)現(xiàn)環(huán)境105.1.1 網(wǎng)絡(luò)拓?fù)鋱D及相關(guān)網(wǎng)絡(luò)節(jié)點(diǎn)說明105.1.2 服務(wù)器選型105.1.3 存儲(chǔ)IP-SAN配置115.2 RHEL雙網(wǎng)卡負(fù)載均衡實(shí)現(xiàn)125.3 AS500N存儲(chǔ)調(diào)試及服務(wù)器節(jié)點(diǎn)上ISCSI掛載155.4 浪

11、潮BCP Cluster部署225.5 部署VMWare 虛擬化主機(jī)305.6 系統(tǒng)的優(yōu)點(diǎn)32總結(jié)33參考文獻(xiàn)34致謝35第一章 引言1.1 選題背景和意義在過去的半個(gè)多世紀(jì),信息技術(shù)的發(fā)展,尤其是計(jì)算機(jī)和互聯(lián)網(wǎng)技術(shù)的進(jìn)步極大地改變了人們的工作和生活方式。大量企業(yè)開始采用以數(shù)據(jù)中心為業(yè)務(wù)運(yùn)營(yíng)平臺(tái)的信息服務(wù)模式。進(jìn)入新世紀(jì)后,數(shù)據(jù)中心變得空前重要和復(fù)雜,這對(duì)管理工作提出了全新的挑戰(zhàn),一系列問題接踵而來。企業(yè)如何通過數(shù)據(jù)中心快速地創(chuàng)建服務(wù)并高效地管理業(yè)務(wù);怎樣根據(jù)需求動(dòng)態(tài)調(diào)整資源以降低運(yùn)營(yíng)成本;如何更加靈活、高效、安全地使用和管理各種資源;如何共享已有的計(jì)算平臺(tái)而不是重復(fù)創(chuàng)建自己的數(shù)據(jù)中心;業(yè)內(nèi)人

12、士普遍認(rèn)為,信息產(chǎn)業(yè)本身需要更加徹底的技術(shù)變革和商業(yè)模式轉(zhuǎn)型,虛擬化正是在這樣的背景下應(yīng)運(yùn)而生的。計(jì)算機(jī)技術(shù)已進(jìn)入以網(wǎng)絡(luò)為中心的計(jì)算時(shí)代。由于客戶/服務(wù)器模型的簡(jiǎn)單性、易管理性和易維護(hù)性,客戶/服務(wù)器計(jì)算模式在網(wǎng)上被大量采用。在九十年代中期,萬維網(wǎng)(World Wide Web)的出現(xiàn)以其簡(jiǎn)單操作方式將圖文并茂的網(wǎng)上信息帶給普通大眾,Web也正在從一種內(nèi)容發(fā)送機(jī)制成為一種服務(wù)平臺(tái),大量的服務(wù)和應(yīng)用(如新聞服務(wù)、網(wǎng)上銀行、電子商務(wù)等)都是圍繞著Web進(jìn)行。這促進(jìn)Internet用戶劇烈增長(zhǎng)和Internet流量爆炸式地增長(zhǎng)?,F(xiàn)在Web服務(wù)中越來越多地使用CGI、動(dòng)態(tài)主頁(yè)等CPU密集型應(yīng)用,這對(duì)服

13、務(wù)器的性能有較高要求。未來的網(wǎng)絡(luò)服務(wù)會(huì)提供更豐富的內(nèi)容、更好的交互性、更高的安全性等,需要服務(wù)器具有更強(qiáng)的CPU和I/O處理能力。例如,通過HTTPS(Secure HTTP)取一個(gè)靜態(tài)頁(yè)面需要的處理性能比通過HTTP的高一個(gè)數(shù)量級(jí),HTTPS正在被電子商務(wù)站點(diǎn)廣為使用。所以,網(wǎng)絡(luò)流量并不能說明全部問題,要考慮到應(yīng)用本身的發(fā)展也需要越來越強(qiáng)的處理性能。大部分網(wǎng)站都需要提供每天24小時(shí)、每星期7天的服務(wù),對(duì)電子商務(wù)等網(wǎng)站尤為突出,任何服務(wù)中斷和關(guān)鍵性的數(shù)據(jù)丟失都會(huì)造成直接的商業(yè)損失。例如,根據(jù)Dell的新聞發(fā)布,Dell現(xiàn)在每天在網(wǎng)站上的交易收入為一千四百萬美元,一個(gè)小時(shí)的服務(wù)中斷都會(huì)造成平均五

14、十八萬美元的損失。所以,這對(duì)網(wǎng)絡(luò)服務(wù)的可靠性提出了越來越高的要求。1.2 國(guó)內(nèi)外的研究現(xiàn)狀虛擬化技術(shù)可以有效地簡(jiǎn)化數(shù)據(jù)中心管理,但是仍然不能消除企業(yè)為了使用 IT系統(tǒng)而進(jìn)行的數(shù)據(jù)中心構(gòu)建、硬件采購(gòu)、軟件安裝、系統(tǒng)維護(hù)等環(huán)節(jié)。早在大型機(jī)盛行的20世紀(jì)五六十年代,就是采用“租借”的方式對(duì)外提供服務(wù)的。IBM公司當(dāng)時(shí)的首席執(zhí)行官 Thomas Watson曾預(yù)言道:“全世界只需要五臺(tái)計(jì)算機(jī)”,過去三十年的 PC大繁榮似乎正在推翻這個(gè)論斷,人們常常引用這個(gè)例子,來說明信息產(chǎn)業(yè)的不可預(yù)測(cè)性。然而,信息技術(shù)變革并不總是直線前進(jìn),而是螺旋式上升的,半導(dǎo)體、互聯(lián)網(wǎng)和虛擬化技術(shù)的飛速發(fā)展使得業(yè)界不得不重新思考這

15、一構(gòu)想,這些支撐技術(shù)的成熟讓我們有可能把全世界的數(shù)據(jù)中心進(jìn)行適度的集中,從而實(shí)現(xiàn)規(guī)?;?yīng),人們只需遠(yuǎn)程租用這些共享資源而不需要購(gòu)置和維護(hù)。而九十年代末期,Linux操作系統(tǒng)不斷走向成熟,它的健壯性不斷增強(qiáng),并且提供了GNU軟件和標(biāo)準(zhǔn)化的PVM、MPI消息傳遞機(jī)制,最重要的是Linux在普通PC機(jī)上提供了對(duì)高性能網(wǎng)絡(luò)的支持,這樣就大大推動(dòng)了基于Linux的集群系統(tǒng)的發(fā)展。在國(guó)內(nèi),包括中國(guó)科學(xué)院在內(nèi)的許多大學(xué)與研究機(jī)構(gòu)早在20世紀(jì)90年代就開始了基于Linux集群研究,聯(lián)想、浪潮等國(guó)內(nèi)許多公司都有Linux集群產(chǎn)品和解決方案。Google、Baidu和騰訊后臺(tái)均采用Linux集群,其中Googl

16、e在2005年就達(dá)到了200萬臺(tái),不僅如此,Linux集群大量在金融、證券、電信以及IT行業(yè)使用。名為 High-Availability Linux 的開源項(xiàng)目的目標(biāo)是,通過社區(qū)開發(fā)努力提供一個(gè)提升 Linux 可靠性(reliability)、可用性(availability)和可服務(wù)性(serviceability)(RAS)的群集解決方案。Linux-HA 項(xiàng)目得到了廣泛的應(yīng)用,是很多有趣的高可用性解決方案的重要組成部分。 LVS是中國(guó)章文嵩博士發(fā)起和領(lǐng)導(dǎo)的優(yōu)秀的集群解決方案,許多商業(yè)的集群產(chǎn)品,比如RedHat的Piranha等,都是基于LVS的核心代碼的。HA和LVS的不足主要有:

17、HA集群一般都是以兩個(gè)節(jié)點(diǎn)的形式出現(xiàn)的,單機(jī)處理能力有限,所以當(dāng)服務(wù)器壓力較大時(shí),想擴(kuò)容服務(wù)器的處理能力往往得把以前的服務(wù)器淘汰掉,浪費(fèi)了以前的投資;LVS集群的真實(shí)服務(wù)器都是靠前端IP負(fù)載器進(jìn)行調(diào)度分配的,所以存在單點(diǎn)故障,如果IP負(fù)載器Down機(jī),整個(gè)集群系統(tǒng)就會(huì)癱瘓。所以必須把HA和LVS整合在一起。真實(shí)服務(wù)器的數(shù)據(jù)源所涉及的共享存儲(chǔ)一般都是利用商業(yè)的硬件解決方案,如SAN網(wǎng)絡(luò)區(qū)域存儲(chǔ),對(duì)于小型集群系統(tǒng)來說,投入非常高昂,完全可以利用Linux的軟件RAID5技術(shù)和NFS網(wǎng)絡(luò)文件系統(tǒng)來實(shí)現(xiàn)。第二章 虛擬化技術(shù)虛擬化是指計(jì)算機(jī)元件在虛擬的基礎(chǔ)上而不是真實(shí)的基礎(chǔ)上運(yùn)行。虛擬化技術(shù)可以擴(kuò)大硬件

18、的容量,簡(jiǎn)化軟件的重新配置過程。CPU的虛擬化技術(shù)可以單CPU模擬多CPU并行,允許一個(gè)平臺(tái)同時(shí)運(yùn)行多個(gè)操作系統(tǒng),并且應(yīng)用程序都可以在相互獨(dú)立的空間內(nèi)運(yùn)行而互不影響,從而顯著提高計(jì)算機(jī)的工作效率。虛擬化技術(shù)與多任務(wù)以及超線程技術(shù)是完全不同的。多任務(wù)是指在一個(gè)操作系統(tǒng)中多個(gè)程序同時(shí)并行運(yùn)行,而在虛擬化技術(shù)中,則可以同時(shí)運(yùn)行多個(gè)操作系統(tǒng),而且每一個(gè)操作系統(tǒng)中都有多個(gè)程序運(yùn)行,每一個(gè)操作系統(tǒng)都運(yùn)行在一個(gè)虛擬的CPU或者是虛擬主機(jī)上;而超線程技術(shù)只是單CPU模擬雙CPU來平衡程序運(yùn)行性能,這兩個(gè)模擬出來的CPU是不能分離的,只能協(xié)同工作。2.1 硬件虛擬化而CPU的虛擬化技術(shù)是一種硬件方案,支持虛擬技

19、術(shù)的CPU帶有特別優(yōu)化過的指令集來控制虛擬過程,通過這些指令集,VMM會(huì)很容易提高性能,相比軟件的虛擬實(shí)現(xiàn)方式會(huì)很大程度上提高性能。虛擬化技術(shù)可提供基于芯片的功能,借助兼容VMM軟件能夠改進(jìn)純軟件解決方案。由于虛擬化硬件可提供全新的架構(gòu),支持操作系統(tǒng)直接在上面運(yùn)行,從而無需進(jìn)行二進(jìn)制轉(zhuǎn)換,減少了相關(guān)的性能開銷,極大簡(jiǎn)化了VMM設(shè)計(jì),進(jìn)而使VMM能夠按通用標(biāo)準(zhǔn)進(jìn)行編寫,性能更加強(qiáng)大。另外,在純軟件VMM中,缺少對(duì)64位客戶操作系統(tǒng)的支持,而隨著64位處理器的不斷普及,這一嚴(yán)重缺點(diǎn)也日益突出。而CPU的虛擬化技術(shù)除支持廣泛的傳統(tǒng)操作系統(tǒng)之外,還支持64位客戶操作系統(tǒng)。虛擬化技術(shù)是一套解決方案。完整

20、的情況需要CPU、主板芯片組、BIOS和軟件的支持,例如VMM軟件或者某些操作系統(tǒng)本身。即使只是CPU支持虛擬化技術(shù),在配合VMM的軟件情況下,也會(huì)比完全不支持虛擬化技術(shù)的系統(tǒng)有更好的性能。2.2 軟件虛擬化純軟件虛擬化解決方案存在很多限制?!翱蛻簟辈僮飨到y(tǒng)很多情況下是通過虛擬機(jī)監(jiān)視器(Virtual Machine Monitor,VMM)來與硬件進(jìn)行通信,由VMM來決定其對(duì)系統(tǒng)上所有虛擬機(jī)的訪問。(注意,大多數(shù)處理器和內(nèi)存訪問獨(dú)立于VMM,只在發(fā)生特定事件時(shí)才會(huì)涉及VMM,如頁(yè)面錯(cuò)誤。)在純軟件虛擬化解決方案中,VMM在軟件套件中的位置是傳統(tǒng)意義上操作系統(tǒng)所處的位置,而操作系統(tǒng)的位置是傳統(tǒng)

21、意義上應(yīng)用程序所處的位置。這一額外的通信層需要進(jìn)行二進(jìn)制轉(zhuǎn)換,以通過提供到物理資源(如處理器、內(nèi)存、存儲(chǔ)、顯卡和網(wǎng)卡等)的接口,模擬硬件環(huán)境。這種轉(zhuǎn)換必然會(huì)增加系統(tǒng)的復(fù)雜性。此外,客戶操作系統(tǒng)的支持受到虛擬機(jī)環(huán)境的能力限制,這會(huì)阻礙特定技術(shù)的部署,如64位客戶操作系統(tǒng)。在純軟件解決方案中,軟件堆棧增加的復(fù)雜性意味著,這些環(huán)境難于管理,因而會(huì)加大確保系統(tǒng)可靠性和安全性的困難。第三章 集群技術(shù)3.1 集群的定義集群(cluster)就是一組計(jì)算機(jī),它們作為一個(gè)整體向用戶提供一組網(wǎng)絡(luò)資源。這些單個(gè)的計(jì)算機(jī)系統(tǒng)就是集群的節(jié)點(diǎn)(node)。一個(gè)理想的集群是,用戶從來不會(huì)意識(shí)到集群系統(tǒng)底層的節(jié)點(diǎn),在他/她

22、們看來,集群是一個(gè)系統(tǒng),而非多個(gè)計(jì)算機(jī)系統(tǒng)。并且集群系統(tǒng)的管理員可以隨意增加和刪改集群系統(tǒng)的節(jié)點(diǎn)。集群計(jì)算機(jī)通常用來改進(jìn)單個(gè)計(jì)算機(jī)的計(jì)算速度和/或可靠性。一般情況下集群計(jì)算機(jī)比單個(gè)計(jì)算機(jī),工作站或超級(jí)計(jì)算機(jī)性能價(jià)格比要高得多。3.2 集群的分類集群分為同構(gòu)與異構(gòu)兩種,它們的區(qū)別在于:組成集群系統(tǒng)的計(jì)算機(jī)之間的體系結(jié)構(gòu)是否相同。集群計(jì)算機(jī)按功能和結(jié)構(gòu)的不同可以分成:高可用性集群 (High-availability clusters,簡(jiǎn)稱HA)、負(fù)載均衡集群(Load balancing clusters)、高性能計(jì)算集群(High-performance clusters,簡(jiǎn)稱HPC)、網(wǎng)格計(jì)

23、算(Grid computing)等幾類。高可用性集群一般是指當(dāng)集群中有某個(gè)節(jié)點(diǎn)失效的情況下,其上的任務(wù)會(huì)自動(dòng)轉(zhuǎn)移到其他正常的節(jié)點(diǎn)上。還指可以將集群中的某節(jié)點(diǎn)進(jìn)行離線維護(hù)再上線,該過程并不影響整個(gè)集群的運(yùn)行。負(fù)載均衡集群運(yùn)行時(shí)一般通過一個(gè)或者多個(gè)前端負(fù)載均衡器將工作負(fù)載分發(fā)到后端的一組服務(wù)器上,從而達(dá)到整個(gè)系統(tǒng)的高性能和高可用性。這樣的計(jì)算機(jī)集群有時(shí)也被稱為服務(wù)器群(Server Farm)。 一般高可用性集群和負(fù)載均衡集群會(huì)使用類似的技術(shù),或同時(shí)具有高可用性與負(fù)載均衡的特點(diǎn)。高性能計(jì)算集群采用將計(jì)算任務(wù)分配到集群的不同計(jì)算節(jié)點(diǎn)而提高計(jì)算能力,因而主要應(yīng)用在科學(xué)計(jì)算領(lǐng)域。比較流行的HPC采用L

24、inux操作系統(tǒng)和其它一些免費(fèi)軟件來完成并行運(yùn)算。這一集群配置通常被稱為Beowulf集群。這類集群通常運(yùn)行特定的程序以發(fā)揮HPC cluster的并行能力。這類程序一般應(yīng)用特定的運(yùn)行庫(kù), 比如專為科學(xué)計(jì)算設(shè)計(jì)的MPI庫(kù)。HPC集群特別適合于在計(jì)算中各計(jì)算節(jié)點(diǎn)之間發(fā)生大量數(shù)據(jù)通訊的計(jì)算作業(yè),比如一個(gè)節(jié)點(diǎn)的中間結(jié)果或影響到其它節(jié)點(diǎn)計(jì)算結(jié)果的情況。網(wǎng)格計(jì)算或網(wǎng)格集群是一種與集群計(jì)算非常相關(guān)的技術(shù)。網(wǎng)格與傳統(tǒng)集群的主要差別是網(wǎng)格是連接一組相關(guān)并不信任的計(jì)算機(jī),它的運(yùn)作更像一個(gè)計(jì)算公共設(shè)施而不是一個(gè)獨(dú)立的計(jì)算機(jī)。還有,網(wǎng)格通常比集群支持更多不同類型的計(jì)算機(jī)集合。3.3 集群的優(yōu)點(diǎn)性能:網(wǎng)絡(luò)服務(wù)的工作負(fù)

25、載通常是大量相互獨(dú)立的任務(wù),通過一組服務(wù)器分而治之,可以獲得很高的整體性能。性能/價(jià)格比:組成集群系統(tǒng)的PC服務(wù)器或RISC服務(wù)器和標(biāo)準(zhǔn)網(wǎng)絡(luò)設(shè)備因?yàn)榇笠?guī)模生產(chǎn)降低成本,價(jià)格低,具有最高的性能/價(jià)格比。若整體性能隨著結(jié)點(diǎn)數(shù)的增長(zhǎng)而接近線性增加,該系統(tǒng)的性能/價(jià)格比接近于PC服務(wù)器。所以,這種松耦合結(jié)構(gòu)比緊耦合的多處理器系統(tǒng)具有更好的性能/價(jià)格比??缮炜s性:集群系統(tǒng)中的結(jié)點(diǎn)數(shù)目可以增長(zhǎng)到幾千個(gè),乃至上萬個(gè),其伸縮性遠(yuǎn)超過單臺(tái)超級(jí)計(jì)算機(jī)。高可用性:在硬件和軟件上都有冗余,通過檢測(cè)軟硬件的故障,將故障屏蔽,由存活結(jié)點(diǎn)提供服務(wù),可實(shí)現(xiàn)高可用性。第四章 研究平臺(tái)所采用的關(guān)鍵技術(shù)4.1 雙機(jī)熱備技術(shù)所謂雙機(jī)

26、熱備,就是將中心服務(wù)器安裝成互為備份的兩臺(tái)服務(wù)器,并且在同一時(shí)間內(nèi)只有一臺(tái)服務(wù)器運(yùn)行。當(dāng)其中運(yùn)行著的一臺(tái)服務(wù)器出現(xiàn)故障無法啟動(dòng)時(shí),另一臺(tái)備份服務(wù)器會(huì)迅速的自動(dòng)啟動(dòng)并運(yùn)行(一般為2分鐘左右),從而保證整個(gè)網(wǎng)絡(luò)系統(tǒng)的正常運(yùn)行!雙機(jī)熱備的工作機(jī)制實(shí)際上是為整個(gè)網(wǎng)絡(luò)系統(tǒng)的中心服務(wù)器提供了一種故障自動(dòng)恢復(fù)能力。4.2 IP負(fù)載調(diào)度均衡技術(shù)用戶通過虛擬IP地址(Virtual IP Address)訪問服務(wù)時(shí),訪問請(qǐng)求的報(bào)文會(huì)到達(dá)負(fù)載調(diào)度器,由它進(jìn)行負(fù)載均衡調(diào)度,從一組真實(shí)服務(wù)器選出一個(gè),將報(bào)文的目標(biāo)地址Virtual IP Address改寫成選定服務(wù)器的地址,報(bào)文的目標(biāo)端口改寫成選定服務(wù)器的相應(yīng)端口,

27、最后將報(bào)文發(fā)送給選定的服務(wù)器。真實(shí)服務(wù)器的回應(yīng)報(bào)文經(jīng)過負(fù)載調(diào)度器時(shí),將報(bào)文的源地址和源端口改為Virtual IP Address和相應(yīng)的端口,再把報(bào)文發(fā)給用戶。4.3 IP-SAN存儲(chǔ)技術(shù)IP SAN基于十分成熟的以太網(wǎng)技術(shù),由于設(shè)置配置的技術(shù)簡(jiǎn)單、低成本的特色相當(dāng)明顯,而且普通服務(wù)器或PC機(jī)只需要具備網(wǎng)卡,即可共享和使用大容量的存儲(chǔ)空間。 由于是基于IP協(xié)議的,能容納所有IP協(xié)議網(wǎng)絡(luò)中的部件,因此,用戶可以在任何需要的地方創(chuàng)建實(shí)際的SAN網(wǎng)絡(luò),而不需要專門的光纖通道網(wǎng)絡(luò)在服務(wù)器和存儲(chǔ)設(shè)備之間傳送數(shù)據(jù)。同時(shí),因?yàn)闆]有光纖通道對(duì)傳輸距離的限制,IP SAN使用標(biāo)準(zhǔn)的TCP/IP協(xié)議,數(shù)據(jù)即可在

28、以太網(wǎng)上進(jìn)行傳輸。IP SAN網(wǎng)絡(luò)對(duì)于那些要求流量不太高的應(yīng)用場(chǎng)合以及預(yù)算不充足的用戶,是一個(gè)非常好的選擇。服務(wù)器組提供統(tǒng)一的存儲(chǔ)空間,這使得系統(tǒng)的維護(hù)工作比較輕松,如Webmaster只需要更新共享存儲(chǔ)中的頁(yè)面,對(duì)所有的服務(wù)器都有效。分布式文件系統(tǒng)提供良好的伸縮性和可用性,當(dāng)分布式文件系統(tǒng)的存儲(chǔ)空間增加時(shí),所有服務(wù)器的存儲(chǔ)空間也隨之增大。對(duì)于大多數(shù)Internet服務(wù)來說,它們都是讀密集型(Read-intensive)的應(yīng)用,分布式文件系統(tǒng)在每臺(tái)服務(wù)器使用本地硬盤作Cache(如2Gbytes的空間),可以使得訪問分布式文件系統(tǒng)本地的速度接近于訪問本地硬盤。RAID是“Redundant

29、Array of Independent Disk”的縮寫,中文意思是獨(dú)立冗余磁盤陣列。冗余磁盤陣列技術(shù)誕生于1987年,由美國(guó)加州大學(xué)伯克利分校提出。簡(jiǎn)單地解釋,就是將N臺(tái)硬盤通過RAID Controller(分Hardware,Software)結(jié)合成虛擬單臺(tái)大容量的硬盤使用。RAID的采用為存儲(chǔ)系統(tǒng)(或者服務(wù)器的內(nèi)置存儲(chǔ))帶來巨大利益,其中提高傳輸速率和提供容錯(cuò)功能是最大的優(yōu)點(diǎn)。第五章 系統(tǒng)實(shí)現(xiàn)過程5.1 系統(tǒng)實(shí)現(xiàn)環(huán)境5.1.1 網(wǎng)絡(luò)拓?fù)鋱D及相關(guān)網(wǎng)絡(luò)節(jié)點(diǎn)說明圖5-1 集群網(wǎng)絡(luò)拓?fù)鋱D表5-1 集群網(wǎng)絡(luò)節(jié)點(diǎn)IP分配名稱硬件環(huán)境公網(wǎng)IP私網(wǎng)IPOS作用node1浪潮NF522510.91.1

30、1.11111RHEL 5.6集群節(jié)點(diǎn)node2浪潮NF52252222RHEL 5.6集群節(jié)點(diǎn) as500n浪潮AS500N00-LiveStor存儲(chǔ)節(jié)點(diǎn) 5.1.2 服務(wù)器選型浪潮NF5225:采用英特爾 至強(qiáng)處理器5500/5600系列處理器,數(shù)據(jù)傳輸速率最高可達(dá)6.4GT/S,4-8MB的三級(jí)高速緩存支持64位擴(kuò)展、I/O加速、Turbo、超線程技術(shù),系統(tǒng)應(yīng)用性能較上代產(chǎn)品提高2.25倍;采用最新的INTEL 5500+ICH10R,創(chuàng)新的主板VR電路設(shè)計(jì),整體功耗降低5-12%,噪音降低4-5分貝,支

31、持DPNM電源管理技術(shù),節(jié)能環(huán)保;采用DDR III內(nèi)存,8個(gè)內(nèi)存插槽,支持DDR3 800/1066/1333MHz內(nèi)存,最大可擴(kuò)展64GB內(nèi)存,支持三通道讀取,滿足用戶性能需求更加節(jié)能;支持8塊3.5寸SAS/SATA硬盤,對(duì)熱插拔存儲(chǔ)設(shè)備的支持更加靈活;增強(qiáng)型應(yīng)變散熱系統(tǒng)和側(cè)位循環(huán)風(fēng)流設(shè)計(jì)集中并控制風(fēng)流的方向,保證在2U高擴(kuò)展?fàn)顟B(tài)下CPU、內(nèi)存、系統(tǒng)的良好散熱,高系統(tǒng)的可靠性,延長(zhǎng)部件的壽命并降低成本;關(guān)鍵部件硬盤、電源支持熱插拔冗余技術(shù),不關(guān)機(jī)就可以進(jìn)行部件的更換與維護(hù),提高了系統(tǒng)的可用性;集成SATA 0、1、10、5;SAS RAID 0、1、10,可選Ibutton 硬虛擬RAI

32、D5,為用戶提供多種數(shù)據(jù)保護(hù)方案;配置3個(gè)PCI-E2.0擴(kuò)展槽,采用自適應(yīng)選件技術(shù),支持主流的PCI-E,可同時(shí)保護(hù)用戶的多重需求,并降低用戶的擴(kuò)展成本;標(biāo)配集成BMC智能控制芯片,支持符合IPMI2.0規(guī)范的遠(yuǎn)程控制,在異地全面管理服務(wù)器,支持遠(yuǎn)程操作、管理、部署操作系統(tǒng)與應(yīng)用系統(tǒng),并監(jiān)控服務(wù)器的運(yùn)轉(zhuǎn)狀態(tài);集成SATA,可選SAS,按照業(yè)務(wù)發(fā)展隨意配置,高產(chǎn)品靈活度,低各配置之間的切換成本;最大支持8塊熱插拔SAS/SATA硬盤。5.1.3 存儲(chǔ)IP-SAN配置浪潮AS500N企業(yè)級(jí)2U存儲(chǔ)提供統(tǒng)一的IP SAN、NAS特性,融合FC SAN,靈活部署系統(tǒng)架構(gòu);IP SAN是基于高速以太網(wǎng)

33、的SAN架構(gòu),適合Exchange、Notes、SQL Server等數(shù)據(jù)庫(kù)應(yīng)用。NAS存儲(chǔ)服務(wù)支持不同操作系統(tǒng)和多臺(tái)主機(jī)的文件共享,適合Web、文件服務(wù)器應(yīng)用,并可為不同用戶分配獨(dú)立的共享網(wǎng)絡(luò)文件夾,用于文檔集中存儲(chǔ)和備份。融合FC SAN,提供統(tǒng)一存儲(chǔ)。AS500N2在iSCSI配置下提供Snapshot Copy(數(shù)據(jù)快照拷貝)功能。Snapshot Copy是對(duì)源數(shù)據(jù)卷“克隆”出一個(gè)數(shù)據(jù)完全一致但物理上獨(dú)立的卷,原數(shù)據(jù)卷的損壞不會(huì)影響克隆卷,輕松實(shí)現(xiàn)對(duì)在線訪問數(shù)據(jù)的備份、測(cè)試和數(shù)據(jù)倉(cāng)庫(kù)分析等,有效提升災(zāi)難恢復(fù)能力。AS500N2支持SAS、SATA兩種類型的不同容量硬盤的混插,節(jié)省不必

34、要的系統(tǒng)升級(jí)成本。單AS500N2產(chǎn)品可容納16塊SAS硬盤或者企業(yè)級(jí)SATA II硬盤,提供最高1000MB/s的帶寬吞吐量和138,000 IOPS的處理能力,滿足各種應(yīng)用的性能要求。系統(tǒng)支持SAS JBOD的擴(kuò)展功能,充分滿足企業(yè)數(shù)據(jù)的倍速增長(zhǎng)。64位專用存儲(chǔ)處理器、存儲(chǔ)操作系統(tǒng),保證系統(tǒng)在海量數(shù)據(jù)存取時(shí)的性能和可靠性。提供啟動(dòng)時(shí)磁盤順序加電功能,防止由于所有磁盤同時(shí)加電引起的電源故障和系統(tǒng)故障。保障了用戶因電源功率不足而無法啟動(dòng)機(jī)器。支持磁盤熱插拔,并為了防止用戶誤操作,在插入磁盤時(shí),會(huì)讓用戶確認(rèn)磁盤中是否有有用數(shù)據(jù),確認(rèn)后方進(jìn)行磁盤掃描。支持磁盤漫游,即存儲(chǔ)系統(tǒng)內(nèi)部磁盤可以任意的更換

35、位置,而磁盤內(nèi)部的陣列配置信息和數(shù)據(jù)完全不會(huì)改變或丟失,避免由于磁盤被錯(cuò)誤插拔而導(dǎo)致的數(shù)據(jù)丟失。AS500N2采用了多個(gè)冗余風(fēng)扇對(duì)所有的磁盤和控制單元進(jìn)行散熱,可保證整個(gè)系統(tǒng)長(zhǎng)時(shí)間的正常運(yùn)行。AS500N2可選配冗余、負(fù)載均衡熱插拔電源,支持電源自動(dòng)故障切換和在線的故障電源更換。還可與多種型號(hào)的外接UPS聯(lián)動(dòng),有效避免由于突然掉電導(dǎo)致設(shè)備緩存中的數(shù)據(jù)丟失。支持即插即用。用戶只需將PC或服務(wù)器插上網(wǎng)線與AS500N2通過網(wǎng)絡(luò)相連,并進(jìn)行簡(jiǎn)單的軟件配置就可以像訪問本地磁盤一樣訪問連接到網(wǎng)絡(luò)上的AS500N2存儲(chǔ)資源,無需添加任何其它專用設(shè)備。AS500N2采用可視化管理,在GUI管理界面上可以所見

36、即所得地對(duì)磁盤、RAID組等進(jìn)行配置操作和狀態(tài)監(jiān)控。AS500N2采用中文管理界面,便于操作使用。5.2 RHEL雙網(wǎng)卡負(fù)載均衡實(shí)現(xiàn)搭建系統(tǒng)環(huán)境,安裝RHEL5.6,常規(guī)模式,默認(rèn)配置安裝即可。采用雙網(wǎng)卡綁定技術(shù)實(shí)現(xiàn)服務(wù)器網(wǎng)絡(luò)連接的高可用性及吞吐量,如圖5-2所示。1)效果:網(wǎng)卡eth0和eth1虛擬成設(shè)備bond0,并且向外公布一個(gè)虛擬IP地址。存儲(chǔ)AS500N的root管理密碼為“inspur!dks01?”。配置完成后在inspur: #處輸入命令: ifconfig,出現(xiàn)信息:bond0 Link encap:Ethernet HWaddr 00:0C:76:6C:86:1Finet

37、addr:00 Bcast:55 Mask:inet6 addr: fe80:20c:76ff:fe6c:861f/64 Scope:LinkUP BROADCAST RUNNING MASTER MULTICAST MTU:1500 Metric:1RX packets:10831 errors:0 dropped:0 overruns:0 frame:0TX packets:476 errors:0 dropped:0 overruns:0 carrier:0collisions:0 txqueuelen:0RX byt

38、es:1290093 (1.2 Mb) TX bytes:164685 (160.8 Kb)eth0 Link encap:Ethernet HWaddr 00:0C:76:6C:86:1Finet addr:00 Bcast:55 Mask:inet6 addr: fe80:20c:76ff:fe6c:861f/64 Scope:LinkUP BROADCAST RUNNING SLAVE MULTICAST MTU:1500 Metric:1RX packets:5396 errors:0 dropped:0 overr

39、uns:0 frame:0TX packets:238 errors:0 dropped:0 overruns:0 carrier:0collisions:0 txqueuelen:1000RX bytes:643234 (628.1 Kb) TX bytes:83262 (81.3 Kb)Base address:0xb000 Memory:f5000000-f5020000eth1 Link encap:Ethernet HWaddr 00:0C:76:6C:86:1Finet addr:00 Bcast:55 Mask:255.255.255.

40、0inet6 addr: fe80:20c:76ff:fe6c:861f/64 Scope:LinkUP BROADCAST RUNNING SLAVE MULTICAST MTU:1500 Metric:1RX packets:5435 errors:0 dropped:0 overruns:0 frame:0TX packets:238 errors:0 dropped:0 overruns:0 carrier:0collisions:0 txqueuelen:1000RX bytes:646859 (631.6 Kb) TX bytes:81423 (79.5 Kb)Base addre

41、ss:0xc000 Memory:f9000000-f9020000lo Link encap:Local Loopbackinet addr: Mask:inet6 addr: :1/128 Scope:HostUP LOOPBACK RUNNING MTU:16436 Metric:1RX packets:108 errors:0 dropped:0 overruns:0 frame:0TX packets:108 errors:0 dropped:0 overruns:0 carrier:0collisions:0 txqueuelen:0RX byt

42、es:7288 (7.1 Kb) TX bytes:7288 (7.1 Kb)2)使用VI編輯器將標(biāo)有/的內(nèi)容添加到/etc/init.d/network中的相應(yīng)位置。(/不用輸入,修改完后需要重啟服務(wù)器操作系統(tǒng))mode為網(wǎng)卡工作方式,“1”為互援式工作方式(熱備份工作方式,當(dāng)前工作鏈路或網(wǎng)卡出現(xiàn)故障時(shí),備份網(wǎng)卡會(huì)自動(dòng)接管網(wǎng)絡(luò)鏈路),“0”為集群式工作方式(同時(shí)在線提供兩倍帶寬,一條鏈路或網(wǎng)卡故障時(shí),網(wǎng)絡(luò)帶寬為工作網(wǎng)卡帶寬,不需切換):Inspur: # vi /etc/networkInspur: # vi /etc/init.d/networkrc_status -vfi/#modpro

43、be bonding mode=active-backup miimon=100 primary=eth0/modprobe bonding mode=0 miimon=100 primary=eth0/ifconfig bond0 inet 00 netmask /route add default gw 00/ifenslave bond0 eth0/ifenslave bond0 eth1/ifconfig bond0 up;stop)echo Shutting down network interfaces:echo S

44、hutting down network interfaces:/ifenslave -d bond0 eth0/ifenslave -d bond0 eth1/ifconfig bond0 down圖5-2 實(shí)現(xiàn)存儲(chǔ)節(jié)點(diǎn)網(wǎng)絡(luò)負(fù)載均衡5.3 AS500N存儲(chǔ)調(diào)試及服務(wù)器節(jié)點(diǎn)上ISCSI掛載AS500N存儲(chǔ)管理系統(tǒng)出廠設(shè)置的IP 地址為,在管理員控制臺(tái)的瀏覽器地址欄中輸入: 即可顯示登錄界面,系統(tǒng)默認(rèn)管理員為admin,密碼:root,如圖5-3所示.圖5-3 浪潮海量存儲(chǔ)登陸界面進(jìn)入后顯示AS500N存儲(chǔ)信息,如圖5-4所示。圖5-4

45、 AS500N存儲(chǔ)信息點(diǎn)擊磁盤管理,物理磁盤管理顯示信息,如圖5-5所示。列出了系統(tǒng)中一個(gè)raid 卡上當(dāng)前所有可用的磁盤。系統(tǒng)物理磁盤狀態(tài)可分為member、hotspare、good 及bad 四種使用狀態(tài),其中member 為成員盤,hotspare 為全局熱備盤,good 為可使用的游離盤,bad 為不可使用的游離盤;hotspare,good 狀態(tài)磁盤可相互轉(zhuǎn)換,bad 狀態(tài)磁盤必須先進(jìn)行掃描轉(zhuǎn)換,才可以正常使用。用戶可點(diǎn)擊按鈕執(zhí)行磁盤狀態(tài)轉(zhuǎn)換及磁盤定位顯示操作。圖5-5 物理磁盤信息點(diǎn)擊RAID管理,Raid列表顯示信息,如圖5-6所示。圖5-6 顯示RAID列表信息點(diǎn)擊新建RAI

46、D 顯示信息,如圖5-6所示。圖5-6 創(chuàng)建新RAID創(chuàng)建完Raid后可在上一層查看創(chuàng)建的Raid后的編輯顯示詳細(xì)Raid信息狀態(tài),如圖5-7所示。圖5-7 編輯RAID并顯示RAID狀態(tài)在磁盤管理中點(diǎn)擊存儲(chǔ)管理可查看存儲(chǔ)邏輯卷,如圖5-8所示。圖5-8 查看管理存儲(chǔ)卷點(diǎn)擊新建存儲(chǔ)池可添加之前創(chuàng)建的Raid陣列,如圖5-9所示。圖5-9 新建存儲(chǔ)池并添加陣列創(chuàng)建完成后顯示存儲(chǔ)池詳細(xì)信息,如圖5-10所示。圖5-10 心事存儲(chǔ)池詳細(xì)信息點(diǎn)擊邏輯分區(qū)管理創(chuàng)建邏輯分區(qū),如圖5-11所示。圖5-11 創(chuàng)建邏輯分區(qū)點(diǎn)擊新建邏輯分區(qū)開始創(chuàng)建邏輯分區(qū),ISCSI的應(yīng)用類型為SAN,所以選擇SAN,如圖5-1

47、2所示。圖5-12 創(chuàng)建SAN的iscsi的邏輯分區(qū)點(diǎn)擊主頁(yè)面中的SAN管理進(jìn)入SAN的配置,如圖5-13所示。圖5-13 進(jìn)入SAN管理上圖中的“Target iqn.2011-04.lygtc.iscsi:storage.disk1.sys1.xyz”這 Target 名稱也稱作iSCSI Qualified Name(簡(jiǎn)稱:iqn),這格式在 iSCSI 規(guī)格書中有詳細(xì)說明:iqn.yyyy-mm.:identifier格式意義yyyy-mm 年份-月份 例如:2011-04reversed domain name 倒過來的網(wǎng)域名稱 例如:lygtc.iscsiidentifier 識(shí)別

48、代號(hào) 例如:storage.disk1.sys1.xyzLUN(Logical Unit Number),“#Lun 0 Path=/dev/dm-1,Type=fileio”這一行中, Path 改成您提供的硬盤名稱,此例為“Path=/dev/dm-1”。我們可以使用像是區(qū)塊裝置(Block devices,例 /dev/sdc)、一般檔案(regular files)、LVM 邏輯卷軸(Logical Volume)與磁碟陣列(RAID)提供給 Initiators 主機(jī)當(dāng)做區(qū)塊裝置(硬盤)。然后選擇隱射的邏輯分區(qū)即可,如圖5-14所示。圖5-14 映射邏輯分區(qū)到此,AS500N上的存儲(chǔ)

49、陣列配置已經(jīng)結(jié)束?,F(xiàn)在開始將安裝服務(wù)器需要的服務(wù)器iscsi端軟件,該軟件可以從安裝系統(tǒng)所在光盤中找到,需要符合當(dāng)前所安裝的操作系統(tǒng)版本,本次研究環(huán)境是RHEL 5.6,iscsi的rpm程序包在光盤根目錄下的Server 目錄中的iscsi-initiator-utils-72-6.el5.i386.rpm。將本文件拷貝到RHEL系統(tǒng)中,然后進(jìn)行iscsi的rmp包安裝。命令處理:# rpm -ivh iscsi-initiator-utils-72-6.el5.i386.rpm 安裝iscsi#cat /etc/iscsi/initiatorname.iscsi

50、 察看啟動(dòng)器名稱列出本機(jī)target,得到反饋信息:InitiatorName=iqn.1994-.redhat:cd29a6b9aea# service iscsid start 設(shè)置使iscsi服務(wù)在系統(tǒng)啟動(dòng)時(shí)自動(dòng)啟# chkconfig iscsid on設(shè)置使iscsi服務(wù)在系統(tǒng)啟動(dòng)時(shí)自動(dòng)啟#iscsiadm -m discovery -t sendtargets -p 00:3260列出目標(biāo)AS500N存儲(chǔ)器的target,得到反饋信息:iqn.2011-04.lygtc.iscsi:storage.disk1.sys1.xyz#/etc/init.d/iscsi

51、 restart 重啟iscsi服務(wù)#iscsiadm -m node 查看添加的iscsi的lun信息#iscsiadm -m node -T iqn.2011-04.lygtc.iscsi:storage.disk1.sys1.xyz p 00:3260 l連接目標(biāo)存儲(chǔ)器LUN,然后就可以看到存儲(chǔ)端所映射的硬盤,可以像使用本地硬盤一樣使用所映射的存儲(chǔ)空間。#fdisk l 查看存儲(chǔ)硬盤第一步:創(chuàng)建新磁盤分區(qū):用root用戶執(zhí)行命令fdisk /dev/sdb,完成硬盤的分區(qū)。在Command (m for help):提示下輸入n,即創(chuàng)建新的磁盤分區(qū)。在Command

52、actione extendedp primary partition (1-4):提示下輸入p,即創(chuàng)建主分區(qū)。在Partition number (1-4): 提示下輸入1 ,即分區(qū)號(hào)在First cylinder (1-522, default 1): 提示下按回車,即指定起始柱面(注意:括號(hào)中尾柱面數(shù)字取決于硬盤的具體型號(hào))在Last cylinder or +size or +sizeM or +sizeK (1-522, default 522): 提示下按回車,即指定尾柱面。在Command (m for help): 提示下輸入p ,即查看分區(qū)狀態(tài),如果看到/dev/sdb1等信

53、息則說明分區(qū)成功。在Command (m for help): 提示下輸入t,即轉(zhuǎn)換分區(qū)類型在Hex code (type L list codes): 提示下輸入L,即顯示分區(qū)編碼列表在Hex code (type L list codes): 提示下輸入fd,即LinuxRaid分區(qū)編碼在Command (m for help): 提示下輸入w ,即保存退出第二步:格式化創(chuàng)建磁盤分區(qū):用root用戶執(zhí)行命令mkfs -t ext3 /dev/sdb1,完成硬盤的格式化。第三步:掛載分區(qū)用root用戶執(zhí)行命令mkdir /data 創(chuàng)建一個(gè)根目錄用root用戶執(zhí)行命令mount /dev/s

54、db1 /data 將sdb1分區(qū) mount to /data完成后需要重新啟動(dòng)Linux主機(jī),以使設(shè)置生效。注意系統(tǒng)開機(jī)順序:?jiǎn)?dòng)AS500N存儲(chǔ)系統(tǒng),存儲(chǔ)系統(tǒng)正常啟動(dòng)后依次打開兩臺(tái)服務(wù)器5.4 浪潮BCP Cluster部署在兩臺(tái)節(jié)點(diǎn)服務(wù)器上安裝好BCP后,使用PC機(jī)端連接節(jié)點(diǎn)服務(wù)器。在地址欄中先輸入其中一個(gè)節(jié)點(diǎn)公網(wǎng)IP:22:29003如圖5-15所示。圖5-15 初次進(jìn)入BCP集群點(diǎn)擊設(shè)定進(jìn)入bulider第一次要編輯java授權(quán)策略文件,如圖5-16、17所示。圖5-16 編輯JAVA授權(quán)策略編輯完策略文件關(guān)掉,重新啟動(dòng)瀏覽器進(jìn)程才能正常進(jìn)入配置模式

55、。圖5-17 編輯JAVA授權(quán)策略重啟瀏覽器后進(jìn)入BCP,如圖5-18所示。圖5-18 重啟瀏覽器后進(jìn)入BCP進(jìn)去后右擊集群生成向?qū)?,進(jìn)入集群配置模式,如圖5-19所示。圖5-19 集群生成向?qū)г诖酥行姆?wù)器node1的ip公網(wǎng)地址是11私網(wǎng)是11,node2的公網(wǎng)是22.私網(wǎng)是22,漂移地址是23,心跳分區(qū)是/dev/adb1,數(shù)據(jù)分區(qū)時(shí)/dev/adb2數(shù)據(jù)分區(qū)的掛載點(diǎn)是/data,具體操作如圖5-20到5-39所示。圖5-20 添加集群名稱并新建節(jié)點(diǎn)服務(wù)器圖5-21 分別加入私網(wǎng)、公網(wǎng)

56、IP信息圖5-22 添加心跳分區(qū)圖5-23心跳分區(qū)用的是裸設(shè)備,裸設(shè)備需要給分區(qū)綁定一個(gè)裸設(shè)備的名字圖5-24 同樣添加第二臺(tái)機(jī)器的信息并創(chuàng)建完成節(jié)點(diǎn)服務(wù)器設(shè)置圖5-25 添加集群資源類型圖5-26 添加資源切換組圖5-27 在資源切換組里面添加資源圖5-28 添加漂移ip信息圖5-29 添加共享磁盤資源圖5-30 創(chuàng)建集群依賴關(guān)系圖5-31 編輯集群監(jiān)視資源圖5-32 添加資源的監(jiān)控,共享型集群默認(rèn)會(huì)自動(dòng)添加用戶空間的監(jiān)控圖5-33 添加漂移ip監(jiān)控,linux下沒有浮動(dòng)ip監(jiān)控選項(xiàng)監(jiān)控類型只能選擇ip監(jiān)控圖5-34 添加集群磁盤資源圖5-35 添加磁盤的監(jiān)控圖5-36 查看集群最終設(shè)置圖5-37 然后上傳配置文件重新啟動(dòng)集群服務(wù)器共享型集群的基本配置到現(xiàn)在結(jié)束圖5-38 到此,浪潮BCP Cluster部署完畢5.5 部署VMWare 虛擬化主機(jī)在節(jié)點(diǎn)一中安裝VMware-Workstation-6.5.2-156735.i386.bundle,并將Vmware網(wǎng)絡(luò)設(shè)置為橋模式,并將設(shè)備指向bond0(節(jié)

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論