基于數(shù)據(jù)分組方法的數(shù)據(jù)倉庫并行預(yù)計(jì)算和查詢(一)_第1頁
基于數(shù)據(jù)分組方法的數(shù)據(jù)倉庫并行預(yù)計(jì)算和查詢(一)_第2頁
基于數(shù)據(jù)分組方法的數(shù)據(jù)倉庫并行預(yù)計(jì)算和查詢(一)_第3頁
已閱讀5頁,還剩10頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

圖2.3

MIMD體系結(jié)構(gòu)隨著技術(shù)的發(fā)展,曾經(jīng)風(fēng)行的SIMD并行計(jì)算機(jī)已經(jīng)退出了歷史舞臺,MIMD體系的并行機(jī)已經(jīng)占據(jù)了統(tǒng)治性的地位。目前世界上流行的并行計(jì)算機(jī)系統(tǒng)基本上都是屬于MIMD計(jì)算機(jī)。在MIMD的分類中,按照內(nèi)存訪問模型、微處理器和互聯(lián)網(wǎng)絡(luò)的不同,并行計(jì)算機(jī)可分為以下5類[ZCML06]:(1)對稱多處理共享存儲并行計(jì)算機(jī)(SymmetricMulti-Processing,SMP):SMP系統(tǒng)中任何處理器都可以直接訪問任何存儲模塊中的存儲單元和I/O模塊,且各自間的訪問延遲、帶寬都一樣。整個(gè)系統(tǒng)只有一個(gè)操作系統(tǒng)駐留在共享存儲器中,可以動態(tài)地分配進(jìn)程到各個(gè)處理器,而且每個(gè)進(jìn)程都是使用共享的數(shù)據(jù)存儲區(qū)來完成通信,通信的延遲較低。但是由于各個(gè)處理單元之間的耦合程度較高,所以只要總線、存儲器或操作系統(tǒng)其中一個(gè)出錯,便會導(dǎo)致整個(gè)系統(tǒng)的崩潰,而且系統(tǒng)的可擴(kuò)張性較差。支持消息傳遞、共享存儲并行程序設(shè)計(jì)。(2)分布式共享存儲并行計(jì)算機(jī)(DistributedSharedMemory,DSM):系統(tǒng)以節(jié)點(diǎn)為單位,每個(gè)節(jié)點(diǎn)包含一個(gè)或多個(gè)CPU,每個(gè)CPU有局部的cache。存儲在物理上分布,但在邏輯上是統(tǒng)一的內(nèi)存地址空間。各個(gè)節(jié)點(diǎn)既可以直接訪問本地的局部存儲單元,也進(jìn)行訪問其他節(jié)點(diǎn)的局部存儲單元,但遠(yuǎn)端訪問必須通過高性能互聯(lián)網(wǎng)絡(luò),性能遠(yuǎn)不如本地訪問。DSM系統(tǒng)的可擴(kuò)展性強(qiáng),可擴(kuò)展至數(shù)百個(gè)節(jié)點(diǎn)。支持消息傳遞、共享存儲并行程序設(shè)計(jì)。(3)集群系統(tǒng)(Cluster):系統(tǒng)由節(jié)點(diǎn)構(gòu)成,每個(gè)節(jié)點(diǎn)包含2-4個(gè)商用處理器,節(jié)點(diǎn)內(nèi)部共享存儲。各節(jié)點(diǎn)通過交換機(jī)連接。當(dāng)計(jì)算機(jī)是運(yùn)行Linux操作系統(tǒng)的PC機(jī)時(shí),這類集群則成為Beowulf[Beo07]集群。集群系統(tǒng)只支持消息傳遞并行程序設(shè)計(jì)。目前集群系統(tǒng)占據(jù)著主流地位,在世界超級計(jì)算機(jī)500強(qiáng)中,占據(jù)了大多數(shù)的席位。(4)星群系統(tǒng)(Constellation):系統(tǒng)由節(jié)點(diǎn)構(gòu)成,每個(gè)節(jié)點(diǎn)是一臺SMP或DSM子系統(tǒng),包含的處理器數(shù)量巨大,計(jì)算功能十分強(qiáng)大。節(jié)點(diǎn)間通過集群交換機(jī)連接,節(jié)點(diǎn)間分布存儲。各個(gè)節(jié)點(diǎn)運(yùn)行專用的操作系統(tǒng)、編譯系統(tǒng)和作業(yè)管理系統(tǒng)。與集群系統(tǒng)所不同的是,星群系統(tǒng)可以支持消息傳遞和共享存儲兩種并行編程模式:在節(jié)點(diǎn)間使用消息傳遞,節(jié)點(diǎn)內(nèi)部則可以使用共享存儲模式,這種混合模式充分利用了兩種編程模式的特點(diǎn),因此被認(rèn)為是最有效率的編程模式。(5)大規(guī)模并行計(jì)算機(jī)系統(tǒng)(MassivelyParallelProcessing,MPP):由數(shù)百個(gè)乃至數(shù)千個(gè)結(jié)算節(jié)點(diǎn)和I/O節(jié)點(diǎn)組成,每個(gè)節(jié)點(diǎn)相對獨(dú)立,并擁有一個(gè)或多個(gè)微處理器。這些節(jié)點(diǎn)的局部cache通過局部總線或互聯(lián)網(wǎng)絡(luò)與局部內(nèi)存模塊和I/O設(shè)備相連接?;ヂ?lián)網(wǎng)絡(luò)與集群互聯(lián)網(wǎng)絡(luò)不同,一般采用由多種靜態(tài)拓?fù)浣Y(jié)構(gòu)耦合而成的混合拓?fù)浣Y(jié)構(gòu),通信延遲和通信帶寬明顯優(yōu)于集群系統(tǒng)。每個(gè)節(jié)點(diǎn)均擁有不同的操作系統(tǒng),允許用戶在某個(gè)特定節(jié)點(diǎn)上作業(yè)。各節(jié)點(diǎn)間內(nèi)存模塊相互獨(dú)立且沒有全局內(nèi)存統(tǒng)一編址。如果要直接訪問其他節(jié)點(diǎn)的內(nèi)存則需要有操作系統(tǒng)的支持。MPP支持消息傳遞或高性能Fortran并行程序設(shè)計(jì),但不支持共享存儲模式。各種并行計(jì)算機(jī)對于消息傳遞、共享存儲、數(shù)據(jù)并行三種編程模式的支持在表2.3中列出。表2.3

各種并行計(jì)算機(jī)對與編程模式的支持2.3小結(jié)

數(shù)據(jù)倉庫的應(yīng)用日漸廣泛,但是數(shù)據(jù)量的增長使得OLAP系統(tǒng)的效率逐漸低下和數(shù)據(jù)立方體的容量呈指數(shù)上升。數(shù)據(jù)立方體的預(yù)計(jì)算需要大量的計(jì)算能力和存儲空間,隨著并行計(jì)算技術(shù)的發(fā)展,數(shù)據(jù)倉庫將會更多地使用到并行計(jì)算技術(shù)。并行計(jì)算技術(shù)帶來的不僅僅是計(jì)算能力和存儲空間上的擴(kuò)展,并行計(jì)算技術(shù)對于計(jì)算機(jī)性能的擴(kuò)展使得更多更復(fù)雜的應(yīng)用技術(shù)得以實(shí)現(xiàn),擴(kuò)展數(shù)據(jù)倉庫的功能。第三章MPI

消息傳遞是一個(gè)廣泛應(yīng)用在并行計(jì)算機(jī)(特別是分布存儲并行機(jī):DSM、集群、星群和MPP)上的模式。自從20世紀(jì)80年代以來,經(jīng)過10余年的發(fā)展,很多基于消息傳遞的應(yīng)用系統(tǒng)有了長足的進(jìn)步。由于基于消息傳遞模式的系統(tǒng)很多都具有效率高、適用性強(qiáng)等優(yōu)點(diǎn),所以人們認(rèn)為通過定義一個(gè)核心庫程序的語法與語義,將有益于廣大用戶,將可以在更大范圍的機(jī)器上有效實(shí)現(xiàn)消息傳遞模式。本章的主要內(nèi)容是介紹目前最為流行的基于消息傳遞模式的編程環(huán)境:MPI。在以下的章節(jié)中會介紹MPI的產(chǎn)生、MPI的實(shí)現(xiàn)和關(guān)于MPI編程的基本概念。3.1MPI的產(chǎn)生

早期的商用并行計(jì)算機(jī)很多是基于消息傳遞的,因?yàn)樗某杀鞠鄬τ诠蚕泶鎯Φ臋C(jī)器更低。人們開發(fā)了基于消息傳遞模式的多種不同實(shí)現(xiàn)的消息傳遞程序庫,但是這些程序庫就像匯編語言一樣,每個(gè)硬件制造商提供的程序庫都與其他的不兼容。這些不同的程序庫之間的實(shí)質(zhì)上的差別其實(shí)很小,有的只是語法上的不同而已,但是要想將消息傳遞程序從一個(gè)庫移植到另一個(gè)庫中時(shí),程序往往要作出很大程度的修改。由此人們便意識到需要指定一個(gè)消息傳遞程序設(shè)計(jì)的接口標(biāo)準(zhǔn),以便并行計(jì)算科學(xué)的進(jìn)一步發(fā)展,消息傳遞接口(MPI:MessagePassingInterface)便是這個(gè)標(biāo)準(zhǔn)的產(chǎn)物。MPI的標(biāo)準(zhǔn)化開始于1992年4月底,在美國弗吉尼亞州的Williamsburg召開的“分布式存儲環(huán)境中消息傳遞標(biāo)準(zhǔn)”的討論會上[MPI03a]。MPI1.0標(biāo)準(zhǔn)由Dongarra,Hempel,Hey以及Walker在1992年11月提出的初始草案和于1993年2月完成的修訂版本所規(guī)定。為了促進(jìn)MPI的發(fā)展,MPI論壇(MPIForum)因此而誕生,負(fù)責(zé)MPI的完善和維護(hù)工作。MPI-2[MPI03b]是在對原來MPI作了重大擴(kuò)充基礎(chǔ)上,于1997年7月推出的MPI擴(kuò)展部分,原來的MPI各種版本改稱為MPI-1。MPI-2的擴(kuò)充很多,但最主要的是以下三部分:并行I/O,遠(yuǎn)程存儲訪問和動態(tài)進(jìn)程管理。MPI的標(biāo)準(zhǔn)化是多個(gè)組織和個(gè)人的努力成果,他們主要是來自美國和歐洲,大約60名來自40個(gè)不同組織的工作人員為此付出了辛勤的勞動。這其中包括了并行計(jì)算機(jī)大多數(shù)的并行計(jì)算機(jī)生產(chǎn)商、大學(xué)、政府實(shí)驗(yàn)室和工廠的研究人員。他們有Venus(IBM)、NX/2(Intel)Express(Parasoft)、Vertex

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論