ANSYS Fluent:高性能計(jì)算(HPC)在Fluent中的應(yīng)用.Tex.header_第1頁(yè)
ANSYS Fluent:高性能計(jì)算(HPC)在Fluent中的應(yīng)用.Tex.header_第2頁(yè)
ANSYS Fluent:高性能計(jì)算(HPC)在Fluent中的應(yīng)用.Tex.header_第3頁(yè)
ANSYS Fluent:高性能計(jì)算(HPC)在Fluent中的應(yīng)用.Tex.header_第4頁(yè)
ANSYS Fluent:高性能計(jì)算(HPC)在Fluent中的應(yīng)用.Tex.header_第5頁(yè)
已閱讀5頁(yè),還剩16頁(yè)未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

ANSYSFluent:高性能計(jì)算(HPC)在Fluent中的應(yīng)用1ANSYSFluent:高性能計(jì)算(HPC)在Fluent中的應(yīng)用1.1簡(jiǎn)介1.1.1HPC在CFD模擬中的重要性在計(jì)算流體動(dòng)力學(xué)(CFD)領(lǐng)域,模擬復(fù)雜流體流動(dòng)和熱傳遞現(xiàn)象需要處理大量的計(jì)算數(shù)據(jù)和復(fù)雜的數(shù)學(xué)模型。隨著工業(yè)設(shè)計(jì)和科學(xué)研究對(duì)精度和效率的要求不斷提高,傳統(tǒng)的單機(jī)計(jì)算已經(jīng)難以滿足需求。高性能計(jì)算(HPC)的引入,通過(guò)并行計(jì)算技術(shù),極大地提高了CFD模擬的計(jì)算速度和處理能力,使得模擬大規(guī)模、高精度的流體動(dòng)力學(xué)問(wèn)題成為可能。HPC通過(guò)使用多核處理器、多節(jié)點(diǎn)集群和高效的并行算法,能夠顯著減少模擬時(shí)間,加速產(chǎn)品開(kāi)發(fā)周期,同時(shí)提高模擬的準(zhǔn)確性和可靠性。在Fluent中,HPC的應(yīng)用主要體現(xiàn)在以下幾個(gè)方面:并行計(jì)算:利用多處理器或計(jì)算節(jié)點(diǎn)同時(shí)執(zhí)行計(jì)算任務(wù),提高計(jì)算效率。大規(guī)模模擬:能夠處理數(shù)百萬(wàn)至數(shù)十億的網(wǎng)格單元,適用于復(fù)雜幾何和高分辨率模擬。高級(jí)物理模型:HPC支持更復(fù)雜的物理模型,如多相流、化學(xué)反應(yīng)和湍流模型,提高模擬的物理真實(shí)性。實(shí)時(shí)模擬:在某些應(yīng)用中,如飛行器設(shè)計(jì)和環(huán)境預(yù)測(cè),HPC能夠?qū)崿F(xiàn)接近實(shí)時(shí)的模擬結(jié)果。1.1.2Fluent與HPC的集成ANSYSFluent作為業(yè)界領(lǐng)先的CFD軟件,提供了強(qiáng)大的HPC集成能力,使得用戶能夠充分利用HPC資源進(jìn)行高效計(jì)算。Fluent支持多種HPC環(huán)境,包括:共享內(nèi)存并行計(jì)算:利用單個(gè)計(jì)算機(jī)內(nèi)的多核處理器進(jìn)行并行計(jì)算。分布式內(nèi)存并行計(jì)算:通過(guò)網(wǎng)絡(luò)連接多臺(tái)計(jì)算機(jī),形成計(jì)算集群,進(jìn)行大規(guī)模并行計(jì)算。混合并行計(jì)算:結(jié)合共享內(nèi)存和分布式內(nèi)存并行計(jì)算,實(shí)現(xiàn)更高效的資源利用。Fluent的HPC集成不僅限于并行計(jì)算,還包括了對(duì)HPC環(huán)境的優(yōu)化,如負(fù)載均衡、通信效率優(yōu)化和內(nèi)存管理,確保在多節(jié)點(diǎn)集群中能夠高效穩(wěn)定地運(yùn)行。1.2技術(shù)與算法1.2.1并行計(jì)算原理并行計(jì)算是HPC的核心技術(shù)之一,它通過(guò)將計(jì)算任務(wù)分解為多個(gè)子任務(wù),同時(shí)在多個(gè)處理器或計(jì)算節(jié)點(diǎn)上執(zhí)行,從而加速計(jì)算過(guò)程。在Fluent中,主要采用兩種并行計(jì)算策略:空間并行:將計(jì)算域分割成多個(gè)子域,每個(gè)子域由一個(gè)或多個(gè)處理器負(fù)責(zé)計(jì)算。子域之間的數(shù)據(jù)交換通過(guò)消息傳遞接口(MPI)實(shí)現(xiàn)。時(shí)間并行:在時(shí)間步長(zhǎng)上進(jìn)行并行,雖然在CFD中應(yīng)用較少,但在某些特定情況下,如長(zhǎng)時(shí)間序列模擬,可以提高效率。1.2.2示例:使用Fluent進(jìn)行并行計(jì)算假設(shè)我們有一個(gè)復(fù)雜的航空發(fā)動(dòng)機(jī)燃燒室模型,需要在HPC集群上進(jìn)行并行計(jì)算。以下是一個(gè)使用Fluent進(jìn)行并行計(jì)算的基本步驟和代碼示例:1.2.2.1步驟1:準(zhǔn)備計(jì)算模型首先,使用ANSYSMeshing或類似工具生成計(jì)算網(wǎng)格,并在Fluent中設(shè)置物理模型和邊界條件。1.2.2.2步驟2:配置并行計(jì)算在Fluent中,通過(guò)“Parallel”菜單配置并行計(jì)算參數(shù),包括選擇并行策略、指定處理器數(shù)量等。1.2.2.3步驟3:?jiǎn)?dòng)并行計(jì)算使用HPC集群的作業(yè)調(diào)度系統(tǒng)提交計(jì)算任務(wù)。以下是一個(gè)在SLURM調(diào)度系統(tǒng)中提交Fluent并行計(jì)算任務(wù)的示例腳本:#!/bin/bash

#SBATCH--job-name=Fluent_HPC

#SBATCH--output=Fluent_HPC.out

#SBATCH--ntasks=16

#SBATCH--nodes=4

#SBATCH--ntasks-per-node=4

#SBATCH--time=24:00:00

#SBATCH--partition=compute

moduleloadansys/19.2

mpirun-np$SLURM_NTASKSfluent-mpich-gpus$SLURM_NTASKS-mpi-batch-job-id$SLURM_JOB_ID-case./case-results./results1.2.2.4步驟4:監(jiān)控和分析結(jié)果計(jì)算完成后,通過(guò)Fluent的后處理工具或外部數(shù)據(jù)可視化軟件分析計(jì)算結(jié)果。1.2.3并行計(jì)算效率分析并行計(jì)算的效率通常通過(guò)加速比和效率來(lái)衡量。加速比是指并行計(jì)算與單處理器計(jì)算時(shí)間的比值,而效率是指并行計(jì)算加速比與處理器數(shù)量的比值。在實(shí)際應(yīng)用中,隨著處理器數(shù)量的增加,加速比和效率可能會(huì)出現(xiàn)下降,這是因?yàn)椴⑿杏?jì)算中存在通信開(kāi)銷和負(fù)載不均衡問(wèn)題。為了優(yōu)化并行計(jì)算效率,可以采取以下策略:優(yōu)化網(wǎng)格分割:確保每個(gè)子域的計(jì)算負(fù)載大致相等,減少數(shù)據(jù)交換。減少通信開(kāi)銷:優(yōu)化并行算法,減少不必要的數(shù)據(jù)交換。利用混合并行:結(jié)合共享內(nèi)存和分布式內(nèi)存并行,提高計(jì)算效率。通過(guò)這些策略,可以最大化HPC在Fluent中的應(yīng)用效果,實(shí)現(xiàn)更快速、更準(zhǔn)確的CFD模擬。2HPC基礎(chǔ)知識(shí)2.1并行計(jì)算原理并行計(jì)算是通過(guò)同時(shí)使用多個(gè)處理器來(lái)執(zhí)行計(jì)算任務(wù),以提高計(jì)算效率和處理大規(guī)模數(shù)據(jù)集的能力。在并行計(jì)算中,任務(wù)被分解成多個(gè)子任務(wù),這些子任務(wù)可以同時(shí)在不同的處理器上執(zhí)行。并行計(jì)算可以分為兩種主要類型:共享內(nèi)存并行計(jì)算和分布式內(nèi)存并行計(jì)算。2.1.1共享內(nèi)存并行計(jì)算共享內(nèi)存并行計(jì)算中,所有處理器共享同一塊內(nèi)存空間。這種模型下,處理器之間的通信和數(shù)據(jù)共享較為簡(jiǎn)單,因?yàn)樗鼈兛梢灾苯釉L問(wèn)同一內(nèi)存中的數(shù)據(jù)。OpenMP是一種常用的共享內(nèi)存并行編程模型,它通過(guò)在代碼中插入特定的指令來(lái)實(shí)現(xiàn)并行化。2.1.2分布式內(nèi)存并行計(jì)算分布式內(nèi)存并行計(jì)算中,每個(gè)處理器都有自己的私有內(nèi)存,處理器之間需要通過(guò)網(wǎng)絡(luò)進(jìn)行通信以交換數(shù)據(jù)。這種模型適用于大規(guī)模并行計(jì)算,尤其是在集群環(huán)境中。MPI(MessagePassingInterface)是一種廣泛使用的分布式內(nèi)存并行編程模型,它定義了一套標(biāo)準(zhǔn)的通信協(xié)議,用于處理器之間的消息傳遞。2.2MPI與OpenMP簡(jiǎn)介2.2.1MPI(MessagePassingInterface)MPI是一種用于編寫(xiě)并行程序的標(biāo)準(zhǔn)化接口,它允許程序員在分布式內(nèi)存系統(tǒng)中編寫(xiě)可移植的并行代碼。MPI支持多種通信模式,包括點(diǎn)對(duì)點(diǎn)通信和集體通信,可以用于實(shí)現(xiàn)各種并行算法。2.2.1.1MPI示例下面是一個(gè)使用MPI的簡(jiǎn)單示例,該示例展示了如何在多個(gè)處理器之間分配計(jì)算任務(wù),計(jì)算數(shù)組的和。#include<mpi.h>

#include<stdio.h>

intmain(intargc,char*argv[]){

intrank,size;

intarray[100],local_sum=0;

intglobal_sum;

MPI_Init(&argc,&argv);

MPI_Comm_rank(MPI_COMM_WORLD,&rank);

MPI_Comm_size(MPI_COMM_WORLD,&size);

//初始化數(shù)組

if(rank==0){

for(inti=0;i<100;i++){

array[i]=i;

}

}

//廣播數(shù)組到所有處理器

MPI_Bcast(array,100,MPI_INT,0,MPI_COMM_WORLD);

//每個(gè)處理器計(jì)算部分和

for(inti=rank;i<100;i+=size){

local_sum+=array[i];

}

//使用MPI_Reduce收集所有處理器的和

MPI_Reduce(&local_sum,&global_sum,1,MPI_INT,MPI_SUM,0,MPI_COMM_WORLD);

//打印總和

if(rank==0){

printf("Thesumofthearrayis%d\n",global_sum);

}

MPI_Finalize();

return0;

}在這個(gè)例子中,我們首先初始化MPI環(huán)境,然后獲取當(dāng)前處理器的rank和整個(gè)通信組的size。數(shù)組在rank為0的處理器上初始化,然后通過(guò)MPI_Bcast廣播到所有處理器。每個(gè)處理器計(jì)算數(shù)組的一部分和,最后通過(guò)MPI_Reduce將所有部分和收集到rank為0的處理器上,計(jì)算出數(shù)組的總和。2.2.2OpenMPOpenMP是一種用于共享內(nèi)存系統(tǒng)的并行編程模型,它通過(guò)在代碼中插入特定的指令來(lái)實(shí)現(xiàn)并行化。OpenMP支持多種并行化指令,包括#pragmaompparallel和#pragmaompfor,用于并行執(zhí)行代碼塊和循環(huán)。2.2.2.1OpenMP示例下面是一個(gè)使用OpenMP的簡(jiǎn)單示例,該示例展示了如何并行計(jì)算數(shù)組的和。#include<stdio.h>

#include<omp.h>

intmain(){

intarray[100];

intsum=0;

//初始化數(shù)組

for(inti=0;i<100;i++){

array[i]=i;

}

//使用OpenMP并行計(jì)算數(shù)組的和

#pragmaompparallelforreduction(+:sum)

for(inti=0;i<100;i++){

sum+=array[i];

}

printf("Thesumofthearrayis%d\n",sum);

return0;

}在這個(gè)例子中,我們使用#pragmaompparallelfor指令并行化了數(shù)組求和的循環(huán)。reduction(+:sum)指令確保了所有線程的計(jì)算結(jié)果被正確地合并到sum變量中。通過(guò)以上介紹和示例,我們可以看到并行計(jì)算的基本原理以及如何使用MPI和OpenMP來(lái)實(shí)現(xiàn)并行化。這些技術(shù)在處理大規(guī)模數(shù)據(jù)集和復(fù)雜計(jì)算任務(wù)時(shí),可以顯著提高計(jì)算效率。3Fluent中的HPC設(shè)置3.1配置HPC環(huán)境在使用ANSYSFluent進(jìn)行高性能計(jì)算(HPC)之前,需要確保你的計(jì)算環(huán)境已經(jīng)正確配置。HPC環(huán)境的配置涉及到硬件資源的分配、軟件的安裝以及網(wǎng)絡(luò)的設(shè)置。以下是一些關(guān)鍵步驟:硬件資源分配:確保你的HPC集群有足夠的計(jì)算節(jié)點(diǎn)和核心來(lái)運(yùn)行Fluent。每個(gè)計(jì)算節(jié)點(diǎn)應(yīng)該有充足的內(nèi)存和高速的處理器。軟件安裝:在所有計(jì)算節(jié)點(diǎn)上安裝ANSYSFluent。確保所有節(jié)點(diǎn)上的Fluent版本一致,以避免運(yùn)行時(shí)的兼容性問(wèn)題。網(wǎng)絡(luò)設(shè)置:配置節(jié)點(diǎn)之間的網(wǎng)絡(luò)連接,確保數(shù)據(jù)傳輸?shù)母咚俸偷脱舆t。這通常涉及到設(shè)置MPI(MessagePassingInterface)環(huán)境,以便Fluent可以在多個(gè)節(jié)點(diǎn)之間并行計(jì)算。許可證管理:確保你的HPC環(huán)境可以訪問(wèn)到有效的ANSYSFluent許可證。這可能需要設(shè)置許可證服務(wù)器,或者在每個(gè)節(jié)點(diǎn)上配置許可證文件。作業(yè)調(diào)度:使用HPC集群的作業(yè)調(diào)度系統(tǒng)(如SLURM、PBS等)來(lái)提交和管理Fluent的計(jì)算任務(wù)。這包括設(shè)置任務(wù)的優(yōu)先級(jí)、運(yùn)行時(shí)間限制以及資源需求。3.1.1示例:使用SLURM提交Fluent任務(wù)假設(shè)你正在使用SLURM作為你的作業(yè)調(diào)度系統(tǒng),下面是一個(gè)提交Fluent任務(wù)的示例腳本:#!/bin/bash

#SBATCH--job-name=Fluent_HPC

#SBATCH--output=Fluent_HPC.out

#SBATCH--error=Fluent_HPC.err

#SBATCH--ntasks=16

#SBATCH--nodes=4

#SBATCH--time=02:00:00

#SBATCH--partition=compute

#加載Fluent模塊

moduleloadansys/19.2

#設(shè)置MPI環(huán)境

exportOMP_NUM_THREADS=4

#提交Fluent任務(wù)

mpirun-np16fluent-g-mpi-m-nojournal-nsolution-case/path/to/your/case

#完成后清理

moduleunloadansys/19.2在這個(gè)示例中,我們請(qǐng)求了4個(gè)節(jié)點(diǎn),每個(gè)節(jié)點(diǎn)4個(gè)核心(共16個(gè)核心),并設(shè)置了2小時(shí)的運(yùn)行時(shí)間限制。我們使用moduleload命令來(lái)加載Fluent模塊,然后通過(guò)mpirun命令來(lái)啟動(dòng)Fluent的并行計(jì)算。最后,我們使用moduleunload命令來(lái)清理環(huán)境。3.2選擇并行策略在Fluent中,有幾種并行策略可以選擇,包括:DomainDecomposition:這是最常見(jiàn)的并行策略,F(xiàn)luent將計(jì)算域分割成多個(gè)子域,每個(gè)子域由一個(gè)或多個(gè)處理器計(jì)算。這種策略適用于大多數(shù)流體動(dòng)力學(xué)問(wèn)題。Pressure-BasedSolver:在壓力基求解器中,可以使用并行策略來(lái)加速收斂。這通常涉及到將網(wǎng)格分割成多個(gè)區(qū)域,每個(gè)區(qū)域由一個(gè)處理器計(jì)算。Density-BasedSolver:對(duì)于高馬赫數(shù)或包含大量非結(jié)構(gòu)化網(wǎng)格的問(wèn)題,密度基求解器的并行策略可能更有效。3.2.1示例:使用DomainDecomposition策略在Fluent中設(shè)置DomainDecomposition策略,首先需要在網(wǎng)格劃分時(shí)考慮并行計(jì)算。下面是一個(gè)使用ICEMCFD進(jìn)行網(wǎng)格劃分并考慮并行的示例:#使用ICEMCFD進(jìn)行網(wǎng)格劃分

icemcfd-batch-command"meshing;parallelMeshing;exit"然后,在Fluent中設(shè)置并行計(jì)算:打開(kāi)Fluent:?jiǎn)?dòng)Fluent并加載你的案例。設(shè)置并行選項(xiàng):在“Parallel”菜單下,選擇“DomainDecomposition”策略,并設(shè)置子域的數(shù)量。運(yùn)行計(jì)算:保存設(shè)置并運(yùn)行計(jì)算。#使用Fluent進(jìn)行并行計(jì)算

fluent-g-mpi-m-nojournal-nsolution-case/path/to/your/case在這個(gè)示例中,我們首先使用ICEMCFD進(jìn)行網(wǎng)格劃分,并通過(guò)parallelMeshing命令來(lái)考慮并行計(jì)算。然后,在Fluent中選擇DomainDecomposition策略,并通過(guò)fluent命令啟動(dòng)并行計(jì)算。通過(guò)以上步驟,你可以有效地在Fluent中利用HPC環(huán)境進(jìn)行并行計(jì)算,從而顯著提高計(jì)算效率和解決更復(fù)雜的問(wèn)題。4案例研究:HPC加速Fluent模擬4.1簡(jiǎn)單案例的并行化在ANSYSFluent中,利用高性能計(jì)算(HPC)可以顯著加速簡(jiǎn)單案例的模擬過(guò)程。并行計(jì)算通過(guò)將計(jì)算任務(wù)分解到多個(gè)處理器上執(zhí)行,從而減少模擬時(shí)間。Fluent支持兩種主要的并行化方法:共享內(nèi)存并行(SMP)和分布式內(nèi)存并行(DMP)。4.1.1分布式內(nèi)存并行(DMP)DMP是HPC中最常用的并行化方法,它將計(jì)算網(wǎng)格分割成多個(gè)分區(qū),每個(gè)分區(qū)在不同的計(jì)算節(jié)點(diǎn)上運(yùn)行。Fluent使用MPI(MessagePassingInterface)協(xié)議來(lái)實(shí)現(xiàn)DMP。4.1.1.1示例:并行化設(shè)置假設(shè)我們有一個(gè)簡(jiǎn)單的2D流體流動(dòng)案例,網(wǎng)格包含100000個(gè)單元。我們將使用DMP并行化來(lái)加速模擬。網(wǎng)格分割:首先,我們需要分割網(wǎng)格。在Fluent中,可以通過(guò)“Mesh”菜單下的“Partition”選項(xiàng)進(jìn)行網(wǎng)格分割。假設(shè)我們有4個(gè)計(jì)算節(jié)點(diǎn),可以將網(wǎng)格分割成4個(gè)分區(qū)。啟動(dòng)并行計(jì)算:使用以下命令在HPC集群上啟動(dòng)Fluent的DMP并行計(jì)算:mpirun-np4fluent-mpich-gpus1-mpi-par-job-id12345-casemy_case-console這里,-np4表示使用4個(gè)處理器,-gpus1表示每個(gè)處理器使用1個(gè)GPU,-job-id12345是作業(yè)的唯一標(biāo)識(shí)符,-casemy_case指定案例文件的位置。監(jiān)控并行計(jì)算:在Fluent的控制臺(tái)輸出中,可以監(jiān)控并行計(jì)算的進(jìn)度。每個(gè)處理器將報(bào)告其分區(qū)的計(jì)算狀態(tài)。4.1.2共享內(nèi)存并行(SMP)SMP并行化在單個(gè)計(jì)算節(jié)點(diǎn)上運(yùn)行,但利用節(jié)點(diǎn)內(nèi)的多個(gè)核心。這對(duì)于小型網(wǎng)格或不需要大量?jī)?nèi)存的案例特別有效。4.1.2.1示例:SMP并行化設(shè)置對(duì)于一個(gè)小型3D案例,網(wǎng)格包含50000個(gè)單元,我們可以使用SMP并行化。啟動(dòng)SMP計(jì)算:在單個(gè)計(jì)算節(jié)點(diǎn)上,使用以下命令啟動(dòng)Fluent的SMP并行計(jì)算:fluent-mpich-smp8-casemy_small_case-console這里,-smp8表示使用8個(gè)核心,-casemy_small_case指定案例文件的位置。4.2復(fù)雜案例的HPC應(yīng)用對(duì)于復(fù)雜案例,如包含大量網(wǎng)格單元、多個(gè)物理模型或長(zhǎng)時(shí)間模擬的案例,HPC的使用更為關(guān)鍵。這些案例可能需要數(shù)天或數(shù)周才能在單個(gè)處理器上完成,但在HPC集群上,可以將時(shí)間縮短到數(shù)小時(shí)或數(shù)天。4.2.1示例:復(fù)雜案例的并行化假設(shè)我們有一個(gè)復(fù)雜的3D湍流案例,網(wǎng)格包含5000000個(gè)單元,我們將使用DMP并行化來(lái)加速模擬。網(wǎng)格分割:在Fluent中,通過(guò)“Mesh”菜單下的“Partition”選項(xiàng),將網(wǎng)格分割成適合HPC集群的分區(qū)。對(duì)于5000000個(gè)單元的網(wǎng)格,可以考慮分割成100個(gè)分區(qū)。啟動(dòng)并行計(jì)算:使用以下命令在HPC集群上啟動(dòng)Fluent的DMP并行計(jì)算:mpirun-np100fluent-mpich-gpus1-mpi-par-job-id56789-casemy_complex_case-console這里,-np100表示使用100個(gè)處理器,-gpus1表示每個(gè)處理器使用1個(gè)GPU,-job-id56789是作業(yè)的唯一標(biāo)識(shí)符,-casemy_complex_case指定案例文件的位置。結(jié)果后處理:模擬完成后,使用Fluent的后處理工具來(lái)分析結(jié)果。在HPC環(huán)境中,可能需要將分散在不同節(jié)點(diǎn)上的結(jié)果文件合并。這可以通過(guò)Fluent的“Data”菜單下的“MergeFiles”選項(xiàng)完成。4.2.2總結(jié)通過(guò)上述案例研究,我們可以看到,無(wú)論是簡(jiǎn)單案例還是復(fù)雜案例,HPC都能顯著加速ANSYSFluent的模擬過(guò)程。合理選擇并行化方法和正確設(shè)置并行參數(shù)是關(guān)鍵。對(duì)于大型網(wǎng)格或復(fù)雜物理模型,DMP并行化是首選;而對(duì)于小型網(wǎng)格,SMP并行化可能更為高效。在HPC環(huán)境中,網(wǎng)格分割、并行計(jì)算的啟動(dòng)和結(jié)果的后處理是并行模擬的主要步驟。請(qǐng)注意,上述示例中的命令和參數(shù)是基于假設(shè)的案例,實(shí)際使用時(shí)應(yīng)根據(jù)具體HPC集群的配置和Fluent版本進(jìn)行調(diào)整。5優(yōu)化HPC性能5.1網(wǎng)格劃分與并行效率在使用ANSYSFluent進(jìn)行大規(guī)模計(jì)算流體力學(xué)(CFD)模擬時(shí),網(wǎng)格劃分的質(zhì)量直接影響到并行計(jì)算的效率。合理的網(wǎng)格劃分可以確保計(jì)算資源的高效利用,減少通信開(kāi)銷,從而加速模擬過(guò)程。以下是一些關(guān)鍵原則和步驟,用于優(yōu)化網(wǎng)格劃分以提高并行效率:5.1.1原則平衡網(wǎng)格元素?cái)?shù)量:確保每個(gè)處理器上的網(wǎng)格元素?cái)?shù)量大致相等,以避免負(fù)載不均。最小化邊界數(shù)量:減少處理器之間的邊界數(shù)量,可以降低通信成本。優(yōu)化邊界形狀:邊界形狀應(yīng)盡可能簡(jiǎn)單,以減少通信數(shù)據(jù)量。考慮計(jì)算域的物理特性:根據(jù)流體流動(dòng)的方向和物理域的形狀進(jìn)行網(wǎng)格劃分,可以提高計(jì)算效率。5.1.2步驟預(yù)處理階段:在Fluent的預(yù)處理器中,使用Meshing功能進(jìn)行網(wǎng)格劃分。可以手動(dòng)或自動(dòng)劃分網(wǎng)格,但應(yīng)優(yōu)先考慮自動(dòng)劃分,因?yàn)樗ǔD芨玫仄胶庳?fù)載。網(wǎng)格劃分:使用Fluent的Meshing功能,選擇合適的網(wǎng)格劃分算法。例如,snappyHexMesh算法在OpenFOAM中廣泛使用,但在Fluent中,可以選擇Tetrahedral或Polyhedral網(wǎng)格,具體取決于模型的復(fù)雜性。并行劃分:在網(wǎng)格劃分完成后,使用Fluent的并行劃分功能。這通常涉及到選擇一個(gè)并行劃分算法,如Metis或ParMetis,并指定處理器數(shù)量。檢查并調(diào)整:檢查并行劃分的結(jié)果,確保沒(méi)有過(guò)多的邊界和負(fù)載均衡。如果需要,可以調(diào)整并行劃分參數(shù),重新劃分網(wǎng)格。5.1.3示例代碼#以下是在Fluent中使用并行劃分的一個(gè)示例命令

#假設(shè)我們有16個(gè)處理器,使用Metis算法進(jìn)行劃分

fluent-g-t16&

setparallel-meshingon

setparallel-meshing-methodmetis

setparallel-meshing-nparts16

meshing/parallel-meshing/execute5.1.4解釋上述代碼示例展示了如何在Fluent中設(shè)置并行網(wǎng)格劃分。首先,通過(guò)fluent-g-t16&命令啟動(dòng)Fluent,其中-t16指定了使用16個(gè)處理器。然后,通過(guò)setparallel-meshingon命令啟用并行網(wǎng)格劃分功能,setparallel-meshing-methodmetis選擇Metis算法作為并行劃分方法,setparallel-meshing-nparts16指定劃分成16個(gè)部分。最后,meshing/parallel-meshing/execute命令執(zhí)行并行網(wǎng)格劃分。5.2負(fù)載均衡技巧負(fù)載均衡是HPC應(yīng)用中的關(guān)鍵因素,特別是在并行計(jì)算中。不均衡的負(fù)載會(huì)導(dǎo)致部分處理器空閑,而其他處理器過(guò)載,從而降低整體計(jì)算效率。以下是一些在Fluent中實(shí)現(xiàn)負(fù)載均衡的技巧:5.2.1技巧使用自適應(yīng)網(wǎng)格劃分:Fluent的自適應(yīng)網(wǎng)格劃分功能可以根據(jù)計(jì)算域的復(fù)雜性自動(dòng)調(diào)整網(wǎng)格密度,從而幫助實(shí)現(xiàn)負(fù)載均衡。手動(dòng)調(diào)整網(wǎng)格密度:在某些情況下,手動(dòng)調(diào)整網(wǎng)格密度,特別是在流體流動(dòng)的關(guān)鍵區(qū)域,可以改善負(fù)載均衡。優(yōu)化并行劃分參數(shù):通過(guò)調(diào)整并行劃分算法的參數(shù),如Metis的ncommon參數(shù),可以優(yōu)化負(fù)載均衡。監(jiān)控并調(diào)整:在模擬過(guò)程中,使用Fluent的監(jiān)控工具檢查負(fù)載情況,必要時(shí)調(diào)整并行劃分。5.2.2示例代碼#以下是在Fluent中調(diào)整并行劃分參數(shù)的一個(gè)示例

fluent-g-t16&

setparallel-meshingon

setparallel-meshing-methodmetis

setparallel-meshing-nparts16

setparallel-meshing-metis-ncommon3

meshing/parallel-meshing/execute5.2.3解釋在這個(gè)示例中,我們使用了與前一個(gè)示例相同的命令來(lái)啟動(dòng)Fluent和設(shè)置并行網(wǎng)格劃分。但是,我們添加了setparallel-meshing-metis-ncommon3命令,用于調(diào)整Metis算法的ncommon參數(shù)。ncommon參數(shù)控制了邊界上的重疊網(wǎng)格元素?cái)?shù)量,較高的值可以改善負(fù)載均衡,但會(huì)增加通信開(kāi)銷。通過(guò)監(jiān)控模擬的性能,可以找到最佳的ncommon值,以實(shí)現(xiàn)最佳的負(fù)載均衡和計(jì)算效率。通過(guò)遵循這些原則和技巧,可以顯著提高在ANSYSFluent中使用HPC進(jìn)行CFD模擬的效率和性能。6高級(jí)HPC功能6.1Fluent的動(dòng)態(tài)負(fù)載均衡在進(jìn)行大規(guī)模計(jì)算流體力學(xué)(CFD)模擬時(shí),動(dòng)態(tài)負(fù)載均衡是確保計(jì)算資源高效利用的關(guān)鍵。ANSYSFluent通過(guò)其先進(jìn)的并行計(jì)算架構(gòu),能夠自動(dòng)調(diào)整計(jì)算任務(wù)在不同處理器或計(jì)算節(jié)點(diǎn)間的分配,以達(dá)到最優(yōu)的計(jì)算效率。這一特性對(duì)于處理非均勻網(wǎng)格或瞬態(tài)模擬尤其重要,因?yàn)樵谶@些情況下,計(jì)算負(fù)載可能會(huì)隨時(shí)間和空間變化。6.1.1原理Fluent的動(dòng)態(tài)負(fù)載均衡基于以下原理:負(fù)載監(jiān)測(cè):Fluent持續(xù)監(jiān)測(cè)每個(gè)處理器的計(jì)算負(fù)載,包括網(wǎng)格單元數(shù)量、計(jì)算時(shí)間等。負(fù)載評(píng)估:通過(guò)比較各處理器的負(fù)載,F(xiàn)luent確定負(fù)載不均衡的程度。負(fù)載重新分配:當(dāng)檢測(cè)到負(fù)載不均衡時(shí),F(xiàn)luent會(huì)自動(dòng)調(diào)整網(wǎng)格單元的分配,將更多計(jì)算密集型任務(wù)分配給負(fù)載較低的處理器。6.1.2內(nèi)容6.1.2.1動(dòng)態(tài)負(fù)載均衡的啟用在Fluent中,動(dòng)態(tài)負(fù)載均衡是默認(rèn)啟用的,但用戶可以通過(guò)以下步驟進(jìn)行更詳細(xì)的配置:打開(kāi)“Parallel”菜單。選擇“DynamicLoadBalancing”選項(xiàng)。調(diào)整“LoadBalancingFrequency”參數(shù),以控制負(fù)載均衡的檢查頻率。6.1.2.2動(dòng)態(tài)負(fù)載均衡的影響動(dòng)態(tài)負(fù)載均衡可以顯著提高計(jì)算效率,尤其是在處理非均勻網(wǎng)格或瞬態(tài)模擬時(shí)。它能夠減少計(jì)算時(shí)間,同時(shí)確保所有計(jì)算資源得到充分利用。6.2HPC與Fluent的自適應(yīng)網(wǎng)格細(xì)化自適應(yīng)網(wǎng)格細(xì)化(AMR)是一種在計(jì)算流體力學(xué)中優(yōu)化網(wǎng)格分辨率的技術(shù),它允許在流場(chǎng)的關(guān)鍵區(qū)域自動(dòng)增加網(wǎng)格密度,從而提高計(jì)算精度,同時(shí)在其他區(qū)域保持較低的網(wǎng)格密度以節(jié)省計(jì)算資源。結(jié)合HPC,F(xiàn)luent能夠高效地執(zhí)行大規(guī)模AMR模擬。6.2.1原理Fluent的自適應(yīng)網(wǎng)格細(xì)化基于以下原理:誤差估計(jì):通過(guò)計(jì)算局部誤差,F(xiàn)luent確定哪些區(qū)域需要更高的網(wǎng)格分辨率。網(wǎng)格細(xì)化:在確定的區(qū)域,F(xiàn)luent自動(dòng)增加網(wǎng)格單元的數(shù)量,以提高局部計(jì)算精度。網(wǎng)格重構(gòu):為了保持計(jì)算效率,F(xiàn)luent會(huì)定期重構(gòu)網(wǎng)格,移除不再需要高分辨率的區(qū)域。6.2.2內(nèi)容6.2.2.1自適應(yīng)網(wǎng)格細(xì)化的設(shè)置在Fluent中設(shè)置自適應(yīng)網(wǎng)格細(xì)化,用戶需要:在“Mesh”菜單下選擇“Adapt”。選擇“RefinementCriteria”,定義細(xì)化的觸發(fā)條件,如基于殘差、梯度或誤差。設(shè)置“RefinementLevel”,定義網(wǎng)格細(xì)化的程度。6.2.2.2示例:基于殘差的自適應(yīng)網(wǎng)格細(xì)化#Fluent命令行示例:基于殘差的自適應(yīng)網(wǎng)格細(xì)化

#假設(shè)我們正在模擬一個(gè)繞過(guò)圓柱的流動(dòng),我們希望在圓柱周?chē)?xì)化網(wǎng)格以提高精度

#加載案例文件

file-read-case"cylinder_flow.fluent"

#設(shè)置自適應(yīng)網(wǎng)格細(xì)化參數(shù)

mesh-adapt-refinement-criteriaset

(

"residual"

1e-3

1e-6

)

#設(shè)置細(xì)化級(jí)別

mesh-adapt-refinement-levelset3

#執(zhí)行自適應(yīng)網(wǎng)格細(xì)化

mesh-adapt-refine

#保存細(xì)化后的網(wǎng)格

file-write-mesh"cylinder_flow_adapted.mesh"在上述示例中,我們首先加載了一個(gè)案例文件,然后設(shè)置了自適應(yīng)網(wǎng)格細(xì)化的觸發(fā)條件為殘差,當(dāng)殘差低于1e-3時(shí)開(kāi)始細(xì)化,細(xì)化直到殘差低于1e-6。我們還設(shè)置了細(xì)化級(jí)別為3,這意味著網(wǎng)格將被細(xì)化到原始網(wǎng)格的1/8大小。最后,我們執(zhí)行了網(wǎng)格細(xì)化,并保存了細(xì)化后的網(wǎng)格。6.2.2.3自適應(yīng)網(wǎng)格細(xì)化與HPC的結(jié)合當(dāng)使用HPC進(jìn)行大規(guī)模模擬時(shí),自適應(yīng)網(wǎng)格細(xì)化可以顯著提高計(jì)算效率和精度。Fluent的并行計(jì)算能力確保了即使在網(wǎng)格細(xì)化后,計(jì)算任務(wù)也能被高效地分配到各個(gè)處理器上,從而充分利用HPC的多核和多節(jié)點(diǎn)架構(gòu)。6.2.2.4結(jié)合HPC的自適應(yīng)網(wǎng)格細(xì)化示例#Fluent命令行示例:結(jié)合HPC的自適應(yīng)網(wǎng)格細(xì)化

#假設(shè)我們正在使用一個(gè)具有16個(gè)處理器的HPC集群進(jìn)行模擬

#啟動(dòng)Fluent并指定處理器數(shù)量

mpirun-np16fluent3d&

#加載案例文件

file-read-case"cylinder_flow.fluent"

#設(shè)置自適應(yīng)網(wǎng)格細(xì)化參數(shù)

mesh-adapt-refinement-criteriaset

(

"residual"

1e-3

1e-6

)

#設(shè)置細(xì)化級(jí)別

mesh-adapt-refinement-levelset3

#執(zhí)行自適應(yīng)網(wǎng)格細(xì)化

mesh-adapt-refine

#保存細(xì)化后的網(wǎng)格

file-write-mesh"cylinder_flow_adapted.mesh"

#退出Fluent

exit在本示例中,我們使用mpirun命令啟動(dòng)了Fluent,并指定了16個(gè)處理器。然后,我們按照之前的示例設(shè)置了自適應(yīng)網(wǎng)格細(xì)化參數(shù),并執(zhí)行了細(xì)化。通過(guò)結(jié)合HPC,我們能夠處理更復(fù)雜的流場(chǎng),同時(shí)保持計(jì)算效率。通過(guò)上述內(nèi)容,我們可以看到,ANSYSFluent的動(dòng)態(tài)負(fù)載均衡和自適應(yīng)網(wǎng)格細(xì)化功能,結(jié)合HPC的強(qiáng)大計(jì)算能力,為解決復(fù)雜流體力學(xué)問(wèn)題提供了高效且精確的解決方案。7HPC在Fluent中的最佳實(shí)踐7.1模擬前的準(zhǔn)備工作在利用高性能計(jì)算(HPC)資源進(jìn)行ANSYSFluent模擬之前,確保你的模擬能夠高效并行運(yùn)行至關(guān)重要。以下步驟將幫助你優(yōu)化模擬設(shè)置,以充分利用HPC的并行處理能力:7.1.1網(wǎng)格劃分與分區(qū)7.1.1.1原理網(wǎng)格劃分的質(zhì)量直接影響模擬的準(zhǔn)確性和效率。在HPC環(huán)境中,網(wǎng)格需要被合理地劃分為多個(gè)分區(qū),以便在多個(gè)處理器上并行計(jì)算。分區(qū)應(yīng)盡量均勻,減少分區(qū)間的通信開(kāi)銷。7.1.1.2內(nèi)容使用ANSYSMeshing或FluentMeshing工具創(chuàng)建高質(zhì)量網(wǎng)格。在Fluent中使用MeshAdaptation功能進(jìn)行網(wǎng)格自適應(yīng),確保關(guān)鍵區(qū)域的網(wǎng)格密度。使用Fluent的MeshPartitioning功能,根據(jù)處理器數(shù)量手動(dòng)或自動(dòng)劃分網(wǎng)格。7.1.2并行設(shè)置7.1.2.1原理并行計(jì)算通過(guò)將計(jì)算任務(wù)分配給多個(gè)處理器來(lái)加速模擬。正確設(shè)置并行參數(shù)可以顯著提高計(jì)算效率。7.1.2.2內(nèi)容在Fluent中選擇適當(dāng)?shù)牟⑿兴惴ǎ喝鏒irectorPartitioned。設(shè)置并行計(jì)算的處理器數(shù)量。調(diào)整并行計(jì)算的負(fù)載平衡,確保每個(gè)處理器的計(jì)算任務(wù)量大致相等。7.1.3模擬參數(shù)優(yōu)化7.1.3.1原理優(yōu)化模擬參數(shù)可以減少計(jì)算時(shí)間,同時(shí)保持結(jié)果的準(zhǔn)確性。7.1.3.2內(nèi)容選擇合適的求解器:如壓力基或密度基求解器。調(diào)整收斂準(zhǔn)則,確保模擬在合理的時(shí)間內(nèi)達(dá)到收斂。使用合適的迭代方法和時(shí)間步長(zhǎng)。7.2后處理與結(jié)果分析在HPC環(huán)境中完成模擬后,后處理和結(jié)果分析是驗(yàn)證模擬準(zhǔn)確性和提取有用信息的關(guān)鍵步驟。7.2.1數(shù)據(jù)收集與合并7.2.1.1原理HPC模擬通常會(huì)產(chǎn)生大量分散在各個(gè)處理器上的數(shù)據(jù)文件。這些文件需要被收集和合并,以便進(jìn)行統(tǒng)一的后處理和分析。7.2.1.2內(nèi)容使用Fluent的DataCollection功能,確保所有處理器的數(shù)據(jù)被正確收集。在后處理階段,使用Fluent的Merge功能合并數(shù)據(jù)文件。7.2.2結(jié)果可視化7.2.2.1原理可視化是理解模擬結(jié)果的重要工具。通過(guò)生成圖像和動(dòng)畫(huà),可以直觀地展示流場(chǎng)、溫度分布等物理現(xiàn)象。7.2.2.2內(nèi)容使用Fluent的Plotting功能,如Contourplots,Vectorplots等,生成結(jié)果圖像。利用Fluent的Animation功能,創(chuàng)建動(dòng)態(tài)結(jié)果展示。7.2.3性能分析7.2.3.1原理分析HPC模擬的性能,可以幫助識(shí)別瓶頸和優(yōu)化未來(lái)的模擬。7.2.3.2內(nèi)容使用Fluent的PerformanceMonitor,監(jiān)控并行計(jì)算的效率。分析并行計(jì)算的負(fù)載平衡,識(shí)別處理器間的不平衡。根據(jù)性能分析結(jié)果,調(diào)整并行設(shè)置和模擬參數(shù),以提高效率。7.2.4示例:網(wǎng)格分區(qū)與并行設(shè)置#示例代碼:使用Fluent的MeshPartitioning功能進(jìn)行網(wǎng)格分區(qū)

#假設(shè)你有16個(gè)處理器可用

#啟動(dòng)Fluent

fluent&

#進(jìn)入Fluent的命令行模式

>tui

#讀取網(wǎng)格文件

>read-case"path/to/your/mesh/file"

#設(shè)置并行計(jì)算的處理器數(shù)量

>set-parallel16

#執(zhí)行網(wǎng)格分區(qū)

>mesh/size-zones/define16

>mesh/size-zones/apply

#保存分區(qū)后的網(wǎng)格

>write-case"path/to/your/partitioned/mesh/file"

#退出Fluent

>exit7.2.4.1描述上述代碼示例展示了如何在Fluent中進(jìn)行網(wǎng)格分區(qū)和并行設(shè)置。首先,通過(guò)tui命令進(jìn)入Fluent的命令行模式,然后讀取網(wǎng)格文件。接著,設(shè)置并行計(jì)算的處理器數(shù)量為16,并使用mesh/size-zones命令對(duì)網(wǎng)格進(jìn)行分區(qū)。最后,保存分區(qū)后的網(wǎng)格文件并退出Fluent。7.2.5示例:性能監(jiān)控與分析#示例代碼:使用Fluent的PerformanceMonitor進(jìn)行性能監(jiān)控

#啟動(dòng)Fluent并進(jìn)入命令行模式

fluent&

>tui

#讀取網(wǎng)格文件

>read-case"path/to/your/mesh/file"

#設(shè)置并行計(jì)算的處理器數(shù)量

>set-parallel16

#開(kāi)啟性能監(jiān)控

>monitor/performance/enable

#開(kāi)始模擬

>solve/run

#模擬完成后,查看性能監(jiān)控結(jié)果

>monitor/performance/display

#保存性能監(jiān)控?cái)?shù)據(jù)

>monitor/performance/write"path/to/your/performance/file"

#退出Fluent

>exit7.2.5.1描述此代碼示例展示了如何在Fluent中使用PerformanceMonitor功能進(jìn)行性能監(jiān)控。首先,設(shè)置并行計(jì)算的處理器數(shù)量,然后開(kāi)啟性能監(jiān)控。在模擬過(guò)程中,性能監(jiān)控會(huì)自動(dòng)記錄并行計(jì)算的效率數(shù)據(jù)。模擬完成后,可以查看和保存性能監(jiān)控結(jié)果,用于后續(xù)的性能分析和優(yōu)化。通過(guò)遵循上述最佳實(shí)踐,你可以有效地利用HPC資源進(jìn)行ANSYSFluent模擬,提高計(jì)算效率,同時(shí)確保結(jié)果的準(zhǔn)確性和可靠性。8常見(jiàn)問(wèn)題與解決方案8.1HPC模擬中的常見(jiàn)錯(cuò)誤在使用ANSYSFluent進(jìn)行高性能計(jì)算(HPC)模擬時(shí),遇到錯(cuò)誤是不可避免的。這些錯(cuò)誤可能源于模型設(shè)置、網(wǎng)格質(zhì)量、求解器配置或HPC環(huán)境的不當(dāng)配置。下面列舉了一些常見(jiàn)的錯(cuò)誤及其可能的解決方案:8.1.1錯(cuò)誤1:并行求解器初始化失敗問(wèn)題描述:當(dāng)Fluent嘗試在多個(gè)處理器上初始化并行求解器時(shí),可能會(huì)遇到初始化失敗的問(wèn)題。這通常發(fā)生在HPC集群的配置不正確或資源分配不當(dāng)?shù)那闆r下。解決方案:1.檢查HPC集群配置:確保所有節(jié)點(diǎn)都正確安裝了Fluent,并且版本一致。使用以下命令檢查Fluent版本:bashansys-fluent--version資源分配:使用適當(dāng)?shù)馁Y源分配策略,例如使用mpirun或srun命令啟動(dòng)Fluent。例如,使用mpirun命令啟動(dòng)Fluent:mpirun-np16ansys-fluent-gpus2-mpi-batch-job-id=my_job這里-np16指定了使用16個(gè)處理器,-gpus2指定了使用2個(gè)GPU,-mpi指定了使用MPI并行,-batch表示以批處理模式運(yùn)行,-job-id=my_job為作業(yè)分配了一個(gè)標(biāo)識(shí)符。8.1.2錯(cuò)誤2:網(wǎng)格分區(qū)不均問(wèn)題描述:在HPC模擬中,網(wǎng)格的均勻分區(qū)對(duì)于并行效率至關(guān)重要。如果網(wǎng)格分區(qū)不均,某些處理器可能會(huì)承擔(dān)過(guò)多的計(jì)算負(fù)載,導(dǎo)致整體模擬效率降低。解決方案:1.使用FluentMeshing進(jìn)行網(wǎng)格分區(qū):FluentMeshing提供了網(wǎng)格分區(qū)功能,可以確保網(wǎng)格在不同處理器間均勻分布。在FluentMeshing中,可以通過(guò)以下命令進(jìn)行網(wǎng)格分區(qū):python#FluentMeshingPythonAPI示例fromansys.meshing.primeimportPrimeasprimeprime.set_partitioning_parameters(partitioning_type=prime.PartitioningType.KWAY,num_parts=16)prime.partition_mesh()這里set_partitioning_parameters函數(shù)設(shè)置了分區(qū)參數(shù),partitioning_type=prime.PartitioningType.KWAY指定了使用K-way分區(qū)算法,num_parts=16指定了將網(wǎng)格分為16個(gè)部分。手動(dòng)調(diào)整網(wǎng)格分區(qū):如果自動(dòng)分區(qū)不滿足需求,可以手動(dòng)調(diào)整網(wǎng)格分區(qū)。在Fluent中,可以通過(guò)Mesh菜單下的MeshAdaptation選項(xiàng)進(jìn)行手動(dòng)調(diào)整。8.1.3錯(cuò)誤3:數(shù)據(jù)通信瓶頸問(wèn)題描述:在并行計(jì)算中,數(shù)據(jù)通信是關(guān)鍵的性能瓶頸之一。如果數(shù)據(jù)通信效率低,即使計(jì)算資源充足,模擬速度也會(huì)受到嚴(yán)重影響。解決方案:1.優(yōu)化數(shù)據(jù)通信:使用更高效的通信協(xié)議,如InfiniBand,可以顯著提高數(shù)據(jù)通信速度。此外,調(diào)整MPI通信參數(shù),如減少不必要的通信調(diào)用,也可以優(yōu)化性能。數(shù)據(jù)局部性:確保數(shù)據(jù)在內(nèi)存中盡可能地局部化,減少跨節(jié)點(diǎn)的數(shù)據(jù)訪問(wèn)。在Fluent中,通過(guò)合理設(shè)置網(wǎng)格分區(qū)和求解器參數(shù),可以實(shí)現(xiàn)數(shù)據(jù)的局部性優(yōu)化。8.2故障排除與優(yōu)化建議在HPC環(huán)境中運(yùn)行ANSYSFluent時(shí),除了上述常見(jiàn)錯(cuò)誤,還可能遇到其他問(wèn)題。以下是一些故障排除和優(yōu)化的建議:8.2.1建議1:監(jiān)控資源使用情況描述:定期監(jiān)控HPC集群的資源使用情況,包括CPU、GPU和內(nèi)存使用率,以及網(wǎng)絡(luò)通信負(fù)載。這有助于識(shí)別性能瓶頸和資源浪費(fèi)。操作:使用HPC集群的監(jiān)控工具,如nvidia-

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論