語音識別與生成:科大訊飛語音合成技術(shù)原理_第1頁
語音識別與生成:科大訊飛語音合成技術(shù)原理_第2頁
語音識別與生成:科大訊飛語音合成技術(shù)原理_第3頁
語音識別與生成:科大訊飛語音合成技術(shù)原理_第4頁
語音識別與生成:科大訊飛語音合成技術(shù)原理_第5頁
已閱讀5頁,還剩7頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領

文檔簡介

語音識別與生成:科大訊飛語音合成技術(shù)原理1語音識別基礎1.1語音信號的采集與預處理語音信號的采集是語音識別的第一步,通常使用麥克風等設備將聲波轉(zhuǎn)換為電信號,再將電信號數(shù)字化為計算機可處理的數(shù)字信號。預處理階段則包括對采集到的語音信號進行降噪、分幀、加窗等操作,以提高后續(xù)處理的效率和準確性。1.1.1降噪降噪是預處理中的關(guān)鍵步驟,用于去除背景噪聲,提高語音信號的清晰度。一種常見的降噪方法是使用譜減法,通過估計噪聲的頻譜并從語音信號的頻譜中減去噪聲頻譜,來恢復清晰的語音信號。1.1.2分幀與加窗語音信號是連續(xù)的,但在語音識別中,通常需要將其分割成一系列短時幀,每幀大約20-30毫秒。這是因為語音信號在短時內(nèi)可以認為是平穩(wěn)的,便于特征提取。加窗則是為了減少幀與幀之間的突變,通常使用漢明窗或海明窗。1.2特征提取與分析特征提取是將預處理后的語音信號轉(zhuǎn)換為一組特征向量的過程,這些特征向量能夠反映語音信號的特性,是語音識別模型訓練的基礎。常見的特征包括梅爾頻率倒譜系數(shù)(MFCC)、線性預測編碼(LPC)等。1.2.1梅爾頻率倒譜系數(shù)(MFCC)MFCC是一種廣泛使用的語音特征,它模擬了人耳對不同頻率的敏感度。計算MFCC的步驟包括:預加重、分幀、加窗、傅里葉變換、梅爾濾波器組、倒譜分析、DCT變換等。importnumpyasnp

importscipy.fftpackasfft

fromscipy.signalimportget_window

defmfcc(signal,sample_rate=16000,num_cep=13,num_filter=26):

#預加重

pre_emphasis=0.97

emphasized_signal=np.append(signal[0],signal[1:]-pre_emphasis*signal[:-1])

#分幀與加窗

frame_size=0.025

frame_stride=0.01

frame_length,frame_step=frame_size*sample_rate,frame_stride*sample_rate

signal_length=len(emphasized_signal)

frame_length=int(round(frame_length))

frame_step=int(round(frame_step))

num_frames=int(np.ceil(float(np.abs(signal_length-frame_length))/frame_step))

pad_signal_length=num_frames*frame_step+frame_length

z=np.zeros((pad_signal_length-signal_length))

pad_signal=np.append(emphasized_signal,z)

indices=np.tile(np.arange(0,frame_length),(num_frames,1))+np.tile(np.arange(0,num_frames*frame_step,frame_step),(frame_length,1)).T

frames=pad_signal[indices.astype(32,copy=False)]

frames*=get_window('hamming',frame_length)

#傅里葉變換

NFFT=512

mag_frames=np.absolute(fft.rfft(frames,NFFT))

pow_frames=((1.0/NFFT)*((mag_frames)**2))

#梅爾濾波器組

nfilt=26

low_freq_mel=0

high_freq_mel=(2595*np.log10(1+(sample_rate/2)/700))

mel_points=np.linspace(low_freq_mel,high_freq_mel,nfilt+2)

hz_points=(700*(10**(mel_points/2595)-1))

bin=np.floor((NFFT+1)*hz_points/sample_rate)

fbank=np.zeros((nfilt,int(np.floor(NFFT/2+1))))

forminrange(1,nfilt+1):

f_m_minus=int(bin[m-1])

f_m=int(bin[m])

f_m_plus=int(bin[m+1])

forkinrange(f_m_minus,f_m):

fbank[m-1,k]=(k-bin[m-1])/(bin[m]-bin[m-1])

forkinrange(f_m,f_m_plus):

fbank[m-1,k]=(bin[m+1]-k)/(bin[m+1]-bin[m])

#倒譜分析

filter_banks=np.dot(pow_frames,fbank.T)

filter_banks=np.where(filter_banks==0,np.finfo(float).eps,filter_banks)

filter_banks=20*np.log10(filter_banks)

#DCT變換

num_ceps=13

cep_lifter=22

mfcc=fft.dct(filter_banks,type=2,axis=1,norm='ortho')[:,1:(num_ceps+1)]

(nframes,ncoeff)=mfcc.shape

n=np.arange(ncoeff)

lift=1+(cep_lifter/2)*np.sin(np.pi*n/cep_lifter)

mfcc*=lift

returnmfcc1.3語音識別模型訓練語音識別模型訓練是基于大量標注的語音數(shù)據(jù),使用機器學習或深度學習算法來構(gòu)建能夠?qū)⒄Z音信號轉(zhuǎn)換為文本的模型。常見的模型包括隱馬爾可夫模型(HMM)、深度神經(jīng)網(wǎng)絡(DNN)、循環(huán)神經(jīng)網(wǎng)絡(RNN)等。1.3.1隱馬爾可夫模型(HMM)HMM是一種統(tǒng)計模型,用于描述一個含有未知參數(shù)的馬爾可夫過程。在語音識別中,HMM通常用于建模語音的時序特性,每個音素或單詞可以由一個HMM來表示。1.3.2深度神經(jīng)網(wǎng)絡(DNN)DNN是一種多層的神經(jīng)網(wǎng)絡,能夠?qū)W習復雜的特征表示。在語音識別中,DNN通常用于特征分類,將提取的特征向量映射到音素或單詞的概率分布上。1.3.3循環(huán)神經(jīng)網(wǎng)絡(RNN)RNN是一種具有循環(huán)連接的神經(jīng)網(wǎng)絡,能夠處理序列數(shù)據(jù)。在語音識別中,RNN通常用于建模語音的時序特性,能夠處理不同長度的語音信號。1.4語音識別后處理與優(yōu)化語音識別后處理與優(yōu)化是將模型輸出的音素或單詞序列轉(zhuǎn)換為最終的文本結(jié)果,并對結(jié)果進行優(yōu)化的過程。常見的后處理與優(yōu)化方法包括語言模型、聲學模型融合、錯誤檢測與修正等。1.4.1語言模型語言模型用于估計一個句子的概率,通?;趎-gram模型或神經(jīng)網(wǎng)絡模型。在語音識別中,語言模型可以用于對模型輸出的音素或單詞序列進行重排序,選擇最可能的句子作為最終的識別結(jié)果。1.4.2聲學模型與語言模型融合聲學模型與語言模型的融合是將聲學模型和語言模型的輸出進行結(jié)合,以提高識別的準確性。常見的融合方法包括基于概率的融合、基于神經(jīng)網(wǎng)絡的融合等。1.4.3錯誤檢測與修正錯誤檢測與修正是識別結(jié)果的優(yōu)化過程,用于檢測并修正識別結(jié)果中的錯誤。常見的方法包括基于規(guī)則的修正、基于統(tǒng)計的修正等。以上就是語音識別基礎的原理和內(nèi)容,包括語音信號的采集與預處理、特征提取與分析、語音識別模型訓練、語音識別后處理與優(yōu)化。通過這些步驟,可以將語音信號轉(zhuǎn)換為文本結(jié)果,實現(xiàn)語音識別的功能。2語音合成技術(shù)概覽2.1語音合成的基本原理語音合成技術(shù),也稱為文本到語音(Text-to-Speech,TTS)轉(zhuǎn)換,是一種將文本信息轉(zhuǎn)換為語音輸出的技術(shù)。其核心原理涉及將輸入的文本經(jīng)過一系列處理,包括文本分析、韻律處理、聲學特征生成和語音合成,最終產(chǎn)生自然流暢的語音。2.1.1文本分析文本分析階段,系統(tǒng)會解析輸入的文本,識別出其中的詞匯、語法結(jié)構(gòu)和語義信息。例如,將文本中的數(shù)字、日期、縮寫等轉(zhuǎn)換為相應的語音表達形式。2.1.2韻律處理韻律處理階段,系統(tǒng)會根據(jù)文本的語法和語義信息,確定每個詞的重音、語調(diào)和停頓,以生成符合自然語言韻律的語音。2.1.3聲學特征生成聲學特征生成階段,系統(tǒng)會根據(jù)韻律信息和發(fā)音規(guī)則,生成一系列聲學參數(shù),如基頻、音長和音高,這些參數(shù)將用于指導語音合成。2.1.4語音合成在語音合成階段,系統(tǒng)使用聲學模型和語音編碼技術(shù),將聲學特征轉(zhuǎn)換為實際的語音波形,最終輸出語音。2.2文本到語音的轉(zhuǎn)換流程文本到語音的轉(zhuǎn)換流程通常包括以下步驟:文本預處理:將輸入文本標準化,處理縮寫、數(shù)字等特殊格式。文本分析:分析文本的語法和語義,確定發(fā)音規(guī)則。韻律處理:根據(jù)文本分析結(jié)果,生成韻律參數(shù),如重音和語調(diào)。聲學特征生成:使用聲學模型,如深度神經(jīng)網(wǎng)絡,生成聲學參數(shù)。語音編碼與解碼:將聲學參數(shù)編碼為語音信號,再解碼為可聽的語音波形。2.3語音合成中的聲學模型聲學模型是語音合成中的關(guān)鍵組件,用于預測從文本到聲學特征的映射。常見的聲學模型包括:隱馬爾可夫模型(HMM):早期的聲學模型,基于統(tǒng)計學方法預測聲學特征。深度神經(jīng)網(wǎng)絡(DNN):現(xiàn)代聲學模型,利用多層神經(jīng)網(wǎng)絡學習復雜的聲學特征映射。循環(huán)神經(jīng)網(wǎng)絡(RNN):特別適用于處理序列數(shù)據(jù),如語音信號。長短期記憶網(wǎng)絡(LSTM):RNN的一種,能夠處理長期依賴問題,提高語音合成的自然度。2.3.1示例:使用深度神經(jīng)網(wǎng)絡生成聲學特征#導入必要的庫

importnumpyasnp

importtensorflowastf

#假設的文本輸入和聲學特征輸出

text_input=np.array([1,2,3,4,5])#文本編碼

acoustic_output=np.array([[0.1,0.2,0.3],[0.2,0.3,0.4],[0.3,0.4,0.5],[0.4,0.5,0.6],[0.5,0.6,0.7]])#聲學特征

#定義模型

model=tf.keras.models.Sequential([

tf.keras.layers.Dense(64,activation='relu',input_shape=(1,)),

tf.keras.layers.Dense(32,activation='relu'),

tf.keras.layers.Dense(3,activation='linear')

])

#編譯模型

pile(optimizer='adam',loss='mse')

#訓練模型

model.fit(text_input,acoustic_output,epochs=10)

#預測聲學特征

predicted_acoustic=model.predict([6])

print(predicted_acoustic)上述代碼示例展示了如何使用深度神經(jīng)網(wǎng)絡(DNN)模型預測聲學特征。模型由三個全連接層組成,輸入為文本編碼,輸出為聲學特征。通過訓練模型,使其能夠從給定的文本輸入預測出相應的聲學特征輸出。2.4語音合成的語音編碼與解碼語音編碼與解碼是語音合成過程中的最后一步,用于將聲學特征轉(zhuǎn)換為實際的語音波形。常見的語音編碼技術(shù)包括:線性預測編碼(LPC)碼本激勵線性預測(CELP)脈沖編碼調(diào)制(PCM)2.4.1示例:使用Griffin-Lim算法從梅爾譜圖解碼語音importlibrosa

importnumpyasnp

#假設的梅爾譜圖

mel_spectrogram=np.random.rand(128,128)

#Griffin-Lim算法參數(shù)

n_fft=2048

hop_length=512

win_length=2048

n_mels=128

n_iter=32

#將梅爾譜圖轉(zhuǎn)換為線性譜圖

linear_spectrogram=librosa.feature.inverse.mel_to_stft(mel_spectrogram,n_fft=n_fft,power=1)

#使用Griffin-Lim算法從線性譜圖解碼語音

audio=librosa.griffinlim(linear_spectrogram,n_iter=n_iter,hop_length=hop_length,win_length=win_length)

#輸出語音

librosa.output.write_wav('output.wav',audio,22050)此代碼示例使用了Griffin-Lim算法,這是一種從梅爾譜圖(Mel-spectrogram)恢復原始語音信號的迭代算法。首先,將梅爾譜圖轉(zhuǎn)換為線性譜圖,然后通過Griffin-Lim算法迭代恢復相位信息,最終生成語音波形并保存為.wav文件。通過上述內(nèi)容,我們深入了解了語音合成技術(shù)的基本原理、轉(zhuǎn)換流程、聲學模型以及語音編碼與解碼技術(shù)。這些技術(shù)的不斷發(fā)展和優(yōu)化,使得現(xiàn)代語音合成系統(tǒng)能夠產(chǎn)生高度自然和流暢的語音輸出。3科大訊飛語音合成技術(shù)3.1科大訊飛語音合成系統(tǒng)架構(gòu)科大訊飛的語音合成系統(tǒng)架構(gòu)主要由文本分析、韻律預測、聲學特征生成和語音合成四個模塊組成。每個模塊負責不同的處理步驟,共同協(xié)作完成從文本到語音的轉(zhuǎn)換過程。3.1.1文本分析文本分析模塊負責將輸入的文本轉(zhuǎn)換為可以被語音合成系統(tǒng)理解的形式。這包括分詞、詞性標注、數(shù)字和日期的規(guī)范化等。例如,將“2023年3月15日”轉(zhuǎn)換為“二零二三年三月十五日”,以確保合成的語音自然流暢。3.1.2韻律預測韻律預測模塊根據(jù)文本分析的結(jié)果,預測出每個音節(jié)的時長、音高和音強,以生成符合自然語言韻律的語音。這一步驟對于合成語音的自然度至關(guān)重要。3.1.3聲學特征生成聲學特征生成模塊使用深度學習模型,如深度神經(jīng)網(wǎng)絡(DNN)或長短期記憶網(wǎng)絡(LSTM),根據(jù)韻律預測的結(jié)果生成聲學特征參數(shù)。這些參數(shù)描述了語音的頻譜特性,是語音合成的關(guān)鍵輸入。3.1.4語音合成語音合成模塊將聲學特征參數(shù)轉(zhuǎn)換為實際的語音波形。這通常通過波形生成技術(shù),如重疊相加(OLA)或基于深度學習的波形生成模型(如WaveNet或Griffin-Lim算法)來實現(xiàn)。3.2基于深度學習的語音合成方法基于深度學習的語音合成方法,如Tacotron和WaveNet,是科大訊飛語音合成技術(shù)的核心。這些方法能夠生成高度自然、接近真人的語音。3.2.1TacotronTacotron是一種端到端的語音合成模型,它直接從文本生成聲學特征,而不需要復雜的中間表示。以下是Tacotron模型的一個簡化示例:#導入必要的庫

importtensorflowastf

fromtacotron.modelsimportTacotron

#創(chuàng)建Tacotron模型實例

model=Tacotron()

#輸入文本

input_text="你好,科大訊飛!"

#文本到聲學特征的轉(zhuǎn)換

mel_spectrogram=model.text_to_mel(input_text)

#從聲學特征生成語音波形

audio=model.mel_to_audio(mel_spectrogram)3.2.2WaveNetWaveNet是一種用于生成語音波形的深度學習模型,它使用了條件生成的卷積神經(jīng)網(wǎng)絡。WaveNet能夠生成高質(zhì)量的語音,但計算成本較高。#導入WaveNet庫

fromwavenet_vocoderimportbuilder

#創(chuàng)建WaveNet模型

wavenet=builder.build_model()

#輸入聲學特征

mel_spectrogram=...

#生成語音波形

audio=wavenet.generate(mel_spectrogram)3.3語音合成中的情感識別與表達情感識別與表達是科大訊飛語音合成技術(shù)的特色之一。通過分析文本內(nèi)容和上下文,系統(tǒng)能夠識別出文本所表達的情感,并在合成的語音中加以體現(xiàn),使語音更加生動和自然。3.3.1情感識別情感識別模塊使用自然語言處理技術(shù),如情感分析算法,來判斷文本的情感傾向,如快樂、悲傷或憤怒。3.3.2情感表達情感表達模塊根據(jù)識別出的情感,調(diào)整語音的韻律、音高和音強,以生成帶有相應情感色彩的語音。例如,快樂的文本可能需要更高的音高和更快的語速。3.4個性化語音合成技術(shù)個性化語音合成技術(shù)允許用戶定制自己的語音合成模型,以生成具有個人特色的聲音。這通常涉及到收集用戶的語音樣本,然后使用深度學習技術(shù)訓練一個個性化的語音合成模型。3.4.1語音樣本收集用戶需要提供一定數(shù)量的語音樣本,這些樣本將用于訓練個性化模型。樣本應覆蓋不同的語境和情感狀態(tài),以確保模型的泛化能力。3.4.2模型訓練使用深度學習框架,如TensorFlow或PyTorch,訓練一個基于用戶語音樣本的個性化模型。這通常是一個復雜的過程,需要大量的計算資源和專業(yè)的數(shù)據(jù)處理技術(shù)。#導入深度學習庫

importtensorflowastf

#加載用戶語音樣本

voice_samples=...

#構(gòu)建個性化模型

model=tf.keras.models.Sequential()

#訓練模型

model.fit(voice_samples,epochs=100)3.4.3語音合成一旦個性化模型訓練完成,就可以使用它來合成具有用戶個人特色的聲音。#使用個性化模型合成語音

input_text="歡迎使用科大訊飛個性化語音合成技術(shù)!"

audio=model.synthesize(input_text)通過上述模塊和方法,科大訊飛的語音合成技術(shù)能夠生成高質(zhì)量、自然流暢且具有個性化和情感色彩的語音,為用戶提供更加豐富和真實的語音交互體驗。4語音合成技術(shù)的應用與挑戰(zhàn)4.1語音合成在智能助手中的應用在智能助手領域,語音合成技術(shù)(Text-to-Speech,TTS)扮演著至關(guān)重要的角色。它能夠?qū)⑽谋拘畔⑥D(zhuǎn)化為自然流暢的語音輸出,使得智能助手能夠與用戶進行更加直觀和人性化的交互。例如,科大訊飛的TTS技術(shù)在智能音箱、車載導航系統(tǒng)、智能家居設備中廣泛應用,通過語音反饋,提供天氣預報、新聞播報、路線指引等服務。4.1.1示例代碼:使用科大訊飛TTSAPI合成語音```python#導入必要的庫importrequestsimportjsonimportbase645科大訊飛TTSAPI的URLurl=“/v1/service/v1/tts”6設置請求頭,包括APIKey和Tokenheaders={“X-CurTime”:“1567755199”,“X-Param”:“eyJtIjoiY2FyZG9iZSIsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiOjEsInQiOjEsInAiO

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論