版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)
文檔簡介
張量子空間人臉識別算法研究第一頁,共83頁。內(nèi)容一、研究背景和意義二、融合小波變換和張量PCA的人臉識別算法三、利用粒子群優(yōu)化的人臉特征提取優(yōu)化識別算法四、張量局部和全局信息投影人臉識別算法五、空間光滑流形最大值和最小值保持人臉識別算法
六、總結(jié)和展望第二頁,共83頁。一、人臉識別的意義和主要內(nèi)容人臉識別的意義:
人臉圖像識別簡稱為人臉識別。人臉識別具有廣泛的應(yīng)用前景。在國家安全、軍事安全和公共安全等領(lǐng)域具有重要的應(yīng)用價值。
第三頁,共83頁。人臉識別的內(nèi)容:(1)人臉檢測(FaceDetection);(2)人臉表征(FaceRepresentation);(3)人臉識別(FaceRecognition);(4)表情和姿態(tài)分析;(5)生理分類。第四頁,共83頁。圖1.1人臉檢測第五頁,共83頁。圖1.2人臉表征(特征提?。┑诹摚?3頁。圖1.3人臉識別第七頁,共83頁。圖1.4表情分析第八頁,共83頁。圖1.5年齡識別第九頁,共83頁。目前人臉識別的難點:
人臉圖像在采集過程中受到很多不確定因素的影響,并且人臉圖像本身就具有模式的多樣性,所以目前的人臉識別算法與實際應(yīng)用還有較大的差距。目前市場上人臉識別產(chǎn)品都是工作在較為理想的狀態(tài)下。如果采集設(shè)備現(xiàn)場光照條件不理想?;蛴龅酱R別對象的惡意干擾,這些設(shè)備會誤識或拒識。第十頁,共83頁。本文的研究目的和內(nèi)容:
本文旨在所研究的人臉識別的“特征提取”和“人臉識別”兩個方面的內(nèi)容,獲得新的算法,提高算法在數(shù)據(jù)庫上的識別率。本文提出了幾種人臉識別新算法。具體的方法包括:(1)融合小波變換和張量PCA的人臉識別;(2)利用粒子群優(yōu)化的人臉特征提取優(yōu)化識別;(3)基于張量局部和全局信息的人臉識別;(4)空間光滑流形最大值和最小值保持人臉識別。
第十一頁,共83頁。二、融合小波變換和張量PCA的
人臉識別2.1算法提出的背景:
小波變換有良好的時頻局部化能力,同時還能起到降維的作用。張量PCA方法是在張量空間中對數(shù)據(jù)做PCA分析,能直接對原始圖像做特征提取,而不用把圖像展開成向量,能更多地利用原始圖像的空間幾何結(jié)構(gòu)信息。綜合利用小波和張量PCA算法的優(yōu)點,本文提出了一種新的人臉識別算法:融合小波變換和張量PCA的人臉識別算法。
第十二頁,共83頁。2.2算法步驟:(1)對人臉圖像采用小波變換做預(yù)處理得到四個子帶圖像;(2)對每個子帶圖像用張量PCA進(jìn)行特征提取;(3)融合這些特征實現(xiàn)人臉圖像的識別。
第十三頁,共83頁。
二維離散小波變換待識別圖像二維離散小波變換LL子圖LH子圖HL子圖HH子圖張量PCA張量PCA張量PCA張量PCA待識別圖像特征最近鄰分類器訓(xùn)練樣本圖像LL子圖LH子圖HL子圖HH子圖張量PCA張量PCA張量PCA張量PCA訓(xùn)練樣本特征集合識別結(jié)果
圖2.1第十四頁,共83頁。2.3Bior3.5小波
實驗表明,當(dāng)采用一種雙正交小波“Bior3.5”小波做預(yù)處理時,識別率最高。雙正交(Biorthogonal)函數(shù)系的主要特征體現(xiàn)在具有線性相位性,它主要應(yīng)用在信號與圖像的重構(gòu)中[14]。其特點是采用一個函數(shù)進(jìn)行分解,用另外一個小波函數(shù)進(jìn)行重構(gòu)。能有效地解決對稱性和重構(gòu)的精確性的矛盾。第十五頁,共83頁。第十六頁,共83頁。圖2.2Bior3.5小波第十七頁,共83頁。2.4張量PCA
假設(shè)一個圖像矩陣為,用二階張量PCA方法對矩陣進(jìn)行特征提取就是要得到兩個投影矩陣和,把投影到低維矩陣子空間:(2-1)兩個投影矩陣和的最佳解是通過計算和的最小重構(gòu)平方誤差而得到。,的最優(yōu)解和,之間的關(guān)系如下:(2-2)為矩陣的Frobenius范數(shù)。
第十八頁,共83頁。本文提出的計算投影矩陣的具體迭代過程如下:輸入:樣本集合,最大化迭代次數(shù):。輸出:投影矩陣,初始化設(shè)置:,。(表示單位矩陣),當(dāng)時和別為和的單位陣;,,和中的所有元素全為“0”。
第十九頁,共83頁。
;
計算的均值矩陣:;計算的協(xié)方差矩陣:;
計算的特征值和特征向量:,的前個最大特征值組成的對角陣為這些特征值對應(yīng)的特征向量組成的矩陣;第二十頁,共83頁。
;計算的均值矩陣:;計算的協(xié)方差矩陣:;計算的特征值和特征向量:,為的前個特最大征值組成的對角陣,為這些特征值對應(yīng)的特征向量成的矩陣;第二十一頁,共83頁。2.5最近鄰識別
假設(shè)用表示訓(xùn)練樣本集中某一幅圖像,用表示測試樣本集中的某一幅圖像,對于每一個經(jīng)過“二維離散小波變換”得到四個子圖,再經(jīng)過“張量PCA”特征提取后得到四個特征矩陣:,,,;所有的訓(xùn)練樣本圖像經(jīng)過上述變換后得到的四個特征矩陣一起構(gòu)成了“訓(xùn)練樣本特征集合”對于某個也要經(jīng)過“二維離散小波變換”和“張量PCA”特征提取后得到四個特征陣:,,,,這四個矩陣為“待識別圖像特征”。第二十二頁,共83頁。本文采用下面的公式來計算測試樣本特征矩陣和訓(xùn)練樣本特征矩陣之間的距離:(2-3)式(2-3)中的算子的計算方法如下:假設(shè),,
(2-4)
第二十三頁,共83頁。2.6實驗與分析
采用三種人臉圖像數(shù)據(jù)庫進(jìn)行實驗,這三種數(shù)據(jù)庫分別是:“”,“”和“自建庫”?!癘RL”庫是一種常用的人臉實驗數(shù)據(jù)庫。它由40個人,每個人10幅灰度人臉正面圖像組成?!癠MIST”庫由20個人的從不同角度拍攝的人臉灰度圖像組成,每個人的圖像數(shù)目不同,本文選取每個人的前16張圖像進(jìn)行實驗?!白越◣臁笔怯?1個人組成,每個人6幅的人臉正面灰度圖像組成。第二十四頁,共83頁。圖2.2ORL庫中某個人的所有人臉圖像
第二十五頁,共83頁。圖2.3UMIST庫中某個人的全部人臉圖像第二十六頁,共83頁。圖2.4自建庫中某個人的全部人臉圖像
第二十七頁,共83頁。
為了驗證本文提出的算法的有效性,本文和張量PCA方法,以及PCA方法進(jìn)行比較,實驗具體結(jié)果分別如表2.1、表2.2、表2.3中所列。第二十八頁,共83頁。
表2.1在ORL庫上的實驗結(jié)果比較方法
每個類別訓(xùn)練樣本數(shù)達(dá)到最高識別率時對應(yīng)的特征維數(shù)正確識別率每個樣本平均識別時間(毫秒)融合小波變換和張量PCA的方法*23560×460×460×490.0625%92.5%96%8.91431.7張量PCA方法23568644887.8125%89.2857%94.5%20.7532.7057.42PCA方法2356910718382.5%86.0714%90.5%1.436.7
第二十九頁,共83頁。
表2.2在UMIST庫上的實驗結(jié)果比較
方法每個類別訓(xùn)練樣本數(shù)達(dá)到最高識別率時對應(yīng)的特征維數(shù)正確識別率每個樣本平均識別時間(毫秒)融合小波變換和張量PCA的方法*45834×433×433×478.75%79.09%88.125%8.91431.7張量PCA方法45860767272.5%76.8%84.375%20.7532.7057.42PCA
方法45851546264.147%67.727%72.5%1.436.7
第三十頁,共83頁。
表2.3在自建庫上的實驗結(jié)果比較方法每個類別訓(xùn)練樣本數(shù)達(dá)到最高識別率時對應(yīng)的特征維數(shù)正確識別率每個樣本平均識別時間(毫秒)融合小波變換和張量PCA的方法*342×478.79%17.3張量PCA方法313372.73%58.5PCA方法33266.66%31.24
第三十一頁,共83頁。三、利用粒子群優(yōu)化的人臉特征提取優(yōu)化識別算法
3.1算法提出背景:
第二部分介紹了本文提出融合小波變換和張量PCA方法的人臉圖像特征提取方法。在后來的研究中發(fā)現(xiàn),如果對這些特征的每一維元素進(jìn)行權(quán)值確定,會進(jìn)一步提高識別率。而采用粒子群優(yōu)化算法(PSO)可以很好地確定權(quán)值。
因此,提出了首先用小波和張量PCA方法對人臉圖像進(jìn)行特征提取,然后再用PSO方法對已經(jīng)得到的特征進(jìn)行權(quán)值確定的人臉識別方法。第三十二頁,共83頁。3.2算法描述
(1)以表示訓(xùn)練樣本集中的某一幅圖像,對經(jīng)過小波和張量PCA變換后得到的訓(xùn)練樣本圖像特征;(2)采用粒子群優(yōu)化算法(PSO)以聚類正確率為PSO的適應(yīng)度函數(shù),對進(jìn)行聚類得到最優(yōu)權(quán)值。(3)以表示測試樣本集中的某一幅圖像,對進(jìn)行小波和張量PCA的特征提取得到。(4)對訓(xùn)練樣本和測試樣本分別得到和。(5)采用最近鄰識別。
第三十三頁,共83頁。3.3最近鄰識別訓(xùn)練樣本圖像特征矩陣與測試樣本圖像特征矩陣之間的距離為(3-1)(3-1)中的計算方法如下:假設(shè),,則有(3-2)根據(jù)式(3-2)采用最近鄰方法便可進(jìn)行識別。第三十四頁,共83頁。3.4實驗與分析
本文在ORL、UMIST和自建庫上進(jìn)行了對比實驗,對比的算法包括:融合小波變換和張量PCA的人臉識別算法(算法1)、張量PCA算法(算法2)、結(jié)合小波變換和張量的PCA算法(算法3)實驗環(huán)境:IBMR51e筆記本電腦。編程語言:MATLAB7.4。第三十五頁,共83頁。3.4.1ORL庫上的實驗
從每個人中隨機選取5幅或8幅圖像組成訓(xùn)練樣本集,余下的圖像作為測試樣本集。實驗重復(fù)進(jìn)行10次,最后的識別率為10次實驗結(jié)果的平均值,如表3.1所示。
表3.1ORL庫上不同算法的識別率比較算法每個類別訓(xùn)練樣本數(shù)特征維數(shù)識別率/%算法15814×63×1096.7399.63算法2584×25×793.3097.25算法3585×1115×793.7598.83第三十六頁,共83頁。3.4.2
UMIST庫上的實驗取每個人前20幅圖像進(jìn)行實驗。所選取的圖像歸一化為112×92。隨機選取前20幅圖像中10或16幅進(jìn)行訓(xùn)練,余下的作為測試,重復(fù)10次實驗,最終識別率為10次實驗平均值。
表3.2UMIST庫上不同算法的識別率比較
算法每個類別訓(xùn)練樣本數(shù)特征維數(shù)識別率/%算法1101615×210×588.5399.50算法210168×312×375.7595.02算法310164×62×1080.2596.7第三十七頁,共83頁。3.4.3自建庫上的實驗對自建庫本文采用2折交叉驗證算法進(jìn)行實驗,結(jié)果如表3.3所示。
表3.3自建庫上算法的識別率實驗結(jié)果算法每個類別訓(xùn)練樣本數(shù)特征維數(shù)識別率/%算法134×4987.87算法235×1081.80算法337×983.33第三十八頁,共83頁。四、張量局部和全局信息投影4.1算法背景:
傳統(tǒng)的張量子空間人臉識別算法沒有同時利用人臉數(shù)據(jù)的類內(nèi)和類間非線性流形結(jié)構(gòu),所以得到的數(shù)據(jù)分類能力不強。為此,本文提出了一種新的張量子空間算法,即張量局部和全局信息投影算法(TLGP)。該算法具有新的數(shù)據(jù)投影目標(biāo)函數(shù),使得投影后的特征具有很強的分類能力。第三十九頁,共83頁。4.2投影目標(biāo)函數(shù)4.2.1數(shù)據(jù)的類內(nèi)和類間關(guān)系圖矩陣構(gòu)造:(4-1)
(4-2)
第四十頁,共83頁。
(4-1)式描述了數(shù)據(jù)的局部信息即數(shù)據(jù)的類內(nèi)(局部)非線性流形結(jié)構(gòu),而(4-2)式描述了數(shù)據(jù)的類間信息,即數(shù)據(jù)的全局信息。因為同一類數(shù)據(jù)的分布服從某種特定的低維流形結(jié)構(gòu),所以采用(4-1)式描述。而一般情況下類間數(shù)據(jù)的數(shù)量遠(yuǎn)高于類內(nèi)數(shù)據(jù)的數(shù)量,所以類間數(shù)據(jù)比類內(nèi)數(shù)據(jù)更接近高斯分布,故可以采用(4-2)式描述。第四十一頁,共83頁。4.2.2數(shù)據(jù)投影后的目標(biāo)函數(shù)當(dāng)和被映射到時,得到和。希望得到的任意映射和它對應(yīng)的所有同類樣本映射的距離之和最小,并且保持類內(nèi)流形結(jié)構(gòu)即局部流形結(jié)構(gòu);同時和它對應(yīng)的所有異類樣本的距離之和最大。于是構(gòu)造下面兩個目標(biāo)函數(shù):(4-3)(4-4)第四十二頁,共83頁。為了同時滿足(4-3)式和(4-4)式,構(gòu)造出如下目標(biāo)函數(shù):
(4-5)第四十三頁,共83頁。4.3投影矩陣求解推導(dǎo)
對和按列求和并對角化可以得到對角矩陣和,則,;又因為,所以可以得到:
(4-6)第四十四頁,共83頁。
(4-7)第四十五頁,共83頁??傻玫角蠼釻的目標(biāo)函數(shù)為:
(4-8)同理可得到求解V的目標(biāo)函數(shù)為:
(4-9)第四十六頁,共83頁。
和分別滿足下面兩式的求解方程:(4-10)
(4-11)第四十七頁,共83頁。4.4實驗結(jié)果與分析
實驗選用的人臉數(shù)據(jù)庫為“ORL”、“YALE[71]”,“PIE[72]”。實驗所用的圖像首先進(jìn)行預(yù)處理,首先使所有圖像的左眼和右眼的中心位置縱坐標(biāo)相同;然后將所有圖像裁減并縮放到
。第四十八頁,共83頁。圖4.1經(jīng)過預(yù)處理后的“ORL”庫圖像第四十九頁,共83頁。圖4.2
經(jīng)過預(yù)處理后的“Yale”庫中的所有圖像
第五十頁,共83頁。圖4.3“PIE”庫中經(jīng)過預(yù)處理后的部分圖像第五十一頁,共83頁。4.4.1在“ORL”庫上的實驗結(jié)果
從“ORL”庫每個人中隨機抽取4或6幅圖像作為訓(xùn)練樣本其余的圖像作為測試樣本,分別以“4Train”和“6Train”表示,重復(fù)實驗10次。最后給出的識別率為10次實驗的平均值。第五十二頁,共83頁。
表4.1ORL庫的實驗最高平均識別率算法4Train6TrainTLDA[58]
91.75%(39)96.43%(82)TMFA[58]
93.5%(71)97.32%(42)TLDP93.25%(105)97.75%(143)TSA[27]
94.3%(101)98.2%(77)TNPE92.96%(94)96.87%(102)TLGP95.75%(70)98.57%(64)第五十三頁,共83頁。第五十四頁,共83頁。圖4.4ORL庫識別率曲線圖
第五十五頁,共83頁。4.4.2在“Yale”庫上的實驗結(jié)果
從“Yale”庫每個人中隨機抽取4或6幅圖像作為訓(xùn)練樣本其余的圖像作為測試樣本,分別以“4Train”和“6Train”表示,重復(fù)實驗10次。最后給出的識別率為10次實驗的平均值。第五十六頁,共83頁。
表4.2Yale庫的實驗最高平均識別率算法4Train6TrainTLDA65.7%(44)72.1%(45)TMFA63.9%(180)72.3%(76)TLDP64.6%(189)72.5%(58)TSA64.1%(50)73.4%(33)TNPE64.8%(51)73.2%(54)TLGP66.67%(39)74%(27)第五十七頁,共83頁。第五十八頁,共83頁。圖4.5Yale庫識別率曲線圖第五十九頁,共83頁。4.4.3在“PIE”庫上的實驗結(jié)果“PIE”庫人臉庫包含68個人,其中第38個人有165幅圖像,而其他人有170個圖像。這個庫中的圖像數(shù)量較多,所以只選取前50個人,每個人中隨機選取80幅圖像進(jìn)行實驗。然后從每個人已經(jīng)選取的圖像中隨機抽取40幅圖像作為訓(xùn)練樣本其余的圖像作為測試樣本,以“40Train”表示,重復(fù)實驗10次。最后給出的識別率為10次實驗的平均值。第六十頁,共83頁。
表4.3PIE庫的實驗最高平均識別率算法40TrainTLDA91.95%(52)TMFA90.25%(112)TLDP91.47%(88)TSA90.2%(101)TNPE91.2%(112)TLGP93.2%(100)第六十一頁,共83頁。圖4.6PIE庫識別率曲線圖第六十二頁,共83頁。五、空間光滑流形最大值和最小值
保持人臉識別算法
5.1算法背景:人臉圖像的像素之間的空間關(guān)系決定了基函數(shù)的值是空間光滑的,例如,如果原始圖像之間的像素是離得較近的,那么基函數(shù)中相應(yīng)的值也應(yīng)該是較為接近的。但是,基于張量子空間的算法不能保證這一條件,基于張量子空間的基函數(shù)可能依然是空間非光滑的。而空間光滑約束解決了這一問題[73]?,F(xiàn)有的子空間流形學(xué)習(xí)算法也沒有充分的利用原始數(shù)據(jù)的流形結(jié)構(gòu)。為此本文提出了一種構(gòu)造數(shù)據(jù)的關(guān)系圖矩陣的方法,在空間光滑約束的約束下得到了兩種空間光滑流形最大值和最小值保持算法。第六十三頁,共83頁。5.2空間光滑約束令代表特定的定義域上的函數(shù),定義域為。相應(yīng)的作用在上的“拉普拉斯”算子可定義如下[79]:(5-1)拉普拉斯懲罰函數(shù),定義為,具體的定義如下:(5-2)度量了函數(shù)在定義域上的光滑性。第六十四頁,共83頁。
一個的人臉圖像可以被展開成一個的向量:。令是通過某種向量子空間方法得到的基向量(投影函數(shù))。為了不失普適性,也可以被認(rèn)為是定義在網(wǎng)格上的函數(shù)。對于人臉圖像,其定義域為一個二維的矩形區(qū)域,這樣一來,采取來定義就比較方便。一個定義在區(qū)域上的網(wǎng)格可定義如下:令,這里,,由一系列的二維向量構(gòu)成,并且。在這個網(wǎng)格上共有個柵格點。第六十五頁,共83頁。令表示一個的矩陣以產(chǎn)生的離散化近似。因此,如果是函數(shù)經(jīng)離散化得到的一個維的向量,那么將有下面的特性:
(5-3)對于,有很多種方法來確定[80]。
第六十六頁,共83頁。本文采用文獻(xiàn)[73]的方法來確定。
(5-4)第六十七頁,共83頁。
對于一個特定的,一個二維的拉普拉斯的算子的離散化近似是一個的矩陣:(5-5)為的單位矩陣。對于一個維的向量,容易驗證,正比于的矩陣形式下的各個元素附近元素平方誤差的和。所以可以用來衡量在網(wǎng)格上的光滑性。第六十八頁,共83頁。
設(shè)為通過某種子空間方法所求的投影矩陣,把子空間方法和“Laplacian”懲罰函數(shù)檢驗光滑性結(jié)合起來就得到了空間光滑子空間學(xué)習(xí)(SSSL)的目標(biāo)函數(shù)為:
(5-6)式(5-6)中,用以控制光滑的估計度[73]。表示原始樣本向量集合,和表示按照某種子空間學(xué)習(xí)理論定義的數(shù)據(jù)流形結(jié)構(gòu)矩陣。(5-6)式中的定義為:(5-7)第六十九頁,共83頁。5.3空間光滑流形最大值和最小值保持(5-8)(5-9)
第七十頁,共83頁。
(5-10)(5-11)(5-12)第七十一頁,共83頁。
(5-13)(5-14)(5-15)(5-16)第七十二頁,共83頁。
(5-17)(5-18)(5-19)
(5-20)第七十三頁,共83頁。5.4實驗結(jié)果與分析
實驗數(shù)據(jù)庫:“ORL”,“Yale”。對比實驗算法:S-NPE,S-LPP,S-LDA,
S-MFA[73];
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 2024意外傷害賠償協(xié)議書范例
- 合伙協(xié)議與法律規(guī)定沖突時的解決途徑
- 2024入網(wǎng)會員服務(wù)協(xié)議
- 大學(xué)生實踐基地共建合同
- 建筑工程渣土運輸合同
- 環(huán)保工程設(shè)計合同
- 游泳教練勞動合同樣本
- 施工員勞動合同書
- 房產(chǎn)轉(zhuǎn)讓合同樣式匯編
- 房屋租約協(xié)議模板
- 天津市紅橋區(qū)2024-2025學(xué)年八年級上期中-生物試卷
- GB/T 11017.2-2024額定電壓66 kV(Um=72.5 kV)和110 kV(Um=126 kV)交聯(lián)聚乙烯絕緣電力電纜及其附件第2部分:電纜
- 生 物2024-2025學(xué)年人教版生物七年級上冊期中模擬生物試卷
- 5.4+環(huán)境參與調(diào)節(jié)植物的生命活動課件高二上學(xué)期生物人教版(2019)選擇性必修1
- 7.2 共建美好集體(課件)-2024-2025學(xué)年七年級道德與法治上冊 統(tǒng)編版
- 2023-2024學(xué)年全國初中八年級上歷史人教版期中考試試卷(含答案解析)
- 萬達(dá)入職在線測評題
- 2023-2024學(xué)年北京西城區(qū)三十五中高一(上)期中化學(xué)試題及答案
- 廣東省深圳市(2024年-2025年小學(xué)三年級語文)統(tǒng)編版質(zhì)量測試(上學(xué)期)試卷(含答案)
- (高清稿)DB44∕T 2494-2024 河道水域岸線保護(hù)與利用規(guī)劃編制技術(shù)規(guī)程
- 兒童青少年視力普查規(guī)范
評論
0/150
提交評論