代表性學(xué)術(shù)論文及被引用情況_第1頁
代表性學(xué)術(shù)論文及被引用情況_第2頁
代表性學(xué)術(shù)論文及被引用情況_第3頁
代表性學(xué)術(shù)論文及被引用情況_第4頁
全文預(yù)覽已結(jié)束

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認(rèn)領(lǐng)

文檔簡介

項目代表性學(xué)術(shù)論文及被引用情況本項目精選出5篇代表性論學(xué)術(shù)論文,列示如下:NihongChen,PengCai,

TiangangZhou,BenjaminThompson,FangFang.PerceptualLearningModifiestheFunctionalSpecializationsofVisualCorticalAreas.ProceedingsoftheNationalAcademyofSciences,2016,113(20):5724-5729.(GoogleScholar他引2次)(課題一)ZhiwuHuang,RuipingWang,ShiguangShan,XilinChen.ProjectionMetricLearningonGrassmannManifoldwithApplicationtoVideobasedFaceRecognition.ProceedingsoftheIEEEConferenceonComputerVisionandPatternRecognition,pp.140-149,2015.(GoogleScholar他引22次).(課題二)XinmeiTian,ZheDong,KuiyuanYang,TaoMei.Query-dependentaestheticmodelwithdeeplearningforphotoqualityassessment.IEEETransactionsonMultimedia,17(11):2035-2048,2015.(GoogleScholar他引1次).(課題三)XianmingLiu,XiaolinWu,JiantaoZhou,DebinZhao.Data-drivensparsity-basedrestorationofjpeg-compressedimagesindualtransform-pixeldomain.ProceedingsoftheIEEEConferenceonComputerVisionandPatternRecognition,pp.5171-5178,2015.(GoogleScholar他引8次).(課題四)JianZhang,RuiqinXiong,ChenZhao,YongbingZhang,SiweiMa,WenGao.CONCOLOR:ConstrainedNon-ConvexLow-RankModelforImageDeblocking.IEEETransactionsonImageProcessing,25(3):1246-1259.(GoogleScholar他引2次).(課題五)附:論文全文及典型引用和評價課題1典型引文加州大學(xué)洛杉磯分校教授ZiliLiu在其發(fā)表于BrainSimulation2016上的關(guān)于視覺運動感知的文章中(見附件,典型引文1)指出:“EffectsofV1andV5TMSontheperformanceofvisualtaskshavebeenreportedusingbothonlineandofflinestimulationprotocols,.g.Refs.[21–28].”第一篇論文的作者承認(rèn)本論文中使用的TMS實驗方法的正確性以及有效性,并在他們的工作中借鑒了本論文中使用的方法。(其中,“[23]”為我們的代表性論文[1])布朗大學(xué)教授TakeoWatanabe在其發(fā)表于PNAS2016上的關(guān)于V3A區(qū)視覺功能替代的文章中(見附件,典型引文2)指出“TherecentstudybyChenetal.inPNAS(2)advancestheunderstandingbyshowingthattransferofperceptuallearningof100%coherentmotiontonoisymotionisassociatedwithdramaticchangesininvolvedneuralsites.”以及“Althoughinitialstudiesofperceptuallearningshowedchangesinlocalcircuitsinvolvedinthetrainedfeature,recentstudiesincludingtheonebyChenetal.(2)haveindicatedthatperceptuallearningisalsoassociatedwithalarger-scalechanges.”(參考譯文:作者SasakiY和WatanabeT.認(rèn)為在本論文之前,視覺任務(wù)中成人大腦的可塑性的神經(jīng)機制尚未被完全理解。而本論文的研究很大程度上更新了人們對該領(lǐng)域的認(rèn)知和理解,是具有創(chuàng)新性和突破性的工作。)(其中,“(2)”為我們的代表性論文[1])課題2典型引文美國馬里蘭大學(xué)教授RamaChellappa(曾任IEEET-PAMI主編,ACM/IEEE/IAPRFellow,IEEECVPR2017大會主席)在其發(fā)表于IEEEWACV2016上的視頻人臉識別的文章中(見附件,典型引文1),將我們PML/DARG兩個工作列入當(dāng)前最好的代表性方法(“Wealsocomparedwithotherstate-of-the-artmethodsin[17]and[33].”)進行了對比(其中,“[17]”為我們的代表性論文[2],“[33]”為本項目資助發(fā)表的另一篇相關(guān)論文)。意大利佛羅倫薩大學(xué)的StefanoBerretti教授在其發(fā)表于PatternRecognition2016上關(guān)于人臉形狀分析的文章中(見附件,典型引文2)指出“Morerecently,Huangetal.[13]proposedlearningprojectiondistanceonGrassmannmanifoldforfacerecognitionfromimagesets.Inthiswork,animprovedrecognitionisobtainedbyrepresentingeveryimagesetusingaGaussiandistributionoverthemanifold.”(參考譯文:Huang等人在[13]中提出在Grassmann流形上進行投影距離學(xué)習(xí)并用于圖像集合人臉識別。該工作通過將圖像集合表示為流形上的高斯分布,取得了改進的識別性能。)(其中,“[13]”為我們的代表性論文[2])中科院自動化所譚鐵牛院士在其發(fā)表于AAAI2016上關(guān)于圖像集合分類的文章中(見附件,典型引文3),將我們PML/DARG/SGM三個工作列為當(dāng)前最好的代表性方法(“wecomparetheproposedmethodwithstate-of-the-artimage-setclassificationmethods,including,regularizednearestpoints(RNP)(Yangetal.2013),meansequencesparserepresentation-basedclassification(MSSRC)(Ortiz,Wright,andShah2013),singleGaussianmodel(SGM)(Huangetal.2015a),projectionmetriclearning(PML)(Huangetal.2015b),discriminantanalysisonRiemannianManifold(DARG)(2015),andDeepReconstructionModel(DRM)(2015).”)進行了對比(其中,“Huangetal.2015b”為我們的代表性論文[2],“Huangetal.2015a”和“(DARG)(2015)”為本項目資助發(fā)表的另兩篇相關(guān)論文)。課題3典型引文馬來西亞多媒體大學(xué)的研究人員在其發(fā)表于MultimediaToolsAndApplications的圖像美學(xué)質(zhì)量評價綜述的文章中(見附件,典型引文1)指出我們所提出的方法顯著且一致優(yōu)于傳統(tǒng)方法,取得了目前最高的精確度。原文是“Motivatedbythefactthatphotographersemploydifferentrulesforcapturingdifferentimages,[35]movedawayfromtheuniversalmodelparadigmandproposedaquery-dependentaestheticsmodelwithdeeplearningforaestheticsassessment.Extensiveexperimentsdemonstratethattheirnovelquery-dependentapproachsignificantlyandconsistentlyoutperformstheconventionaluniversalscheme.Theirmodelachievedanaccuracyof80.38%onAVAdataset,whichisconsideredthehighestaccuracyamongthestate-of-the-artstechniques.”(其中,“[35]”為我們的代表性論文[3])。課題4典型引文美國伊利諾依大學(xué)(香檳分校)Beckman研究院圖像實驗室主任ThomasS.Huang教授(美國IEEE、美國光學(xué)學(xué)會、國際光學(xué)學(xué)會(SPIE)和國際模式識別學(xué)會Fellow)在其發(fā)表于IEEECVPR2016上的壓縮圖象恢復(fù)文章中(見附件,典型引文1),將我們的代表性論文高度評價(“Ourworkisinspiredbythepriorwisdomin[24].”),指出“OurmajorinnovationistoexplicitlycombineboththepriorknowledgeintheJPEGcompressionschemeandthesuccessfulpracticeofdual-domainsparsecoding[24]”(參考譯文:我們的主要創(chuàng)新來自于JPEG圖像壓縮先驗,以及在雙域稀疏編碼上取得的成功實踐[24]);并對我們代表性論文工作做出介紹“Wefirstreviewthesparsity-baseddual-domainrestorationmodelestablishedin[24].”,并進行對比“Weincludethefollowingtworelevant,state-of-the-artmethodsforcomparison:Sparsity-basedDual-DomainMethod(S-D2)[24],couldbeviewedasthe“shallow”counterpartofD3.Ithasoutperformedmosttraditionalmethods[24],suchasBM3D[9]andDicTV[7]”(參考譯文:我們對如下兩個相關(guān)的、目前最好的方法進行了對比:基于稀疏的雙域方法(S-D2)[24],可以看作是一個“淺”的D3;效果超過傳統(tǒng)的方法,如BM3D[9]和DicTV[7])(其中,“(S-D2)[24]”為我們的代表性論文[3])。加拿大麥克馬斯特大學(xué),XiaolinWu教授在其在線發(fā)表關(guān)于壓縮圖象恢復(fù)的文章中(見附件,典型引文2),將我們的代表性論文中的工作列為當(dāng)前最好的代表性方法并進行了對比,“wecomparetheresultswiththestate-of-the-artdenoisingandJPEGartifactremovaltechniques.Thecomparisongroupiscomposedofthefollowingmethods:oneJPEGdeblockingmethod:theACRalgorithm[22];twodenoisingmethods:theBM3Dalgorithm[5]andWNNMalgorithm[8];andthreeJPEGsoft-decodingmethods:theTValgorithm[2],DicTV[4]algorithmandDTPDalgorithm[12].”(參考譯文:我們和目前最好的去噪方法及JPEG壓縮恢復(fù)方法進行對比:一種JPEG去塊效應(yīng)方法,ACR算法[22];兩種去噪方法:BM3D[5]和WNNM方法[8];三種JPEG軟解碼方法:TV[2],DicTV[4],DTPD[12])(其中,“DTPDalgorithm[12]”為我們的代表性論文[3])。日本國立情報學(xué)研究院GeneCheung副教授在其發(fā)表于IEEESIGNALPROCESSINGLETTERS上關(guān)于壓縮圖象恢復(fù)的文章中(見附件,典型引文3)指出“[3]–[5]assumeasparsesignalmodel,wherethetargetedblockisapproximatedasasparsecombinationofatomsfromanover-completedictionary.”(參考譯文:文獻[3]–[5]假設(shè)了一

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論