圖像檢索技術(shù)研究_第1頁(yè)
圖像檢索技術(shù)研究_第2頁(yè)
圖像檢索技術(shù)研究_第3頁(yè)
圖像檢索技術(shù)研究_第4頁(yè)
圖像檢索技術(shù)研究_第5頁(yè)
已閱讀5頁(yè),還剩27頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

1、圖像檢索技術(shù)研究摘 要在網(wǎng)絡(luò)和多媒體技術(shù)越來(lái)越發(fā)達(dá)的今天,信息檢索技術(shù)成了現(xiàn)在計(jì)算機(jī)領(lǐng)域的重要內(nèi)容,而圖像檢索技術(shù)正是這其中的重要內(nèi)容之一。網(wǎng)絡(luò)資源的極大豐富以及圖像檢索技術(shù)不斷發(fā)展成熟,使得圖像檢索技術(shù)的應(yīng)用領(lǐng)域不斷擴(kuò)大,這為圖像檢索技術(shù)的繼續(xù)研究提供條件。以此同時(shí),隨著網(wǎng)絡(luò)傳送速度與計(jì)算機(jī)信息處理速度的提高,網(wǎng)頁(yè)中對(duì)多媒體信息的使用變得十分普及,特別是圖像信息,己經(jīng)成為表示網(wǎng)頁(yè)內(nèi)容不可缺少的組成部分。在實(shí)現(xiàn)對(duì)網(wǎng)頁(yè)中文本信息提取的同時(shí),如何再為用戶抽取所需的圖片資料,是信息檢索中一個(gè)重要的方面。于是各種基于Web的圖像檢索系統(tǒng)應(yīng)運(yùn)而生。它們采用不同的工作方式,極大地方便了用戶對(duì)網(wǎng)上圖像進(jìn)行檢

2、索。本文首先介紹各種圖像檢索技術(shù)的工作原理、研究現(xiàn)狀、相關(guān)圖像檢索引擎與發(fā)展趨勢(shì);然后,對(duì)幾種比較熱門的圖像檢索算法進(jìn)行研究和對(duì)比。 關(guān)鍵字: 圖像檢索 檢索引擎 文本處理 信息檢索 相似度 相關(guān)反饋II目 錄1 前言11.1 課題來(lái)源11.2現(xiàn)有的圖像檢索技術(shù)21.2.1檢索引擎的工作原理21.2.2 圖像檢索引擎的檢索途徑31.2.3對(duì)幾個(gè)基本引擎的分析41.2.4 檢索引擎的基本要點(diǎn)51.3 圖像檢索的發(fā)展方向62 基于顏色的圖像檢索72.1顏色特征提取72.2 相似度計(jì)算102.3 實(shí)驗(yàn)結(jié)果103 基于紋理的圖像檢索103.1紋理特征提取103.2  相似度計(jì)算133.3 實(shí)

3、驗(yàn)結(jié)果134 綜合顏色和紋理特征的圖像檢索144.1 綜合特征檢索的思想144.2 相關(guān)反饋154.3實(shí)驗(yàn)結(jié)果及結(jié)論155 基于WEB的圖像檢索175.1 文本與圖像之間的關(guān)系175.1.1 表示圖像內(nèi)容的文本標(biāo)記175.1.2文本的權(quán)值比較185.2 圖像信息檢索185.2.1檢索模型與相似度185.2.2 分詞技術(shù)和匹配方法205.3 檢索反饋225.4 實(shí)驗(yàn)結(jié)果246 總結(jié)25參 考 文 獻(xiàn)27Abstract28致 謝29仲愷農(nóng)業(yè)工程學(xué)院畢業(yè)論文(設(shè)計(jì))成績(jī)?cè)u(píng)定表301 前言1.1 課題來(lái)源據(jù)統(tǒng)計(jì),人類接受的外部信息,70%以上來(lái)自視覺,圖像作為一種內(nèi)容豐富,表現(xiàn)直觀的多媒體信息被大量

4、廣泛地使用,如何有效管理、檢索圖像信息成為迫切需要解決的問(wèn)題。傳統(tǒng)的基于文本的檢索無(wú)法滿足海量環(huán)境下多媒體信息庫(kù)的檢索要求。為了克服基于文本方法的局限性,出現(xiàn)了基于內(nèi)容的圖像檢索。隨著多媒體技術(shù)及 Internet網(wǎng)絡(luò)的迅速發(fā)展,圖像來(lái)源不斷擴(kuò)大,大容量高速存儲(chǔ)系統(tǒng)為圖像的海量存儲(chǔ)提供了基本保障,各行各業(yè)對(duì)圖像的使用越來(lái)越多,圖像信息資源的管理和檢索也就顯得越來(lái)越重要。但由于Internet 本身結(jié)構(gòu)上、管理上的問(wèn)題,想要在Internet 準(zhǔn)確、快速、全面地找到自己所想要的圖像,卻變成了件非常不容易的事。由于Internet現(xiàn)有的問(wèn)題:內(nèi)容沒有結(jié)構(gòu);網(wǎng)上信息量龐大且還在不斷的增加。因此,網(wǎng)絡(luò)

5、產(chǎn)生了檢索引擎。雖然這些給網(wǎng)絡(luò)用戶提供了不少的幫助,但由于偏離準(zhǔn)確、快速、全面地檢索自己所要的圖像還相當(dāng)遙遠(yuǎn),所以對(duì)圖像檢索還要作很大的研究。根據(jù)國(guó)內(nèi)外現(xiàn)有的檢索引擎和國(guó)際上的有關(guān)研究小組的種種資料表明,現(xiàn)有的網(wǎng)絡(luò)資源和檢索引擎有如下特點(diǎn):(1)索引的數(shù)據(jù)種類豐富,如文字、圖像、聲音等多媒體。數(shù)據(jù)的存取協(xié)議也是多種多樣的,如HTTP、FTP、News、Gopher等;(2)索引數(shù)據(jù)量大,以致不可能有某個(gè)數(shù)據(jù)庫(kù)能包括整個(gè)Internet的索引,目前最大的檢索引擎,其中的索引也只不過(guò)覆蓋了Internet的一小部分;(3)資源消耗太大,系統(tǒng)需要將HTML文件傳送至本地然后分析,大量占用昂貴的網(wǎng)絡(luò)帶

6、寬和CPU資源,增加被檢索結(jié)點(diǎn)的負(fù)擔(dān)。另外由于現(xiàn)有的檢索引擎一般是集中式的,所以檢索引擎服務(wù)器本身的硬件配置也極高,才能處理龐大的數(shù)據(jù)量和及時(shí)地響應(yīng)用戶的查詢請(qǐng)求;(4)不能有效解決索引失效問(wèn)題,很多時(shí)候,檢索引擎會(huì)返回?zé)o效的查詢結(jié)果;(5)各檢索工具各行其事,不能相互協(xié)作,在一定意義上講是一種資源的浪費(fèi)。 二十一世紀(jì)是一個(gè)多元化的信息社會(huì),對(duì)圖像的需求將是前所未有的巨大的,圖像數(shù)據(jù)庫(kù)也將得到長(zhǎng)足的發(fā)展。因此,圖像檢索系統(tǒng)具有廣闊的應(yīng)用前景。1.2現(xiàn)有的圖像檢索技術(shù)近年來(lái)隨著用戶對(duì)網(wǎng)上圖像檢索要求的不斷增長(zhǎng),各種圖像檢索引擎應(yīng)運(yùn)而生,它們各自以不同的工作方式為用戶提供各種檢索途徑,使網(wǎng)上圖像信

7、息的檢索變得非常簡(jiǎn)單,盡管還不很完善,卻已經(jīng)可以滿足用戶的大多數(shù)要求。1.2.1檢索引擎的工作原理最基本的檢索引擎的結(jié)構(gòu),是由Spider不停地從Web網(wǎng)上收集數(shù)據(jù),存放在檢索引擎的數(shù)據(jù)庫(kù)中。用戶通過(guò)檢索引擎服務(wù)器上的Web接口,提出檢索請(qǐng)求,Web Server通過(guò)CGI或其它技術(shù)訪問(wèn)數(shù)據(jù)庫(kù),并將用戶的檢索請(qǐng)求轉(zhuǎn)換成相應(yīng)的數(shù)據(jù)存取語(yǔ)句,送給數(shù)據(jù)庫(kù)引擎處理,并把查詢結(jié)果通過(guò)網(wǎng)頁(yè)顯示給用戶。網(wǎng)絡(luò)檢索的基本原理是通過(guò)網(wǎng)絡(luò)機(jī)器人定期在web網(wǎng)頁(yè)上爬行,然后發(fā)現(xiàn)新的網(wǎng)頁(yè),把它們?nèi)』貋?lái)放到本地的數(shù)據(jù)庫(kù)中,用戶的查詢請(qǐng)求可以通過(guò)查詢本地的數(shù)據(jù)庫(kù)來(lái)得到。一般來(lái)說(shuō)網(wǎng)絡(luò)信息檢索的實(shí)現(xiàn)機(jī)制一般有兩種:一是通過(guò)手工

8、方式對(duì)網(wǎng)頁(yè)進(jìn)行索引,它的缺點(diǎn)是Web的覆蓋率比較低,同時(shí)不能保證最新的信息。查詢匹配是通過(guò)用戶寫入的關(guān)鍵字和網(wǎng)頁(yè)的描述和標(biāo)題來(lái)進(jìn)行匹配,而不是通過(guò)全文的匹配進(jìn)行的;二是對(duì)網(wǎng)頁(yè)進(jìn)行自動(dòng)的索引,這種能實(shí)現(xiàn)自動(dòng)的文檔分類,實(shí)際上采用了信息提取的技術(shù)。但是在分類準(zhǔn)確性上可能不如手工分類。在現(xiàn)在所有運(yùn)行的檢索工具來(lái)說(shuō),一般都有一個(gè)Robot定期的訪問(wèn)一些站點(diǎn),來(lái)檢查這些站點(diǎn)的變化,同時(shí)查找新的站點(diǎn)。一般站點(diǎn)有一個(gè)robot.txt文件用來(lái)說(shuō)明服務(wù)器不希望Robot訪問(wèn)的區(qū)域,Robot 都必須遵守這個(gè)規(guī)定。如果是自動(dòng)索引的話,Robot在得到頁(yè)面以后,需要對(duì)該頁(yè)面根據(jù)其內(nèi)容進(jìn)行索引,根據(jù)它的關(guān)鍵字的情況

9、把它歸到某一類中。頁(yè)面的信息是通過(guò)元數(shù)據(jù)的形式保存的,典型的元數(shù)據(jù)包括標(biāo)題、IP地址、一個(gè)該頁(yè)面的簡(jiǎn)要的介紹,關(guān)鍵字或者是索引短語(yǔ)、文件的大小和最后的更新的日期。盡管元數(shù)據(jù)有一定的標(biāo)準(zhǔn),但是很多站點(diǎn)都采用自己的模板。文檔提取機(jī)制和索引策略對(duì)Web檢索引擎的有效性有很大的關(guān)系。高級(jí)的檢索選項(xiàng)一般包括:布爾方法或者是短語(yǔ)匹配和自然語(yǔ)言處理。一個(gè)查詢所產(chǎn)生的結(jié)果按照提取機(jī)制被分成不同的等級(jí)提交給用戶。最相關(guān)的放在最前面。每一個(gè)提取出來(lái)的文檔的元數(shù)據(jù)被顯示給用戶。同時(shí)包括該文檔所在的URL地址。另外有一些關(guān)于某一個(gè)主題的專門的引擎,它們只對(duì)某一個(gè)主題的內(nèi)容進(jìn)行檢索和處理,這樣信息的取全率和精度相對(duì)就比

10、較高。 目前,圖像檢索引擎主要通過(guò)以下兩種方法識(shí)別圖像: (1)自動(dòng)查找圖像文件。通過(guò)兩個(gè)HTML標(biāo)簽,即IMGSRC和HREF來(lái)檢測(cè)是否存在可顯示的圖像文件,IMGSRC表示“顯示下面的圖像文件”,導(dǎo)向的是嵌入式圖像;而HREF則表示“下面是一個(gè)鏈接”,導(dǎo)向的是被鏈接的圖像。檢索引擎通過(guò)檢查文件擴(kuò)展名來(lái)判斷其導(dǎo)向的是否為圖像文件,如果文件擴(kuò)展名是.gif或.jpg,即是一個(gè)可顯示的圖像。 (2)人工干預(yù)找出圖像。進(jìn)行分類,由人工對(duì)網(wǎng)上的圖像及站點(diǎn)進(jìn)行選擇。這種方法可以產(chǎn)生準(zhǔn)確的查詢體系,但勞動(dòng)強(qiáng)度太大,因此要限制處理圖像的數(shù)量。由于圖像不同于文本,需要人們按照各自的理解來(lái)說(shuō)明其蘊(yùn)含的意義,因

11、此圖像檢索比文本的查詢和匹配要困難得多。1.2.2 圖像檢索引擎的檢索途徑1.關(guān)鍵詞檢索傳統(tǒng)的圖像檢索技術(shù)是基于關(guān)鍵字的精確匹配檢索,系統(tǒng)內(nèi)的圖像用關(guān)鍵字標(biāo)識(shí),檢索線索是與標(biāo)識(shí)相一致的關(guān)鍵字,即輸入是關(guān)鍵字,輸出是圖像。它又包括兩種途徑:(1)基于圖像外部信息進(jìn)行檢索。即根據(jù)圖像的文件名或目錄名、路徑名、鏈路、ALT標(biāo)簽以及圖像周圍的文本信息等外部信息進(jìn)行檢索,這是目前圖像檢索引擎采用最多的方法。在找出圖像文件后,圖像檢索引擎通過(guò)查看文件名或路徑名確定文件內(nèi)容,也可以通過(guò)查看圖像的標(biāo)題來(lái)匹配檢索詞。(2)基于手工標(biāo)注的檢索。手工對(duì)圖像的內(nèi)容(如物體、背景、顏色等)進(jìn)行描述并分類,將其標(biāo)注為一系

12、列關(guān)鍵字,并建立索引。檢索時(shí),將主要在這些描述詞中檢索用戶輸入的關(guān)鍵字。這種查詢方式是比較準(zhǔn)確的,一般可以獲得較好的查準(zhǔn)率,但需人工參與,勞動(dòng)強(qiáng)度大,因而限制了可處理的圖像數(shù)量。另外,由于圖像所包含的信息量龐大,不同用戶對(duì)于同一張圖像的看法又不盡相同,導(dǎo)致了對(duì)圖像的標(biāo)注缺乏統(tǒng)一標(biāo)準(zhǔn)。2. 圖像可視屬性的檢索而基于圖像內(nèi)容的檢索主要是由圖像分析軟件自動(dòng)抽取圖像的顏色、形狀、紋理等特征,建立特征索引庫(kù),其輸入為用戶要查找的圖像的大致特征描述或示例,通過(guò)一定相似性匹配規(guī)則,輸出為與之具有相近特征的圖像,按相似程度排列,供用戶選擇,從而把在傳統(tǒng)圖像檢索技術(shù)中一般用戶難以完成的圖像特征描述、提取與識(shí)別等

13、難題,交由系統(tǒng)去解決。這是一種基于圖像本身特征層次的檢索,特別適用于檢索目標(biāo)明確的查詢要求,但目前這種較成熟的檢索技術(shù)主要應(yīng)用于圖像數(shù)據(jù)庫(kù)的檢索。在圖像檢索引擎中應(yīng)用這種檢索技術(shù)還有一定困難,但己有部分圖像檢索引擎嘗試了這種檢索方法。1.2.3對(duì)幾個(gè)基本引擎的分析(1)InfoSeek是一個(gè)簡(jiǎn)單但是功能強(qiáng)大的索引,它的一個(gè)優(yōu)點(diǎn)是有一個(gè)面向主題檢索的可擴(kuò)展的分類。你可以把你的檢索短語(yǔ)和相似的分類目錄的主題短語(yǔ)相互參照,而那些主題短語(yǔ)會(huì)自動(dòng)加到你的查詢中去。使你的檢索有更好的主題相關(guān)性。同時(shí)它也支持對(duì)圖像的查詢。它能夠漫游Web,Usenet,Usenet FAQs等等。不支持布爾操作,但是可以使

14、用符號(hào)"+"和"-"。 (2)AltaVista 是一個(gè)大容量的,基于Robot 索引的Search Engine。它能幫你在WWW網(wǎng)上檢索你所需要的網(wǎng)頁(yè),新聞組,圖像,視頻音頻片段。AltaVista 還支持多種語(yǔ)言和簡(jiǎn)單的自然語(yǔ)言查詢。AltaVista 覆蓋面約為WWW 網(wǎng)上可索引的網(wǎng)頁(yè)的30%(3)Scour成立于1998年,自稱是第一個(gè)基于web的多媒體檢索引擎。雖嚴(yán)格講,它并非是一個(gè)圖像檢索引擎,但可以將檢索限制在圖像檢索上。它的工作原理是在文件名、路徑名或ALT標(biāo)簽中檢索檢索詞。主要使用關(guān)鍵詞檢索,可以用""或"

15、;"來(lái)增加或排除關(guān)鍵詞,使用盡可能少的關(guān)鍵詞會(huì)更有效。在高級(jí)檢索中,可以將檢索結(jié)果圖像限制在GIF、BMP、JPEG等格式中。檢索結(jié)果顯示簡(jiǎn)圖、圖像類型(如GIF、BMP)、圖像大小、最后被查找的日期、檢索詞的匹配數(shù)量、標(biāo)引使用的關(guān)鍵詞、成功下載的可靠程度等,并同時(shí)給出圖像文件的URL和源站點(diǎn)的URL。主要缺陷是標(biāo)引深度不足,查準(zhǔn)率較低,但查全率較好。(4) 這是由NCRTEC組織開發(fā)的一個(gè)"真正人工建立的完全的關(guān)鍵詞式索引"。 Amazing Picture Machine后面的教師負(fù)責(zé)選擇圖像豐富的站點(diǎn),然后對(duì)每幅選定的圖像內(nèi)容進(jìn)行描述,給出關(guān)鍵詞。因此它的最

16、大特點(diǎn)就是人工干預(yù),關(guān)鍵詞檢索是主要的檢索手段。Amazing Picture Machine的檢索結(jié)果將顯示一個(gè)簡(jiǎn)短的標(biāo)題、有關(guān)圖像的說(shuō)明(如彩色或黑白)、文件的大小、文件類型及象素多少等,但不顯示簡(jiǎn)圖。單擊該標(biāo)題可得到原圖像,但需由該URL回溯才能找出源站點(diǎn)。由于人工干預(yù)檢索過(guò)程,它的查準(zhǔn)率極好,但這也限制了它的查全率。它的檢索范圍很有限,只包括web上人工選擇的部分站點(diǎn)。(5)Lycos對(duì)所收錄的圖像進(jìn)行了詳盡的內(nèi)容描述,并支持短語(yǔ)檢索,從而使其查準(zhǔn)率大大提高。它根據(jù)文件擴(kuò)展名識(shí)別圖像,在描述詞、文件名、目錄名或ALT字段中查詢檢索詞。結(jié)果顯示的信息極為豐富,包括簡(jiǎn)圖、圖像大小、最后檢索

17、日期、圖像文件名、圖像內(nèi)容描述詞、圖像所在頁(yè)面等。點(diǎn)擊簡(jiǎn)圖將得到原圖及更多的信息,如著作權(quán)人和更多的相關(guān)圖像。比較而言它的檢索效果很好,速度也很快。1.2.4 檢索引擎的基本要點(diǎn)(1)索引文檔的容量:現(xiàn)在最大的檢索引擎可能包含了超過(guò)100,000,000個(gè)鏈接,但這也只是整個(gè)Web網(wǎng)上的一小部分。因?yàn)槭占Y料的Robot,只能從“已知”的鏈接開始收集網(wǎng)頁(yè)資料,而只有一小部分Web網(wǎng)頁(yè)和這些“已知”的網(wǎng)頁(yè)有連接;現(xiàn)在還沒有一個(gè)檢索引擎能夠隨網(wǎng)頁(yè)內(nèi)容的更新比較及時(shí)地更新索引;(2)覆蓋面:地理覆蓋面和主題覆蓋面;(3)索引更新頻率:不同的檢索引擎,索引更新頻率相差很大,有的是幾周,有的是一年。索引

18、更新頻率有兩種定義,一種比較少用的定義是新的網(wǎng)頁(yè)能被收錄進(jìn)索引數(shù)據(jù)庫(kù)中,另一種是同一頁(yè)多少時(shí)間才被檢查一次,有必要時(shí)更新索引。有的檢索引擎會(huì)對(duì)經(jīng)常更新的網(wǎng)頁(yè)和多人訪問(wèn)的網(wǎng)頁(yè)進(jìn)行更頻繁的重建索引工作;(4)采集過(guò)程:采集過(guò)程有寬度優(yōu)先、深度優(yōu)先兩種算法;一般認(rèn)為寬度優(yōu)先對(duì)擴(kuò)大內(nèi)容的覆蓋面有利,深度優(yōu)先算法有助于提供更多的細(xì)節(jié)資料;(5)索引算法:有的檢索引擎只處理元標(biāo)記和一小部分文檔內(nèi)容,而有一些檢索引擎則是對(duì)全文進(jìn)行索引;(6)結(jié)果顯示:有的檢索引擎只顯示網(wǎng)頁(yè)的標(biāo)題,有些則有更詳細(xì)的一些信息,比如網(wǎng)頁(yè)的內(nèi)容,更新日期等;(7)查詢算法:一個(gè)優(yōu)秀的查詢算法是很重要的,最基本的布爾查詢,短語(yǔ)查詢,

19、有的檢索引擎還提供指定屬性的查詢,比如可以指定對(duì)網(wǎng)頁(yè)的作者、主題進(jìn)行查詢。另外有的檢索引擎還采用了相關(guān)度反饋、概念查詢等算法;(8)用戶界面:很多檢索引擎都提供了簡(jiǎn)單查詢和高級(jí)查詢兩個(gè)界面。并且提供了必要的幫助和范例。1.3 圖像檢索的發(fā)展方向圖像檢索技術(shù)給用戶提供了一個(gè)在互聯(lián)網(wǎng)上檢索感興趣圖像資源的有效手段,基于文本和基于內(nèi)容是圖像檢索發(fā)展的兩個(gè)分支,不過(guò)從目前圖像檢索研究的趨勢(shì)而言,尤其結(jié)合網(wǎng)絡(luò)環(huán)境下圖像的特征嵌入在具有文本內(nèi)容的Web文檔中,出現(xiàn)了三個(gè)不同的研究著眼點(diǎn)。(1)基于文本的檢索研究立足于文本,對(duì)圖像進(jìn)行檢索。試圖將傳統(tǒng)的文本檢索技術(shù)移植于對(duì)多媒體信息的檢索上,因?yàn)榛谖谋镜臋z

20、索技術(shù)發(fā)展已經(jīng)成熟。如Page-Rank方法、概率方法、位置方法、摘要方法、分類或聚類方法、詞性標(biāo)注法等,不僅技術(shù)發(fā)展較為成熟,同時(shí)分析和實(shí)現(xiàn)的難度略小。但是因?yàn)槭芸卦~匯本身的局限,易歧義,更新慢,所以不太容易應(yīng)對(duì)網(wǎng)絡(luò)上日新月異的各類圖像。(2)基于內(nèi)容的檢索研究立足于圖像內(nèi)容,對(duì)圖像進(jìn)行分析和檢索。相比而言,盡管圖像檢索已經(jīng)出現(xiàn)了諸如直方圖、顏色矩、顏色集等多種表征圖像特征的方法,但是要突破對(duì)低層次特征的分析,實(shí)現(xiàn)更高語(yǔ)義上的檢索,實(shí)現(xiàn)難度大,進(jìn)展慢。不過(guò),基于內(nèi)容的圖像檢索建立在多媒體信息的內(nèi)容語(yǔ)義上,能夠更為客觀地反映媒體本質(zhì)的特征。(3)基于文本內(nèi)容結(jié)合的檢索研究結(jié)合文本和內(nèi)容,二者雖

21、側(cè)重不同但卻互相補(bǔ)充。如果能將二者結(jié)合起來(lái)取長(zhǎng)補(bǔ)短,則網(wǎng)絡(luò)的圖像檢索技術(shù)必有新的進(jìn)展。已有的圖像檢索引擎在信息的自動(dòng)加工和標(biāo)引方面都有待提高,需要開發(fā)出計(jì)算機(jī)自動(dòng)識(shí)別和標(biāo)引圖像的算法和技術(shù),以完善現(xiàn)有的檢索功能,并與已有的成熟的圖像庫(kù)檢索技術(shù)相結(jié)合,這是今后應(yīng)該研究的一個(gè)課題。而且,圖像庫(kù)檢索技術(shù)也應(yīng)面向網(wǎng)絡(luò),利用網(wǎng)絡(luò)技術(shù)進(jìn)行改造,提供新的WWW訪問(wèn)界面代替原來(lái)的應(yīng)用系統(tǒng)界面。同時(shí)將巨大的圖像庫(kù)資源利用網(wǎng)絡(luò)實(shí)現(xiàn)共享。(4)對(duì)基于內(nèi)容編碼技術(shù)的研究可以說(shuō),三個(gè)方向都是相互影響和促進(jìn)的,任何一個(gè)方向的進(jìn)展都會(huì)促進(jìn)圖像檢索技術(shù)向前更進(jìn)一步。目前,國(guó)際上還沒有通用的基于內(nèi)容的編碼標(biāo)準(zhǔn)。20世紀(jì)90年代

22、初,國(guó)際上就開始了對(duì)基于內(nèi)容的圖像信息檢索方面的研究。從基本的顏色檢索,到綜合利用多種圖像特征進(jìn)行檢索,大量原型系統(tǒng)已經(jīng)推出,其中,部分已投入到實(shí)際應(yīng)用中以檢驗(yàn)其有效性。同時(shí),MPEG-7標(biāo)準(zhǔn)作為基于內(nèi)容的多媒體編碼標(biāo)準(zhǔn)也正在制定當(dāng)中,即將成為國(guó)際標(biāo)準(zhǔn)中的一員。因此,應(yīng)盡快對(duì)MPEG-7標(biāo)準(zhǔn)進(jìn)行研究,分析其編碼的實(shí)質(zhì),在此基礎(chǔ)上進(jìn)一步研究基于內(nèi)容檢索的系統(tǒng),使我國(guó)基于內(nèi)容的圖像檢索盡快走向?qū)嶋H應(yīng)用階段。(5)對(duì)用戶查詢接口的研究 這涉及到用戶對(duì)圖像內(nèi)容的感知表達(dá)、交互方式的設(shè)計(jì)、用戶如何形成并提交查詢等方面。現(xiàn)代多媒體信息系統(tǒng)的一個(gè)重要特征就是信息獲取過(guò)程的可交互性,人在系統(tǒng)中是主動(dòng)的。除了提

23、供示例和描繪查詢基本接口之外,用戶的查詢接口應(yīng)提供豐富的交互能力,使用戶在主動(dòng)的交互過(guò)程中表達(dá)對(duì)圖像語(yǔ)義的感知,調(diào)整查詢參數(shù)及其組合,最終獲得滿意的查詢結(jié)果。用戶的查詢接口應(yīng)該是直觀易用的,底層的特征選擇對(duì)用戶是透明的。這里涉及到如何把用戶的查詢表達(dá)轉(zhuǎn)換為可以執(zhí)行檢索的特征矢量,如何從交互過(guò)程中獲取用戶的內(nèi)容感知,以便選擇合適的檢索特征等問(wèn)題。一個(gè)優(yōu)秀的檢索引擎必須處理以下幾個(gè)問(wèn)題:(1)網(wǎng)頁(yè)的分類(2)自然語(yǔ)言的處理(3)檢索策略的調(diào)度和協(xié)作 (4)面向特定用戶的檢索。因此,現(xiàn)在有很多的網(wǎng)絡(luò)檢索工具,也就是說(shuō)檢索引擎采用了智能的檢索手段來(lái)增強(qiáng)它的檢索能力,而圖片檢索正是其中的一大塊內(nèi)容。隨著

24、網(wǎng)上多媒體的廣泛應(yīng)用,對(duì)圖像的檢索需求將會(huì)越來(lái)越迫切。未來(lái)的圖像檢索技術(shù)將是網(wǎng)絡(luò)技術(shù)和基于內(nèi)容的圖像庫(kù)檢索技術(shù)的結(jié)合。隨著多媒體信息處理技術(shù)的日益發(fā)展和深化,圖像信息的加工、處理和檢索標(biāo)準(zhǔn)的出臺(tái),網(wǎng)上的圖像檢索技術(shù)將會(huì)日趨完善,而圖像檢索引擎也將成為Internet上的新寵。2 基于顏色的圖像檢索2.1顏色特征提取顏色特征是一種全局特征,描述了圖像或圖像區(qū)域所對(duì)應(yīng)的景物的表面性質(zhì)。一般顏色特征是基于像素點(diǎn)的特征,此時(shí)所有屬于圖像或圖像區(qū)域的像素都有各自的貢獻(xiàn)。由于顏色對(duì)圖像或圖像區(qū)域的方向、大小等變化不敏感,所以顏色特征不能很好地捕捉圖像中對(duì)象的局部特征。另外,僅使用顏色特征查詢時(shí),如果數(shù)據(jù)庫(kù)

25、很大,常會(huì)將許多不需要的圖像也檢索出來(lái)。顏色特征是在圖像檢索中應(yīng)用最為廣泛的視覺特征,主要原因在于顏色往往和圖像中所包含的物體或場(chǎng)景十分相關(guān)。此外,與其它的視覺特征相比,顏色特征對(duì)圖像本身的尺寸、方向、視角的依賴性較小,從而具有較高的穩(wěn)定性。為了正確地使用顏色,需要建立顏色模型。顏色特征是圖像最直觀而明顯的特征,一般采用直方圖來(lái)描述。顏色直方圖是表示圖像中顏色分布的一種方法,它的橫軸表示顏色等級(jí),縱軸表示在某一個(gè)顏色等級(jí)上具有該顏色的像素在整幅圖像中所占的比例,直方圖顏色空間中的每一個(gè)刻度表示了顏色空間中的一種顏色。采用直方圖計(jì)算圖像間的相似性比較簡(jiǎn)單,但它不能反映圖像中對(duì)象的空間特征。在顏色

26、布局描述符中,對(duì)分割好的8×8的圖像取每一塊圖像的顏色平均值,形成一個(gè)顏色平均值矩陣,然后對(duì)其用二維離散余弦進(jìn)行變換,取低頻分量作為顏色特征??紤]到本文所選的測(cè)試圖片都是bmp圖片,以及減少計(jì)算量,提高檢索速度的因素,本文的顏色布局描述符的提取方法如下:    (1)將整幅圖像分成4×4塊,計(jì)算每一塊中所有象素RGB三個(gè)顏色通道的顏色平均值,并以此作為該塊的代表顏色(主顏色)。    (2)將各塊的顏色平均值進(jìn)行離散余弦變換(DCT),得到DCT系數(shù)矩陣。DCT是一種分離的變換,是國(guó)際靜止圖像壓縮標(biāo)準(zhǔn)JPEG的基礎(chǔ)

27、。由于大多數(shù)圖像的高頻分量較小,相應(yīng)于圖像高頻分量的系數(shù)經(jīng)常為零,加上人眼對(duì)高頻成分的失真不太敏感,所以 可用更粗的量化。因此,在一般檢索中可以利用部分DCT系數(shù)作為特征向量。    (3)對(duì)DCT系數(shù)矩陣進(jìn)行之字形掃描和量化,得到DCT系數(shù)。(4)對(duì)于R、G、B三個(gè)通道,分別從DCT系數(shù)中取出4個(gè)低頻分量,形成12個(gè)參數(shù),共同構(gòu)成該圖像的顏色特征向量。圖1為顏色特征提取的流程圖。圖1顏色特征提取流程圖2.2 相似度計(jì)算國(guó)際標(biāo)準(zhǔn)MPEG-7中建議的顏色布局描述符在匹配時(shí)使用歐式距離公式,因此在本算法中匹配時(shí)也使用歐式距離公式,即為:其中,各個(gè)分量的W為權(quán)重,Ri,

28、Gi,Bi分別為各個(gè)分量的第i(i=0,1,2,3)個(gè)DCT系數(shù)。2.3 實(shí)驗(yàn)結(jié)果本文實(shí)驗(yàn)的圖庫(kù)是從標(biāo)準(zhǔn)測(cè)試圖像庫(kù)Corel圖像庫(kù)中選取的,包括由海灘、恐龍、大象、馬、花等組成的120副圖片,得到利用顏色特征檢索圖片的查準(zhǔn)率和查全率為下表。表1 利用顏色特征的結(jié)果類型利用顏色特征的查準(zhǔn)率利用顏色特征的查全率海灘0.5830.350恐龍0.5000.300大象0.4170.250馬0.5830.583雪景0.1670.100花0.5000.3003 基于紋理的圖像檢索3.1紋理特征提取 圖像可以看成是不同紋理區(qū)域的組合,紋理通常定義為圖像的某種局部性質(zhì),或是對(duì)局部區(qū)域中像素之間關(guān)系的一種度量。紋

29、理特征可用來(lái)對(duì)圖像中的空間信息進(jìn)行一定程度的定量描述。在國(guó)際標(biāo)準(zhǔn)MPEG-7中建議了一種紋理特征描述符邊緣直方圖。邊緣直方圖是基于圖像邊緣的統(tǒng)計(jì)特征,能較好地反映目標(biāo)的邊緣和紋理特征,而且運(yùn)算速度較高。因此在本文中選取邊緣直方圖來(lái)提取圖像的紋理特征。下面介紹提取的具體步驟:    (1)將bmp圖像轉(zhuǎn)換成灰度圖。每個(gè)象素的灰度值可以根據(jù)RGB顏色分量按下列公式計(jì)算得到:Gray(i,j)=0.11*R(i,j)+0.59*G(i,j)+0.3*B(i,j)。    (2)將整幅圖像分成4×4塊。  

30、60; (3)分別對(duì)16塊1/16子圖像進(jìn)行sobel邊緣算子運(yùn)算,得到邊緣圖像。    (4)統(tǒng)計(jì)子圖像中的邊緣直方圖,該直方圖包括4個(gè)直方條。(橫軸為0,1,2,3四個(gè)邊緣方向,縱軸為該方向上的象素?cái)?shù)占子圖像總的象素?cái)?shù)的比率)(5)將16個(gè)子圖像的直方條綜合起來(lái),得到包括64個(gè)直方條的整幅圖像的邊緣直方圖。圖2為圖像紋理特征流程圖。圖2 圖像紋理特征流程圖下面介紹用sobel算子提取圖像邊緣的具體算法:首先介紹一下sobel算法中用到的4個(gè)核模板:圖3 sobel算法模板圖4 sobel 算法的邊緣方向編號(hào)(1)將圖像中的象素點(diǎn)的灰度值分別與以上四個(gè)方向的核模

31、板相乘。     (2)比較四個(gè)乘積數(shù)值,取最大的那個(gè)數(shù)值,作為該象素點(diǎn)的新的灰度值。    (3)取適當(dāng)?shù)拈撝礣,若新的灰度值T,則認(rèn)為該象素點(diǎn)為邊緣點(diǎn)。    通過(guò)以上算法提取出圖像的邊緣。3.2  相似度計(jì)算 仍然采用歐式距離公式作為相似度的計(jì)算公式,如下:其中;Qi,Di為圖像Q,D在邊緣直方圖中對(duì)應(yīng)的第i個(gè)直方條的值。3.3 實(shí)驗(yàn)結(jié)果實(shí)驗(yàn)平臺(tái)如2.3所述,得出結(jié)果如下表。表2 利用紋理特征的檢索結(jié)果類型利用紋理特征查準(zhǔn)率利用紋理特征查全率海灘0.5000.300恐龍1.0000.600

32、大象0.3330.150馬0.8330.833雪景0.2500.150花0.6670.4004 綜合顏色和紋理特征的圖像檢索4.1 綜合特征檢索的思想圖5對(duì)于以上三幅圖像,假設(shè)它們是原圖像的1/4圖像(其余3/4圖像與此1/4圖像相同),如果按照本文中的利用顏色特征進(jìn)行檢索,那么將得出完全相似的結(jié)論,但是實(shí)際上這三幅圖像給人的感覺是完全不同的。因此說(shuō)單一的依靠提取一種特征來(lái)進(jìn)行檢索,得出的結(jié)果往往是不盡如人意的。在本文中,利用顏色布局描述 符結(jié)合了顏色特征和空間關(guān)系的特點(diǎn);利用邊緣直方圖作為紋理特征彌補(bǔ)了顏色特征缺乏空間分布信息的不足,考慮到圖像中的邊緣多對(duì)應(yīng)目標(biāo)的邊界或輪廓,邊緣 直方圖描述

33、符在一定程度上還反映了圖像中目標(biāo)的形狀信息。因此這兩種特征描述符達(dá)到了不同特征的優(yōu)勢(shì)互補(bǔ)的效果,而且,這兩種特征在提取的過(guò)程中都?xì)w一化到了0,1區(qū)間,可以綜合在一起進(jìn)行圖像檢索。設(shè)顏色特征的權(quán)重為Wc,紋理特征權(quán)重為Wt,并且Wc+Wt=1,則綜合特征的相似度計(jì)算公式為:4.2 相關(guān)反饋由于顏色特征的權(quán)重Wc和紋理特征權(quán)重Wt在提取的過(guò)程中都?xì)w一化到了0,1區(qū)間,而在這個(gè)區(qū)間不同的權(quán)重的選擇所得出的效果肯定是有差異的。為了能在實(shí)驗(yàn)中得到最佳的實(shí)驗(yàn)結(jié)果,就需要對(duì)權(quán)重的值進(jìn)行多次的選擇。在確定Wc和Wt兩個(gè)權(quán)重的取值時(shí),將Wc在20%和80%之間取值,每5%取一次值,并計(jì)算出每次取值的圖像檢索的查

34、全率。同時(shí)相應(yīng)改變Wt的取值,進(jìn)而得到最佳的反饋值。4.3實(shí)驗(yàn)結(jié)果及結(jié)論通過(guò)上述的反饋實(shí)驗(yàn),得出關(guān)系圖如下:圖 6 權(quán)重取值反饋關(guān)系由圖6可見當(dāng)Wc=0.6左右時(shí),圖像的檢索查全率最高,于是選取Wc=0.6,Wt=0.4來(lái)分別進(jìn)行顏色和紋理的單一特征分別檢索以及顏色和紋理特征相結(jié)合的圖像檢索。同樣利用上述的平臺(tái),得出綜合利用顏色和紋理的檢索方法的查準(zhǔn)率和查全率,并以之和單獨(dú)利用顏色或紋理的檢索方法進(jìn)行比對(duì)。表3  六類圖片的查準(zhǔn)率 類型利用顏色特征利用紋理特征利用綜合特征海灘0.5830.5000.833恐龍0.5001.0001.000大象0.4170.3330.583馬

35、0.5830.8331.000雪景0.1670.2500.333花0.5000.6670.833表4  六類圖片的查全率 類型利用顏色特征利用紋理特征利用綜合特征海灘0.3500.3000.500恐龍0.3000.6000.600大象0.2500.1500.350馬0.5830.8331.000雪景0.1000.1500.250花0.3000.4000.500從表中的數(shù)據(jù)可以看出,利用綜合特征進(jìn)行圖像檢索得到的查準(zhǔn)率和查全率都要高于使用任何一種單一方法進(jìn)行圖像檢索得到的查準(zhǔn)率和查全率。通過(guò)以上的實(shí)驗(yàn)結(jié)果數(shù)據(jù)可以看出:本文中綜合利用顏色和紋理特征進(jìn)行圖像檢索的效果比使用單一特

36、征進(jìn)行檢索的效果更好,更符合人的視覺要求。因此,本文提出的綜合顏色和紋理特征進(jìn)行圖像檢索的方法是有效的,有意義的方法。5 基于WEB的圖像檢索5.1 文本與圖像之間的關(guān)系在文本檢索中,檢索引擎主要考慮Web頁(yè)中相關(guān)文字信息以及它的語(yǔ)義,這些文本信息反映出網(wǎng)頁(yè)的內(nèi)容,但不完全與網(wǎng)頁(yè)中圖片的內(nèi)容一致。在HTML網(wǎng)頁(yè)中,根據(jù)HTML語(yǔ)言的格式,捕獲反映圖片信息的文字信息,分析這些文本的語(yǔ)義具有重要的意義。如在HTML文檔中<img>標(biāo)記以及其周圍的文字信息,與網(wǎng)頁(yè)中的插圖的內(nèi)容有著密切的聯(lián)系。5.1.1 表示圖像內(nèi)容的文本標(biāo)記為了能識(shí)別嵌入網(wǎng)頁(yè)中圖片的內(nèi)容,必須仔細(xì)檢索HTML文檔中能反

37、映出圖像內(nèi)容的標(biāo)記與其中的文本。經(jīng)過(guò)對(duì)HTML網(wǎng)頁(yè)格式的分析與對(duì)大量實(shí)際網(wǎng)頁(yè)的研究,可知以下幾個(gè)方面的標(biāo)記與文本和圖像內(nèi)容有著最為密切的聯(lián)系。(1)圖像的說(shuō)明,這些文本出現(xiàn)在圖像的周圍,用一句過(guò)多句話表示出圖像的內(nèi)容,當(dāng)圖像被置于表格中時(shí),同一單元或相鄰單元格內(nèi)的文字也常用與表示圖像的含義。(2)圖像的標(biāo)題,通常用一個(gè)關(guān)鍵詞表示圖像信息。(3)圖像的標(biāo)簽,使用一段短語(yǔ)說(shuō)明圖片的摘要信息,圖片無(wú)法顯示時(shí)用標(biāo)簽的文本取代圖片,顯示摘要信息。(4)網(wǎng)頁(yè)的標(biāo)題,該標(biāo)題反映出網(wǎng)頁(yè)的中心內(nèi)容,作為表現(xiàn)網(wǎng)頁(yè)內(nèi)容的圖片與網(wǎng)頁(yè)的標(biāo)題之間也有著一定的聯(lián)系。以上討論的是HTML中文檔和嵌入網(wǎng)頁(yè)中圖像文本信息的關(guān)系,

38、當(dāng)然還存在其他的文本與多媒體信息和圖像有關(guān)。但是作為檢索引擎要考慮的方面,既要保證抽取信息的準(zhǔn)確性,也要兼顧程序執(zhí)行中時(shí)間、空間的復(fù)雜度。過(guò)多地引入與圖像關(guān)系不是十分緊密的內(nèi)容作為檢索的依據(jù),會(huì)引入檢索時(shí)的躁聲干擾,降低檢索效率。5.1.2文本的權(quán)值比較以上討論了網(wǎng)頁(yè)中對(duì)圖像信息的描述,在圖像的檢索中,首先是要建立描述圖片內(nèi)容特征的查詢語(yǔ)句,然后比較、區(qū)分描述信息與查詢語(yǔ)句之間的異同,獲取需要檢索的圖像。但以上信息在對(duì)圖像描述時(shí)側(cè)重于不同角度,同時(shí)與圖像信息的聯(lián)系程度也不一樣。圖像標(biāo)題和網(wǎng)頁(yè)標(biāo)題是簡(jiǎn)單的詞條,兩者中相對(duì)來(lái)說(shuō)圖像標(biāo)題更接近圖像的主題內(nèi)容。圖像的標(biāo)簽和圖像的說(shuō)明是文本信息對(duì)圖像內(nèi)容

39、的描述,后者相對(duì)來(lái)說(shuō)更為詳細(xì)。所以在比較、區(qū)分各類文本信息以決定是否符合檢索要求時(shí),它們所占的權(quán)值應(yīng)該是有所不同的。根據(jù)信息的重要程度,他們所占的權(quán)值大小按次序如下:Image Caption>Image Title>Image Alternate>Page Title5.2 圖像信息檢索 在web中對(duì)圖像的檢索,也就是對(duì)圖像信息的檢索,根據(jù)圖像自身所帶的信息,選其中某一種或幾種進(jìn)行檢索,進(jìn)而檢索到相關(guān)的圖像,再經(jīng)過(guò)選取得到所需的圖像。而Web檢索引擎采用何種檢索模型,它所提供檢索質(zhì)量將直接影響到檢索的效果?,F(xiàn)在使用較多的是布爾檢索模型、概率檢索模型、概率推理網(wǎng)絡(luò)模型和向量空

40、間模型。這里采用的是近年來(lái)使用較多且效果較好的一種信息檢索模型:向量空間模型。5.2.1檢索模型與相似度在用向量空間模型進(jìn)行檢索的時(shí)候,首先把描述網(wǎng)頁(yè)中的圖片的文字信息看作是有序的詞條序列,這樣把以上歸納的信息分別稱為:ICW,ITW,IAW,PTW。在應(yīng)用模型時(shí),我首先要將這些信息向量化,把文檔映射為一個(gè)特征向量V(d)=(t1,1(d);tn, n(d),其中ti(i=1,2, ,n)為一列互不雷同的詞條項(xiàng),i(d)為ti在d中的權(quán)值, 一般被定義為ti在d中出現(xiàn)頻率tfi(d)的函數(shù),即在信息檢索中常用的詞條權(quán)值計(jì)算方法為 TF-IDF 函數(shù)其中N為所有文檔的數(shù)目,ni為含有詞條ti的文

41、檔數(shù)目。TF-IDF公式有很多變種,下面是一個(gè)常用的TF-IDF公式:根據(jù)公式,文檔集中包含某一詞條的文檔越多,說(shuō)明它區(qū)分文檔類別屬性的能力越低,其權(quán)值越??;另一方面,某一文檔中某一詞條出現(xiàn)的頻率越高,說(shuō)明它區(qū)分文檔內(nèi)容屬性的能力越強(qiáng),其權(quán)值越大。兩文檔之間的相似度可以用其對(duì)應(yīng)的向量之間的夾角余弦來(lái)表示,即文檔di,dj的相似度可以表示為進(jìn)行查詢的過(guò)程中,先將查詢條件Q進(jìn)行向量化,主要依據(jù)布爾模型:當(dāng)ti在查詢條件Q中時(shí),將對(duì)應(yīng)的第i坐標(biāo)置為1,否則置為0,即也就是說(shuō)當(dāng)兩詞條完全相同時(shí),這一項(xiàng)為1,其余情況為0。可以看出文檔含有完全相同的詞條時(shí),相似度=1;而其中無(wú)相同時(shí)的詞條時(shí),相似度=0。

42、從而文檔d與查詢Q的相似度為 根據(jù)文檔之間的相似度,結(jié)合機(jī)器學(xué)習(xí)的一些算法如神經(jīng)網(wǎng)絡(luò)算法,K-近鄰算法和貝葉斯分類算法等,可以將文檔集分類劃分為一些小的文檔子集。在查詢過(guò)程中,可以計(jì)算出每個(gè)文檔與查詢的相似度,進(jìn)而可以根據(jù)相似度的大小,將查詢的結(jié)果進(jìn)行排序。向量空間模型可以實(shí)現(xiàn)文檔的自動(dòng)分類和對(duì)查詢結(jié)果的相似度排序,能夠有效提高檢索效率;它的缺點(diǎn)是相似度的計(jì)算量大,當(dāng)有新文檔加入時(shí),則必須重新計(jì)算詞的權(quán)值。流程為: 圖7 向量空間模型檢索流程5.2.2 分詞技術(shù)和匹配方法1. 常用的切詞算法如下:(1)最大正向匹配法基本思想是:設(shè)D為詞典,MAX表示D中的最大詞長(zhǎng),str為待切分的字串。它是每

43、次從str中取長(zhǎng)度為MAX的子串與D中的詞進(jìn)行匹配。若成功,則該子串為詞,指針后移MAX個(gè)漢字后繼續(xù)匹配,否則子串逐次減一進(jìn)行匹配。(2)逆向最大匹配法 它的基本原理與前面的相同,不同的是分詞的掃描方向,它是從右至左取子串進(jìn)行匹配。統(tǒng)計(jì)結(jié)果表明,單純使用正向最大匹配的錯(cuò)誤率為1/169,單純使用逆向最大匹配的錯(cuò)誤率為1/245,它切分的準(zhǔn)確率上比正向匹配法有很大提高。(3)基于詞頻的統(tǒng)計(jì)方法統(tǒng)計(jì)方法一般不依賴于詞典,而是將原文中任意前后緊鄰的兩個(gè)字作為一個(gè)詞進(jìn)行出現(xiàn)頻率的統(tǒng)計(jì),出現(xiàn)的次數(shù)越高,成為一個(gè)詞的可能性也就越大。在頻率超過(guò)某個(gè)預(yù)先設(shè)定得閾值時(shí),就將其作為一個(gè)詞進(jìn)行索引。這種方法能夠有效

44、地提取出未登錄詞。2. 匹配方法:(1)詞典存儲(chǔ)格式:首先對(duì)存儲(chǔ)形式進(jìn)行建模,結(jié)構(gòu)是3層樹形結(jié)構(gòu),如下圖8 3層樹形結(jié)構(gòu)一層存儲(chǔ)所有單字。第二層保存所有的雙字詞和多字詞的前兩個(gè)字(因?yàn)?,也許會(huì)出現(xiàn)ABC為詞,但AB不是詞的情況),并對(duì)兩者做不同標(biāo)記(t/f)。每一個(gè)可成詞的單字對(duì)應(yīng)一系列第二層結(jié)點(diǎn),用來(lái)存儲(chǔ)所有以該字為詞首的雙字(包括上述兩種情況)。并且,在這里,針對(duì)每一個(gè)雙字,需要記錄以該雙字為詞首的所有詞的最大長(zhǎng)度,實(shí)際中,可以保存除去該雙字部分的最大長(zhǎng)度(記為n)。第三層存儲(chǔ)以某一雙字為首的所有詞。為了減少存儲(chǔ)空間,只存儲(chǔ)除去該雙字以外的部分(如上圖所示)。每一層各結(jié)點(diǎn)需按某種次序排列,

45、可使用hash、二分查找等方法進(jìn)行查詢。采用這種層次的存儲(chǔ)結(jié)構(gòu),可以很快把查詢?cè)~的工作縮小到一個(gè)很小的范圍內(nèi),有利于分詞效率的提高。(2)匹配方法由于詞庫(kù)中的最大詞長(zhǎng)通常大于所切分出的詞長(zhǎng),為了提高切分的效率,不采用逐次減一個(gè)字的方法,而是使用正向逐一增長(zhǎng)的方法。假設(shè)對(duì)一個(gè)句子C1C2進(jìn)行分詞處理,算法描述如下:1) 兩個(gè)字(開始時(shí)為C1C2),在詞典中查詢C1C2是否存在2) 不存在,則C1為單字詞,一次分詞結(jié)束,返回1。3) 存在,判斷C1C2是否為詞,并從詞典中獲取該詞下層節(jié)點(diǎn)漢字的最大長(zhǎng)度,設(shè)為n4) 若n=0,一次分詞結(jié)束,保存結(jié)果。5) 否則,i=2,轉(zhuǎn)6)。6 ) i=i+1,若

46、i=n+3,轉(zhuǎn)8);否則,轉(zhuǎn)7)。7) 再取一個(gè)字(此處為Ci),判斷第三層中是否有以C3Ci開始的字(不需要恰好匹配,只要匹配開始的i個(gè)字就可以了)。8) 若存在,分詞結(jié)束,返回最近一次能夠恰好匹配的C3Cj(j<i),并與C1C2組合成詞。如果是C1C2,則根據(jù)C1C2的標(biāo)記判斷是雙字詞還是分為兩個(gè)單字詞。9) 否則,轉(zhuǎn)6)。(3)統(tǒng)計(jì)方法運(yùn)用由于詞典的不完全性,許多詞可能不會(huì)在字典中登錄,為了處理句子中的未登錄詞,我們?cè)谠械乃惴ㄖ星度朐~頻統(tǒng)計(jì)方法,將某些出現(xiàn)頻率較高的連續(xù)字段作為一個(gè)詞切分,我們首先對(duì)頻度設(shè)定一個(gè)閾值f。設(shè)已對(duì)C1Cn進(jìn)行切分,由切分算法和歧義處理算法得到C1Ci

47、為一個(gè)詞,CjCn為一個(gè)詞,Ci與Cj之間皆為單字詞,即C1Ci和CjCn是相鄰最近的兩個(gè)多字詞,則將Ci+1Cj-1作為一個(gè)多字詞進(jìn)行詞頻統(tǒng)計(jì),在對(duì)文章全部切分完畢之后,若Ci+1Cj-1的出現(xiàn)次數(shù)達(dá)到f時(shí),則將其看作一個(gè)詞,否則,將其拆分為單字詞。同時(shí),對(duì)于相同或相近專業(yè)和領(lǐng)域建立起動(dòng)態(tài)詞庫(kù),將由統(tǒng)計(jì)得到的詞不斷加入詞庫(kù)中,可以實(shí)現(xiàn)對(duì)詞典的動(dòng)態(tài)維護(hù)。以上通過(guò)將基于詞典的處理方法和基于頻率的統(tǒng)計(jì)方法結(jié)合起來(lái)匹配檢索運(yùn)算,不僅保證了切分速度快、精度高的優(yōu)點(diǎn),而且能夠結(jié)合上下文,最大限度的識(shí)別人名、地名、專業(yè)術(shù)語(yǔ)等未登錄詞。5.3 檢索反饋由于初時(shí)的查詢語(yǔ)句常常與我們所要的圖像內(nèi)容不符,使得我們

48、找不到我們想要的東西,因此,許多系統(tǒng)都引入了相關(guān)反饋,即通過(guò)選擇一些正確/錯(cuò)誤的例子作為反饋,來(lái)逐漸提高檢索的結(jié)果。借鑒文本信息檢索的方法,我們?cè)谙到y(tǒng)中也引入了相關(guān)反饋來(lái)修改用戶提交的查詢,使得修改后的查詢逐步接近用戶真正的需求,來(lái)提高系統(tǒng)的性能。通過(guò)相關(guān)反饋對(duì)用戶提交的查詢的修改,檢索的性能比原先有了一定的提高。不過(guò),大多數(shù)相關(guān)反饋并不具有記憶能力,每次反饋后的結(jié)果只能提高本次查詢結(jié)果。因此我們引入了語(yǔ)義網(wǎng)絡(luò),把每次反饋的結(jié)果記錄到語(yǔ)義網(wǎng)絡(luò)中,使得系統(tǒng)的效果隨著使用次數(shù)的增加而逐步提高。本文介紹的反饋系統(tǒng),主要集中在對(duì)查詢語(yǔ)句(Q1,W1,Q2,W2, , Qm,Wm)中 Wj的修整中,查詢

49、語(yǔ)句中對(duì)初始Wj的定義具有一定的偏差,反饋系統(tǒng)可以適當(dāng)調(diào)整Wj,使查詢語(yǔ)句(Q1,W1,Q2,W2, , Qm,Wm)更反映檢索的目的。當(dāng)查詢到m=r+n幅圖片時(shí),其中r幅圖片與目標(biāo)相關(guān),n幅圖片與目標(biāo)無(wú)關(guān)。反饋系統(tǒng)可根據(jù)用戶的反饋結(jié)果,重新生成查詢語(yǔ)句如下:其中矢量是檢索結(jié)果圖像網(wǎng)頁(yè)的矢量表示,在矢量中,選擇在相似度計(jì)算中有貢獻(xiàn)的分量作為反饋信息。在公式中,一般選=1 ,0 1 ,0 1 ,與值的選取影響著反饋深度,也直接影響著檢索的精度。實(shí)踐表明,具有反饋系統(tǒng)的圖像檢索系統(tǒng)要比無(wú)反饋的圖像檢索精度提高10%左右,而且m越小,檢索的精度越高。我們?cè)谠O(shè)計(jì)檢索系統(tǒng)時(shí),提供反饋無(wú)反饋選擇,并且在反

50、饋系統(tǒng)中提供取值的選圖9 檢索精度Precision與系數(shù)的關(guān)系圖10 檢索精度Precision與系數(shù)的關(guān)系擇。當(dāng)m取值較小時(shí),直接顯示檢索到的圖像,并供用戶選擇是否與目標(biāo)圖像的相關(guān)性。以上都是為了改善用戶界面,便于反饋系統(tǒng)的應(yīng)用。下面是測(cè)得當(dāng)m=1時(shí),檢索精度與反饋中系數(shù)、之間關(guān)系的曲線,圖中可以得出=0.1 時(shí)檢索精度Precision取最大值,圖2中可以得出在0.50.6 之間時(shí)檢索精度Precision取最大值。從圖1和圖2又可以得出,當(dāng)=0無(wú)反饋時(shí)檢索精度Precision=48%,當(dāng)=0.1 ,=0.5 或0.6時(shí)檢索精度Precision =61%,引入反饋系統(tǒng)使檢索精度提高了

51、13%。5.4 實(shí)驗(yàn)結(jié)果為檢驗(yàn)檢索模型,下載含有圖像的4000多個(gè)中文網(wǎng)頁(yè)( 來(lái)自1000多個(gè) URLs),對(duì)這些HTML文檔進(jìn)行檢索。在查詢語(yǔ)句建立以后,通過(guò)詞條網(wǎng)對(duì)具有相同語(yǔ)義的詞條進(jìn)行擴(kuò)充,構(gòu)建符合查詢要求的多個(gè)IQW,然后分別計(jì)算出各自的相似度,根據(jù)相似度規(guī)定的臨界值,得出查詢的結(jié)果。實(shí)驗(yàn)表明,合理地選取相似度臨界值可以保證較高檢索精度與檢索完全度。圖11 相似度臨界值與檢索精度的關(guān)系圖12 相似度臨界值與檢索完全度的關(guān)系從圖11中可以看出,當(dāng)相似度臨界值>0.6時(shí),能保證檢索精度>80%,從圖12中看出,當(dāng)相似度臨界值<0.6時(shí),能保證檢索完全度>60%。當(dāng)相

52、似度臨界值取0.6時(shí),本檢索模型可以保證檢索精度>80%,而檢索完全度>60%。為決定ICW,ITW,IAW,PTW在相似度計(jì)算中的權(quán)值,測(cè)試從0.1 1.0的所有系數(shù)。最終得出ICW,ITW,IAW,PTW的權(quán)值分別為0.4、0.3、0.2、0.1時(shí),能比較合理地反映出圖片與這些文本的相關(guān)性,保證檢索的準(zhǔn)確性。6 總結(jié) 本文概括介紹了圖像檢索的現(xiàn)狀和發(fā)展方向,并對(duì)其中幾個(gè)算法進(jìn)行了分析和比較。在了解了檢索引擎的檢索原理公式和反饋原理之后,可以根據(jù)其理論做出相應(yīng)的檢索引擎,并能作出比較檢索效果。但為了能更好的使用,還得去仔細(xì)更好的給文檔進(jìn)行分類,更多的對(duì)此引擎進(jìn)行反饋訓(xùn)練查詢等,使

53、得Web檢索引擎具有更好的智能性和個(gè)性化的特點(diǎn)。在畢業(yè)論文的過(guò)程中,遇到了很多的問(wèn)題。首先,圖像檢索的算法對(duì)我來(lái)說(shuō)過(guò)于深?yuàn)W,為此我看了很多的關(guān)于這方面的算法的研究,大概能知道具體的思路了。本人的水平和技術(shù)都很有限,論文里可能存在著某些問(wèn)題和錯(cuò)誤,在這方面希望能得到老師們的體諒,本人也將繼續(xù)努力。最后,在這個(gè)論文的編寫中,我確實(shí)學(xué)到了不少東西,在眼界和思想上都得到了一定的擴(kuò)展,尤其是關(guān)于圖像這方面,以前幾乎沒接觸過(guò)這方面的知識(shí),現(xiàn)在也能大概知道關(guān)于這方面的發(fā)展和相關(guān)的技術(shù)。而我在今后也將更加努力的學(xué)習(xí),擴(kuò)展自己的見識(shí),提高自己的能力。參 考 文 獻(xiàn)1張量,詹國(guó)華,袁貞明.基于Web的圖像檢索.計(jì)

54、算機(jī)工程,2002.5.2朱學(xué)芳.多媒體信息處理與檢索技術(shù)M,電子工業(yè)出版社,2003:167-173.3陳瀅 ,徐宏炳 ,王能斌.協(xié)作式Web資源發(fā)現(xiàn)系統(tǒng)模型,計(jì)算機(jī)學(xué)報(bào),1998.4:62-67.4陽(yáng)小華, 周龍?bào)J.World Wide Web 的索引與查詢技術(shù),計(jì)算機(jī)科學(xué) ,1997:108-112.5吳立德等,大規(guī)模中文文本處理,上海:復(fù)旦大學(xué)出版社,1997:50-168.6李唐, 解讀網(wǎng)絡(luò)圖像檢索引擎,Internet網(wǎng)絡(luò),20017陳立娜,Internet上的圖像檢索技術(shù),2001.58黃博士,網(wǎng)絡(luò)環(huán)境下的圖像檢索技術(shù),中國(guó)計(jì)算機(jī)用戶,2003.12.309Dunlop M.D.

55、 1991. Multimedia Information Retrieval,Ph.D. Thesis. Computing Science Department, University of Glasgow, Report 199l/R21.10Ellen M. Voorhees and Yuan-Wang Hou, "Vector Expansion in a Large Collection”, First Text REtrieval Conference TREC-1, 1993.11Frisse M.E, 1988. Searching for information

56、in a hypertext medical handbook. Communications of the ACM, 3 I7, pp.880-886.12R.Price, T.S Chua, and S.Al-Hawamdeh, Applying relevance feedback on a photo archival system. Journal of Information Science, 18:203-215, 199213W.Niblack, R.Barber, and W.Equitz. the qbib project:querying images by content using color, texture, and shape. Technical report, IBM RJ 920381511, Feb, 199314Shih-Fu Chang, William Chen, and Hari Sundaram,Semantic Visual Template - Linking Visual Fetures to Semantics. IEEE I

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論