版權說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權,請進行舉報或認領
文檔簡介
...wd......wd......wd...ELK日志分析系統(tǒng)ELK日志分析系統(tǒng)介紹1.1傳統(tǒng)的日志統(tǒng)計及分析方式日志主要包括系統(tǒng)日志、應用程序日志和安全日志。系統(tǒng)運維和開發(fā)人員可以通過日志了解服務器軟硬件信息、檢查配置過程中的錯誤及錯誤發(fā)生的原因。經(jīng)常分析日志可以了解服務器的負荷,性能安全性,從而及時采取措施糾正錯誤。通常,日志被分散的儲存不同的設備上。如果你管理數(shù)十上百臺服務器,你還在使用依次登錄每臺機器的傳統(tǒng)方法查閱日志。這樣是不是感覺很繁瑣和效率低下。當務之急我們使用集中化的日志管理,例如:開源的syslog,將所有服務器上的日志收集匯總。集中化管理日志后,日志的統(tǒng)計和檢索又成為一件比擬麻煩的事情,一般我們使用grep、awk和wc等Linux命令能實現(xiàn)檢索和統(tǒng)計,但是對于要求更高的查詢、排序和統(tǒng)計等要求和龐大的機器數(shù)量依然使用這樣的方法難免有點力不從心。1.2ELK介紹開源實時日志分析ELK平臺能夠完美的解決我們上述的問題,ELK由ElasticSearch、Logstash和Kiabana三個開源工具組成?!?〕、Elasticsearch是個開源分布式搜索引擎,它的特點有:分布式,零配置,自動發(fā)現(xiàn),索引自動分片,索引副本機制,restful風格接口,多數(shù)據(jù)源,自動搜索負載等?!?〕、Logstash是一個完全開源的工具,可以對日志進展收集、過濾,并將其存儲供以后使用〔如:搜索〕?!?〕、Kibana也是一個開源和免費的可視化工具,可以為Logstash和ElasticSearch提供的日志分析友好的Web界面,可以幫助匯總、分析和搜索重要數(shù)據(jù)日志。1.2.1Elasticsearch介紹Elasticsearch是一個基于ApacheLucene(TM)的開源搜索引擎,Lucene是當前行業(yè)內(nèi)最先進、性能最好的、功能最全的搜索引擎庫。但Lucene只是一個庫。無法直接使用,必須使用Java作為開發(fā)語言并將其直接集成到應用中才可以使用,而且Lucene非常復雜,需要提前深入了解檢索的相關知識才能理解它是如何工作的。Elasticsearch也使用Java開發(fā)并使用Lucene作為其核心來實現(xiàn)所有索引和搜索的功能,但是它的目的是通過簡單的RESTfulAPI來隱藏Lucene的復雜性,從而讓全文搜索變得簡單。但Elasticsearch不僅僅值是Lucene庫和全文搜索,它還有以下用途:?分布式的實時文件存儲,每個字段都被索引并可被搜索?分布式的實時分析搜索引擎?可以擴展到上百臺服務器,處理PB級構造化或非構造化數(shù)據(jù)1.2.2Elasticsearch根基概念Elasticsearch有幾個核心概念。從一開場理解這些概念會對整個學習過程有莫大的幫助。 〔1〕、接近實時〔NRT〕Elasticsearch是一個接近實時的搜索平臺。意味著檢索一個文檔直到這個文檔能夠被檢索到有一個輕短暫的延遲〔通常是1秒〕?!?〕、集群〔cluster〕集群就是由一個或多個節(jié)點組織在一起,它們共同持有整個的數(shù)據(jù),并一起提供索引和搜索功能。集群由一個唯一的名字標識,這個名字默認就是“elasticsearch〞。這個名字很重要,因為一個節(jié)點只能通過指定某個集群的名字,來參加這個集群。在產(chǎn)品環(huán)境中顯式地設定這個名字是一個好習慣,但是使用默認值來進展測試/開發(fā)也可以?!?〕、節(jié)點〔node〕節(jié)點是值集群中的具體服務器,作為集群的一局部,它可存儲數(shù)據(jù),參與集群的索引和搜索功能。和集群類似,一個節(jié)點也是由一個名字來標識的,默認情況下,這個名字是一個隨機名字,這個名字會在服務啟動時賦予節(jié)點。這個名字對于管理者非常重要,因為在管理過程中,需要確定網(wǎng)絡中的哪些服務器對應于Elasticsearch集群中的哪些節(jié)點。節(jié)點可以通過配置集群名稱的方式來參加一個指定的集群。默認情況下,每個節(jié)點都會被安排參加到一個叫做“elasticsearch〞的集群中,這意味著如果在網(wǎng)絡中啟動了假設干個節(jié)點,并假定它們能夠相互發(fā)現(xiàn)彼此,那么各節(jié)點將會自動地形成并參加到一個叫做“elasticsearch〞的集群中。在一個集群里,可以擁有任意多個節(jié)點。并且,如果當前網(wǎng)絡中沒有運行任何Elasticsearch節(jié)點,這時啟動一個節(jié)點,會默認創(chuàng)立并參加一個叫做“elasticsearch〞的集群?!?〕、索引〔index〕索引是指一個擁有相似特征的文檔的集合。比方說,你可以有一個客戶數(shù)據(jù)的索引,另一個產(chǎn)品目錄的索引,還有一個訂單數(shù)據(jù)的索引。每個索引均由一個名字來標識〔必須全部是小寫字母的〕,并且當要對對應于這個索引中的文檔進展索引、搜索、更新和刪除的時候,都要使用到這個名字?!八饕曈袃蓚€意思:A.作為動詞,索引指把一個文檔“保存〞到ES中的過程,某個文檔被索引后,就可以使用ES搜索到這個文檔B.作為名詞,索引指保存文檔的地方,相當于數(shù)據(jù)庫概念中的“庫〞為了方便理解,我們可以將ES中的一些概念對應到我們熟悉的關系型數(shù)據(jù)庫上:ES索引類型文檔DB庫表行在一個集群中,可以定義任意多的索引?!?〕、類型〔type〕在一個索引中,可以定義一種或多種類型。類型是指索引的一個邏輯上的分類/分區(qū),其語義可自定義。通常情況下,會為具有一組共同字段的文檔定義一個類型。比方說,我們假設運營一個博客平臺并且將所有的數(shù)據(jù)存儲到一個索引中。在這個索引中,可以為用戶數(shù)據(jù)定義一個類型,為博客數(shù)據(jù)定義另一個類型,當然,也可以為評論數(shù)據(jù)定義另一個類型?!?〕、文檔〔document〕文檔是指可被索引的根基信息單元。比方,你可以擁有某一個客戶的文檔,某一個產(chǎn)品的一個文檔,當然,也可以擁有某個訂單的一個文檔。文檔以JSON〔JavascriptObjectNotation〕格式來表示,而JSON是一個普遍存在的互聯(lián)網(wǎng)數(shù)據(jù)交互格式。在一個index/type里面,可以存儲任意多的文檔。注意,盡管一個文檔物理上存在于一個索引之中,但文檔必須被賦予一個索引的type?!?〕、分片和復制〔shards&replicas〕一個索引可以存儲超出單個節(jié)點磁盤限制的大量數(shù)據(jù)。比方以下情況,一個具有10億文檔的索引占據(jù)1TB的磁盤空間,而集群中任一節(jié)點都沒有這樣大的磁盤空間;或者單個節(jié)點處理搜索請求,響應太慢。為了解決此問題,Elasticsearch提供了將索引劃分成多份的能力,這些份就叫做分片。當創(chuàng)立一個索引的時候,可以指定想要的分片的數(shù)量。每個分片本身也是一個功能完善并且獨立的“索引〞,這個“索引〞可以被放置到集群中的任何節(jié)點上。分片之所以重要,主要有兩方面的原因:A.允許水平分割/擴展內(nèi)容容量B.允許在分片〔潛在地,位于多個節(jié)點上〕之上進展分布式的、并行的操作,進而提高性能/吞吐量至于一個分片怎樣分布,它的文檔怎樣聚合搜索請求,是完全由Elasticsearch管理的,用戶對此是透明的。在一個網(wǎng)絡/云的環(huán)境里,失敗隨時都可能發(fā)生,在某個分片/節(jié)點無原因就處于離線狀態(tài),或者由于任何原因消失了的情況下,Elasticsearch提供一個故障轉移機制,它允許你創(chuàng)立分片的一份或多份拷貝,這些拷貝叫做復制分片,或者直接叫復制。復制之所以重要,有兩個主要原因:A.在分片/節(jié)點失敗的情況下,提供了高可用性。因為這個原因,注意到復制分片從不與原/主要〔original/primary〕分片置于同一節(jié)點上是非常重要的。B.擴展你的搜索量/吞吐量,因為搜索可以在所有的復制上并行運行總之,每個索引可以被分成多個分片。一個索引也可以被復制0次〔意思是沒有復制〕或屢次。一旦復制了,每個索引就有了主分片〔作為復制源的原來的分片〕和復制分片〔主分片的拷貝〕之別。分片和復制的數(shù)量可以在索引創(chuàng)立的時候指定。在索引創(chuàng)立之后,可以在任何時候動態(tài)地改變復制的數(shù)量,但是事后不能改變分片的數(shù)量。默認情況下,Elasticsearch中的每個索引被分片5個主分片和1個復制,這意味著,如果你的集群中至少有兩個節(jié)點,你的索引將會有5個主分片和另外5個復制分片〔1個完全拷貝〕,這樣的話每個索引總共就有10個分片。1.2.3Logstash介紹Logstash的主要功能是收集和過濾,類似于shell中的管道符“|〞。它的工作過程是將數(shù)據(jù)進展收集,并對收集的入職根據(jù)策略進展分類和過濾,最后進展輸出.實際上,Logstash是用不同的線程來實現(xiàn)收集、過濾、輸出功能的,可運行top命令然后按下H鍵查看線程。數(shù)據(jù)在線程之間以事件的形式流傳。并且,logstash可以處理多行事件。Logstash會給事件添加一些額外信息。其中最重要的就是@timestamp,是用來標記事件的發(fā)生時間。因為這個字段涉及到Logstash的內(nèi)部流轉,所以必須是一個json對象,如果自定義給一個字符串字段重命名為@timestamp的話,Logstash會直接報錯,那么就需要使用filters/date插件來管理這個特殊字段。額外信息還包括以下幾個概念:A.host標記事件發(fā)生在哪里。B.type標記事件的唯一類型。C.tags標記事件的某方面屬性。這是一個數(shù)組,一個事件可以有多個標簽。也可以自定義個事件添加字段或者從事件里刪除字段。事實上事件本身就是是一個Ruby對象。1.2.4Kibana介紹Kibana是一個開源的分析與可視化平臺,用于和Elasticsearch一起使用,可以用kibana搜索、查看、交互存放在Elasticsearch索引里的數(shù)據(jù),使用各種不同的圖表、表格、地圖等kibana能夠很輕易地展示高級數(shù)據(jù)分析與可視化。Kibana對大量數(shù)據(jù)的呈現(xiàn)非常清晰。它簡單、基于瀏覽器的接口能快速創(chuàng)立和分享實時展現(xiàn)Elasticsearch查詢變化的動態(tài)儀表盤。Kibana支持LInux、Windows等操作系統(tǒng)。版本要求:Kibana要求安裝版本要和Elasticsearch一致。Kibana版本Elasticsearch版本是否支持5.X2.X不支持5.15.0不支持5.15.1支持5.15.2支持(會有提示升級的警告)5.1.05.1.1支持本次安裝部署的Kibana版本為4.3.1版本,對應Elasticsearch版本為2.4.6版本。ELK安裝配置2.1系統(tǒng)架構介紹此架構的工作流程是Logstashagent〔shipper〕監(jiān)控并過濾客戶端日志,將過濾后的日志內(nèi)容發(fā)給Redis〔indexer〕,此處的Redis既充當消息隊列的角色,由于其優(yōu)越的持久化機制也被用來做緩存,然后LogstashServer〔indexer〕從Redis的對應位置拿出日志數(shù)據(jù),并將其輸出到ElasticSearch中,ElasticSearch獲取到數(shù)據(jù)后開場生產(chǎn)索引,然后使用Kibana進展頁面展示。這是一個完成的日志收集、存儲、檢索流程。2.2安裝ElasticsearchOS:Centos6.5elk-node1:8elk-node2:7在兩臺主機上分別安裝Elasticsearch。準備工作:、關閉防火墻、Selinux#iptables-F#chkconfigiptablesoff#setenforce0#vim/etc/sysconfig/selinux改為:SELINUX=disabled、配置java環(huán)境#yuminstall-yjava#java-versionjavaversion"1.7.0_151"OpenJDKRuntimeEnvironment(rhel-.el6_9-x86_64u151-b00)OpenJDK64-BitServerVM(build24.151-b00,mixedmode)、配置主機信息node1、node2節(jié)點分別配置:其中node1是master,node2是slave#vim/etc/hosts8elk-node17elk-node22.2.1Yum方式安裝〔1〕、下載并安裝GPG-Key#rpm--imports://packages.elastic.co/GPG-KEY-elasticsearch〔2〕、添加yum倉庫#vim/etc/yum.repos.d/elasticsearch.repo[elasticsearch-2.x]name=Elasticsearchrepositoryfor2.xpackagesbaseurl=://packages.elastic.co/elasticsearch/2.x/centosgpgcheck=1gpgkey=://packages.elastic.co/GPG-KEY-elasticsearchenabled=1〔3〕、安裝elasticsearch#yuminstall-yelasticsearch〔4〕、安裝測試軟件注:提前先下載安裝epel源:epel-release-latest-6.noarch.rpm,否則yum會報錯:NoPackage.....#wget://ftp.riken.jp/Linux/fedora/epel/epel-release-latest-6.noarch.rpm#rpm-ivhepel-release-latest-6.noarch.rpm#yuminstall-yredis#yuminstall-ynginx〔5〕、部署配置#mkdir-p/data/es-dataelk-node1:#vim/etc/elasticsearch/elasticsearch.yml:nova##集群名稱:elk-node1##節(jié)點名,建議和主機一致node.master:true##指定該節(jié)點是否有資格被選舉成為masternode,默認是true,es是默認集群中的第一臺機器為master,如果這臺機掛了就會重新選舉master。node.data:false##指定該節(jié)點是否存儲索引數(shù)據(jù),默認為true。path.data:/data/es-data##數(shù)據(jù)存放路徑path.logs:/var/log/elasticsearch/##日志存放文件bootstrap.memory_lock:true##內(nèi)存鎖機制,鎖住內(nèi)存,不被使用到交換分區(qū)去network.host:##網(wǎng)絡主機訪問權限設置.port:9200##web端口elk-node2:#vim/etc/elasticsearch/elasticsearch.yml:nova##集群名稱:elk-node2##節(jié)點名,建議和主機一致node.master:false##指定該節(jié)點是否有資格被選舉成為masternode,默認是true,默認集群中的第一臺機器為master,如果這臺機掛了就會重新選舉master。node.data:true##指定本節(jié)點為數(shù)據(jù)存儲節(jié)點path.data:/data/es-data##數(shù)據(jù)存放路徑path.logs:/var/log/elasticsearch/##日志存放文件bootstrap.memory_lock:true##內(nèi)存鎖機制,鎖住內(nèi)存,不被使用到交換分區(qū)去network.host:##網(wǎng)絡主機訪問權限設置.port:9200##web端口discovery.zen.ping.multicast.enabled:false##多播自動發(fā)現(xiàn)禁用開關,當前設置為關閉discovery.zen.ping.unicast.hosts:["8","7"]#chown-Relasticsearch.elasticsearch/data/〔6〕、啟動服務#/etc/init.d/elasticsearchstartStartingelasticsearch:[OK]#chkconfigelasticsearchon#/etc/init.d/elasticsearchstatuselasticsearch(pid2309)isrunning...#netstat-antplu|egrep"9200|9300"tcp00:::9200:::*LISTEN2309/javatcp00:::9300:::*LISTEN2309/java、驗證1〕、web瀏覽器訪問翻開瀏覽器〔最好是google瀏覽器〕,輸入IP+端口:8:9200,查看界面顯示。驗證正確。2〕、通過命令的方式查看注:即可在本機查看,也可在其他主機查看。#curl-i-XGET'://8:9200/_count?pretty'-d'{"query":{"match_all":{}}}'/1.1200OK##訪問成功Content-Type:application/json;charset=UTF-8Content-Length:95{"count":0,"_shards":{"total":0,"successful":0,"failed":0}}2.2.2源碼安裝、獲取elasticsearch-2.4.6.tar.gz源碼包,并保存在系統(tǒng)/usr/local/src中。、解壓安裝#cd/usr/local/src#tar-xvfelasticsearch-2.4.6.tar.gz#mvelasticsearch-2.4.6/usr/loca/es、創(chuàng)立es用戶及數(shù)據(jù)目錄#groupaddes#useradd-geses#mkdir-r/data/es-data#chown-Res:es/data/es-data#mkdir-r/var/log/elasticsearch#chown-Res:es/var/log/elasticsearch、es配置#vim/usr/local/es/config/elasticsearch.yml注:配置參數(shù)時,需要先設置一個空格,否則啟動時會報錯。::elk-node3node.master:falsenode.data:truepath.data:/data/es-datapath.logs:/data/logs/espath.logs:/data/logs/esnetwork.host:.port:9200discovery.zen.ping.multicast.enabled:falsediscovery.zen.ping.unicast.hosts:["8","7","8"]、啟動源碼安裝的es不能使用root用戶啟動,必須使用創(chuàng)立好的普通用戶進展啟動。#su-es$/usr/local/es/bin/elasticsearch&[2017-09-2923:57:38,334][WARN][bootstrap]unabletoinstallsyscallfilter:seccompunavailable:CONFIG_SECCOMPnotcompiledintokernel,CONFIG_SECCOMPandCONFIG_SECCOMP_FILTERareneeded[2017-09-2923:57:38,346][WARN][bootstrap]UnabletolockJVMMemory:error=12,reason=Cannotallocatememory[2017-09-2923:57:38,346][WARN][bootstrap]ThiscanresultinpartoftheJVMbeingswappedout.[2017-09-2923:57:38,346][WARN][bootstrap]IncreaseRLIMIT_MEMLOCK,softlimit:65536,hardlimit:65536[2017-09-2923:57:38,346][WARN][bootstrap]Thesecanbeadjustedbymodifying/etc/security/limits.conf,forexample: #allowuser'es'mlockall essoftmemlockunlimited eshardmemlockunlimited[2017-09-2923:57:38,347][WARN][bootstrap]Ifyouareloggedininteractively,youwillhavetore-loginforthenewlimitstotakeeffect.[2017-09-2923:57:38,704][INFO][node][elk-node3]version[2.4.6],pid[3375],build[5376dca/2017-07-18T12:17:44Z][2017-09-2923:57:38,704][INFO][node][elk-node3]initializing...[2017-09-2923:57:39,167][INFO][plugins][elk-node3]modules[lang-groovy,reindex,lang-expression],plugins[],sites[][2017-09-2923:57:39,205][INFO][env][elk-node3]using[1]datapaths,mounts[[/(/dev/mapper/vg_nginx-lv_root)]],netusable_space[33.2gb],nettotal_space[36.8gb],spins?[possibly],types[ext4][2017-09-2923:57:39,205][INFO][env][elk-node3]heapsize[1015.6mb],compressedordinaryobjectpointers[true][2017-09-2923:57:39,205][WARN][env][elk-node3]maxfiledescriptors[4096]forelasticsearchprocesslikelytoolow,considerincreasingtoatleast[65536][2017-09-2923:57:40,645][INFO][node][elk-node3]initialized[2017-09-2923:57:40,645][INFO][node][elk-node3]starting...[2017-09-2923:57:40,691][INFO][transport][elk-node3]publish_address{8:9300},bound_addresses{[::]:9300}[2017-09-2923:57:40,695][INFO][discovery][elk-node3]nova/DSP41KSoR2C_RdXJNPO4zg顯示以上信息表示es啟動成功。$netstat-antplu|grepjavatcp00:::9200:::*LISTEN3375/javatcp00:::9300:::*LISTEN3375/java端口已開啟。驗證:$curl-i-XGET'://8:9200/_count?pretty'-d'{"query":{"match_all":{}}}'/1.1200OKContent-Type:application/json;charset=UTF-8Content-Length:98{"count":78,"_shards":{"total":21,"successful":21,"failed":0}}驗證正常。2.2.3head插件安裝、方法一:直接安裝#/usr/share/elasticsearch/bin/plugininstallmobz/elasticsearch-head安裝完成,進展驗證。翻開瀏覽器,輸入://8:9200/_plugin/head/,查看顯示結果。插件安裝成功。刪除插件:#/usr/share/elasticsearch/bin/pluginlistInstalledpluginsin/usr/share/elasticsearch/plugins:-head##當前已安裝插件#/usr/share/elasticsearch/bin/pluginremovehead->Removinghead...Removedhead##刪除成功注:源碼安裝的es,在安裝head插件后,重啟會報錯。報錯信息:Exceptioninthread"main"java.lang.IllegalArgumentException:Property[version]ismissingforplugin[head]解決方案:#vim/usr/local/es/plugins/head/pertiesdescription=head-Awebfrontendforanelasticsearchclusterversion=mastersite=truename=head然后進展重啟,重啟后正常。、方法二:源碼安裝head插件包百度云盤下載:s://pan.baidu/s/1boBE0qj,提取密碼:ifj7#cd/usr/local/src/#unzipelasticsearch-head-master.zip#cd/usr/share/elasticsearch/plugins/#mkdirhead#cdhead/#cp-r/usr/local/src/elasticsearch-head-master/*./#chown-Relasticsearch:elasticsearch/usr/share/elasticsearch/plugins#/etc/init.d/elasticsearchrestart#curl-i-XGET'://8:9200/_count?pretty'-d'{"query":{"match_all":{}}}'命令測試插件安裝成功。Web界面顯示正確,說明插件安裝成功。2.2.4實例測試、插入數(shù)據(jù)實例測試翻開〞復合查詢“,在POST選項下,任意輸入如/index-demo/test,然后在下面輸入數(shù)據(jù),查看返回結果。注:內(nèi)容之間換行的逗號不要漏掉點擊〞驗證JSON“->〞提交請求“,提交成功后,觀察右欄里出現(xiàn)的信息:有index,type,version等信息,failed:0〔成功消息〕測試成功。、實例測試選擇"復合查詢"選項,選擇GET選項,在/index-demo/test/后面輸入上面POST結果中的id號,不輸入內(nèi)容,即{}括號里為空!點擊〞驗證JSON“和"提交請求",觀察右欄內(nèi)顯示結果。結果中有上述插入的數(shù)據(jù),這就是elasticsearch檢索功能的具體表達。、實例查詢翻開"根本查詢",查看下數(shù)據(jù),如下,即可查詢到〔1〕步驟中插入的數(shù)據(jù)。翻開“數(shù)據(jù)瀏覽〞,也能查看到插入的數(shù)據(jù)。其中也可通過mesg和user關鍵字檢索相應數(shù)據(jù)。2.2.5kopf監(jiān)控插件、方法一#/usr/share/elasticsearch/bin/plugininstalllmenezes/elasticsearch-kopf安裝成功。、方法二:源碼安裝#wgets://github/lmenezes/elasticsearch-kopf/archive/master.zip#unzipmaster.zip#cd/usr/share/elasticsearch/plugins/#mkdirkopf#cdkopf#cp-r/usr/local/src/elasticsearch-kopf-master/*./#chown-Relasticsearch:elasticsearch/usr/share/elasticsearch/plugins#/etc/init.d/elasticsearchrestartStoppingelasticsearch:[FAILED]Startingelasticsearch:[OK]測試驗證:2.3安裝Logstash安裝包::///components/cache/logstash/logstash-2.3.4.tar.gz2.3.1下載源碼安裝包#wget:///components/cache/logstash/logstash-2.3.4.tar.gz2.3.2安裝#tar-xvflogstash-2.3.4.tar.gz#mvlogstash-2.3.4//usr/local/logstash2.3.3配置環(huán)境#vim/etc/profileexportPATH=$PATH:/usr/local/logstash/bin#source/etc/profile2.3.4重啟elasticsearch#/etc/init.d/elasticsearchrestart2.3.5數(shù)據(jù)測試logstash常用參數(shù):-e:指定logstash的配置信息,可以用于快速測試;-f:指定logstash的配置文件;可以用于生產(chǎn)環(huán)境;〔1〕、根本輸入輸出〔數(shù)據(jù)未寫入elasticsearch中〕#logstash-e'input{stdin{}}output{stdout{}}'Settings:Defaultfilterworkers:1Logstashstartupcompletedhello##輸入2017-09-19T18:51:29.082Zhello##輸出world ##輸入2017-09-19T18:51:38.151Zworld ##輸出〔2〕、使用rubydebug詳細輸出〔數(shù)據(jù)未寫入elasticsearch中〕#logstash-e'input{stdin{}}output{stdout{codec=>rubydebug}}'Settings:Defaultfilterworkers:1Logstashstartupcompletedhello##輸入{ ##輸出下面信息"message"=>"hello","@version"=>"1","@timestamp"=>"2017-09-19T19:32:44.701Z","host"=>""}world ##輸入{ ##輸出線面信息"message"=>"world","@version"=>"1","@timestamp"=>"2017-09-19T19:32:55.357Z","host"=>""}、把輸入內(nèi)容輸出到elasticsearch中#logstash-e'input{stdin{}}output{elasticsearch{hosts=>["9:19200"]}}'Settings:Defaultfilterworkers:1Logstashstartupcompleted123456 ##輸入內(nèi)容novahelloworldSIGINTreceived.Shuttingdownthepipeline.{:level=>:warn}Logstashshutdowncompleted注:使用rubydebug和寫到elasticsearch中的區(qū)別:其實就在于后面標準輸出的區(qū)別,前者使用codec;后者使用elasticsearch。測試:寫到elasticsearch中內(nèi)容在logstash中查看,如以下列圖:注:master收集到日志后,會把一局部數(shù)據(jù)碎片到salve上〔隨機的一局部數(shù)據(jù)〕,master和slave又都會各自做副本,并把副本放到對方機器上,這樣就保證了數(shù)據(jù)不會喪失。如下,master收集到的數(shù)據(jù)放到了自己的第3分片上,其他的放到了slave的第0,1,2,4分片上?!?〕、elasticsearch查看〔2〕、Logstash查看〔3〕、文本查看〔4〕、既寫到elasticsearch中又寫到文件中#logstash-e'input{stdin{}}output{elasticsearch{hosts=>["9:19200"]}stdout{codec=>rubydebug}}'Settings:Defaultfilterworkers:1Logstashstartupcompletedyangguoqiang##輸入 { ##輸出內(nèi)容"message"=>"yangguoqiang","@version"=>"1","@timestamp"=>"2017-09-19T21:02:36.313Z","host"=>""}nihao ##輸入{ ##輸出內(nèi)容"message"=>"nihao","@version"=>"1","@timestamp"=>"2017-09-19T21:02:39.163Z","host"=>""}Logstashshutdowncompleted注:以上文本可以長期保存、操作簡單、壓縮比大。驗證:輸出信息被記錄在文本中,可實時查詢。2.3.6logstash的配置和文件編寫參考文檔:s://elastic.co/guide/en/logstash/current/configuration.htmls://elastic.co/guide/en/logstash/current/configuration-file-structure.html#mkdir/etc/logstash、logstash的配置#vim/etc/logstash/conf.d/01.logstash.confinput{stdin{}}output{elasticsearch{hosts=>["9:19200"]}stdout{codec=>rubydebug}}執(zhí)行:#logstash-f/etc/logstash/conf.d/01.logstash.confSettings:Defaultfilterworkers:1Logstashstartupcompletedbeijing##輸入信息{ ##輸出信息"message"=>"beijing","@version"=>"1","@timestamp"=>"2017-09-20T09:00:46.581Z","host"=>""}驗證: 〔2〕、收集系統(tǒng)日志配置#vim/etc/logstash/log_file.confinput{file{path=>"/var/log/messages"type=>"system"start_position=>"beginning"}}output{elasticsearch{hosts=>["9:19200"]index=>"system-%{+YYYY.MM.dd}"}}驗證:、收集java日志,其中包含上面講到的系統(tǒng)日志收集#vim/etc/logstash/log_java.confinput{ ##系統(tǒng)日志輸入file{path=>"/var/log/messages"type=>"system"start_position=>"beginning"}}input{ ##es-error日志輸入file{path=>"/var/log/elasticsearch/nova.log"type=>"es-error"start_position=>"beginning"}}output{ ##輸出到es中if[type]=="system"{elasticsearch{hosts=>["9:19200"]index=>"system-%{+YYYY.MM.dd}"}}if[type]=="es-error"{ ##判斷日志type,如果符合es-error字段,則輸出到es中。elasticsearch{hosts=>["9:19200"]index=>"es-error-%{+YYYY.MM.dd}"}}}注:如果你的日志中有type字段那你就不能在conf文件中使用type驗證:案例〔3〕中是將每個報錯收集成一行內(nèi)容,并不是按照一個報錯、一個時間模塊方式收集的。、以事件方式收集報錯信息#vim/etc/logstash/multiline.confinput{stdin{codec=>multiline{pattern=>"^\[INFO"negate=>truewhat=>"previous"}}}output{stdout{codec=>"rubydebug"}}執(zhí)行:#logstash-fmultiline.confSettings:Defaultpipelineworkers:2Pipelinemainstarted123 ##輸入456[123{ ##輸出"@timestamp"=>"2017-09-20T14:36:59.487Z","message"=>"123\n456","@version"=>"1","tags"=>[[0]"multiline"],"host"=>""}123] ##輸入[456]{ ##輸出"@timestamp"=>"2017-09-20T14:37:36.771Z","message"=>"[123\n123]","@version"=>"1","tags"=>[[0]"multiline"],"host"=>""}Pipelinemainhasbeenshutdownstoppingpipeline{:id=>"main"}注:在沒有遇到“[〞的時候,系統(tǒng)不會收集,只有遇見“[〞的時候,才算是一個事件,才收集起來。2.4Kibana安裝配置node:elk-node22.4.1安裝kibana#cd/usr/local/src#wgets://download.elastic.co/kibana/kibana/kibana-4.3.1-linux-x64.tar.gz#tarzxfkibana-4.3.1-linux-x64.tar.gz#mvkibana-4.3.1-linux-x64/usr/local/kibana2.4.2配置kibana#vim/usr/local/kibana/config/kibana.ymlserver.port:5601server.host:""elasticsearch.url:"://9:19200"kibana.index:".kibana"#/usr/local/kibana/bin/kibananetstat-antplu|grepnodetcp00:5601:*LISTEN8716/node驗證:翻開瀏覽器,輸入:7:5601,點擊Setting進展設置。2.4.3KibanaWeb界面介紹〔1〕、Setting窗口點擊“Create〞進展創(chuàng)立一個index或者Pattern,用于在分析時確定ES中的Index。Kibana會自動加載該Index下doc的field,并自動選擇適宜的field用于圖標中的時間字段:注:這里輸入的index或Pattern項必須為之前l(fā)ogstash中配置好的index。點擊“Discover〞,注意右上角是查詢的時間范圍。如果沒有查找到數(shù)據(jù),那么就需要需調(diào)整這個時間范圍。選擇時間段后,就可看到ES中的數(shù)據(jù)信息。關鍵字搜索:點擊右邊的保存按鈕,保存該查詢?yōu)閘ocalhost_logs,點擊Sava保存。〔2〕、Visualize窗口接下來去Visualize頁面,點擊新建一個柱狀圖〔VerticalBarChart〕,然后選擇剛剛保存的查詢localhost_logs。之后,Kibana將生成類似于以下列圖的柱狀圖〔只有1條日志,而且是在同一時間段的,比擬丑,但足可以說明問題〕在左邊設置圖形的各項參數(shù),點擊ApplyChanges按鈕,右邊的圖形將被更新。同理,其他類型的圖形都可以實時更新。點擊右邊的保存,保存此圖,命名為localhost_logs_visual。〔3〕、Dashboard窗口切換到Dashboard頁面,單擊新建按鈕,選擇剛剛保存的search_all_logs_visual圖形,面板上將展示該圖。如果有較多數(shù)據(jù),我們可以根據(jù)業(yè)務需求和關注點在Dashboard頁面添加多個圖表:柱形圖,折線圖,地圖,餅圖等等。當然,我們可以設置更新頻率,讓圖表自動更新。如果設置的時間間隔夠短,就很趨近于實時分析了。到這里,ELK平臺部署和根本的測試已完成。三ELK+Redis架構安裝部署如果生產(chǎn)環(huán)境使用Logstashagent直接連接ELK,則會出現(xiàn)以下這個問題:一旦Elasticsearch出現(xiàn)問題,就不能進展日志采集處理了!這種情況下該怎么辦呢解決方案:可以在Client和Elasticsearch之間添加一個中間件作為緩存,先將采集到的日志內(nèi)容寫到中間件上,然后再從中間件輸入到Elasticsearch中。這就比擬完美的解決了上述的問題了。3.1Redis安裝配置3.1.1安裝依賴性#yumrepolist##獲取當前有效rpm包。#yum-yinstallgccgcc-c++makegmakecmakezlibtcl##安裝依賴性3.1.2下載源碼包,安裝redis#cd/usr/local/src##進入軟件包目錄〔標準化〕#wget://download.redis.io/releases/redis-3.2.9.tar.gz\\下載軟件包#tar-xzfredis-3.2.9.tar.gz##解壓并進入redis目錄#cdredis-3.2.9##解壓并進入redis目錄#./runtest##運行測試#makeMALLOC=libc##預編譯編譯安裝#maketest##編譯測試#cdsrc##進入src目錄安裝#makePREFIX=/usr/local/redisinstall##編譯安裝#cdutils/#.src/install_server.sh//腳本執(zhí)行后,所有選項都以默認參數(shù)為準即可Pleaseselecttheredisportforthisinstance:[6379] ##此處回車,可設置Selectingdefault:6379Pleaseselecttheredisconfigfilename[/etc/redis/6379.conf] ##此處回車,可設置Selecteddefault-/etc/redis/6379.confPleaseselecttheredislogfilename[/var/log/redis_6379.log] ##此處回車,可設置Selecteddefault-/var/log/redis_6379.logPleaseselectthedatadirectoryforthisinstance[/var/lib/redis/6379] ##此處回車,可設置Selecteddefault-/var/lib/redis/6379Pleaseselecttheredisexecutablepath[] ##默認為[],設置為/usr/local/redis/bin/redis-serverSelectedconfig:Port:6379Configfile:/etc/redis/6379.confLogfile:/var/log/redis_6379.logDatadir:/var/lib/redis/6379Executable:/usr/local/bin/redis-serverCliExecutable:/usr/local/bin/redis-cliIsthisok?ThenpressENTERtogoonorCtrl-Ctoabort.##此處回車Copied/tmp/6379.conf=>/etc/init.d/redis_6379Installingservice...Successfullyaddedtochkconfig!Successfullyaddedtorunlevels345!##運行等級為345StartingRedisserver...Installationsuccessful!3.1.3配置redis#vim/usr/local/redis/etc/6379.confbindport6379tcp-backlog511timeout60stcp-keepalive300daemonizeyessupervisednopidfile/var/run/redis_6379.pidloglevelnoticelogfile/var/log/redis_6379.logdatabases16save9001save30010save6010000stop-writes-on-bgsave-erroryesrdbcompressionyesrdbchecksumyesdbfilenamedump.rdbdir/var/lib/redis/6379repl-diskless-syncnorepl-diskless-sync-delay5repl-timeout60repl-disable-tcp-nodelaynorequirepassmimamaxclients10000maxmemory256mmaxmemory-policyvolatile-ttlmaxmemory-samples5appendonlynoappendfilename"appendonly.aof"appendfsyncalwaysno-appendfsync-on-rewritenoauto-aof-rewrite-percentage100auto-aof-rewrite-min-size64mbaof-load-truncatedyeslua-time-limit5000slowlog-log-slower-than10000slowlog-max-len128latency-monitor-threshold0notify-keyspace-events""hash-max-ziplist-entries128hash-max-ziplist-value1024list-max-ziplist-size-2list-compress-depth0set-max-intset-entries512zset-max-ziplist-entries128zset-max-ziplist-value64hll-sparse-max-bytes3000activerehashingyesclient-output-buffer-limitnormal000client-output-buffer-limitpubsub32mb8mb60hz10aof-rewrite-incremental-fsyncyes3.1.4設置守護進程#cp/usr/local/src/redis-3.2.9/utils/redis_init_script/etc/init.d/redis#chmod755/etc/init.d/redis#vim/etc/init. d/redis#!/bin/sh#SimpleRedisinit.dscriptconceivedtoworkonLinuxsystems#asitdoesuseofthe/procfilesystem.#chkconfig:-5874#description:Redis_6379isapersistentkey-valuedatabaseREDISPORT=6379EXEC=/usr/local/redis/bin/redis-serverCLIEXEC=/usr/local/redis/bin/redis-cliPIDFILE=/var/run/redis_${REDISPORT}.pidCONF="/etc/redis/${REDISPORT}.conf"case"$1"instart)if[-f$PIDFILE]thenecho"$PIDFILEexists,processisalreadyrunningorcrashed"elseecho"StartingRedisserver..."$EXEC$CONFfiecho"Redisstart";;stop)if[!-f$PIDFILE]thenecho"$PIDFILEdoesnotexist,processisnotrunning"elsePID=$(cat$PIDFILE)echo"Stopping..."$CLIEXEC-a"mima"-p$REDISPORTshutdownwhile[-x/proc/${PID}]doecho"WaitingforRedistoshutdown..."sleep1doneecho"Redisstopped"fi;;status)PID=$(cat$PIDFILE)if[!-x/proc/${PID}]thenecho'Redisisnotrunning'elseecho"Redisisrunning($PID)"fi;;restart)$0stop$0start;;*)echo"Pleaseusestartorstopasfirstargument";;esac#chkconfig--addredis #添加系統(tǒng)服務#chkconfigredison #設置開機自啟#serviceredisstart##服務啟動#serviceredisstatus##查看服務狀態(tài)#serviceredisstop##服務關閉#serviceredisrestart##服務重啟3.1.5測試redis#redis-cli-h7-p63797:6379>ping(error)NOAUTHAuthenticationrequired. ##認證失敗,即未進展密碼認證,7:6379>auth"mima"##redis的認證方式是auth“密碼〞,其中密碼是/etc/redis/6379.conf文件中的“requirepass〞參數(shù)中OK7:6379>pingPONG7:6379>quit3.2ELK+redis連接配置3.2.1輸出信息到屏幕#vim/etc/logstash/log_redis.conf##logstash+redis配置input{stdin{}}output{stdout{codec=>rubydebug} ##設置輸出方式,此方式為文本輸出redis{type=>"redis-log"host=>"7" ##主機password=>"mima" ##認證密碼port=>"6379" ##端口db=>"6" ##選擇數(shù)據(jù)庫目錄,自動創(chuàng)立data_type=>"list" ##數(shù)據(jù)類型key=>"demo" ##鍵值對}}#logstashagent-flog_redis.conf--verbosestartingagent{:level=>:info}startingpipeline{:id=>"main",:level=>:info}Settings:Defaultpipelineworkers:2Startingpipeline{:id=>"main",:pipeline_workers=>2,:batch_size=>125,:batch_delay=>5,:max_inflight=>250,:level=>:info}Pipelinemainstartednihao ##輸入內(nèi)容{ ##輸出內(nèi)容"message"=>"nihao","@version"=>"1","@timestamp"=>"2017-09-22T11:31:30.082Z","host"=>"elk-node2"}Inputpluginsstopped!Willshutdownfilter/outputworkers.{:level=>:info}Pipelinemainhasbeenshutdownstoppingpipeline{:id=>"main"}Closinginputs{:level=>:info}Closedinputs{:level=>:info}驗證:#redis-cli-h7-p6379##登陸redis數(shù)據(jù)庫7:6379>auth"mima"##密碼驗證,如果此處沒有進展密碼驗證,則會報出錯誤,錯誤信息如下:“NOAUTHAuthenticationrequired.〞OK7:6379>info##查看redis信息查看#Serverredis_version:3.2.9##redis版本信息redis_git_sha1:00000000redis_git_dirty:0redis_build_id:2fd0f0229ac00f27redis_mode:standaloneos:Linux2.6.32-696.10.2.el6.x86_64x86_64arch_bits:64multiplexing_api:epollgcc_version:4.4.7##gcc版本信息process_id:24757 ##當前Redis服務器進程idrun_id:3563e3ab4f6739fde5a523a668bca974b202706etcp_port:6379uptime_in_seconds:357768##運行時長〔秒〕uptime_in_days:4 ##運行時長〔天〕hz:10lru_clock:13265422executable:/usr/local/redis/bin/redis-serverconfig_file:/etc/redis/6379.conf#Clientsconnected_clients:1##客戶端連接數(shù)client_longest_output_list:0client_biggest_input_buf:0blocked_clients:0#Memoryused_memory:1001568##Redis分配的內(nèi)存總量used_memory_human:978.09Kused_memory_rss:3497984 ##Redis分配的內(nèi)存總量(包括內(nèi)存碎片)used_memory_rss_human:3.34Mused_memory_peak:2425176used_memory_peak_human:2.31M###Redis所用內(nèi)存的頂峰值total_system_memory:4010504192total_system_memory_human:3.74G##系統(tǒng)內(nèi)存總量used_memory_lua:49152used_memory_lua_human:48.00Kmaxmemory:256000000maxmemory_human:244.14Mmaxmemory_policy:volatile-ttlmem_fragmentation_ratio:3.49mem_allocator:libc#Persistenceloading:0rdb_changes_since_last_save:2rdb_bgsave_in_progress:0rdb_last_save_time:1506436853rdb_last_bgsave_status:okrdb_last_bgsave_time_sec:0rdb_current_bgsave_time_sec:-1aof_enabled:0##redis是否開啟了aofaof_rewrite_in_progress:0aof_rewrite_scheduled:0aof_last_rewrite_time_sec:-1aof_current_rewrite_time_sec:-1aof_last_bgrewrite_status:okaof_last_write_status:ok#Statstotal_connections_received:346605##運行以來連接過的客戶端的總數(shù)量total_commands_processed:4084150##運行以來執(zhí)行過的命令的總數(shù)量instantaneous_ops_per_sec:0total_net_input_bytes:197967251total_net_output_bytes:78672012instantaneous_input_kbps:0.00instantaneous_output_
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
- 4. 未經(jīng)權益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
- 6. 下載文件中如有侵權或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 智慧餐廳推廣方案
- 智慧養(yǎng)老系統(tǒng)解決方案
- 2023年電子銀漿資金籌措計劃書
- 卡通襪子課件教學課件
- 武術課件制作教學課件
- 印染剪紙課件教學課件
- 誠子書課件教學課件
- 4.1 原電池 第2課時 課件高二上學期化學人教版(2019)選擇性必修1
- 酒店用品解決方案
- 不負人民課件教學課件
- 邯鄲市政府采購辦事指南
- 智能交通控制的課程設計
- 城市初期雨水污染治理
- 在護林員培訓班上的講話護林員會議講話稿.doc
- 材料科學基礎-第7章-三元相圖
- (完整word版)高頻變壓器的設計
- 公路工程2018各項費用的計算程序及計算方式
- 戶外急救知識(必備)
- 新浙攝版(2020)五年級下冊信息技術全冊教案
- 中國中國鮮紅的太陽永不落-合唱簡譜-歌詞
- 房地產(chǎn)實現(xiàn)場勘查記錄表(4張表格)
評論
0/150
提交評論