這篇文章主要介紹“solr schema.xml和solrconfig.xml怎么配置”,在日常操作中,相信很多人在solr schema.xml和solrconfig.xml怎么配置問題上存在疑惑,小編查閱了各式資料,整理出簡單好用的操作方法,希望對大家解答”solr schema.xml和solrconfig.xml怎么配置”的疑惑有所幫助!接下來,請跟著小編一起來學習吧!
一、字段配置(schema)
schema.xml位于solr/conf/目錄下,類似于數據表配置文件,
定義了加入索引的數據的數據類型,主要包括type、fields和其他的一些缺省設置。
1、先來看下type節點,這里面定義FieldType子節點,包括name,class,positionIncrementGap等一些參數。
name:就是這個FieldType的名稱。
class:指向org.apache.solr.analysis包里面對應的class名稱,用來定義這個類型的行為。
< schema name = "example" version = "1.2" >
< types >
< fieldType name = "string" class = "solr.StrField" sortMissingLast = "true" omitNorms = "true" />
< fieldType name = "boolean" class = "solr.BoolField" sortMissingLast = "true" omitNorms = "true" />
< fieldtype name = "binary" class = "solr.BinaryField" />
< fieldType name = "int" class = "solr.TrieIntField" precisionStep = "0" omitNorms = "true"
positionIncrementGap = "0" />
< fieldType name = "float" class = "solr.TrieFloatField" precisionStep = "0" omitNorms = "true"
positionIncrementGap = "0" />
< fieldType name = "long" class = "solr.TrieLongField" precisionStep = "0" omitNorms = "true"
positionIncrementGap = "0" />
< fieldType name = "double" class = "solr.TrieDoubleField" precisionStep = "0" omitNorms = "true"
positionIncrementGap = "0" />
...
</ types >
...
</ schema >
必要的時候fieldType還需要自己定義這個類型的數據在建立索引和進行查詢的時候要使用的分析器analyzer,包括分詞和過濾,如下:
view plain print ?
< fieldType name = "text_ws" class = "solr.TextField" positionIncrementGap = "100" >
< analyzer >
< tokenizer class = "solr.WhitespaceTokenizerFactory" />
</ analyzer >
</ fieldType >
< fieldType name = "text" class = "solr.TextField" positionIncrementGap = "100" >
< analyzer type = "index" >
<!--這個分詞包是空格分詞,在向索引庫添加text類型的索引時,Solr會首先用空格進行分詞
然后把分詞結果依次使用指定的過濾器進行過濾,最后剩下的結果,才會加入到索引庫中以備查詢。
注意:Solr的analysis包并沒有帶支持中文的包,需要自己添加中文分詞器,google下。
-->
< tokenizer class = "solr.WhitespaceTokenizerFactory" />
<!-- in this example, we will only use synonyms at query time
< filter class = "solr.SynonymFilterFactory" synonyms = "index_synonyms.txt"
ignoreCase = "true" expand = "false" />
-->
<!-- Case insensitive stop word removal.
add enablePositionIncrements = true in both the index and query
analyzers to leave a 'gap' for more accurate phrase queries.
-->
< filter class = "solr.StopFilterFactory"
ignoreCase = "true"
words = "stopwords.txt"
enablePositionIncrements = "true"
/>
< filter class = "solr.WordDelimiterFilterFactory" generateWordParts = "1"
generateNumberParts = "1" catenateWords = "1" catenateNumbers = "1"
catenateAll = "0" splitOnCaseChange = "1" />
< filter class = "solr.LowerCaseFilterFactory" />
< filter class = "solr.SnowballPorterFilterFactory" language = "English"
protected = "protwords.txt" />
</ analyzer >
< analyzer type = "query" >
< tokenizer class = "solr.WhitespaceTokenizerFactory" />
< filter class = "solr.SynonymFilterFactory" synonyms = "synonyms.txt" ignoreCase = "true"
expand = "true" />
< filter class = "solr.StopFilterFactory"
ignoreCase = "true"
words = "stopwords.txt"
enablePositionIncrements = "true"
/>
< filter class = "solr.WordDelimiterFilterFactory" generateWordParts = "1"
generateNumberParts = "1" catenateWords = "0" catenateNumbers = "0"
catenateAll = "0" splitOnCaseChange = "1" />
< filter class = "solr.LowerCaseFilterFactory" />
< filter class = "solr.SnowballPorterFilterFactory" language = "English"
protected = "protwords.txt" />
</ analyzer >
</ fieldType >
2、再來看下fields節點內定義具體的字段(類似數據庫的字段),含有以下屬性:
name:字段名
type:之前定義過的各種FieldType
indexed:是否被索引
stored:是否被存儲(如果不需要存儲相應字段值,盡量設為false)
multiValued:是否有多個值(對可能存在多值的字段盡量設置為true,避免建索引時拋出錯誤)
view plain print ?
< fields >
< field name = "id" type = "integer" indexed = "true" stored = "true" required = "true" />
< field name = "name" type = "text" indexed = "true" stored = "true" />
< field name = "summary" type = "text" indexed = "true" stored = "true" />
< field name = "author" type = "string" indexed = "true" stored = "true" />
< field name = "date" type = "date" indexed = "false" stored = "true" />
< field name = "content" type = "text" indexed = "true" stored = "false" />
< field name = "keywords" type = "keyword_text" indexed = "true" stored = "false" multiValued = "true" />
<!--拷貝字段-->
< field name = "all" type = "text" indexed = "true" stored = "false" multiValued = "true" />
</ fields >
3、建議建立一個拷貝字段,將所有的 全文本 字段復制到一個字段中,以便進行統一的檢索:
以下是拷貝設置:
view plain print ?
< copyField source = "name" dest = "all" />
< copyField source = "summary" dest = "all" />
4、動態字段,沒有具體名稱的字段,用dynamicField字段
如:name為*_i,定義它的type為int,那么在使用這個字段的時候,任務以_i結果的字段都被認為符合這個定義。如name_i, school_i
view plain print ?
< dynamicField name = "*_i" type = "int" indexed = "true" stored = "true" />
< dynamicField name = "*_s" type = "string" indexed = "true" stored = "true" />
< dynamicField name = "*_l" type = "long" indexed = "true" stored = "true" />
< dynamicField name = "*_t" type = "text" indexed = "true" stored = "true" />
< dynamicField name = "*_b" type = "boolean" indexed = "true" stored = "true" />
< dynamicField name = "*_f" type = "float" indexed = "true" stored = "true" />
< dynamicField name = "*_d" type = "double" indexed = "true" stored = "true" />
< dynamicField name = "*_dt" type = "date" indexed = "true" stored = "true" />
schema.xml文檔注釋中的信息:
1、為了改進性能,可以采取以下幾種措施:
將所有只用于搜索的,而不需要作為結果的field(特別是一些比較大的field)的stored設置為false
將不需要被用于搜索的,而只是作為結果返回的field的indexed設置為false
刪除所有不必要的copyField聲明
為了索引字段的最小化和搜索的效率,將所有的 text fields的index都設置成field,然后使用copyField將他們都復制到一個總的 text field上,然后對他進行搜索。
為了最大化搜索效率,使用java編寫的客戶端與solr交互(使用流通信)
在服務器端運行JVM(省去網絡通信),使用盡可能高的Log輸出等級,減少日志量。
2、< schema name =" example " version =" 1.2 " >
name:標識這個schema的名字
version:現在版本是1.2
3、filedType
< fieldType name =" string " class =" solr.StrField " sortMissingLast =" true " omitNorms =" true " />
name:標識而已。
class和其他屬性決定了這個fieldType的實際行為。(class以solr開始的,都是在org.appache.solr.analysis包下)
可選的屬性:
sortMissingLast和sortMissingFirst兩個屬性是用在可以內在使用String排序的類型上(包括:string,boolean,sint,slong,sfloat,sdouble,pdate)。
sortMissingLast="true",沒有該field的數據排在有該field的數據之后,而不管請求時的排序規則。
sortMissingFirst="true",跟上面倒過來唄。
2個值默認是設置成false
StrField類型不被分析,而是被逐字地索引/存儲。
StrField和TextField都有一個可選的屬性“compressThreshold”,保證壓縮到不小于一個大?。▎挝唬篶har)
< fieldType name =" text " class =" solr.TextField " positionIncrementGap =" 100 " >
solr.TextField 允許用戶通過分析器來定制索引和查詢,分析器包括一個分詞器(tokenizer)和多個過濾器(filter)
positionIncrementGap:可選屬性,定義在同一個文檔中此類型數據的空白間隔,避免短語匹配錯誤。
name: 字段類型名
class: java類名
indexed: 缺省true。 說明這個數據應被搜索和排序,如果數據沒有indexed,則stored應是true。
stored: 缺省true。說明這個字段被包含在搜索結果中是合適的。如果數據沒有stored,則indexed應是true。
sortMissingLast: 指沒有該指定字段數據的document排在有該指定字段數據的document的后面
sortMissingFirst: 指沒有該指定字段數據的document排在有該指定字段數據的document的前面
omitNorms: 字段的長度不影響得分和在索引時不做boost時,設置它為true。一般文本字段不設置為true。
termVectors: 如果字段被用來做more like this 和highlight的特性時應設置為true。
compressed: 字段是壓縮的。這可能導致索引和搜索變慢,但會減少存儲空間,只有StrField和TextField是可以壓縮,這通常適合字段的長度超過200個字符。
multiValued: 字段多于一個值的時候,可設置為true。
positionIncrementGap: 和multiValued
一起使用,設置多個值之間的虛擬空白的數量
< tokenizer class =" solr.WhitespaceTokenizerFactory " />
空格分詞,精確匹配。
< filter class =" solr.WordDelimiterFilterFactory " generateWordParts =" 1 " generateNumberParts =" 1 " catenateWords =" 1 " catenateNumbers =" 1 " catenateAll =" 0 "splitOnCaseChange =" 1 " />
在分詞和匹配時,考慮 "-"連字符,字母數字的界限,非字母數字字符,這樣 "wifi"或"wi fi"都能匹配"Wi-Fi"。
< filter class =" solr.SynonymFilterFactory " synonyms =" synonyms.txt " ignoreCase =" true " expand =" true " />
同義詞
< filter class =" solr.StopFilterFactory " ignoreCase =" true " words =" stopwords.txt " enablePositionIncrements =" true " />
在禁用字(stopword)刪除后,在短語間增加間隔
stopword:即在建立索引過程中(建立索引和搜索)被忽略的詞,比如is this等常用詞。在conf/stopwords.txt維護。
4、fields
< field name =" id " type =" string " indexed =" true " stored =" true " required =" true " />
name:標識而已。
type:先前定義的類型。
indexed:是否被用來建立索引(關系到搜索和排序)
stored:是否儲存
compressed:[false],是否使用gzip壓縮(只有TextField和StrField可以壓縮)
mutiValued:是否包含多個值
omitNorms:是否忽略掉Norm,可以節省內存空間,只有全文本field和need an index-time boost的field需要norm。(具體沒看懂,注釋里有矛盾)
termVectors:[false],當設置true,會存儲 term vector。當使用MoreLikeThis,用來作為相似詞的field應該存儲起來。
termPositions:存儲 term vector中的地址信息,會消耗存儲開銷。
termOffsets:存儲 term vector 的偏移量,會消耗存儲開銷。
default:如果沒有屬性需要修改,就可以用這個標識下。
< field name =" text " type =" text " indexed =" true " stored =" false " multiValued =" true " />
包羅萬象(有點夸張)的field,包含所有可搜索的text fields,通過copyField實現。
< copyField source =" cat " dest =" text " />
< copyField source =" name " dest =" text " />
< copyField source =" manu " dest =" text " />
< copyField source =" features " dest =" text " />
< copyField source =" includes " dest =" text " />
在添加索引時,將所有被拷貝field(如cat)中的數據拷貝到text field中
作用:
將多個field的數據放在一起同時搜索,提供速度
將一個field的數據拷貝到另一個,可以用2種不同的方式來建立索引。
< dynamicField name =" *_i " type =" int " indexed =" true " stored =" true " />
如果一個field的名字沒有匹配到,那么就會用動態field試圖匹配定義的各種模式。
"*"只能出現在模式的最前和最后
較長的模式會被先去做匹配
如果2個模式同時匹配上,最先定義的優先
< dynamicField name =" * " type =" ignored " multiValued=" true " />
如果通過上面的匹配都沒找到,可以定義這個,然后定義個type,當String處理。(一般不會發生)
但若不定義,找不到匹配會報錯。
5、其他一些標簽
< uniqueKey > id </ uniqueKey >
文檔的唯一標識, 必須填寫這個field(除非該field被標記required="false"),否則solr建立索引報錯。
< defaultSearchField > text </ defaultSearchField >
如果搜索參數中沒有指定具體的field,那么這是默認的域。
< solrQueryParser defaultOperator =" OR " />
配置搜索參數短語間的邏輯,可以是"AND|OR"。
二、solrconfig.xml
1、索引配置
mainIndex 標記段定義了控制Solr索引處理的一些因素.
useCompoundFile:通過將很多 Lucene 內部文件整合到單一一個文件來減少使用中的文件的數量。這可有助于減少 Solr 使用的文件句柄數目,代價是降低了性能。除非是應用程序用完了文件句柄,否則false的默認值應該就已經足夠。
useCompoundFile:通過將很多Lucene內部文件整合到一個文件,來減少使用中的文件的數量。這可有助于減少Solr使用的文件句柄的數目,代價是降低了性能。除非是應用程序用完了文件句柄,否則false的默認值應該就已經足夠了。
mergeFacor:決定Lucene段被合并的頻率。較小的值(最小為2)使用的內存較少但導致的索引時間也更慢。較大的值可使索引時間變快但會犧牲較多的內存。(典型的時間與空間 的平衡配置)
maxBufferedDocs:在合并內存中文檔和創建新段之前,定義所需索引的最小文檔數。段是用來存儲索引信息的Lucene文件。較大的值可使索引時間變快但會犧牲較多內存。
maxMergeDocs:控制可由Solr合并的 Document 的最大數。較小的值(<10,000)最適合于具有大量更新的應用程序。
maxFieldLength:對于給定的Document,控制可添加到Field的最大條目數,進而階段該文檔。如果文檔可能會很大,就需要增加這個數值。然后,若將這個值設置得過高會導致內存不足錯誤。
unlockOnStartup:告知Solr忽略在多線程環境中用來保護索引的鎖定機制。在某些情況下,索引可能會由于不正確的關機或其他錯誤而一直處于鎖定,這就妨礙了添加和更新。將其設置為true可以禁用啟動索引,進而允許進行添加和更新。(鎖機制)
2、查詢處理配置
query標記段中以下一些與緩存無關的特性:
maxBooleanClauses:定義可組合在一起形成以個查詢的字句數量的上限。正常情況1024已經足夠。如果應用程序大量使用了通配符或范圍查詢,增加這個限制將能避免當值超出時,拋出TooMangClausesException。
enableLazyFieldLoading:如果應用程序只會檢索Document上少數幾個Field,那么可以將這個屬性設置為 true。懶散加載的一個常見場景大都發生在應用程序返回一些列搜索結果的時候,用戶常常會單擊其中的一個來查看存儲在此索引中的原始文檔。初始的現實常常只需要現實很短的一段信息。若是檢索大型的Document,除非必需,否則就應該避免加載整個文檔。
query部分負責定義與在Solr中發生的時間相關的幾個選項:
概念:Solr(實際上是Lucene)使用稱為Searcher的Java類來處理Query實例。Searcher將索引內容相關的數據加載到內存中。根據索引、CPU已經可用內存的大小,這個過程可能需要較長的一段時間。要改進這一設計和顯著提高性能,Solr引入了一張“溫暖”策略,即把這些新的Searcher聯機以便為現場用戶提供查詢服務之前,先對它們進行“熱身”。
newSearcher和firstSearcher事件,可以使用這些事件來制定實例化新Searcher或第一個Searcher時,應該執行哪些查詢。如果應用程序期望請求某些特定的查詢,那么在創建新Searcher或第一個Searcher時就應該反注釋這些部分并執行適當的查詢。
query中的智能緩存:
filterCache:通過存儲一個匹配給定查詢的文檔 id 的無序集,過濾器讓 Solr 能夠有效提高查詢的性能。緩存這些過濾器意味著對Solr的重復調用可以導致結果集的快速查找。更常見的場景是緩存一個過濾器,然后再發起后續的精煉查詢,這種查詢能使用過濾器來限制要搜索的文檔數。
queryResultCache:為查詢、排序條件和所請求文檔的數量緩存文檔 id 的有序集合。
documentCache:緩存Lucene Document,使用內部Lucene文檔id(以便不與Solr唯一id相混淆)。由于Lucene的內部Document id 可以因索引操作而更改,這種緩存不能自熱。
Named caches:命名緩存是用戶定義的緩存,可被 Solr定制插件 所使用。
其中filterCache、queryResultCache、Named caches(如果實現了org.apache.solr.search.CacheRegenerator)可以自熱。
每個緩存聲明都接受最多四個屬性:
class:是緩存實現的Java名
size:是最大的條目數
initialSize:是緩存的初始大小
autoWarmCount:是取自舊緩存以預熱新緩存的條目數。如果條目很多,就意味著緩存的hit會更多,只不過需要花更長的預熱時間。
對于所有緩存模式而言,在設置緩存參數時,都有必要在內存、cpu和磁盤訪問之間進行均衡。統計信息管理頁(管理員界面的Statistics)對于分析緩存的 hit-to-miss 比例以及微調緩存大小的統計數據都非常有用。而且,并非所有應用程序都會從緩存受益。實際上,一些應用程序反而會由于需要將某個永遠也用不到的條目存儲在緩存中這一額外步驟而受到影響。
到此,關于“solr schema.xml和solrconfig.xml怎么配置”的學習就結束了,希望能夠解決大家的疑惑。理論與實踐的搭配能更好的幫助大家學習,快去試試吧!若想繼續學習更多相關知識,請繼續關注億速云網站,小編會繼續努力為大家帶來更多實用的文章!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。