Ich finde die Lucene Segmente im Backend nicht zusammenfließen und die Segmentanzahl erhöht sich zu viel. Ich änderte die Zusammenführungsrichtlinie von LogByteSizeMergePolicy
zu TieredMergePolicy
Segment Merge in Solr nicht passiert
Ich versuchte, Eigenschaften entsprechend der solr
Dokumentation zu ändern, aber dennoch, meine Segmente sind hoch.
Ich benutze Solr 6.1.X. Die Indexdaten werden in HDFS gespeichert.
Mein Index config solrconfig.xml:
<indexConfig>
<writeLockTimeout>1000</writeLockTimeout>
<commitLockTimeout>10000</commitLockTimeout>
<maxIndexingThreads>15</maxIndexingThreads>
<useCompoundFile>false</useCompoundFile>
<ramBufferSizeMB>1024</ramBufferSizeMB>
<mergePolicy class="org.apache.lucene.index.TieredMergePolicy">
<int name="maxMergeAtOnce">10</int>
<int name="segmentsPerTier">1</int>
</mergePolicy>
<mergePolicyFactory class="org.apache.solr.index.TieredMergePolicyFactory">
<int name="maxMergeAtOnce">10</int>
<int name="segmentsPerTier">10</int>
</mergePolicyFactory>
<lockType>hdfs</lockType>
<deletionPolicy class="solr.SolrDeletionPolicy">
<str name="maxCommitsToKeep">1</str>
<str name="maxOptimizedCommitsToKeep">0</str>
</deletionPolicy>
</indexConfig>
The only way we optimize is by force merging which is IO costly and also takes hours to complete.
Ich habe eine Gruppe von drei Scherben und Replikationsfaktor als 2.
Kann mir jemand helfen, wohin ich gehe falsch
Um ausführlichere Antwort zu bekommen bitte Info-Stream-Ausgabe in Frage liefern – Ivan