2016-12-07 3 views
0

WSO2DAS Version: 3.0.1wso2 das Säuberung Konfiguration - nicht funktionieren?

I WSO2DAS eingerichtet nach Dokument Mindesthochverfügbarkeit Deployment überprüfen. (https://docs.wso2.com/display/CLUSTER44x/Minimum+High+Availability+Deployment+-+DAS+3.0.1)

und DAS-Produkt mit mariaDB. mariaDB haben zwei Datenbanken (WSO2_ANALYTICS_EVENT_STORE_DB, WSO2_ANALYTICS_PROCESSED_DATA_STORE_DB) Tabelle in der Datenbank haben Daten nach Anfrage API.

schließlich. Ich habe nach dem Überprüfen des Bereinigungsdatendokuments die Bereinigungskonfiguration eingerichtet. (https://docs.wso2.com/display/DAS301/Purging+Data)

Die Konfigurationen in der Eigenschaft wurden wie folgt geändert.

<analytics-dataservice-configuration> 
    <!-- The name of the primary record store --> 
    <primaryRecordStore>EVENT_STORE</primaryRecordStore> 
    <!-- Analytics Record Store - properties related to record storage implementation --> 
    <analytics-record-store name="EVENT_STORE"> 
     <implementation>org.wso2.carbon.analytics.datasource.rdbms.RDBMSAnalyticsRecordStore</implementation> 
     <properties> 
      <property name="datasource">WSO2_ANALYTICS_EVENT_STORE_DB</property> 
      <property name="category">large_dataset_optimized</property> 
     </properties> 
    </analytics-record-store> 
    <analytics-record-store name = "PROCESSED_DATA_STORE"> 
     <implementation>org.wso2.carbon.analytics.datasource.rdbms.RDBMSAnalyticsRecordStore</implementation> 
     <properties> 
      <property name="datasource">WSO2_ANALYTICS_PROCESSED_DATA_STORE_DB</property> 
      <property name="category">large_dataset_optimized</property> 
     </properties> 
    </analytics-record-store> 
    <!-- The data indexing analyzer implementation --> 
    <analytics-lucene-analyzer> 
    <implementation>org.apache.lucene.analysis.standard.StandardAnalyzer</implementation> 
    </analytics-lucene-analyzer> 
    <!-- The number of index data replicas the system should keep, for H/A, this should be at least 1, e.g. the value 0 means 
     there aren't any copies of the data --> 
    <indexReplicationFactor>1</indexReplicationFactor> 
    <!-- The number of index shards, should be equal or higher to the number of indexing nodes that is going to be working, 
     ideal count being 'number of indexing nodes * [CPU cores used for indexing per node]' --> 
    <shardCount>6</shardCount> 
    <!-- The amount of index data (in bytes) to be processed at a time by a shard index worker. Minimum value is 1000. --> 
    <shardIndexRecordBatchSize>20971520</shardIndexRecordBatchSize> 
    <!-- The interval in milliseconds, which a shard index processing worker thread will sleep during index processing operations. This setting 
     along with the 'shardIndexRecordBatchSize' setting can be used to increase the final index batched data amount the indexer processes 
     at a given time. Usually, higher the batch data amount, higher the throughput of the indexing operations, but will have a higher latency 
     of record insertion to indexing. Minimum value of this is 10, and a maximum value is 60000 (1 minute). --> 
    <shardIndexWorkerInterval>1500</shardIndexWorkerInterval> 
    <!-- Data purging related configuration --> 
    <analytics-data-purging> 
     <!-- Below entry will indicate purging is enable or not. If user wants to enable data purging for cluster then this property 
     need to be enable in all nodes --> 
     <purging-enable>true</purging-enable> 
     <cron-expression>0 50 11 * * ?</cron-expression> 
     <!-- Tables that need include to purging. Use regex expression to specify the table name that need include to purging.--> 
     <purge-include-tables> 
     <table>.*</table> 
     <!--<table>.*jmx.*</table>--> 
     </purge-include-tables> 
     <!-- All records that insert before the specified retention time will be eligible to purge --> 
     <data-retention-days>365</data-retention-days> 
    </analytics-data-purging> 
</analytics-dataservice-configuration> 

Als Ergebnis des Eincheckens in DAS carbon portal ORG_ * -Tabellen wurden Daten nach der Spülzeit gelöscht. Aber zwei Datenbanken (WSO2_ANALYTICS_EVENT_STORE_DB, WSO2_ANALYTICS_PROCESSED_DATA_STORE_DB) Daten bleiben übrig.

Die Frage ist:

Konfiguration Abdeckung ORG_ * Tabellen Spülen? Oder ist die Einstellung falsch?

Antwort

0

Könnten Sie bitte klären, was Sie von

Aber zwei Datenbanken (WSO2_ANALYTICS_EVENT_STORE_DB, WSO2_ANALYTICS_PROCESSED_DATA_STORE_DB) verbleibenden Daten bedeuten.

Meinst du, dass Sie noch Tabellen in den Datenbanken sehen können? Wenn ja, dann ist es Absicht. Beim Löschen von DAS-Daten werden nur Datensätze gelöscht, die älter als die angegebene Zeit sind. Die Tabellen werden nicht gelöscht.

Verwandte Themen