Ich habe einen Accumulo-Cluster auf AWS eingerichtet, wo ich zwei Maschinen haben master
und slave1
. Der Knoten master
soll sich sowohl wie monitor
als auch tserver
verhalten. Hier sind meine Einstellungen von accumulo.Accumulo Tservers starten nicht auf Remote-Knoten
das ist mein conf/accumulo-site.xml
<property>
<name>instance.volumes</name>
<value></value>
<description>comma separated list of URIs for volumes. example: hdfs://localhost:9000/accumulo</description>
</property>
<property>
<name>instance.zookeeper.host</name>
<value>localhost:2181</value>
<description>comma separated list of zookeeper servers</description>
</property>
<property>
<name>instance.secret</name>
<value>DEFAULT</value>
<description>A secret unique to a given instance that all servers must know in order to communicate with one another.
Change it before initialization. To
change it later use ./bin/accumulo org.apache.accumulo.server.util.ChangeSecret --old [oldpasswd] --new [newpasswd],
and then update this file.
</description>
</property>
<property>
<name>tserver.memory.maps.max</name>
<value>256M</value>
</property>
<property>
<name>tserver.memory.maps.native.enabled</name>
<value>false</value>
</property>
<property>
<name>tserver.cache.data.size</name>
<value>15M</value>
</property>
<property>
<name>tserver.cache.index.size</name>
<value>40M</value>
</property>
<property>
<name>trace.token.property.password</name>
<!-- change this to the root user's password, and/or change the user below -->
<value>secret</value>
</property>
<property>
<name>trace.user</name>
<value>root</value>
</property>
<property>
<name>tserver.sort.buffer.size</name>
<value>50M</value>
</property>
<property>
<name>tserver.walog.max.size</name>
<value>256M</value>
</property>
<property>
<name>general.classpaths</name>
<value>
<!-- Accumulo requirements -->
$ACCUMULO_HOME/lib/accumulo-server.jar,
$ACCUMULO_HOME/lib/accumulo-core.jar,
$ACCUMULO_HOME/lib/accumulo-start.jar,
$ACCUMULO_HOME/lib/accumulo-fate.jar,
$ACCUMULO_HOME/lib/accumulo-proxy.jar,
$ACCUMULO_HOME/lib/[^.].*.jar,
<!-- ZooKeeper requirements -->
$ZOOKEEPER_HOME/zookeeper[^.].*.jar,
<!-- Common Hadoop requirements -->
$HADOOP_CONF_DIR,
<!-- Hadoop 2 requirements -->
$HADOOP_HOME/share/hadoop/common/[^.].*.jar,
$HADOOP_HOME/share/hadoop/common/lib/(?!slf4j)[^.].*.jar,
$HADOOP_HOME/share/hadoop/hdfs/[^.].*.jar,
$HADOOP_HOME/share/hadoop/mapreduce/[^.].*.jar,
$HADOOP_HOME/share/hadoop/yarn/[^.].*.jar,
$HADOOP_HOME/share/hadoop/yarn/lib/jersey.*.jar,
</value>
<description>Classpaths that accumulo checks for updates and class files.</description>
</property>
</configuration>
das ist mein conf/masters
localhost
das ist mein conf/slaves
localhost
slave1
Mein hadoop Cluster arbeitet völlig in Ordnung und ein Auch der Zookeeper läuft auf Master. Der accumulo wird initialisiert und ich lief start-all.sh
Skript, das zeigt, dass es tserver auf slave1 startet, aber die Webschnittstelle ist nur zeigt nur 1 tserver läuft, dieist.
Fehle ich hier etwas?
Ich bin in der Lage, die Maschinen ohne Passwörter ssh. Außerdem habe ich versucht, Namen in die Datei "etc/hosts" einzufügen und sie dann in den Dateien acumulo master und slave im Verzeichnis conf zu verwenden, aber es ist dasselbe. – molecule
Danke, deine Antwort hat mir geholfen, nach dem wirklichen Problem zu suchen – molecule