Können Replikationsfaktoren in hdfs überschrieben werden?

Inhaltsverzeichnis:

Können Replikationsfaktoren in hdfs überschrieben werden?
Können Replikationsfaktoren in hdfs überschrieben werden?

Video: Können Replikationsfaktoren in hdfs überschrieben werden?

Video: Können Replikationsfaktoren in hdfs überschrieben werden?
Video: OSDC 2013 | Dr. Udo Seidel: Distributed Storage mit GlusterFS 2024, Dezember
Anonim

hdfs-site. … xml ändert die Standardreplikation für alle Dateien, die in HDFS abgelegt werden. Sie können den Replikationsfaktor auch auf Dateibasis mit der Hadoop FS Shell ändern: [training@localhost ~]$ hadoopfs –setrep –w 3 /my/fileUmgekehrt können Sie auch den Replikationsfaktor aller Dateien unter a ändern Verzeichnis.

Was passiert, wenn wir den Replikationsfaktor in HDFS ändern?

2 Antworten. Das Ändern des Replikationsfaktors für ein Verzeichnis wirkt sich jedoch nur auf die vorhandenen Dateien aus, und die neuen Dateien unter dem Verzeichnis werden mit dem Standardreplikationsfaktor erstellt (dfs. Replikation von der hdfs-Site. … Bitte Siehe Link zum Konfigurieren des Replikationsfaktors für HDFS.

Wie überschreibe ich in HDFS?

Kopiert Dateien vom lokalen Dateisystem nach HDFS, ähnlich dem Befehl -put. Dieser Befehl funktioniert nicht, wenn die Datei bereits vorhanden ist. Um das Ziel zu überschreiben, wenn die Datei bereits existiert, fügen Sie -f Flag zum Befehl hinzu.

Können wir den Replikationsfaktor in Hadoop ändern?

Sie können den Replikationsfaktor auch auf Dateibasis mit der Hadoop FS-Shell ändern. Alternativ können Sie den Replikationsfaktor aller Dateien unter einem Verzeichnis ändern.

Was bedeutet Überreplikation in Hadoop?

Überreplizierte Blöcke sind Blöcke, die ihre Zielreplikation für die Datei überschreiten, zu der sie gehören. Normalerweise ist Überreplikation kein Problem, und HDFS löscht automatisch überschüssige Replikate.

Empfohlen: