Logo boatexistence.com

Wie funktionieren Mapper und Reducer?

Inhaltsverzeichnis:

Wie funktionieren Mapper und Reducer?
Wie funktionieren Mapper und Reducer?

Video: Wie funktionieren Mapper und Reducer?

Video: Wie funktionieren Mapper und Reducer?
Video: Reducer Code - Intro to Hadoop and MapReduce 2024, Kann
Anonim

Die Ausgabe eines Mappers oder Map-Jobs (Schlüssel-Wert-Paare) wird in den Reducer eingegeben Der Reducer erhält das Schlüssel-Wert-Paar von mehreren Map-Jobs. Dann aggregiert der Reduzierer diese Zwischendatentupel (Zwischenschlüssel-Wert-Paare) zu einem kleineren Satz von Tupeln oder Schlüssel-Wert-Paaren, der die endgültige Ausgabe darstellt.

Was machen Mapper und Reducer?

Hadoop Mapper ist eine Funktion oder Aufgabe, die verwendet wird, alle Eingabedatensätze aus einer Datei zu verarbeiten und die Ausgabe zu generieren, die als Eingabe für Reducer dient Er erzeugt die Ausgabe durch Rückgabe von new Schlüssel-Wert-Paare. … Der Mapper generiert auch einige kleine Datenblöcke, während er die Eingabedatensätze als Schlüssel-Wert-Paare verarbeitet.

Was ist der Unterschied zwischen Mapper und Reducer?

Was ist der Hauptunterschied zwischen Mapper und Reducer? Die Mapper-Aufgabe ist die erste Phase der Verarbeitung, die jeden Eingabedatensatz verarbeitet (von RecordReader) und ein Schlüssel-Wert-Zwischenpaar generiert. Die Reduce-Methode wird für jedes Schlüssel/Werte-Listenpaar separat aufgerufen.

Wie berechnet man die Anzahl der Mapper und Reducer?

Es hängt davon ab, wie viele Kerne und wie viel Speicher Sie auf jedem Slave haben. Im Allgemeinen sollte ein Mapper 1 bis 1,5 Prozessorkerne bekommen Wenn Sie also 15 Kerne haben, können Sie 10 Mapper pro Knoten ausführen. Wenn Sie also 100 Datenknoten in einem Hadoop-Cluster haben, kann man 1000 Mapper in einem Cluster ausführen.

Wie funktioniert die Mapper-Funktion?

Mapper ist eine Funktion, die die Eingabedaten verarbeitet Der Mapper verarbeitet die Daten und erstellt mehrere kleine Datenblöcke. Die Eingabe für die Mapper-Funktion erfolgt in Form von (Schlüssel-Wert-)Paaren, obwohl die Eingabe für ein MapReduce-Programm eine Datei oder ein Verzeichnis ist (das im HDFS gespeichert ist).

Empfohlen: