Data Strategie

ETL erklärt — Extract, Transform, Load in einfacher Sprache

Was ist ETL? Erfahren Sie, wie Extract, Transform und Load funktioniert, den Unterschied zu ELT und welche Tools Sie einsetzen können. Verständlich erklärt für Einsteiger und Fachleute.

Zuletzt aktualisiert: 2026-03-08

Was ist ETL?

ETL steht für Extract, Transform, Load — drei Schritte, die zusammen den Prozess bilden, mit dem Daten aus verschiedenen Quellen zu nutzbaren Informationen zusammengeführt werden. Es ist das Rückgrat praktisch jedes Business-Intelligence- und Data-Warehouse-Systems.

Eine einfache Analogie: Stellen Sie sich vor, Sie kochen ein Gericht mit Zutaten von drei verschiedenen Märkten. Zuerst holen Sie die Zutaten (Extract). Dann waschen, schneiden und bereiten Sie sie vor (Transform). Schließlich geben Sie alles in die Pfanne (Load). Das Ergebnis ist ein fertiges Gericht — oder in Datenbegriffen: ein sauberer, strukturierter Datensatz, bereit zur Analyse.

Ohne ETL müssten Sie manuell Daten zwischen Systemen kopieren, Excel-Dateien zusammenfügen und immer wieder dieselben Bereinigungsaufgaben wiederholen. ETL automatisiert diesen gesamten Prozess, sodass Sie stets über aktuelle, verlässliche Daten verfügen.

Extract — Daten aus Quellen abrufen

Der erste Schritt ist Extract: das Abrufen von Daten aus verschiedensten Quellen. In einer typischen Organisation stammen Daten aus Dutzenden von Systemen:

Zwei wichtige Entscheidungen: Vollständige Extraktion (jedes Mal alles abrufen — einfach, aber langsam) vs. Inkrementelle Extraktion (nur Änderungen abrufen — schneller, aber komplexer). Ein guter ETL-Prozess stellt sicher, dass die Extraktion die Quellsysteme nicht belastet.

Transform — Daten bereinigen und anreichern

Der Transform-Schritt ist dort, wo die eigentliche Magie passiert. Rohdaten aus Quellen sind fast nie direkt nutzbar. Typische Transformationen umfassen:

In der Praxis verbringen Data Engineers 60–80 % ihrer Zeit damit, Daten zu verstehen und zu bereinigen. Das Dashboard zu erstellen ist oft der einfachste Teil.

Load — Daten ins Warehouse laden

Der letzte Schritt ist Load: das Laden der transformierten Daten in die Zieldatenbank, üblicherweise ein Data Warehouse oder Data Lakehouse.

StrategieFunktionsweiseEinsatzzweck
Vollständiges LadenDie Zieltabelle wird geleert und komplett neu befülltKleine Datensätze, einfache Szenarien
Inkrementelles LadenNur neue oder geänderte Datensätze werden hinzugefügt/aktualisiertGroße Datensätze, häufige Aktualisierungen

Moderne Data Warehouses (Snowflake, BigQuery, Microsoft Fabric) vereinfachen das Laden zunehmend mit Funktionen wie MERGE-Anweisungen, automatischer Partitionierung und skalierbarem Speicher.

ETL vs. ELT — Was ist der Unterschied?

Traditionell findet die Transformation vor dem Laden statt: ETL. In letzter Zeit hat sich jedoch ELT (Extract, Load, Transform) durchgesetzt — Sie laden zuerst die Rohdaten und transformieren dann innerhalb des Warehouse.

AspektETLELT
Wo die Transformation stattfindetSeparater ETL-ServerIm Data Warehouse selbst
GeschwindigkeitLangsamer bei großen DatenmengenSchneller durch parallele Verarbeitung
FlexibilitätTransformationen beim Design festgelegtRohdaten für neue Transformationen verfügbar
Geeignet fürOn-Premises, sensible Daten, ComplianceCloud-Umgebungen, große Datenmengen, agil

Der Trend geht klar in Richtung ELT, angetrieben durch leistungsstarke Cloud-Warehouses. Tools wie dbt sind speziell für das „T" in ELT konzipiert. Aber ETL ist nicht tot — es ist nach wie vor die bessere Wahl, wenn Sie sensible Daten vor dem Laden filtern müssen (DSGVO-Compliance).

Beliebte ETL-Tools

Wichtige ETL-/ELT-Tools im Überblick:

Für die meisten Organisationen, die bereits Microsoft nutzen, ist die Kombination aus Power Query und Azure Data Factory oder Fabric Dataflows eine logische Wahl. Beginnen Sie mit dem einfachsten Tool, das Ihre Anforderungen erfüllt.

Häufig gestellte Fragen

Ist ETL dasselbe wie eine Datenpipeline?
Eine Datenpipeline ist ein breiteres Konzept, das den gesamten Weg von der Datenextraktion bis zur Verfügbarkeit für Endnutzer abdeckt. ETL ist eine spezifische Art von Datenpipeline. In der Praxis werden die Begriffe oft synonym verwendet.
Wie oft sollte ein ETL-Prozess laufen?
Das hängt von Ihren Anforderungen ab. Monatlich für Managementberichte, täglich oder stündlich für operative Dashboards, nahezu in Echtzeit für Monitoring. Beginnen Sie mit täglich und erhöhen Sie die Frequenz nur, wenn das Geschäft es wirklich erfordert.
Kann ich ETL ohne Programmierung durchführen?
Ja. Power Query in Power BI ist ein visuelles ETL-Tool, das keinen Code erfordert. Azure Data Factory bietet Drag-and-Drop-Oberflächen. Fivetran automatisiert Extraktion und Laden. Nur für die komplexesten Transformationen sind Programmierkenntnisse (SQL, Python) erforderlich.
Was ist der Unterschied zwischen ETL und einer API?
Eine API ist eine Möglichkeit, Daten abzurufen (das „E" in ETL). ETL ist der vollständige Prozess des Extrahierens, Verarbeitens und Speicherns von Daten. Sie können ETL-Prozesse erstellen, die Daten über APIs abrufen, aber eine API allein ist kein ETL.

Neueste Data Strategie-Nachrichten

Alle Data Strategie-Artikel →

Über den Autor — Peter Heijnen ist Daten- und Prozessspezialist mit 20 Jahren Erfahrung bei multinationalen Unternehmen. Er betreibt business-intelligence.info und unterstützt Unternehmen bei Planung, Berichterstattung und Automatisierung über BPA.