Mit Automatisierung zu mehr Erfolg

Zeitgewinne, Kosteneinsparungen und weniger Fehler

von Stefan Jürgens

Die Digitalisierung ist nicht ohne Grund einer der meistgehörten und meiststrapazierten Begriffe in jüngster Zeit. Durch die Digitalisierung verändert sich die Arbeitswelt massiv und wird sich weiter massiv verändern. Letztendlich bedeutet Digitalisierung, dass in immer mehr Bereichen des Lebens und der Arbeitswelt, mithilfe von neuen Technologien, Daten gesammelt werden. Aus diesen Datenmengen werden zukünftig Informationen und Wissen abgeleitet. Dieser Wandel im Umgang mit neuen Technologien hat eine enorme Tragweite für Unternehmen, denn einerseits werden nicht nur mehr, sondern vor allem unterschiedlichere Daten erzeugt und gesammelt, anderseits sollen diese natürlich auch in den Entscheidungsprozess aufgenommen werden.

Wie können die Daten aber gesichtet, analysiert und aufbereitet werden, sodass diese in die Entscheidungen einfließen können?

Im Unternehmensumfeld werden diese Daten im Normalfall über sogenannte Dashboards, also eine grafische Oberfläche, dargestellt und ausgewertet. Hier gibt es natürlich Abstufungen zwischen sehr aggregierten bis hin zu sehr detailreichen Analysen. So wird es dem Anwender wesentlich einfacher gemacht, sich einen Überblick zu verschaffen. In vielen Fällen werden diese Daten immer noch über Excel ausgewertet und „per Hand“ verarbeitet. Auf die Fehleranfälligkeit und den Zeitaufwand dieser Methode soll an dieser Stelle nicht weiter eingegangen werden.

Sind Informationen auf verschiedenen Vorsystemen verteilt, liegen redundant vor oder haben eine unterschiedliche Struktur, ist die Anwendung des ETL-Prozesses sehr sinnvoll.

Stefan Jürgens

Die deutlich bessere Methode der Verarbeitung ist ein sogenannter ETL-Prozess, der die Aufbereitung und Verarbeitung der Daten in einem standardisierten Verfahren, sicher und wiederholbar, abbildet. Das Ergebnis dieses Prozesses ist dann eine standardisierte Datenbasis, auf die die unterschiedlichen Analysetools zugreifen können. Dieses kann dann auch wieder Excel sein, kann aber auch eine professionelle Lösung wie kontool sein.

Fallbeispiel

    Ein Beispiel für einen erfolgreichen ETL-Prozess mit anschließender Auswertungsfunktionalität ist das Programm kontool. Hier werden aus den gängigsten Buchhaltungsprogrammen wie Datev, BMD, Agenda, hmd, Sage, exact u. v. m. Daten automatisiert ausgelesen und dann transformiert. Schon die Vielzahl der Vorsysteme, auf die zugegriffen werden kann, zeigt, wie gut die Transformation umgesetzt wurde. Hier werden die Daten vereinheitlicht und aufbereitet. Darüber hinaus werden die Daten dann in kontool exportiert, damit diese als Grundlage für schnelle und fundierte Unternehmensentscheidungen herangezogen werden können.

Was ist aber ETL oder ein ETL-Prozess?

Bei einem ETL-Prozess handelt es sich um einen in mehrere Einzelschritte aufgeteilten technischen Prozess, durch den die Daten aus unterschiedlichen Datenquellen in ein Zielsystem transportiert werden. ETL steht dabei für die drei englischsprachigen Begriffe Extract, Transform und Load bzw. übersetzt für Extrahieren, Transformation und Laden.
Ziel ist es bei diesem Prozess, die Einzelschritte automatisiert, wiederholbar und sicher durch­zuführen, sodass die Daten für eine weitere Verarbeitung bereitgestellt werden. In den meisten Fällen kommt der ETL-Prozess im Vorfeld von Big-Data- und Business-Intelligence-Anwendungen zum Einsatz.

Besonders die Verarbeitung großer Datenmengen profitiert von der strukturierten ETL-Vorgehensweise. Sind Informationen auf verschiedenen Vorsystemen verteilt, liegen redundant vor oder haben eine unterschiedliche Struktur, ist die Anwendung des ETL-Prozesses sehr sinnvoll. Während des Prozesses erfolgt die Zusammenführung, Fehlerbereinigung und Aufbereitung der heterogen strukturierten Daten verschiedener Quellen. Die Qualität der Daten wird gesichert und ihre Konsistenz im Zielsystem hergestellt.

So funktionieren die drei Bereiche des ETL im Detail:

1. Extract

Die Extraktion der Daten aus dem / den Vorsystem(en) ist der erste Schritt. Hier erfolgt die Auswahl der Daten innerhalb der Quellsysteme. Oftmals werden dabei nicht alle zur Verfügung stehenden Daten extrahiert, sondern nur ein Teil.

Die Extraktion findet in regelmäßigen Abständen statt, um aktuelle Daten zur Verfügung zu haben. Des Weiteren ist zu beachten, dass die Extraktion, wenn möglich, vor allem in Rand- und Nebenzeiten durchgeführt wird, um die Quellsysteme nicht zu verlangsamen oder im schlimmsten Fall zu blockieren.

2. Transform

Die Transformation schließt sich direkt an die Phase der Extraktion an. Hier unterscheidet man üblicherweise in die syntaktische und semantische Transformation.

In der syntaktischen Transformation geht es um die Verbesserung, Umsetzung oder Korrektur der Daten basierend auf formalen Aspekten, wie bspw. die Überprüfung von Datumswerten. Die semantische Transformation bezieht sich auf inhaltliche Überprüfung, Veränderung und Anreicherung der Daten. Dieses könnte bspw. die Anreicherung von Ortsnamen zu Postleitzahlen sein.

3. Load

Bei dem Schritt „Load“ werden die Daten in das Zielsystem transferiert. Bei diesem Schritt können z. B. andere Prozesse in angeschlossenen Systemen gestartet werden. Warum werden diese Schritte aber durchgeführt? Die beiden großen Vorteile sind:

  • Die Geschwindigkeit der Datenandienung wird massiv erhöht
  • Die Fehleranfälligkeit wird extrem gesenkt

Diese Vorgehensweise wird dann zu einem enormen Wettbewerbsvorteil für das Unternehmen, wenn sich die Mitarbeiter nicht mehr um Beschaffung und Aufbereitung der Daten kümmern, sondern um ihre Kernaufgaben – der Analyse, Bewertung und Planung.

So werden, gerade in Zeiten des Fachkräftemangels, wichtige Ressourcen geschont und sinnvoll eingesetzt. //


Kontaktieren Sie den Autor

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.