Datenanalyse im Mittelstand

Wie viel Mehrwert ist durch Big Data möglich?

von Prof. Dr. Christoph Laroque

Trotz der als Industrie 4.0 bekannten digitalen Transformation deutscher Unternehmen ist heute ein deutlicher Missstand hinsichtlich der Datenverfügbarkeit und sinnvollen Nutzung der vorhandenen Informationen vor allem bei kleinen und mittelständischen Unternehmen zu erkennen. Es zeichnen sich verschiedene Ursachen ab: Neben zumeist nicht formal standardisierten Geschäftsprozessen sind hier fehlendes IT-Know-how und leider auch häufig die zaghafte Umsetzung fortschrittlicher Technologien zu nennen, quer über alle Funktionsbereiche hinweg.

Prof. Dr. Christoph Laroque

Die Datenerfassung und -verarbeitung ist an vielen Stellen immer noch nicht durchgehend digitalisiert und durch Medienbrüche gekennzeichnet. Dies resultiert in einer schlechten Datenqualität, sichtbar als Lücken in Datensätzen, fehlerhaften und unsauberen Daten. Dabei wäre auch oder gerade hier die Möglichkeit gegeben, durch den Einsatz datengestützter Methoden die oftmals dynamisch zu fällenden Entscheidungen nicht nur aus dem Bauch heraus, sondern auf Basis einer soliden Entscheidungsgrundlage zu treffen.

„Angetrieben von technischen Innovationen in der Informatik stehen [in Unternehmen] immer mehr Daten zur Verfügung, die potenziell übertragen, gespeichert und analysiert werden können, um daraus nützliche Informationen als Grundlage für neue Dienste zu gewinnen.“ (Wrobel et al., 2015) Ein Kernbegriff, der hier zukünftig eine signifikante Rolle spielen wird, lautet „Big Data (Analytics)“. Er bezeichnet Datenmengen, die zu groß oder vielfältig sind, die sich schnell ändern und die nur schwer mit klassischen Ansätzen der Datenverarbeitung auszuwerten sind. Die zugrunde liegenden Herausforderungen im Bereich Datenmanagement beziehen sich auf eine effiziente Speicherung, Verteilung und Bereitstellung der großen Datenmengen.

„Rund 30 Prozent der in einem Unternehmen verwendeten Daten stammen nicht aus eigenen Datenquellen.“

Dabei geht es zum Beispiel um neue Speicherarchitekturen im Cloud-Bereich oder auch geeignete Netzwerktopologien für Datenzentren, welche Big-Data-Analysen um­setzen. Im Bereich Datenanalyse sind geeignete statistische oder mathematische Algorithmen zur Modellierung und Darstellung der unterschiedlichen Daten sowie angepasste Mechanismen zur Wissensentdeckung auf großen und dynamischen Datenvolumina relevant. Grundpfeiler dieser Anwendungen sind aktuelle Standards im Bereich von Datenschutz und Datensicherheit.

Rund 30 Prozent der in einem Unternehmen verwendeten Daten stammen nicht aus eigenen Datenquellen. Hinzu kommt, „dass nur noch etwa 50 Prozent der Daten klassisch strukturierte Daten sind“. (Wrobel et al., 2015) Die größte Herausforderung stellen die aus unstrukturierten Quellen und Massendaten vollständig automatisiert extrahierten Daten dar, da deren Datenqualität nicht vorab definiert ist. Die durch den Einsatz zunehmend vernetzter Systeme im Zuge von Industrie 4.0 resultierenden Datenströme stellen durch ihre enorme Geschwindigkeit und das daraus resultierende Volumen Herausforderungen im Bereich Big Data dar.

Meist ist die Speicherung aller verfügbaren Daten zwar technisch möglich, aber nicht sinnvoll. Verfahren der Datenanalyse müssen zukünftig verstärkt in verteilten Szenarien operieren können und in der Lage sein, flexibel zu entscheiden, wo (lokal oder global) welche Daten analysiert oder verworfen werden.

„Um Unternehmen den Einstieg in die datengetriebene Entscheidungsunterstützung zu ermöglichen und bis dahin ungenutztes Potenzial aufzudecken, existieren eine Reihe von Vorgehensmodellen.“

Datengestützte Entscheidungsunterstützung in Produktion und Logistik

Die bloße Verfügbarkeit von großen Datenmengen erzeugt aber noch lange nicht den erhofften Wettbewerbsvorteil für Unternehmen. Daten werden erst dann zum „Gold des 21. Jahrhunderts“, wenn sie zur richtigen Zeit, am richtigen Ort, in der geforderten Qualität und performant auswertbar zur Verfügung stehen. Entscheidungen, die dann auf Basis dieser Analysen getroffen werden, können die Unternehmen unterstützen, schneller auf Markt- und Kundenbedarfe zu reagieren, Trends schneller zu erkennen oder betriebsinterne Verbesserungsmaßnahmen zur Steigerung der Effizienz zu realisieren.

Die Datenanalyse stellt nicht nur im Marketing und Vertrieb, sondern auch im Rahmen der Produktionsoptimierung und innerbetrieblichen Entscheidungsfindung einen Prozessschritt dar, der versucht, die verfügbaren Informationen bestmöglich zur Optimierung des Geschäftsprozesses einzusetzen. Hierfür müssen die gewonnenen Erkenntnisse angemessen analysiert, visualisiert und in die eigentliche Entscheidungsfindung einbezogen werden. Die Durchführung von Datenanalysen im Unternehmen ist chronologisch und zumeist auch in sich verbessernden Zyklen aufgebaut.

Um Unternehmen den Einstieg in die datengetriebene Entscheidungsunterstützung zu ermöglichen und bis dahin ungenutztes Potenzial aufzudecken, existieren eine Reihe von Vorgehensmodellen (bspw. KDD-Modell (Fayyad et al., 1996) und CRISP-DM (Wirth, Hipp, 2000)). Auf Basis einer strategischen Zielsetzung können Kennzahlen definiert und Maßnahmen bestimmt werden. Die eigentlichen Analyseergebnisse dienen dann als Bewertungsgrundlage zur Zielerreichung der Zielgrößen oder KPIs („Key Performance Indicators“).

Reifegradmodell in Anlehnung an Gartner

Verschiedene Entwicklungsstufen analytischer Ansätze

Konkrete Datenanalyseverfahren lassen sich anhand ihrer Leistungsfähigkeit zur Entscheidungsunterstützung in vier verschiedene Stufen einordnen. Im Allgemeinen wird dabei zwischen deskriptiven (descriptive), diagnostischen (diagnostic), prädiktiven (predictive) und präskriptiven (prescriptive) Verfahren unterteilt (Gartner, 2012), wobei mit jeder weiteren Stufe leistungsfähigere Ansätze realisiert werden können. Wichtig zu wissen ist, dass die Stufen dabei aufeinander aufbauen. Um diagnostische Analysen zu ermöglichen, müssen Datenverfügbarkeit und Datenqualität auch deskriptive Verfahren erlauben.

Die jeweiligen Verfahren adressieren unterschiedliche Fragestellungen, basieren auf unterschiedlichen Grundprinzipien und zumeist statistischen Verfahren. Je nach Analysetechnologie können die Analyseverfahren sowohl für strukturierte (Daten sind beispielsweise in Tabellen gespeichert) als auch für unstrukturierte Daten (Texte, Social Media etc.) angewandt werden.

Deskriptive Analysen

Deskriptive Analysemethoden werden verwendet, um durch Analysen historischer Daten Auswirkungen auf die Gegenwart zu untersuchen (vergangenheitsorientiert) oder laufzeitorientiert, um ein Abbild des aktuellen Geschehens zu generieren. Die angewandten Analysemethoden basieren auf dem Grundprinzip der beschreibenden, meist manuellen und kennzahlenorientierten Analyse von Daten. Deskriptive Analysen geben Antwort auf die Fragestellungen: Was ist (in der Vergangenheit) passiert? Oder: Was passiert gerade? Hierbei kann beispielsweise die Analyse von Ausschussmengen nach Produkten, Zeiträumen oder Maschinen visualisiert und damit transparent gemacht werden.

Diagnostische Analysen

Diagnostische Analysen geben Antworten auf die Fragen nach Ursache-Wirkungs-Zusammenhängen, also den Gründen, Auswirkungen, Wechselwirkungen oder Folgen von Ereignissen. Die typische Fragestellung lautet: Warum ist etwas passiert? Zudem eignen sich visuelle Analysen, um Zusammenhänge in einer nutzungsgerechten Form darzustellen. Beispielsweise lässt sich so eine Häufung des Ausschusses auf bestimmte Produkte, Schichten oder Aufträge zurückführen. Der Ausschuss selbst kann beispielsweise entlang einer Zeitachse mengenmäßig dargestellt werden.

Prädiktive Analysen

Predictive Analytics liefert auf Basis von strukturerkennenden Verfahren Muster und bei hinreichender Datenqualität Vorhersagen über die Wahrscheinlichkeit von künftigen Ereignissen auf Basis historisch gültiger Wirkungszusammenhänge. Eine typische Fragestellung lautet: Was könnte bzw. wird in Zukunft wahrscheinlich passieren? Somit lassen sich auf Basis diagnostischer Erkenntnisse und aktueller Daten gezielt Aussagen über vermutliche künftige Ereignisse treffen. Durch Anwendung von prädiktiven Analysen lassen sich beispielsweise Aussagen über Ausschussmengen im kommenden Quartal an einer bestimmten Maschine vorhersagen oder der Betriebszustand einer Maschine generell (Predictive Maintenance).

Präskriptive Entscheidungsunterstützung

Prescriptive Analytics erlaubt die umfangreichste Entscheidungsunterstützung. Auf Basis prädiktiver Analyseergebnisse können mithilfe leistungsfähiger Modelle verschiedene Handlungsalternativen quantitativ bewertet werden und das Durchspielen von „Was wäre wenn?“-Szenarien wird erlaubt. Daraus resultieren Handlungsempfehlungen, wie ein bestimmter Trend in eine gewünschte Richtung beeinflusst, ein wahrscheinliches Ereignis vermieden oder auf ein künftiges Ereignis bestmöglich reagiert werden kann. In diesem Sinne können Unternehmen besser unübersichtliche, komplexe Beziehungen verstehen und Handlungsalternativen bewerten.

Jede Form der datengestützten Entscheidungsfindung kann, richtig im Unternehmen implementiert und auf Basis solider Daten, einen Mehrwert leisten, von dem auch oder sogar gerade kleine und mittelständische Unternehmen profitieren können. Was passiert gerade? Warum? Welche Auswirkungen wird es haben und welche Maßnahmen sind zu treffen, um ein bestimmtes Ziel zu erreichen? Daten, Informationen und Analyseroutinen bieten ein erhebliches Potenzial, das heute noch zu wenig in der betrieblichen Praxis genutzt wird. Sie haben das Potenzial, Entscheidungsprozesse zu beschleunigen. //


Kontaktieren Sie den Autor

Fußnoten und Quellen:
Fayyad, U.; Piatetsky-Shapiro, G.; Smyth, P. (1996): From Data Mining to Knowledge Discovery in Databases, American Association for Artificial Intelligence, in: Al Magazine, Jg. 17, Nr. 3, S. 41.
Gartner (2012): Analytic Value Escalator.
Wirth, R.; Hipp, J. (2000): CRISP-DM: Towards a standard process model for data mining, in: Proceedings of the 4th international conference on the practical applications of knowledge discovery and data mining, CiteSeer, S. 29-39.
Wrobel, S., Voss, H., Köhler, J. et al. Big Data, Big Opportunities. Informatik Spektrum 38, 370–378 (2015). https://doi.org/10.1007/s00287-014-0806-4

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.