Fallbeispiele für Data Analytics in der Praxis

Symbolbild: Fotolia/nicoElnino
Symbolbild: Fotolia/nicoElnino

Angesichts sich immer schneller ändernder Rahmenbedingungen ist die Bedeutung von Datenanalyselösungen rapide gestiegen. Unternehmen müssen in immer kürzerer Zeit immer weitreichendere Entscheidungen treffen. Dazu brauchen sie einen verlässlichen Datenbestand, der einerseits alle Informationen der Organisation enthält und andererseits rasch und unkompliziert ausgewertet werden kann. Die nachfolgenden, branchenübergreifenden Praxisbeispiele zeigen, wie Unternehmen Daten systematisch analysieren und grosse Datenvolumen in Echtzeit und mit hoher Qualität verarbeiten können, mithilfe einer offenen Business- und Big Data-Plattform.

Gastbeitrag von Stefan Müller, Director Big Data Analytics der IT-Novum

Bei den hier nachfolgend angeführte Beispielen kommt Pentaho zum Einsatz. Bei Pentaho handelt es sich um eine Sammlung von Business-Intelligence-Software, die in einer Basisversion Open Source ist. Pentaho wurde 2007 von Infoworld zu den zehn wichtigsten Open-Source-Projekten im Businessbereich gezählt. Sie deckt die dabei üblichen Bereiche ETL, Reporting, OLAP/Analysis und Data-Mining ab. Die Software ist vollständig in Java entwickelt. Die Software wird seit 2004 von der Pentaho Corporation entwickelt. Pentaho wurde 2015 von Hitachi Data Systems aufgekauft. Die Software selber besteht aus verschiedenen Komponenten: Die Reporting-Komponente ist aus dem Open-Source-Projekt JFreereport hervorgegangen. Die OLAP / Analysis Komponente ist das Open-Source-Projekt Mondrian (seit Februar 2007 Teil des Pentaho-Projekts). Pentaho Data Integration (PDI) war unter dem Namen Kettle ebenfalls ein eigenständiges Open-Source-Projekt. PDI ist ein ETL-Werkzeug mit Verbindungsmöglichkeiten zu unterschiedlichen Datenbanken. Darüber hinaus gibt es aus dem Partnerumfeld weitere Plug-Ins zu verschiedenen Systemen wie SAP (Pro-ERP-conn) oder Navision (NaviX Table Output). Pentaho Data Mining ging aus dem Projekt Weka der neuseeländischen Universität Waikato hervor. Die Pentaho BI Platform bildet das Front-End der BI-Suite und ist eine Eigenentwicklung von Pentaho. Die Pentaho-Open-Source-BI-Suite wird in verschiedenen Versionen angeboten. Es gibt eine kostenlose Open-Source-Variante mit eingeschränkter Funktionalität. Verschiedene kostenpflichtige Varianten bieten zusätzliche Funktionen. (Vgl. dazu Wikipedia)

1. Data-Analyse bei der weltweit grössten Forschungsinstitution Cern

Das Cern setzt seit 2014 auf eine einheitliche Datenlösung mit Datenintegration, Reporting, Analytics und Dashboards mit 15.000 Nutzern. Im Business Computing steht das Cern besonders in den Bereichen Datenbank, Business Intelligence und Reporting vor spezifischen Herausforderungen. Seine Datenplattform musste daher an die spezifischen Bedürfnisse der Organisation angepasst werden. Um alle internen Inhalte zu beherrschen, wurde um sie herum eine Infrastruktur aufgebaut. Die vom Cern entwickelten Werkzeuge ermöglichen eine erweiterte Suche und Terminierungsfunktionen, unterstützen die delegierte Verwaltung von Schemata einschliesslich Freigabe- und Umgebungsunterstützungsfunktionen, sowie eine Integration mit dem Versionskontrollsystem "Git“. Diese Tools helfen, den Betrieb einer Umgebung mit mehr als 15.000 potenziellen Anwendern sicherzustellen. Die eingesetzte Lösung stellt ein mächtiges Datenintegrations-Tool und Funktionen für Reporting, Datenanalytik und Visualisierung bereit. Die Tatsache, dass die meisten der Tools als Open Source-Software zur Verfügung stehen, erlaubt den Cern-Entwicklern, den vorhandenen Code einfach zu untersuchen und die eigenen Lösungen darin zu integrieren. Der Umstand, dass Pentaho in Java geschrieben ist, erweist sich als besonders praktisch, da das Cern intern Java beziehungsweise JVM als Technologie für alle Eigenentwicklungen einsetzt. Trotz des ganzen Hypes um Big Data bleiben „simples“ Reporting und Datenvisualisierung für das Cern wesentlich. Deshalb sind die Visualisierungs- und Reporting-Komponenten genauso wichtig wie die Analysefunktionen der Lösung.

2. Swissport: Einfachere Datenintegrationsprozesse Swissport ist die weltweit grösste Servicegesellschaft für Flughäfen und Fluggesellschaften. Das Unternehmen wertet nahezu alle operationellen Systeme aus. Die Unternehmensdaten dienen der Planung von Flügen und Personal, der Budgetierung oder auch der Berechnung von KPIs. Swissport optimiert seine Datenintegrationsprozesse kontinuierlich. Beispielsweise, um die Verrechnung mit SAP in einen weltweiten Zusammenhang zu stellen. Dazu kommt, dass Swissport die Business-Logik aus den ETL-Jobs ausgegliedert hat. Die Business Rules werden extern erstellt und gepflegt. Somit gibt es eine Trennung von IT (Code/Prozessen) und Business Rules. Ausgelagerte Geschäftsregeln ermöglichen es, dass ein einziger IT-Datenverarbeitungsprozess für alle Swissport-Betriebseinheiten an verschiedensten Flughäfen läuft, dabei aber gleichzeitig die Unterschiede der verschiedenen Swissport-Stationen und die Verträge mit den Kunden berücksichtigt werden. Eine mögliche Geschäftsregel wäre etwa: „Wenn der Kunde 25 Jahre alt ist und in Frankfurt wohnt, dann führe eine Aktion aus: Kalkuliere einen Rabatt.“ Die Geschäftsregeln werden in einer Applikation gepflegt und sind nicht in die Software oder die IT-Prozesse eingebettet. Das macht die IT-Prozesse schlanker, übersichtlicher und damit agiler, bei gleichzeitig erhöhter Qualität. Die Verantwortung für die ausgelagerten Geschäftsregeln kann der Business-Experte übernehmen – also jemand aus dem Betrieb vor Ort, der die Regeln kennt und der für sie verantwortlich ist oder sie in einem Vertrag mit dem Kunden definiert hat.

3. Ein Data Warehouse für die deutsche Bundespolizei

Die deutsche Bundespolizei hat ein Data Warehouse aufgebaut, das alle relevanten Daten für die Erstellung der Polizeilichen Eingangsstatistik umfasst. Die Informationen kommen von verschiedenen Quellen aus den 160 Revieren, 80 Inspektionen, 10 Direktionen und dem Präsidium. Im neuen Data Warehouse werden die Daten aufbereitet und qualitätsgesichert. Sie stehen nun innerhalb kürzester Zeit für die Beantwortung von Anfragen aus Parlament, Polizeipräsidium, Bundesinnenministerium, EU und Frontex zur Verfügung. Vor der Einführung des Data Warehouse erfasste die Bundespolizei die „Polizeiliche Eingangsstatistik“ in mehr als 70 Excelsheets. Die Dienststellen vor Ort trugen jeden statistisch relevanten Vorgang manuell ein und übersandten die Exceltabellen an die übergeordneten Direktionen. Diese führten die Daten nach ihrer Prüfung zusammen und übermittelten sie an das Präsidium. Dort der gleiche Vorgang: Daten prüfen und zusammenfassen, dieses Mal bundesweit. Bis die Daten offiziellen Stellen zur Verfügung standen, dauerte es einen Monat. Nun, durch das Data Warehouse und umfassende Datenintegrationsprozesse, fertigen die Beamten mit wenigen Klicks die Auswertungen an und schicken sie der anfragenden Stelle ohne grossen Zeitverzug zu. Die gesamte „Polizeiliche Eingangsstatistik“ mit insgesamt 20 polizeilichen Handlungsfeldern ist im Data Warehouse abgebildet. Aufwendige Scripte gehören der Vergangenheit an.

4. Bosch – Weltweites Projekt-Reporting

Als Globalplayer steuert Bosch mehr als 1.500 Kundenprojekte weltweit. Dafür setzt der Konzern eine unternehmensweite Reporting-Plattform ein. Die Daten stammen aus zahlreichen Quelldatensystemen, unter anderem verschiedenen Telefonanlagen, Zeiterfassungs-, E-Mail- und SAP-Systemen und selbst aus externen Kundendatenbanken. Aus ihnen generieren sich die operativen Kennzahlen für die Projektsteuerung sowie die finanziellen Kennzahlen für das Management. Die Kennzahlen umfassen zum Beispiel eingegangene und beantwortete Anrufe, vom Kunden aufgelegte Anrufe, Umsatz, Kosten und Gewinn – tagesaktuell und pro Projekt. Eine besondere Herausforderung dabei ist, Daten aus unterschiedlichen Quellen so zusammenzuführen, dass einheitliche Umsatz- und Kostenreports daraus entstehen. Neben den Mitarbeitern können auch Zulieferer und Kunden auf das System zugreifen und ausgewählte Reports nutzen. Bei der Auswahl des Software-Systems waren drei Kriterien massgebend.
- Anwendungsvielfalt: Sowohl bei der Anbindung von Datenquellen als auch den Ausgabemöglichkeiten sollte der Nutzer viel Spielraum haben.
- Nutzerfreundlichkeit: Ein Datenbankexperte muss die Software in vertretbarer Zeit beherrschen können.
- Sicherheitsarchitektur: Die Daten-Plattform soll sich auch für Externe, etwa Zulieferer und Kunden, öffnen lassen, ohne dass Sicherheitsrisiken entstehen.
Bosch hat sich für eine Standardsoftware entschieden, sodass die eigenen Mitarbeiter sie anpassen und weiterentwickeln können.

5. "Deutsche See" steuert ihr Geschäft mit Datenportal

Der Deutsche Marktführer für Fisch und Meeresfrüchte arbeitet seit Jahren mit einer umfassenden Vertriebssteuerung. Die über 300 Nutzer kommen aus allen Unternehmensbereichen: von der Geschäftsführung und dem Vertrieb über Einkauf, Controlling und Marketing bis hin zu Produktion und Logistik. Für Geschäftsführung und Vertrieb bietet die Datenbank Zugriff auf Verkaufsdaten und andere wichtige Sales-Kennzahlen. In 20 Cubes sowie 300 Dimensionen und KPIs sind alle vertriebsrelevanten Daten – beispielsweise Kunden, Kontaktdaten, Belege oder Artikel mit Mengen und Umsätzen – gespeichert. Diverse Standard-Reportings, vorgefertigte Individualanalysen und die Kundenbesuchsvorbereitung stehen nicht nur dem Außendienst zur Verfügung.

Bedarfsweise lassen sich Daten nach verschiedenen Themenfeldern aufbereiten, etwa nach Kunden, Unternehmen, Verkauf, Service und Markt. Momentan sind 100 Berichte angelegt, weitere sind in Planung. Die Mitarbeiter können auch selbst Berichte erstellen. Da sich Deutsche See für eine Open Source-Lösung entschieden hat, fallen keine Lizenzkosten an. Einer der wichtigsten Vorteile: Gute grafische Darstellungen der Daten haben die bisherigen Exceltabellen abgelöst. Die Verantwortlichen sparen so nicht nur Zeit, sondern können die Daten schneller interpretieren – manchmal auf einen Blick. Zudem können Nutzer Reports wahlweise manuell oder automatisiert verschicken. Alle Berichte lassen sich auch von unterwegs über mobile Endgeräte aufrufen und flexibel zu individuellen Reports zusammenstellen. Seit das Unternehmen zudem ein webbasiertes Reportingportal aufgebaut hat, haben die Mitarbeiter einen zentralen Einstiegspunkt und Arbeitsbereich. Sie greifen immer auf einen einheitlichen und aktuellen Datenbestand zu.

6. Stiwa-Lösung zur Anlagenüberwachung: Intelligente Analysesoftware mit Data Warehouse

Wenn Produktionsanlagen in Betrieb genommen oder gewartet werden, muss der Betreiber jede Komponente einzeln und im Zusammenspiel mit den anderen Bauteilen betrachten. Ohne eine innovative Analysesoftware in Kombination mit einer Datenbank ist das kaum machbar. Erst dies stellt in der Produktion die Durchgängigkeit vom Signal bis zum ERP her. Die Bedienung der Anlage und damit alle Maschinen-, Prozess- und Produktdaten müssen automatisch und lückenlos erfasst werden. Stiwa hat nun die passende Lösung: ein Datenanalysetool mit integriertem Data Warehouse, dass die Daten nicht nur erfasst und miteinander verknüpft, sondern auch visualisiert und auswertet. Dafür muss die Software in die Produktionsanlagen bis auf Komponentenebene hineinzoomen können. Solch eine Datenanalyse zahlt sich für Stiwa-Kunden aus: Die Anlagenhochlaufzeit bei der ersten Inbetriebnahme wird um zirka 25 Prozent verkürzt, und die Gesamtanlageneffektivität (OEE) nimmt um durchschnittlich 15 Prozent zu. Auch wenn eine Anlage nicht die geforderte Leistung bringt, hilft die gesteuerte Datenanalyse weiter. Ausgehend von der OEE-Kennzahl lassen sich die Ursachen für das Problem immer weiter eingrenzen. So kann der Anlagenleiter entscheiden, ob er die Instandhaltung, die Prozesstechnik oder die Logistik mit der Lösung des Problems beauftragen soll.

7. Eurofunk Kappacher: Datenanalyse bei Feuerwehr und Polizei

Leitstellen von Feuerwehr, Polizei oder Rettungsdiensten müssen ihre gesetzlich festgesetzten Reaktionszeiten auf Notrufe überwachen: Wie lange dauert es, bis ein Anruf von einer Leitstelle angenommen wurde? Wie lange hat es von der Annahme des Notrufs bis zum Ausrücken gedauert? Um welche Einsätze hat es sich dabei gehandelt? Bei wie vielen Einsätzen konnte die Hilfsfrist nicht eingehalten werden? Mehrere Tausend Leitstellen nutzen das Analyse- und Reporting-Tool von Eurofunk, um die erhobenen Daten auszuwerten und daraus Massnahmen zur Optimierung abzuleiten, wie beispielsweise eine effizientere Planung von Einsatzkräften oder Dienststellenstandorten. Weil die Einsatzleitsysteme sehr sensible Daten enthalten, sind sie abgeschottet. Nach dem Abschluss eines Einsatzes migrieren die Daten in ein sogenanntes Verwaltungssystem, in dem sie nachbearbeitet und ergänzt werden. Anschliessend lädt sie der Data Integration Server in das Data Warehouse. Darauf haben die Nutzer aus den Leitstellen Zugriff, hier können sie Ad-hoc-Abfragen erstellen, auch ohne SQL-Experte zu sein. Sie haben die Möglichkeit, Qualitäts- und Performance-Kennzahlen über einen bestimmten Zeitraum kumuliert auszuwerten oder auch nur Stammdaten aufzulisten. Besonders hilfreich im Alltag der Rettungsdienste, Feuerwehren und Polizeikräfte ist das Einbeziehen geographischer Daten. Dabei lassen sich nicht nur Karten von Google einbinden, die Nutzer können auch eigene Kartendaten integrieren.

Alle vorgängig beschriebenen BI- und Big-Data-Projekte sind in die Praxis umgesetzt – die IT-Lösungen haben sich mittlerweile im Betrieb bewährt. Die Beispiele zeigen, dass Big Data und Business Intelligence keine Luftschlösser mehr sind. Ob in der Privatwirtschaft oder in der öffentlichen Verwaltung: Data Analytics ist gelebte Praxis.