Ohne Big Data geht gar nichts mehr

Verfasst von René Lüscher am 19.05.2017 - 00:38

Die Menge an produzierten und gespeicherten Daten wächst ungebremst exponentiell an. Deshalb bauen Schweizer Datacenter ihre Speichersysteme kontinuierlich aus. Es besteht kein Zweifel: Ohne Big Data wird in Zukunft gar nichts mehr funktionieren.

Gastkommentar von René Lüscher, Leiter des Bereichs IT-Solutions und Mitglied der Geschäftsleitung der GIA Informatik in Oftringen

Was macht eigentlich "Big Data" aus? Mit Big Data werden drei "V"-Eigenschaften von Datensammlungen bezeichnet: Volume, Velocity und Variety.
- Volume ist die Menge der Daten, die erfasst und gespeichert werden.
- Mit Velocity wird die Geschwindigkeit beschrieben, die von der Entstehung der Daten bis zu ihrer Verarbeitung verstreichen darf.
- Variety bezeichnet die Komplexität und Variabilität der Techniken für die Datenverarbeitung.

Starke Strukturierung der Informationen

Nicht alle produzierten Informationen sind also Big Data. Aber wenn eine der oben genannten drei Eigenschaften die Daten kennzeichnet, wird eine herkömmliche Bearbeitung rasch an ihre Grenzen stossen. Deshalb kommen Big-Data-Strategien zum Tragen. Unternehmen müssen also strukturell umdenken: Eine Big-Data-Strategie erfolgreich umzusetzen, bedeutet nicht, eine neue Abteilung zu schaffen. Denn die Erkenntnisse aus Big Data wirken sich über die Grenzen von Abteilungen hinweg aus.
Der Einsatz von relationalen Datenbanken bedingt bereits bei ihrer Erfassung eine starke Strukturierung der Informationen. Je nach Auswertung können diese Datenbanken architekturbedingt aber an ihre Grenzen stossen: sei es bei der Datenbankgrösse, der Verarbeitungsgeschwindigkeit oder auch bei der Komplexität der Datenauswertung.

Mit einer Digitalisierungsstrategie alleine wird das Big-Data-Problem nicht gelöst. Davon abgeleitet müssen auch Digitalisierungsprojekte umgesetzt werden, die auf die Bearbeitung von Big Data ausgerichtet sind. In der Industrie gibt es derzeit allerdings noch wenige bekannte Projekte.

Grosses Potenzial für Big-Data-Projekte

Das Potenzial für solche Big-Data-Projekte ist jedoch vorhanden. Datenauswertungen werden für Fehleranalysen verwendet (Auswertung von Produktionsdaten/Chargenverfolgung) oder zu proaktiven Fehlervermeidungen herangezogen (Predictive Maintenance). Produktionsprozesse lassen sich optimieren und die Zuverlässigkeit von Prognosen überprüfen sowie kontinuierlich verbessern. Dazu werden sowohl historische, statische Daten (Volume) wie auch zeitnahe Streaming-Daten (Velocity) für eine Prognose miteinander verknüpft (Variety).
Bis die Big-Data-Projekte umgesetzt sind, wird es noch etwas dauern. Aber in naher Zukunft werden all die erfassten Daten bestimmt dazu verwendet, die IT und die Prozesse zeitnah zu steuern und zu verbessern. Langfristig werden grosse Datenmengen die Maximen und die Verfügbarkeit des IT-Betriebs sowie den Schutz der Kundendaten unterstützen. Ohne Big Data in den Datacentern wird schon bald nichts mehr gehen.
https://gia.ch

Gastkommentator René Lüscher, Leiter des Bereichs IT-Solutions und Mitglied der Geschäftsleitung der GIA Informatik in Oftringen