Big Data

Too big to use: Unternehmen mit vielen Datenquellen oft überfordert

Symbolbild: Pixabay

Fast jedes zweite Unternehmen in Deutschland, Österreich und der Schweiz hat ein Big-Data-Problem: Nur in acht Prozent werden unternehmensweit unterschiedlichste Datenquellen, inklusive Daten anderer Organisationen, zur Entscheidungsfindung genutzt. Bei 44 Prozent ist dieses Ziel teilweise erreicht. Viele Unternehmen verzetteln sich im Umgang und der systematischen Einbindung der Daten unterschiedlicher Herkunft. Vier von zehn klagen über fachliche Defizite, Daten für weiterführende Analysen einzusetzen. Die Folge: fehlende Wertschöpfung aus den Analytics-Investitionen.

Fallbeispiele für Data Analytics in der Praxis

Symbolbild: Fotolia/nicoElnino

Angesichts sich immer schneller ändernder Rahmenbedingungen ist die Bedeutung von Datenanalyselösungen rapide gestiegen. Unternehmen müssen in immer kürzerer Zeit immer weitreichendere Entscheidungen treffen. Dazu brauchen sie einen verlässlichen Datenbestand, der einerseits alle Informationen der Organisation enthält und andererseits rasch und unkompliziert ausgewertet werden kann.

Splunk rüstet Portfolio zur Datenanalyse auf

Logo: Splunk

Die auf Log-, Monitoring- und Reporting-Tools für Maschinendaten fokussierte Splunk hat Erweiterungen ihrer Werkzeuge zur Datenanalyse lanciert. Mit Hilfe von Machine Learning, mehr Performance und besserer Skalierung soll es mit den neuen Versionen von Splunk Enterprise und Splunk Cloud für Unternehmen einfacher sein, Fragen zu stellen, passende Massnahmen zu ergreifen und damit sinnvolle Geschäftsergebnisse zu erzielen, verspricht das Unternehmen mit Zentrale in San Francisco. Ermöglicht werde dies durch den Zugriff auf Daten aus beliebigen Quellen.

Big-Data-Analyse soll Staus in Städten vorhersagen

Wissenschaftler der King Abdulaziz University (KAU) in Saudi-Arabien haben ein Big-Data-Analysesystem entwickelt, um räumlich-zeitliche Events wie etwa Staus in Städten vorhersagen zu können. Um die Stadtverwaltung, Behörden und Bürger vorzeitig über entsprechende Ereignisse informieren zu können, setzen sie auf eine Kombination aus Cluster-Computing, maschinellem Lernen und die Geocoding-Applikation von Google Maps. Als Basis der Datenanalyse dienen Millionen von Twitter-Meldungen. Erste Testläufe des Systems im Grossraum London verliefen vielversprechend.

48. St. Galler Anwenderforum: Mit Autonomie und Architektur zu Daten-getriebener Innovation

Am 29.10. steht das nächste Anwenderforum der Universität St. Gallen auf dem Plan. Dabei ergibt sich wieder die Möglichkeit, mit erfahrenen Architekten, Projektleitenden und IT-Strategen sowie Forschenden der Universität St.Gallen über Architektur- und Transformationsprogramme zu diskutieren und diese weiterzuentwickeln. Im Zentrum steht diesmal die Frage: "Mit Autonomie und Architektur zu Daten-getriebener Innovation?".