Big Data soll Pipelines sicherer machen

Rohrleitung: Schäden sind vorhersagbar (Foto: klassensprecher930, pixabay.com)

Bessere Big-Data-Analyseansätze könnten helfen, die Wartung von Gas-und Ölpipelines zu vereinfachen und diese letztlich sicherer zu machen, so Forscher in einer aktuellen Studie. "In vielen bestehenden Codes und Praktiken liegt der Fokus auf den Konsequenzen, was passiert, wenn etwas schiefgeht", erklärt dazu Fuzhan Nasiri, Professor am Fachbereich Bau-, Zivil- und Umwelttechnik der Concordia University in Kalifornien. Sinvolle prädiktive Modelle wären geeignet, insbesondere das Korrosionsrisiko wirklich vorauszuahnen.

Wo die wilden Daten leben

Data Marts: Durch die Automatisierung von Design, Entwicklung, Bereitstellung und Betrieb von Data Marts können Unternehmen schnell Business Intelligence-Lösungen bereitstellen, ohne Qualität, Leistung, Agilität oder Governance einzubüssen

Big Data oder Data Analytics sind einige der grössten Herausforderungen für die IT unserer Zeit. Viele Unternehmen befinden sich inmitten einer Umstellung auf eine datengesteuerte Ausrichtung ihrer Organisation und sind auf der Suche nach der dazu passenden Dateninfrastruktur. Verschiedene Ansätze versprechen Vorteile – doch vielerorts hakt es schon beim Verstehen der Begrifflichkeit. Wer weiss schon im Detail, wo der Unterschied zwischen Data Lake, Data Vault und Data Mart liegt? Oder wie genau ein Data Lake und das Data Warehouse zusammenarbeiten?

Pharma-Branche wittert in Big Data enormes Geschäftspotential

Big Data eröffnet Pharma-Branche enorme Geschäftsfelder (Symbolbild: Fotolia/ Nicoelnino)

Die Pharma-Branche setzt verstärkt auf Künstliche Intelligenz (KI), um in den Bergen elektronischer Daten, die durch die inzwischen digitalen Patientenakten, Melderegister und Versicherungsdaten verfügbar werden, zu schürfen. Die digital gesammelte Daten von Millionen Behandelten könnten die sündteuren klinischen Studien ersetzen und bei niedrigeren Kosten ein schärferes Bild von Therapie-Erfolgen und -Rückschlägen zeichnen. Mit individuell zugeschnittene Arzneien, der sogenannten personalisierten Medizin, hofft die Branche auf neue Absatzmöglichkeiten.

Schweizer Unternehmen investieren in Big Data und Internet of Things

Schweizer SAP-Anwenderunternehmen investieren in Big Data und Co (Bild: Gartner)

Big Data, Internet of Things und Künstliche Intelligenz/Machine Learning sind die Top drei Digitalisierungsthemen bei den Mitgliedern der Deutschsprachigen SAP-Anwendergruppe (DSAG). In diesen Bereichen haben SAP-Anwender Projekte geplant oder bereits begonnen, wie aus dem soeben veröffentlichten DSAG-Investitionsreport 2019 hervorgeht. Bei den Digitalisierungsbestrebungen in ihren Unternehmen sind die Befragten skeptischer als noch vor einem Jahr. Eine Tendenz, die sich auch bei den Schweizer Organisationen zeigt.

Big Data für Schweizer Unternehmen von zentraler Wichtigkeit

Symbolbild: Pixabay

Für die Mehrheit der Schweizer Unternehmen sind die wachsenden Mengen anfallender Daten und deren Analyse von zentraler Wichtigkeit. Dies geht aus einer Umfrage der Commerzbank Schweiz hervor. Bei 75 Prozent der befragten Unternehmen erklärte das Management demnach, dass die digitalen Daten schon heute eine zentrale Bedeutung hätten respektive in Kürze haben würden. Und bei rund 60 Prozent der Betriebe wird damit gerechnet, dass aufgrund von Big Data starke neue Wettbewerber auftauchen und es zu einer Konsolidierung der Märkte komme.

Fallbeispiele für Data Analytics in der Praxis

Symbolbild: Fotolia/nicoElnino

Angesichts sich immer schneller ändernder Rahmenbedingungen ist die Bedeutung von Datenanalyselösungen rapide gestiegen. Unternehmen müssen in immer kürzerer Zeit immer weitreichendere Entscheidungen treffen. Dazu brauchen sie einen verlässlichen Datenbestand, der einerseits alle Informationen der Organisation enthält und andererseits rasch und unkompliziert ausgewertet werden kann.

Splunk rüstet Portfolio zur Datenanalyse auf

Logo: Splunk

Die auf Log-, Monitoring- und Reporting-Tools für Maschinendaten fokussierte Splunk hat Erweiterungen ihrer Werkzeuge zur Datenanalyse lanciert. Mit Hilfe von Machine Learning, mehr Performance und besserer Skalierung soll es mit den neuen Versionen von Splunk Enterprise und Splunk Cloud für Unternehmen einfacher sein, Fragen zu stellen, passende Massnahmen zu ergreifen und damit sinnvolle Geschäftsergebnisse zu erzielen, verspricht das Unternehmen mit Zentrale in San Francisco. Ermöglicht werde dies durch den Zugriff auf Daten aus beliebigen Quellen.

Big-Data-Analyse soll Staus in Städten vorhersagen

Wissenschaftler der King Abdulaziz University (KAU) in Saudi-Arabien haben ein Big-Data-Analysesystem entwickelt, um räumlich-zeitliche Events wie etwa Staus in Städten vorhersagen zu können. Um die Stadtverwaltung, Behörden und Bürger vorzeitig über entsprechende Ereignisse informieren zu können, setzen sie auf eine Kombination aus Cluster-Computing, maschinellem Lernen und die Geocoding-Applikation von Google Maps. Als Basis der Datenanalyse dienen Millionen von Twitter-Meldungen. Erste Testläufe des Systems im Grossraum London verliefen vielversprechend.

48. St. Galler Anwenderforum: Mit Autonomie und Architektur zu Daten-getriebener Innovation

Am 29.10. steht das nächste Anwenderforum der Universität St. Gallen auf dem Plan. Dabei ergibt sich wieder die Möglichkeit, mit erfahrenen Architekten, Projektleitenden und IT-Strategen sowie Forschenden der Universität St.Gallen über Architektur- und Transformationsprogramme zu diskutieren und diese weiterzuentwickeln. Im Zentrum steht diesmal die Frage: "Mit Autonomie und Architektur zu Daten-getriebener Innovation?".

Seiten

Big Data abonnieren