Pure Storage führt "Data Hub"-Architektur ein

Logo: Pure Storage
Logo: Pure Storage

Die auf All-Flash spezialisierte Pure Storage hat mit "Data Hub" ein neues Konzept zur Modernisierung von Speicherarchitektur für unstrukturierte, datenintensive Workloads lanciert. Data Hub basiert gemäss den Angaben auf Pure Storage Flashblade und sei als konsequent datenzentrische Lösung konzipiert. Diese richte sich an Unternehmen, die ihre mittlerweile geschäftskritischste Ressource effektiver nutzen wollen: ihre Daten, wie Pure Storage betont.

Mit Data Hub sollen Daten bereitgestellt, ausgetauscht und vereint werden können, "um letztendlich noch nie da gewesene Mehrwerte zu schaffen," wie das Unternehmen aus dem kalifornischen Mountain View verspricht.

"Datensilos in Unternehmen sind ein allgemeines Problem jeder Branche. Unternehmen müssen jedoch den Wert von Daten erkennen können, auch wenn die relevanten Daten vielleicht gerade aus den Augen und aus dem Sinn sind. Dies ist aber unmöglich ohne einen Einblick in das Gesamtbild“, erklärt Matt Burr, General Manager für FlashBlade bei Pure Storage. Ein Data Hub integriere die wichtigsten Merkmale der vier Datensilos Data Warehouse, Data Lake, Streaming Analytics sowie KI-Cluster und vereinheitliche sie auf einer einzigen Plattform.

Ein Data Hub muss nach Meinung von Pure Storage vier Schlüsselmerkmale unter anderem einen hohen Durchsatz bei der Speicherung von Dateien und Objekten ermöglichen. Denn Backup- und Data-Warehouse-Appliances erforderten einen massiven Durchsatz für Mainstream-, dateibasierte Workloads und Cloud-native, objektbasierte Anwendungen. Auch echtes Scale-Out-Design sei Voraussetzung, denn die Stärke eines Data Lake sei seine native, skalierbare Architektur, die es Batch-Jobs ermöglichten, grenzenlos zu skalieren, da Software – und nicht der Benutzer – die Ausfallsicherheit und Performance verwalte.

Auch eine mehrdimensionale Performance sei gefordert, denn Daten seien unvorhersehbar und könnten mit unterschiedlicher Geschwindigkeit ankommen. Daher benötigten Unternehmen eine Plattform, die jeden Datentyp mit jedem Zugriffsmuster verarbeiten kann. Letztlich soll ein Data Hub auch massiv parallel sein, denn in der IT habe es einen drastischen Wandel von seriellen zu parallelen Technologien gegeben, die das menschliche Gehirn nachahmen sollen. Die Speichertechnologie müsse hier mithalten.