HPE will mit Pointnext Einführung von Memory-Driven Computing beschleunigen

thumb
HPE will mit Pointnext Einführung von Memory-Driven Computing beschleunigen

Der kalifornische IT-Riese Hewlett Packard Enterprise (HPE) hat eine neue Inkubations-Einheit für die Lösung von Big-Data-Problemen mit Memory-Driven Computing vorgestellt. In der neuen Einheit arbeiten gemäss Mitteilung Experten von den Hewlett Packard Labs und HPE Pointnext. Sie sollen Anwenderunternehmen dabei unterstützen, Applikationen für Memory-Driven Computing zu bewerten und Proof-of-Concepts aufzusetzen, um Leistungssteigerungen zu erreichen, die zuvor nicht möglich waren.

Bei Memory-Driven Computing handelt es sich um eine Computer-Architektur, die nicht mehr den Prozessor in den Mittelpunkt der Rechnerplattform stellt, sondern den Arbeitsspeicher. Damit lassen sich Leistung und Effizienz drastisch steigern. Die HPE-Technologien für Memory-Driven Computing werden von den Hewlett Packard Labs im Forschungsprojekt "The Machine“ entwickelt. Durch die neue Architektur sollen Unternehmen die Verarbeitung von riesigen Datenmengen beschleunigen und Erkenntnisse in wesentlich kürzerer Zeit gewinnen können, verspricht der Konzern aus Palo Alto.

"Unsere Vision für Memory-Driven Computing ist, dass Kunden jedes einzelne Bit ihrer Daten erfassen, speichern und verfeinern können – und das bis zu 10.000-mal schneller als mit bisherigen Lösungen", sagt Beena Ammanath, Vice President für künstliche Intelligenz, Daten und Innovation bei HPE. "Mit der Einführung der neuen Angebote von HPE Pointnext können wir Memory-Driven-Computing-Technologien schneller zu unseren Kunden bringen und ihnen helfen, manche ihrer komplexesten Probleme schneller als je zuvor zu lösen."

Derzeit arbeite ein Team von Technologie- und KI-Experten von HPE Pointnext mit der Firma Travelport an der Einführung von Memory-Driven Computing, ist der Aussendung zu entnehmen. Travelport ist eine Handelsplattform für die Reisebranche, die weltweit Vertrieb, Technologie, Zahlungsmethoden und andere Lösungen bietet. In Partnerschaft mit HPE hat Travelport ein grosses Computer-System aufgebaut, das intern als "Wall of Compute" bezeichnet wird und das mit der ständig steigenden Nachfrage nach Online-Reisesuchen Schritt halten könne. Das Volumen der Online-Transaktionen verdopple sich alle 18 Monate und werde bis 2020 durchschnittlich drei Einkaufsanfragen pro Monat pro Person weltweit erreichen, heisst es. Heute bedeute dies bereits, dass täglich mehr als 125 Terabyte an Daten in und aus Travelports Rechenzentren bewegt werden.

Im April 2018 begann Travelport mit dem Einsatz von Memory-Driven Computing durch die Installation des In-Memory-Computersystems HPE Superdome Flex. Zudem arbeitete Travelport mit HPE-Experten zusammen, um seine Algorithmen mit Memory-Driven Computing-Programmiertechniken umzuschreiben. Darüber hinaus helfen HPE-Experten Travelport dabei, eine Leistungsbasis für Infrastruktur-Upgrades zu ermitteln, Kosten-Nutzen-Analysen für die Transformation zu erstellen und Anwendungen auf Memory-Driven Computing zu migrieren, anzupassen und neu zu gestalten.

HPE hat darüber hinaus auch eine Betriebs- und Entwicklungsumgebung basierend auf Memory-Driven Computing angekündigt, die für Unternehmen und Entwickler weltweit verfügbar sei. Die Memory-Driven Computing Sandbox besteht demnach aus einer HPE Superdome Flex mit Software-Defined Scalable Memory – einer aktuell im The-Machine-Projekt entwickelten Schlüsseltechnologie. Software-Defined Scalable Memory enthalte neuartige Soft- und Firmware, die es der Memory Fabric der Superdome Flex ermögliche, wesentlich grössere Pools gemeinsam genutzten Arbeitsspeichers zu adressieren, als das bislang möglich war, so HPE in der Aussendung. Der Arbeitsspeicher könne damit auf bis zu 96 Terabyte skaliert werden – und das bei gleichzeitig schnellerer und widerstandsfähigerer Leistung.

Im Forschungsprojekt "The Machine“ arbeitet HPE den eigenen Angaben zufolge darauf hin, mit einer einzigen Architektur das gesamte Unternehmen eines Kunden von der Edge bis zu jeder Cloud zu steuern. Mit diesem Projekt wolle man eines Tages ein Netz von Präzisionssystemen für einzelne Workloads bereitstellen – von verteilten Systemen an der Edge bis hin zu unternehmenskritischen Systemen im Rechenzentrum – die alle über eine sichere gemeinsame Betriebsplattform verbunden sind.