Am CSCS ist Energieeffizienz auch bei Höchstleistung ein zentrales Thema

Die Energieeffizienz neuster Rechnertechnologien wird kontinuierlich verbessert. Das zeigt sich auch exemplarisch am 'Piz Daint' (im Bild), der mehrfach mit effizienteren Prozessor-​Generationen ausgebaut wurde. (Bild: CSCS)

Der Begriff "Hochleistungsrechner" birgt hohen Energiebedarf bereits in sich – hohe Leistung braucht entsprechend Energie. Energieeffizienz ist bei der Beschaffung und Nutzung der Rechner am Nationalen Hochleistungsrechenzentrums der Schweiz (CSCS) deshalb ein zentrales Thema – wie bereits bei der Planung des Neubaus in Lugano vor mehr als einem Jahrzehnt.

Deutschland bekommt ersten europäischen Exascale-Rechner

Der bisherige Supercomputer 'Juwels' des Forschungszentrums Jülich (© FZ Jülich)

Das Forschungszentrum Jülich wird Standort des ersten europäischen Exascale-Rechners. Der Supercomputer soll als erster Rechner in Europa die Grenze von 1 Trillion Rechenoperationen pro Sekunde – einer „1“ mit 18 Nullen – brechen. Beschafft werden soll das System von der europäischen Supercomputing-Initiative Euro HPC JU.

HPE-Supercomputer "Frontier" durchbricht Exascale-Schallmauer

HPE Supercomputer Frontier (Bild: HPE)

Mit seinem neuen "Frontier"-System hat der US-IT-Riese HPE einen Supercomputer vorgestellt, der erstemals die Exascale-Schallmauer durchbricht. Gemäss den Infos von HPE, erreicht "Frontier" exakt 1,102 Exaflops beim HPL-Benchmark (High-Performance Linpack). Der Supercomputer, den der kalifornische IT-Konzern für das Oak Ridge National Laboratory (ORNL) des US-Energieministeriums gebaut hat, ist somit die neue Nummer 1 der aktuellen Top500-Liste der weltweit leistungsstärksten Supercomputer.

Japanische Uni verliert 34 Millionen Forschungsdateien bei Backup

Universität von Kyoto: Forschungsdaten gelöscht (Bild: Uni Kyoto)

77 Terabyte Forschungsdaten gingen der japanischen Universität in Kyoto verloren – wegen eines Fehlers im Backup-System ihres Supercomputers. Dabei wurden 34 Millionen Daten aus 14 Research-Gruppen gelöscht, berichtet "Bleeping Computer". Die Auswirkungen sollen so weitreichend sein, dass die Arbeit von vier der betroffenen Gruppen nicht mehr zu retten sei, gab die Universität auf ihrer Webseite bekannt.

Per Supercomputing errechnete neue Modelle führen Wetter und Klima zusammen

Die Forschungsinitiative EXCLAIM entwickelt neue, globale Klimamodelle, die regionale Wettermodelle hochaufgelöst integrieren sowie Stürme, Gewitter oder Hurrikane direkt simulieren. (Themenbild: Wikipedia/ NOAA)

Starkregen und Hochwasser haben das Wetter in den vergangenen Wochen geprägt. Um diese Wetterereignisse genauer vorherzusagen und zusammen mit dem globalen Klimawandel besser zu verstehen, entwickelt die ETH Zürich in Partnerschaft mit dem Schweizerischen Nationalen Supercomputing Centre (CSCS), dem Schweizer Data Science Center (SDSC), dem Forschungsinstitut Empa sowie dem Bundesamt für Meteorologie und Klimatologie Meteoschweiz eine neue Generation von hochaufgelösten Wetter-​ und Klimamodellen.

Tesla entwickelt Supercomputer

Tesla arbeitet an einem Supercomputer (Logobild: Jerremy von Sidney/CC BY-SA 3.0)

Teslas Traum vom vollständigen autonomen Fahrerlebnis ist unmittelbar mit der künstlichen Intelligenz verbunden. Ein ehrgeiziges Ziel, wenn man bedenkt, dass das Unternehmen noch ein ganzes Stück davon entfernt ist. Abhilfe soll jetzt ein Supercomputer leisten, der aber nur eine Vorstufe zu einem noch leistungsstärkeren namens Dojo sein soll. Jedoch muss sich auch die Vorstufe zu ebendiesem nicht verstecken.

Fujitsu baut 10-Petaflops-Supercomputer für portugiesische Forschungseinrichtungen

Rack des Fujitsu Prime HPC (Bild: zVg)

Fujitsu hat einen neuen Supercomputer der 10-Petaflops-Klasse für Portugals Forschung entwickelt. Der Auftrag sei Teil einer Initiative der Europäischen Union und der portugiesischen Regierung, teilt Fujitsu dazu mit. Die Initiative "European High Performance Computing (HPC)" soll HPC-Kapazitäten auf Weltklasseniveau für Forscher aus Wissenschaft und Wirtschaft in ganz Europa bereitstellen.

HPE lanciert Supercomputer-as-a-Service

Bild: HPE

Der US-IT-Riese Hewlett Packard Enterprise (HPE) will seine Supercomputer-Systeme künftig als As-a-Service-Lösung über sein IT-as-a-Service-Projekt Greenlake zur Verfügung stellen. Die Systeme können dabei im Rechenzentrum des jeweiligen Anwenderunternehmens oder in einem Colocation-Rechenzentrum laufen, werden von HPE betrieben und nach tatsächlicher Auslastung abgerechnet. Die finanzielle Flexibilität und Vereinfachung soll es jedem Unternehmen ermöglichen, Hochleistungsrechner zu nutzen.

Supercomputer und explainable AI ermöglichen entscheidenden Schritt bei Krebszellen-Genanalyse

Der Supercomputer Fugaku (Bild: Riken)

Der Supercomputer Fugaku von Fujitsu und Riken sowie Explainable AI (XAI/"Erklärende Künstliche Intelligenz")-Technologien aus den Fujitsu Laboratories haben im Rahmen eines Forschungsprojekts der Tokyo Medical and Dental University (TMDU) der Arbeit an Erkenntnissen zur Verbindung von genetischer Disposition und Krebsrisiko einen kräftigen Schub verliehen.

Seiten

Supercomputer abonnieren