thumb

Informatiker von Samsung und der North Carolina State University haben einen Weg gefunden, Computer-Anwendungen um mehr als neun Prozent schneller zu machen. Im Prinzip geht es bei ihrem Ansatz darum, effektiver genau jene Daten im Cache-Speicher eines Prozessors zu behalten, die für Rechenoperationen wirklich gebraucht werden. So reduziert der "Dense Footprint Cache" Zeitverluste durch Speicherzugriffe.

Damit der Prozessor eines Computers Berechnungen anstellen kann, muss er sich zunächst die richtigen Daten aus dem grossen Hauptspeicher holen. Das kostet Zeit. Ein integrierter DRAM-Cache lagert kleinere Datenmengen näher am Prozessor, was Zeit spart und somit Programme schneller macht - aber nur, wenn auch wirklich die für Berechnungen erforderlichen Daten im Cache liegen. Der neue Ansatz der Informatiker setzt nun darauf, dass der Cache lernt, zu optimieren, welche Daten dort zwischengespeichert sind.

Klassisch speichert der Cache immer noch relativ grosse Makroblöcke an Daten, von denen in der Regel nur ein Teil wirklich für Berechnungen nötig ist. Wenn der Cache lernt, welche Teile das sind, kann er den Makroblock entsprechend schrumpfen, was dem Prozessor einen noch schnelleren Zugriff ermöglicht. Zudem wird im Cache Platz frei, um weitere, für Berechnungen wahrscheinlich erforderliche Daten zwischenzuspeichern. Insgesamt sinkt also der Zeitverlust durch Speicheroperationen, der Prozessor kommt schneller ans Berechnungsziel.

Die Forscher haben diesen "Dense Footprint Cache" in Simulationen am Beispiel von Big-Data-Anwendungen mit drei Mrd. Operationen getestet. Die Ergebnisse legen nahe, dass der Ansatz Programme um 9,5 Prozent schneller macht als derzeit übliche Methoden zur DRAM-Cache-Verwaltung. Zudem reduziere das den Energieverbrauch um 4,3 Prozent. Das Risiko, das der Prozessor Daten im lokalen Cache sucht, aber nicht findet und daher auf den Hauptspeicher zugreifen muss, sinke sogar um 43 Prozent.



Der Online-Stellenmarkt für ICT Professionals