Server: Energieverbrauch steigt an (Foto: pixabay.com, dlohner)

Forscher der Universität Kopenhagen haben einen Algorithmus entwickelt, der den Energiehunger der weltweiten Computerserver deutlich reduzieren und damit einen wichtigen Beitrag zum Klimaschutz leisten soll. Möglich wird das durch eine ausgeklügelte Verteilung der verfügbaren Server-Kapazitäten. Diese werden nicht wie bisher ungleichmässig verteilt, was zu Überlastungen, langen Ladezeiten und einem hohen Energieverbrauch führt, sondern automatisch so verlagert, dass freie Kapazitäten bestmöglich genutzt werden.

"Wir haben einen Algorithmus gefunden, der eine der häufigsten Ursachen für Server-Überlastungen ein für alle Mal aus dem Weg räumt", stellt Mikkel Thorup, Professor am Department of Computer Sciences der Universität Kopenhagen, klar. Seine aktuelle Errungenschaft baut auf einem Vorgängerprojekt auf, bei dem es ebenfalls um eine effizientere Verteilung von Server-Ressourcen ging. "Diese neue Version ist eine enorme Verbesserung und reduziert das Problem der Ressourcenverschwendung auf das grösstmögliche Mass", betont der Experte.

Es sei eben eine der Kehrseiten der wachsenden Internetnutzung, dass Computerserver immer mehr Energie benötigen würden, gibt Thorup zu bedenken. Und mit dem steigenden Energiehunger wachse auch die Belastung für die Umwelt. "Das wird sich in Zukunft noch weiter verschärfen. Deshalb brauchen wir dringend eine skalierbare Lösung. Genau das ist unser Algorithmus", so der Wissenschaftler.

Der neue Algorithmus löst das bekannte Problem, dass einzelne Server überlastet werden, weil sie mehr Client-Anfragen bekommen als sie eigentlich abarbeiten können. "Das passiert zum Beispiel dann, wenn Nutzer Schlange stehen, um einen bestimmten Netflix- oder Vimeo-Film anzusehen. Die Konsequenz ist, dass das System dann oft Klienten viele Male hin- und herverschieben muss, um eine Balance zwischen den Servern zu finden", erläutert Thorup. Die mathematischen Berechnungen hierfür seien sehr aufwendig und würden viel Energie verschlingen.

Mit dem von Thorup und seinem Team entwickelten Ansatz werden Client-Anfragen so gleichmässig wie möglich über alle verfügbaren Server verteilt. Das Hin- und Herschieben wird dabei auf ein notwendiges Minimum reduziert. Letztendlich wird auf diese Weise sichergestellt, dass kein Server mehr als zehn Prozent mehr Belastung ausgesetzt ist als jeder andere.