thumb

Der globale Datenberg wächst in wahrhaft astronomische Dimensionen. Forscher am Global Information Industry Center der University of California in San Diego (UCSD) haben eine Studie veröffentlicht, der zufolge allein die Enterprise-Server rund um den Planeten im Jahr 2008 aufgrund weitgehend unsichtbarer Transaktionen die unglaubliche Menge von 9,57 Zettabyte - also fast zehn Trilliarden Byte - verarbeitet haben.
Das entspricht rund 20 Stephen-King-Bücherstapeln von der Erde bis zum Neptun. Zudem steigt die Datenflut ungebremst weiter. Die Wissenschaftler schätzen, dass sich der Workload der Server etwa alle zwei Jahre verdoppelt. Der den gewaltigen Datenmengen entsprechende virtuelle Bücherstapel wird daher Mitte des kommenden Jahrzehnts so hoch, dass er bis zum nächsten Stern, Alpha Centauri, reicht.

Den Forschern zufolge sind 2008 rund 27 Mio. Server zum verarbeiten digitaler Information in Unternehmen zum Einsatz gekommen. "Die meisten der Daten sind unglaublich flüchtig. Sie werden innerhalb weniger Sekunden geschaffen, verwendet und wieder verworfen, ohne, dass sie je ein Mensch sieht", sagt Roger Bohn, Professor für Technologiemanagement an der UCSD. Das liegt daran, dass beispielsweise ein Kauf auf Amazon nur wenige Klicks erfordert, im Hintergrund aber diverse Abfragen laufen, beispielsweise zum Lagerstand oder für die personalisierte Produktempfehlungen.

Der tatsächlich verarbeitete Datenberg fällt somit viel höher aus, als den meisten bewusst ist - eben geschätzte 9,57 Zettabyte für das Jahr 2008. Er wächst zudem rasant mit den verfügbaren Serverkapazitäten mit. Geht man bei einem entsprechenden Bücherstapel von 4,8 Zentimeter dicken Büchern mit 2,5 Megabyte an Informationsinhalt aus, was einem typischen Stephen-King-Roman entspricht, würde der Stapel 2024 so hoch, dass er die Entfernung von 4,37 Lichtjahren - über 40 Bio. Kilometer - zu Alpha Centauri überbrückt.

Neue Technologien

Angesichts der Datenmassen wird es für Unternehmen und Organisationen immer wichtiger, Grössenordnungsvorteile zu erzielen. Darin sehen die Forscher einen treibenden Faktor für die Trends zur Virtualisierung und nun auch Cloud Computing sowie "grünen" Rechenzentren. "Die Wettbewerbsfähigkeit von Konzernen wird zunehmend davon abhängig, innovative Suchtechniken einzusetzen, damit User Daten finden und nützliche Ergebnisse bekommen", meint Chaintanya Baru, Wissenschaftler am San Diego Supercomputer Center. Auch die Archivierung wird zur immer grösseren Herausforderung.

Das gilt wohl nicht zuletzt für die Internet-Riesen Google, Microsoft und Yahoo, die in der aktuellen Arbeit eine Sonderstellung einnehmen. Die Forscher betonen, dass die drei Unternehmen keine offiziellen Angaben zur Zahl ihrer Server machen, aber oft Rechner in Eigenregie aus Teilen zusammenbauen. Doch sind Server-Verkaufszahlen der Analystenhäuser Gartner und IDC Basis für die Studie. Es ist also davon auszugehen, dass diese den auf Unternehmensservern anfallenden Datenberg immer noch unterschätzt.

Website zur Studie "How Much Information?": http://hmi.ucsd.edu

255-2551und1server.jpg