Beitrag der IT zur Energieeinsparung. Teil 3: Analyse

1.1 Der Trend zum Rechenzentrum

Aus wirtschaftlichen Gründen verlagerten viele Unternehmen Teile ihrer IT (insbesondere Webserver) in Rechenzentren, um verbesserte Verfügbarkeit zu erzielen und die Betreuung auszulagern.

Der Umzug in ein Rechenzentrum hat aber noch weitere Vorteile:

  1. Die Unternehmens-IT muss sich bei Störungen nicht mehr selbst um den Server kümmern.
  2. Im Falle einer Störung ist der entstehende Aufwand in der Regel durch den Hostingvertrag gedeckt: die Kosten bleiben kontrollierbar.
  3. Im Falle eines Stromausfalls haben Rechenzentren die besseren Möglichkeiten, einen Ausfall der Struktur abzuwenden. In einigen Fällen kommen ergänzend zur kurzzeitigen Überbrückung mittels USV-Anlagen Dieselaggregate hinzu.[1] Für die meisten Unternehmen, die IT einsetzen, ist dieser Aufwand wirtschaftlich gar nicht zu rechtfertigen.
  4. Im Serverraum der Unternehmen wird weniger Platz belegt.
  5. Die IT-Infrastruktur innerhalb des Unternehmens hat einen geringeren Energiebedarf.
  6. Eine schnelle Anbindung an das Internet ist fast immer garantiert. 100 MBit/s sind heute weit verbreitet.[2]

Weil Rechenzentren in der Regel mehrere Kunden auf einer Maschine unterbringen, werden hohe Kosten eingespart. Der dadurch entstehende Preisvorteil kann an die Kunden weitergegeben werden.

1.2 Leistung und Leistungsaufnahme

1.2.1 Leistungsaufnahme moderner PCs und Server

In modernen Personal Computern wie auch Servern befinden sich Komponenten, die in unterschiedlichen Anzahlen und Leistungsstärken vorkommen. Bei PCs, insbesondere bei Büro-PCs finden sich innerhalb der Epochen gut vergleichbare Konstellationen, die zudem in relativ einfacher Form aufgebaut sind. So kommen diese PCs mit nur einer Festplatte und einer mittelmäßigen Bestückung hinsichtlich Prozessor und Arbeitsspeicher aus. Auf leistungshungrige Komponenten wie starke Prozessoren oder 3D-Grafikkarten kann mangels Bedarf verzichtet werden. Bezüglich der Leistungsaufnahme der einzelnen Komponenten solcher Durchschnitts-PCs kann nachfolgende Aufstellung getroffen werden. Sie gilt unter der Annahme einer durchschnittlichen Nutzung, über einen Arbeitstag verteilt.

image
Tabelle 2: Leistungsaufnahme einzelner PC-Komponenten.[3]

Festzuhalten ist, dass auch das Netzteil eines Computers, bei welchem es sich um ein Schaltnetzteil handelt, für seine Arbeit Energie benötigt, welche nicht direkt dem Computersystem zur Verfügung gestellt werden kann. Moderne und qualitativ hochwertige Netzteile haben einen Wirkungsgrad von 95 %[4], bei 100 Watt Gesamtleistungsaufnahme entfallen also 5 Watt nur auf das Netzteil.

1.2.2 Leistungsanstieg der Technik

Ähnlich wie Moore schon 1965 vorhersagte, führten Verkleinerung und neue Technologien zu einer Verdichtung von Komponenten und damit zu einer Leistungssteigerung der Computertechnik über die Jahre hinweg. Belady stellte fest, dass sich die Leistungsfähigkeit eines gewöhnlichen Servers zwischen den Jahren 1999 und 2007 um den Faktor 75 gesteigert hat, während die Leistungsaufnahme nur um das 16fache zunahm.[5]

image
Abbildung 2: Ungefähre Leistungszunahme bei durchschnittlichen Servern.[6]

Selbst anhand von Beladys nur grober Analyse lässt sich eine Aussage nicht abwenden: moderne Computer sind weitaus leistungsfähiger als früher und das Verhältnis zwischen Leistung und Leistungsaufnahme hat sich kontinuierlich verbessert. Dies lässt auch die Schlussfolgerung zu, dass sich IT-Infrastrukturen unter Berücksichtigung des fortschreitenden Wandels früher amortisieren, aber auch ein verfrühter Austausch – unter Betrachtung der energiewirtschaftlichen Aspekte – sinnvoll sein kann. Aus unternehmenswirtschaftlicher Sicht, die dann auch Kosten für Neuanschaffungen, Installation, Migration und Verschrottung betrachtet, muss ein Austausch von Hardware jedoch genauer geprüft werden.

Verantwortlich für diese Entwicklung sind insbesondere:

  1. Effizientere Netzteile, die weniger Energie für die Schaltarbeit aufwenden
  2. Die Bauform moderner Halbleiter: dünnere Leitungen und kleinere Komponenten sowie eine Verdichtung der Anzahl der Schaltkreise
  3. Geringere Abwärme im Verhältnis zur Leistung: dadurch sinkt der Kühlungsaufwand
  4. Befehlssätze in Prozessoren, die Aufgaben effizienter umsetzen können. Dadurch müssen bestimmte Abläufe nicht mehr mit den Basisbefehlen abgearbeitet werden.
  5. Energiesparende und größere Festplatten. In Datacentern waren in der Vergangenheit ganze Rackbreiten voller senkrecht stehender Festplatten keine Seltenheit. Größere und schnellere Festplatten ersparen den Einsatz von beispielsweise 24 jeweils 72 bis 138 Gigabytes fassenden SCSI-Festplatten im JBOD-Verbund, die heute beispielsweise durch drei oder vier 2-Terabyte-Festplatten im RAID-5- oder RAID-10-Verbund ersetzt werden können und damit auch den steigenden Speicherplatzbedarf abdecken.
  6. Modernisierung und Verschlankung der Betriebssysteme und Programme, die mit weniger Overhead und damit Zeitersparnis arbeiten können.
  7. Durch die schnellere Arbeitsweise lassen sich beispielsweise Server in Unternehmen nach einem Arbeitstag in einen Modus versetzen, der nur einen Teil der Ressourcen freigibt und damit Energie spart. Eine einfache Form der Skalierung ist also denkbar. Noch besser funktioniert dies bei virtualisierten Servern, weil ganze Maschinen in Ruhezeiten heruntergefahren werden können.

image
Abbildung 3: HP P2000 SFF Modular Smart Array Chassis für bis zu 24 Festplatten.[7]

1.3 Ein- und Mehrzwecksysteme

Aus Gründen wie Leistungsfähigkeit, Verfügbarkeit und in einigen Fällen auch der Lizenzierung[8] hat es sich über die Jahre hinweg etabliert, Server zweckgebunden einzusetzen. Damit ging der Betrieb eines Servers (im Sinne einer Software) mit dem Betrieb eines physikalischen Servers, also einer eigens hierfür eingesetzten Maschine einher.

Diese sogenannte Single-Purpose-Auffassung, bei der für eine Anwendung ein Server eingesetzt wird, bringt aus energiewirtschaftlicher, aber auch aus ökonomischer Sicht gleich mehrere Folgen mit sich:

  • Diese Maschinen sind über den Tag verteilt gerade einmal zu 10 bis 15 % ausgelastet[9], [10]
  • Bereits im Leerlauf benötigen solche Maschinen bereits 70 % des Energiebedarfs, der unter Last entsteht[11]
  • Kordowske und Koch gaben 2007 für einen Datenbankserver eine Leistungsaufnahme von 350 Watt im Leerlauf an; unter Last sei diese nur um 50 Watt höher[12]
  • Werden für mehrere Zwecke Server benötigt, führt dies zu einem rasanten Anstieg der Maschinenzahl im Rechenzentrum und damit zu sehr hohem Platzbedarf
  • Mit dem Anstieg der Maschinenzahl und davon ausgehender Abwärme geht ein höherer Bedarf für Entwärmung einher[13]

Durch die Nutzung von Backup-Servern verdoppelt sich der Energie- und Wartungsaufwand.

Die durch den zweckgebundenen Einsatz von Servern entstandene Gewährleistung verfügbarer Ressourcen und die vermeintlich erhöhte Stabilität geht gezwungenermaßen mit einem höheren Energiebedarf einher.

Server, die nur eine Rolle bedienen, werden auch als Volume Server oder eingedeutscht Volumenserver bezeichnet. Der Name leitet sich davon ab, dass diese Maschinen ihre eigenen Speicher (Volume), haben.

1.4 Backup-Server für Störungsfälle

Die ökologischen und ökonomischen Auswirkungen von Single-Purpose-Servern verstärken sich noch, wenn zu diesem historisch gewachsenen System sogenannte Backup-Server hinzukommen. Dabei werden bestimmte Server- und somit auch Maschinen in mehrfacher Zahl betreiben. Bei Domänencontrollern und Mailservern beispielsweise ist es sinnvoll, diese mit einem sogenannten Backup-System zu betreiben. Hier laufen Server mit, die die gleichen Aufgaben erfüllen, aber erst bei einem Ausfall einspringen oder angesprochen werden. Weil Einträge für Mailserver Domänencontroller, DHCP- und DNS-Server clientseitig eine Rangfolge haben, kommen diese Backup-Systeme wirklich nur im Falle eines Ausfalls zum Einsatz.

Nicht abgedeckt ist hier eine Störung der Netzwerkinfrastruktur oder gar ein Stromausfall, der sich in der Regel auf alle Maschinen gleichermaßen auswirkt.

1.5 Mehrzwecksysteme und der Übergang von Mainframes zu modernen Thin-Client-Lösungen

Den Einzwecksystemen stehen Mehrzwecksysteme gegenüber. Betrachtet man die Historie, waren diese in den Anfängen der Computerzeit verbreitet – viel mehr aus wirtschaftlichen statt aus energiewirtschaftlichen Gründen. Denn: die Anschaffung des rechenstarken Mainframes musste sich rentieren, daher wurden die darauf auszuführenden Aufgaben hierauf eingeplant und durchgeführt. Die Ausgabe erfolgte über die damals schlicht als Terminals bezeichneten Arbeitsplatzgeräte. Auch spielte damals schon der hohe Energiebedarf des Mainframes eine gewisse Rolle, weshalb zusätzliche Rechner vermieden werden sollten. Die mittlere Auslastung eines solchen Mainframe-Systems konnte bei 90 Prozent liegen.[14]

Die Nutzung des Mainframes als Mehrzwecksystem ergab sich aus der vielseitigen Nutzung durch die Anwender, schlichtweg vor allem aber auch dadurch, dass eine Maschine für alle Aufgaben genutzt wurde.

Die Prinzipien des klassischen Mainframes tauchen auch in der jüngeren Historie immer wieder auf. Betriebssysteme, die die parallele Nutzung durch mehrere Nutzer erlauben, waren und sind seit jeher erhältlich. Eine modernere Interpretation des Mainframe-Prinzips mit Blick auf den Einsatz an Büroarbeitsplätzen bot Sun Microsystems in den 90er Jahren als Komplettlösung unter dem Namen Sun Ray an. Oracle führt diese Angebotspalette seit der Übernahme im Jahr 2010 als Oracle Sun Ray fort. Das Produkt Sun Ray setzt im Wesentlichen einen Sun Ray-Server sowie mehrere Sun Ray-Client voraus. (Aus technischer Sicht funktioniert es auch mit einem Client, dann ist aber der Mehrwert verloren und das System ist selbst mit wenigen Clients wirtschaftlich unrentabel.) Bei den Client-Terminals handelt es sich um Kleinstrechner mit sehr kompakter Bauweise, im Format eines dicken Buches, an die gewöhnliche Ein- und Ausgabegeräte, also Tastatur, Maus und Bildschirm angeschlossen werden können. Sie fungieren als „Sichtfenster“ zur Sitzung, die der Benutzer auf dem Sun Ray-Server ausführt.

Die Hemmschwelle, Sun Ray einzusetzen, war und ist häufig der Tatsache geschuldet, dass Oracle hier eine enge Bindung mit eigenen Softwareprodukten schafft, die insbesondere im Unternehmensumfeld kaum zu integrieren ist, weil dort Microsoft-basierte Lösungen sowie solche, die darauf aufsetzen, genutzt werden. Eine Vielzahl

Ebenfalls modernere, aber nicht als Komplettprodukt angebotene Lösungen setzen sich aus beliebiger Hardware sowie speziellen Windows-Server-Varianten zusammen, die als Terminalserver fungieren (Windows Terminal Server). Zu diesen können von Arbeitsstationen Sitzungen über das Remote-Desktop-Protokoll (RDP) hergestellt werden. Die hierfür benötigte Hardware können sich Kunden wie Unternehmen selbst aussuchen oder vom Systemhaus liefern lassen.

Relevant ist insbesondere das serverseitig laufende Betriebssystem. Da es sich hierbei um Microsoft Windows handelt, ist diese Lösung im Betrieb im Unternehmensumfeld mit weitaus niedrigerem Aufwand integrierbar als etwa die von Oracle angebotene Lösung, weil bestehende Strukturen kaum oder gar nicht abgeändert werden müssen und bereits angeschaffte Software weiter genutzt werden kann. Gerade in Unternehmen, die an ihre Software (zum Beispiel ERP-Systeme, Microsoft Exchange oder Microsoft Office) gebunden sind, kommt ein Umstieg gar nicht erst in Frage. Ferner entfallen bei fortlaufendem Einsatz der aus Anwendersicht gewohnten Softwareprodukte hohe Umschulungskosten für die Mitarbeiter.

Aus energiewirtschaftlicher Sicht rentiert sich die Umstellung auf Strukturen mit Temrinalservern und Thin-Clients bereits zum Zeitpunkt der Inbetriebnahme. Bei der Elektronikkette Medimax beispielsweise ging man nach der Umstellung von einer Gesamtenergieeinsparung von 45 %[15] aus; die KFZ-Werkstattkette ATU ermittelte nach Umsetzung einer sehr ähnlichen Umstrukturierung eine Energieeinsparung von immerhin 30 %, was in diesem Fall aus dem Jahr 2009 einer Menge von 1557 Megawattstunden entspricht.[16]

1.6 Terminalserver und Thin Clients im Arbeitsplatzumfeld

Thin Clients sind nicht nur erst im Einsatz günstiger, sie werden in der Regel zentral verwaltet und verursachen damit auch weitaus weniger Verwaltungsaufwand für die IT-Abteilungen. Die kompakten Geräte verbrauchen durchschnittlich 16 Watt und weisen damit eine enorme Differenz zu PCs auf. Werden rein die PC-Arbeitsplätze betrachtet, an denen herkömmliche PCs durch Thin Clients ersetzt wurden, so liegt die Gesamtenergieeinsparung bei 81,2 %.[17]

image
Tabelle 3: Ökologischer Vergleich zwischen der Verwendung von PCs und Thin Clients an der Frankfurter Börse; Ausschnitt.[18]

Mit einer Lebensdauer von 7 bis 8 Jahren liegen Thin Clients weit über der Lebensdauer von herkömmlichen Personal Computern, die 3 bis 5 Jahre lang eingesetzt werden können[19] und bis zum Ende ihrer Lebensdauer wegen des Verschleißes der Festplatten und verschmutzter Lüfter nur noch einen Bruchteil der Leistung eines Neugerätes erbringen können.

Lebensdauer, Beschaffungs- und Wartungskosten machen Thin-Clients nicht nur aus energiewirtschaftlichen, sondern auch aus gesamtwirtschaftlichen Gründen für Unternehmen interessant.

Eine komplette Infrastruktur für die Verwendung von Thin Clients verlangt aber auch den Betrieb eines Terminalservers. Als ein System mit geringem Integrationsaufwand kann Microsoft Windows eine Lösung sein, weil die Anwender in der bekannten Windows-Umgebung arbeiten können.

image
Abbildung 4: Wirtschaftlichkeitsbetrachtung: PC vs. Thin Client, Annahme: 175 Clients. Thin Client inklusive Betrachtung des Servers mit Klimatisierung.[20]

Mit 2,2 Millionen Geräten machen Thin Clients in Deutschland einen Anteil von 8,3 % unter den Arbeitsplatzcomputern aus. Schätzungen aus dem Jahr 2010 sagten für das Jahr 2013 einen Anstieg auf 11,6 % vorher. Dem gegenüber standen unter anderem PCs mit 13 Millionen im Jahr 2010 (entspricht fast 50 %) und 11,5 Millionen geschätzt im Jahr 2013.[21] Die Zahlen zeigen, welch geringe Verbreitung Thin Clients haben, aber auch welches Potenzial noch möglich ist.

1.7 Das Internet und Unternehmensnetzwerke als Energieverbraucher

Als ein Unternehmen, das eine der größten Infrastrukturen weltweit betreibt, sieht sich Google seit einigen Jahren in der Pflicht, die eigenen Rechenzentren verbrauchsärmer zu machen, aber auch auf erneuerbare Energien zu setzen. Im Juni 2015 wurden bekannt, dass Google ein neues sowie seine bestehenden drei betriebene Rechenzentren in nächster Zeit komplett aus erneuerbaren Energien speisen wolle.[22] In den derzeit 13 weltweit bestehenden Google-Rechenzentren betrage der Anteil an erneuerbaren Energien laut Google-Mitarbeiter Urs Hölzle 25 Prozent.[23] Damit liegt Google im 2015 herausgegebenen Index für saubere Energien nach Apple und Facebook auf Rang drei.[24]

Gründe für den derzeit noch hohen Energieverbrauch von internetgebundenen Servern wie Mailserver und Netzwerken in Unternehmen seien beispielsweise E-Mail-Server, die selbst über den Tag verteilt nie vollständig ausgelastet seien. Hinzu kämen Backup-Server, die im Falle eines Ausfalls einspringen, aber ständig mitliefen. Ein in einem nicht näher genannten US-Unternehmen durchgeführtes Audit hätte ein Energiesparpotenzial von 93 Prozent ergeben. Die Vergleichslösung, die auch Google praktiziere, sehe einen Pool von Servern vor, die nach Bedarf aktiviert würden.[25]

Selbst in kleinen wie auch in großen Unternehmen laufende Netzwerkinfrastrukturen weisen einen Energiebedarf auf, der drastisch reduziert werden kann. Die größten Kostentreiber sind hier neben der Entwärmung die Volumenserver, die ständig durchlaufen. Beispielsweise laufen dedizierte Mail-, ERP- und Terminalserver auch außerhalb der Arbeitszeiten mit höchster Leistungsfähigkeit durch. Selbst nachts wären diese Maschinen in der Lage, die sonst nur tagsüber anfallende Last zu bewältigen.

Zusätzlichen Energiebedarf weisen Datensicherungssysteme auf, die in der Regel täglich Sicherungsjobs abarbeiten. In Fällen mit dedizierten Servern für die Datensicherung ruhen diese zu den gewöhnlichen Arbeitszeiten.

1.8 Energiebedarf und große Posten

1.8.1 Energiebedarf und Energiemangel

Mitarbeiter von Gartner sowie von Energy Star errechneten, dass ein voll belegtes Rack 20 bis 30 Kilowatt Strom verbrauchen könnte.[26], [27] Normalerweise wird aber von einer Leistungsaufnahme ausgegangen, die nur ein Zehntel dieser theoretisch denkbaren Spitzenwerte ausmacht. Dr. Wilhelm Greiner sieht hier sogar die Gefahr einer Unterversorgung durch die Stromlieferanten.[28]

Mit einer Verringerung, vor allem aber auch mit einem fortschreitenden Preisanstieg der Energie ist auch deshalb zu rechnen, weil durch den in Deutschland geplanten Atomausstieg bis zum Jahr 2050 80 % der Elektrizität aus regenerativen Energien erzeugt werden muss.[29] Dieser Wandel in der Energieversorgung ist auch kostenmäßig so aufwendig, dass diese Kosten unweigerlich weitergegeben werden müssen.

Für einen Energiemangel gibt es bislang keine konkreten Anhaltspunkte, für signifikant steigende Kosten allerdings schon.

1.8.2 Entwärmung

Keinesfalls zu vernachlässigen ist der größte Posten im Stromverbrauch, nicht direkt durch den Betrieb einer IT-Infrastruktur entsteht, damit aber fast immer einhergeht. Die Rede ist von der Sogenannten Entwärmung, also der Kühlung von Rechenzentren oder im einfachsten Fall von Serverschränken oder kleinen Serverräumen.

Allein für den Betrieb der Rechenzentrumsinfrastruktur, unter die die Entwärmung fällt, muss in modernen Rechenzentren ein Anteil von fast 50 % aufgewendet werden. Darin enthalten ist auch der Stromverbrauch für USV-Anlagen.[30]

In Serverräumen eingesetzte Klimaanlagen haben häufig eine Leistungsaufnahme oberhalb der 2000 Watt.[31] Die Gesamtleistungsaufnahme ist aber vom zu kühlenden Raum und insbesondere der darin entstehenden Abwärme abhängig.

Entwärmung findet in fast allen Unternehmensgrößen auf unterschiedliche Weise statt und ist auch nötig, wenn Maschinen auf begrenztem Raum mit niedrigem Luftvolumen betrieben werden. Erst beim Einsatz einzelner oder weniger Server in einem Raum bleibt die Umgebungstemperatur niedrig genug, dass auf eine aktive Kühlung verzichtet werden kann. In der Mehrheit der Fälle ist dies aus verschiedenen Gründen aber gar nicht möglich, sodass aktiv gekühlt werden muss.

image
Abbildung 5: Entwicklung des Energieverbrauchs in Rechenzentren, anteilig.[32]

Am stärksten verbreitet ist die Luftkühlung. Hier wird die Lufttemperatur im Serverraum durch eine gewöhnliche oder eine spezialisierte[33] Klimaanlage auf einem eingestellten Level gehalten. Einfache Klimaanlagen befinden sich direkt im Raum, größere befinden sich außerhalb und kühle Luft wird durch Ventilation zu-, erwärmte Luft entsprechend abgeführt.

Damit die abgekühlte Luft die zu kühlenden Bereiche erreichen kann, werden in großen Rechenzentren Belüftungskorridore geplant, um sogenannte Hot Spots zu vermeiden. Die vorhandene Kühlleistung kann durch den Einbau von Blenden in die Racks verbessert werden, indem hierdurch ein Luftstrom in eine bestimmte Richtung erzwungen wird.

In den meisten Rechenzentren herrscht durch Klimatisierung eine Temperatur von 18°C vor. Mitarbeiter des schweizerischen Bundesamts für Energie stellten 2004 fest, dass ein Rechenzentrum auch bei einer höheren Temperatur, im genannten Fall von 26 bis 28°C zuverlässig arbeiten kann.[34] Im Bereich zwischen 22 und 26°C führt jedes Grad der Raumtemperaturerhöhung zu einer Energieeinsparung von 4 %.[35] In einem konkreten Fall in der Basler Messe konnte durch die Anhebung von 22 auf 26°C sogar eine Einsparung der Energiekosten von 42 % erreicht werden.[36]

1.9 Energieverbrauch bei Nichtbenutzung und Verhalten des Personals

Ein Szenario, das jedem aus dem Heimbereich bekannt ist, lässt sich auch aufs Unternehmensumfeld übertragen. Es geht um Geräte, die bei Nichtgebrauch normalerweise abgeschaltet werden. Weil im Heimbereich jeder sich der Energiekosten bewusst ist (man muss sie schließlich selbst tragen), hat sich dort eine „Energiesparkultur“ durchgesetzt. Im Kontrast dazu fehlt diese Kultur in vielen Unternehmen, weil sich das Personal der Auswirkungen eines eingeschalteten Rechners gar nicht bewusst ist und das Verantwortungsgefühl fehlt.

Mit dem häufig genutzten Argument, durch das Eingeschaltetlassen am nächsten Arbeitstag schneller mit der Arbeit beginnen zu können, wird dieses Verhalten gerechtfertigt.

In den 90er Jahren empfahlen einige Computerhersteller sogar, Bürocomputer dauerhaft eingeschaltet zu lassen, weil das wiederholte Hochfahren der Mechanik der Festplatte zusetze. [37] Weil die Kosten dieser Vorgehensweise der den tatsächlichen Kosten durch defekte Festplatten früh erkannt wurde, setzte sich dieses Argument nicht durch.

Eine relativ einfach zu administrierende Lösung, Arbeitsplatzcomputer energie-sparender einzusetzen, ist die Anwendung von Energiesparrichtlinien. Diese Richtlinien können wie auch andere Richtlinien innerhalb des Unternehmensnetzwerk in der Groupware eingestellt werden. Dort lassen sich nicht nur Benutzer, sondern auch Domänencomputer verwalten. Diesen Computern können genau wie beispielsweise die Zuordnung eines Proxyservers oder die Vergabe einer Startseite für den Webbrowser Einstellungen für die Energieverwaltung mitgegeben werden. Darüber kann das Abschalteverhalten des Gesamtsystems aber auch einfach nur das Abschalten des Bildschirms nach einigen Minuten der Untätigkeit erwirkt werden.

Weiter zu Teil 4: Lösungskonzept


Einzelnachweise, fortlaufend nummeriert und wie in […] angegeben. Das vollständige Quellenverzeichnis kann hier heruntergeladen werden.

  1. Continum AG 2015
  2. Alfahosting GmbH 2015
  3. Nach Lampe 2010, S. 30; Tabelle: eigene Arbeit. Als Grundlage für die Errechnung dient die Annahme von einer mittleren Leistungsaufnahme von 85 Watt.
  4. Lampe 2010, S. 31
  5. Christian L. Belady 2007
  6. Christian L. Belady 2007, Bild „Raw Performance and Performance/Watt increase in a typical server“
  7. Senetic GmbH
  8. Einige Softwarehersteller verlangen in ihren Verträgen den Betrieb auf dedizierten Systemen. Darüber hinaus wird teilweise sogar der Betrieb in VMs untersagt und somit der Einsatz physikalischer Maschinen gefordert.
  9. Lampe 2010, S. 28
  10. Lampe 2010, S. 7
  11. Lampe 2010, S. 28
  12. Holger Kordowske, Dr. Peter Koch 2007, S. 9
  13. Lampe 2010, S. 7
  14. Lampe 2010, S. 9
  15. Lampe 2010, S. 168
  16. Lampe 2010, S. 174
  17. Lampe 2010, S. 159
  18. Lampe 2010, S. 159
  19. Reisinger 2014, S. 31
  20. Fraunhofer UMSICHT 2008, S. 12
  21. Prof. Dr. Klaus Fichter, Dr. Jens Clausen, Dr. Ralph Hintemann 2011, S. 42
  22. Martin Holland 2015
  23. Martin Holland 2015
  24. Greenpeace USA 2015
  25. Martin Holland 2015
  26. U.S. Environmental Protection Agency 2007, S. 17
  27. Rakesh Kumar 2006, S. 2
  28. Lampe 2010, S. 8
  29. Wosnitza und Hilgers 2012, S. 14
  30. Lampe 2010, S. 22-23
  31. Chal-Tec GmbH 2015
  32. Lampe 2010, S. 23
  33. Speziell für den Einsatz in der IT gebaute Klimaanlagen erlauben eine Steuerung und Überwachung mittels Software. Das Prinzip bleibt aber unverändert.
  34. Adrian Altenburger 2004, S. 2
  35. Lampe 2010, S. 43
  36. Adrian Altenburger 2004, S. 2
  37. Darunter Compaq.
Dieser Beitrag wurde in Ausarbeitung veröffentlicht und getaggt , . Ein Lesezeichen auf das Permalink. setzen. Kommentieren oder einen Trackback hinterlassen: Trackback-URL.

Einen Kommentar hinterlassen

Sie müssen angemeldet sein, um zu kommentieren.