Hitze tötet nicht Festplattenlaufwerke. Hier ist, was tut

In den vergangenen Monaten fand die Usenix FAST 16 Konferenz im Best Paper Award Sieger Umgebungsbedingungen und Festplattenzuverlässigkeit in Free-cooled Datacenters, Forscher Ioannis Manousakis und Thu D. Nguyen, von Rutgers, Sriram Sankar von GoDaddy und Gregg McKnight und Ricardo Bianchini von Microsoft , Untersucht, wie sich die höheren und variabeleren Temperaturen und die Feuchtigkeit der Freikühlung auf die Hardwarekomponenten auswirken. Sie erreichten drei Schlussfolgerungen

Rechenzentren sind Energie-Schweine. Ein Web-Scale-Rechenzentrum kann mehr als 30 Megawatt und gemeinsam werden sie geschätzt, um 2 Prozent der US-Stromproduktion verwenden.

Außerdem sind die Kältemaschinen für die Wasserkühlung und die Reserveleistung, die erforderlich ist, um sie in einem Stromausfall zu halten, teuer. Da die Nutzung von Cloud-Services gewachsen ist, haben die Kosten für Hyperscale-Rechenzentren zu mehr Experimentieren wie freie Kühlung und höhere Betriebstemperaturen geführt.

Aber um diese Techniken vollständig zu optimieren, müssen die Betreiber auch ihre Auswirkungen auf die Ausrüstung verstehen. Wenn niedrigere Energiekosten durch höhere Hardwarekosten und Ausfallzeiten ausgeglichen werden, ist es kein Gewinn.

Die Forscher sahen 9 Microsoft-Rechenzentren auf der ganzen Welt für Zeiträume von 1,5 bis 4 Jahren, die über 1 Million Laufwerke. Sie sammelten Umweltdaten einschließlich Temperatur und relativer Feuchtigkeit und die Variation von jedem.

Als gute Wissenschaftler, nahmen sie die Daten und baute ein Modell, um die Ergebnisse zu analysieren. Sie quantifizierten die Kompromisse zwischen Energie, Umwelt, Zuverlässigkeit und Kosten. Schließlich haben sie einige Vorschläge für Datacenter Design.

Wichtigste Ergebnisse

Diese letzte Feststellung ist der Schlüssel, warum die Wolke clobbers gegenwärtige Arrayprodukte. Es ist gut für die globale Erwärmung und gut für das Endergebnis.

Das Papier klassifiziert die Rechenzentren entweder mit Cool oder Hot und entweder Dry oder Humid. Die folgende Tabelle aus dem Papier bricht die Details

Die Tabelle, die am besten unterstreicht die Schlussfolgerung, dass es Feuchtigkeit und nicht Temperatur, die Fehler verursacht, ist diese

Für viel zu lange Speicher-Anbieter kontrolliert die Freigabe von Daten über die Zuverlässigkeit der Geräte. Aber Web-Scale-Rechenzentren schulden nichts an Legacy-Anbieter, so dass sie gewinnen, indem sie ihre Erfahrungen mit den Verbrauchern auf der Suche nach einem besseren Angebot zu gewinnen.

Das RAID-Array-Modell, das kostspielige Duplizierung in Speichersilos aufbaut, kann und kann nicht skaliert werden, um Big Data-Anforderungen zu erfüllen. Dieses Papier beweist die Logik hinter dem Design des Google-Dateisystems und anderen Web-Scale-Objektspeichern: niedrigere Zuverlässigkeitskomponenten in einem Software-Framework, das einen Ausfall erwartet, können sowohl kostengünstiger als auch herkömmlicheres RAID-Array-Design sein.

Meine einzige Frage über das Papier ist die Tatsache, dass die Autoren scheinen zu denken, dass Plattenlaufwerke gegen Umgebungsluft versiegelt sind. Wie regelmäßige Leser wissen, ist dies nicht der Fall. Ich habe den Hauptautor eingeklemmt und werde den Beitrag aktualisieren, wenn ich eine Antwort bekomme.

Update: Ich habe eine Antwort bekommen und meine Sorge war unbegründet. Hier ist, was führen Autor Ioannis Manousakis sagte in Reaktion

Vielen Dank für die Aufklärung, dass bis! Update beenden.

Hintergrund

Relative Luftfeuchtigkeit, nicht höher oder variabler Temperatur, hat einen dominierenden Einfluss auf Plattenfehler.Hohe relative Luftfeuchtigkeit verursacht Plattenfehler weitgehend aufgrund von Controller / Adapter-Störung.Trotz der höheren Ausfallraten, Software, um Fehler zu maskieren und ermöglichen Freikühlung ist Ein großer Geld-Sparer.

Festplatten machen durchschnittlich 89 Prozent der Komponentenausfälle aus. DIMMs sind 2. bei 10 Prozent. [Datenträger sind die häufigste Komponente in Rechenzentren.] Relative Feuchtigkeit ist der wichtigste Zuverlässigkeitsfaktor – mehr als die Temperatur – auch wenn das Rechenzentrum nach Industriestandards arbeitet: Festplattenregler / Konnektivitätsfehler sind bei hoher relativer Feuchtigkeit am größten; Server-Designs, die Festplatten auf der Rückseite des Servers platzieren, sind zuverlässiger bei hoher Luftfeuchtigkeit, trotz der höheren Ausfallraten ermöglicht Software-Minderung Cloud-Anbietern, eine Menge Geld mit Freikühlung zu sparen, hohe Temperaturen sind nicht harmlos, sind aber Viel weniger signifikant als andere Faktoren.

Kommentare willkommen, wie immer. OK, also wie kontrollieren wir Feuchtigkeit zu Hause? Klimaanlage? Falsche Antwort!

NetApp startet mittelständisches System für Datenseen, Partner von Zaloni

Michael Dell zum Abschluss des EMV-Abkommens: “Wir können in Jahrzehnten denken”

Dell Technologies hebt ab: Hier ist, was zu beobachten, wie Dell, EMC, eine Schar von Enterprise-Unternehmen kombinieren

Storage, NetApp startet Mid-Tier-System für Datenseen, Partner mit Zaloni, Cloud, Michael Dell zum Abschluss der EMC-Deal: “Wir können in Jahrzehnten denken, Data Centers, Dell Technologies Heben: Hier ist, was zu sehen, wie Dell, EMC, a Bevy von Enterprise-Unternehmen kombinieren, Storage, Open Source Zstandard Datenkomprimierung Algorithmus, zielt darauf ab, Technologie hinter Zip ersetzen

Die Studium

Umweltbelastung

Facebook Open Source Zstandard Datenkomprimierung Algorithmus, zielt auf Technologie hinter Zip ersetzen

Die Speicherbits nehmen