Whitepaper: Rechenzentren der Zukunft

Rechenzentren der Zukunft: Der Wandel vom Kern zum Rand

451 Research: Pathfinder Report


preview-datacenters-of-the-future-whitepaper

Vollständigen Bericht mit Bildern jetzt herunterladen

Kurzfassung

Die meisten neuen Rechenzentren werden bei optimaler Verfügbarkeit und mit einer infrastrukturellen Energieeffizienz betrieben, die fast an die theoretischen Konstruktionsvorgaben heranreicht. Daher könnte man durchaus behaupten, dass die beiden größten Herausforderungen in der Rechenzentrumstechnologie der letzten 30 Jahre bewältigt wurden.

Trotz dieser Erfolge verändert sich die Rechenzentrumsindustrie weiterhin mit einer Geschwindigkeit, die in den nächsten zehn Jahren und auch danach vermutlich noch steigen wird. Diese Entwicklung wird durch den wachsenden Bedarf an digitalen Diensten und der notwendigen Einbindung neuer Technologien und Innovationen noch verstärkt. Gleichzeitig versucht man, Beeinträchtigungen in der Zukunft zu vermeiden. Daneben müssen zukünftig immer strengere Geschäftsparameter und Servicelevel eingehalten werden.

Diese Kombination aus geschäftlichen und technologischen Treibern führt voraussichtlich dazu, dass Rechenzentren einer ganz neuen Kategorie entstehen. Diese neuen Typen von Rechenzentren weisen zwar einige Gemeinsamkeiten mit aktuellen Anlagen auf, werden jedoch auch an neue Anwendungsfälle angepasst. Es wird zum Beispiel erwartet, dass die neuen Edge-Rechenzentren Daten aus der Infrastruktur des Internet of Things (IoT) sammeln, verarbeiten, speichern und analysieren können.

In diesem Artikel werden die Faktoren für die Veränderungen und Beeinträchtigungen der nächsten zehn Jahre erläutert und Prognosen zu neuen Rechenzentrumstypen und spezifische Anwendungsfälle beschrieben. Abschließend werden Möglichkeiten aufgezeigt, wie bestehende Rechenzentren zukunftsfähig gemacht und vor Beeinträchtigungen geschützt und wie Innovationen effektiv genutzt werden können.

Die wichtigsten Erkenntnisse
  • Durch eine Kombination aus Veränderungsfaktoren und bestimmten Technologietrends gibt es immer mehr neue Rechenzentren mit unterschiedlichen (großen und kleinen) Formfaktoren und Architekturanforderungen.
  • Durch den Einfluss von Cloud-Anbietern und die Entwicklung hin zur Hybrid-IT verändern sich die relative Anzahl und Verteilung bestehender Rechenzentrumstypen ständig. Auch der steigende Bedarf an Edge-Computing ist ein wichtiger Aspekt, der im Hinblick auf die neuen Kapazitäten und Formfaktoren langfristig eine Rolle spielen wird.
  • Spezialrechenzentren (die spezifische Anwendungen und Dienste bereitstellen) werden neben generischen Anlagen eingesetzt, werden diese jedoch letztendlich, vor allem an Unternehmensstandorten, ersetzen. Zudem gehen wir davon aus, dass bei der Konzeption und Konstruktion von Rechenzentren eine größere Standardisierung und Industrialisierung stattfinden wird, wodurch ein modularerer Aufbau der Kapazität möglich ist.
  • Auch disruptive Wild-Card-Technologien, wie Post-Silicon-Technologien und Quantum-Computing, könnten große Veränderungen in puncto Design und Betrieb mit sich bringen und dazu führen, dass einige bestehende Rechenzentrumskonzepte, Geschäftsmodelle und Dienste auf lange Sicht ausgedient haben werden.
  • Zukunftsorientierte Betreiber werden versuchen, neue und bestehende physische Rechenzentrumsinfrastrukturen zukunftssicher zu machen, um Beeinträchtigungen zu minimieren und das Investitionskapital zu maximieren. Durch mehr Flexibilität sollten Betreiber in der Lage sein, sich innovative und aufkommende Technologien zunutze zu machen.
Technologiediskussion

TLaut Datacenter Monitor von 451 Research gibt es derzeit weltweit über vier Millionen Rechenzentren. Diese reichen von kleinen, unternehmenseigenen Serverschränken und -räumen (derzeit die überwiegende Mehrheit) bis hin zu kommerziellen Multi-Tenant-Rechenzentren (MTDC) und großen Hyperscale-Rechenzentren. Einige der dynamischen Faktoren dieses Wandels in der Branche wirken sich bereits auf die Verteilung und relative Anzahl der verschiedenen Anlagentypen aus. Im Jahr 2015 waren rund 80 Prozent der gesamten Rechenzentrumsfläche (Quadratmeter) weltweit im Besitz von Unternehmen. Es wird jedoch erwartet, dass dieser Prozentsatz bis 2020 unter die 75-Prozent-Marke rutschen wird. Der Hauptgrund für diese Verlagerung liegt in der Migration bestimmter Workloads von unternehmenseigenen Standorten hin zu normalerweise kosteneffizienteren Cloud- und Colocation-Anlagen.

Wahrscheinlich wird sich diese Entwicklung hin zu Hybrid-IT-Modellen fortsetzen, wodurch Unternehmen Rechenzentrumsstandorte zusammenlegen und größere, wenn auch weniger Anlagen einrichten müssen. Cloud- und Colocation-Anlagen werden dann von Unternehmen zunehmend als Erweiterung (oder Ersatz) der eigenen lokalen Kapazität betrachtet. Auch Anbieter von öffentlichen Clouds und anderen Cloud-Diensten kurbeln die Nachfrage nach Colocation-Platz im großen Maßstab erheblich an. Es wird erwartet, dass sich diese Migration von allgemeinen Rechenzentren in Unternehmen zu hocheffizienten Colocation- und Cloud-Anlagen fortsetzen und beschleunigen wird. Dennoch werden einige Unternehmen auch in Zukunft noch Bedarf an dedizierten, lokalen Premium-Rechenzentren haben. Veraltete Serverschränke und -räume in Unternehmen werden zum Teil von neuen Edge-Mikro-Rechenzentren ersetzt werden, die auch neue Anwendungsszenarien unterstützen.

GRUNDLEGENDE FAKTOREN UND TECHNOLOGIETRENDS

Die Veränderungen im Aufbau und Betrieb von Rechenzentren sind zum Teil auf eine Reihe grundlegender Faktoren zurückzuführen. Diese Faktoren sind wiederum für bestimmte neue Technologietrends verantwortlich, die zum Teil bereits Einfluss auf die Konstruktion und den Betrieb neuer Anlagen haben. Die sogenannten „Wild Cards“ – theoretisch sehr disruptive und schwer vorhersagbare Technologien wie Post-Silicon-Technologien und Quantum-Computing – könnten ebenfalls zu erheblichen Veränderungen in Aufbau und Betrieb von Rechenzentren führen. Die Verbindung aus diesen Faktoren und speziellen Technologien wird in den nächsten zehn Jahren wahrscheinlich zur Entwicklung einer neuen Art von Anlagen führen, bei denen innovative Technologien zum Tragen kommen. Darüber hinaus werden diese neuartigen Rechenzentren in zunehmendem Maße spezielle Unternehmensanforderungen erfüllen.

FAKTOREN FÜR VERÄNDERUNGEN
      • Nachfrage – ENeben den erwähnten schrittweisen Innovationen im IT-Bereich gibt es jedoch auch erhebliche Bedenken, ob Rechenzentren in puncto Speicherplatz, Leistung und Bandbreite mit der explosionsartigen Nachfrage nach IT-Diensten Schritt halten können, die in den nächsten zwei Jahrzehnten erwartet wird. Es werden riesige Mengen an neuer Kapazität erfordert, doch auch bestehende Rechenzentren werden wahrscheinlich einige der Workloads auffangen müssen. Das wäre eine enorme Herausforderung, wenn die Rechenzentren in Unternehmen voll ausgelastet wären. Derzeit haben die meisten Rechenzentren mit überdimensionierten Strom- und Kühlungsressourcen jedoch nur eine sehr geringe IT-Auslastung. Es gibt in bestehenden Rechenzentren also ausreichende Möglichkeiten zur Verbesserung der Auslastung, Migration der Workloads (an externe Standorte), Optimierung der Effizienz und Nutzung neuer Rechenzentrumskapazität.
      • Kostentransparenz – Colocation- und Dienstanbieter spielen in puncto Investition in Technologien, die eine größere Transparenz (z. B. Stromverbrauch und IT-Kapazität), Showback und Echtzeit-Kostenermittlung ermöglichen, eine führende Rolle. Dank dieser Tools sind fundiertere Entscheidungen in Bezug auf Ausführungsort, erforderliche Verfügbarkeit, Latenz, räumliche Nähe, Leistung und Service möglich, da Betreiber einen besseren Einblick in die tatsächlichen Kosten (die sich dynamisch ändern können) haben. Dies könnte dazu führen, dass Entscheidungen zeitnaher und dynamischer getroffen werden können als es sonst möglich wäre.
      • Konvergenz – Auch wenn bisher wenig Fortschritt verbucht werden konnte, gibt es Anzeichen dafür, dass die normalerweise getrennten Bereiche IT und Anlagen (Geräte und Mitarbeiter) sich einander annähern. Dadurch wäre ein ganzheitlicher Ansatz in Bezug auf die Konzeption und das Anlagenmanagement von Rechenzentren möglich, bei dem diese Bereiche in die IT-Workflow-Optimierung integriert werden. So wird beispielsweise die Möglichkeit, durch die Konsolidierung und Verlagerung von Workloads mithilfe von Software und intelligenten Stromversorgungsgeräten „virtuellen Strom“ zu erzeugen, langsam Realität. Auch Softwaretools für das Rechenzentrumsinfrastrukturmanagement (Datacenter Infrastructure Management, DCIM) können zu einem ganzheitlichen Einblick in die IT-Vorgänge und den Anlagenbetrieb beitragen. Vorgefertigte modulare Rechenzentrumkonzeptionen (Prefabricated Modular Datacenter, PFM) (einschließlich Mikro-Rechenzentren) sollen in Zukunft dafür sorgen, dass IT- und Anlageninfrastruktur enger miteinander verknüpft sind.
      • Industrialisierung (und Standardisierung) – Die Rechenzentrumsindustrie ist sehr groß und zunehmend industrialisiert. So können beispielsweise ganze vorgefertigte modulare Rechenzentren in Fabriken produziert werden. Es ist anzunehmen, dass die massive Erweiterung des weltweiten Rechenzentrumsmarkts in den kommenden Jahren dazu führen wird, dass Anbieter eine ganze Reihe von Geräten und Modellen erstellen und vorab konfigurieren, die jeweils auf kundenspezifische Anforderungen und Anwendungen zugeschnitten sind.
      • Forschung und Entwicklung – Die Forschung aus einer wissenschaftlichen Notwendigkeit heraus, jedoch nicht immer mit einem klaren wirtschaftlichen Nutzen, wird zukünftig ebenfalls Einfluss auf Aufbau und Betrieb von Rechenzentren haben. Eine Reihe neuer, aufkommender Technologien wird sehr wahrscheinlich zu erheblichen Veränderungen der wirtschaftlichen Bedingungen des Betriebs von Rechenzentren führen. Dazu gehören Quantum-Computing, Silizium-Photonik (Silicon Photonics), Memristoren sowie Hochgeschwindigkeitsnetzwerke mit hoher Bandbreite wie 5G.
SPEZIFISCHE TECHNOLOGIETRENDS

Die grundlegenden Faktoren für Veränderungen in der Rechenzentrumsindustrie hängen eng mit einer Reihe von Technologien und Trends zusammen, die sich auf den Aufbau und Betrieb neuer Rechenzentrumskapazitäten auswirken.

      • Hyperscale-Cloud (mehr Effizienz und Innovation) – Betreiber von Rechenzentren in Unternehmen und von Colocation-Anlagen stehen zunehmend unter Druck, dieselbe Effizienz und Kostenoptimierung erreichen zu müssen wie Hyperscale-Betreiber, wie Amazon, Facebook, Google und Microsoft. Cloud-Betreiber können die Skaleneffekte und Entwicklungen in der IT-Infrastruktur (Rechenleistung, Speicher, Netzwerke) nutzen, um die Virtualisierung und Auslastung zu verbessern und Innovationen in der Architektur von Rechenzentren zu testen und anzuwenden. Einige Konkurrenzbetreiber werden ernsthaft darüber nachdenken müssen, ob es Sinn macht, zu investieren, um wettbewerbsfähig bleiben zu können, oder ob es klüger ist, langfristig eine Strategie der Partnerschaften zu verfolgen.
      • PFM-Designs – Vorgefertigte modulare Rechenzentren werden mittels eines oder mehrerer Strukturbauteile zusammengestellt, die in einer fabrikähnlichen Umgebung zusammengesetzt, getestet und schließlich zur Integration an den endgültigen Standort geliefert werden. Zukunftsorientierte Betreiber, die diese Methode bereits anwenden, genießen die Wettbewerbsvorteile, die ein Rechenzentrum im PFM-Design mit sich bringt: Standardisierung, engerer Zeitrahmen, straffere Budgetkontrolle, geringeres Risiko und bessere Ausrichtung auf Unternehmensziele, da die Kapazität mithilfe von Modulen bedarfsgerecht erweitert werden kann.
      • Software- und datengesteuert – Ein wachsender Teil der Rechenzentren wird über Software gesteuert, um die Auslastung, Verfügbarkeit, Resilienz (Widerstandsfähigkeit) und Flexibilität zu verbessern. Trotz früherer Bedenken im Zusammenhang mit der Implementierung von Software für das Rechenzentrumsinfrastrukturmanagement und der Investitionsrentabilität, wird DCIM zunehmend als wesentliche Komponente der softwaredefinierten Infrastruktur angesehen. Die aktuelle Entwicklung Cloud-basierter DMaaS-Angebote (Datacenter Management as a Service) soll durch die Aggregation und Analyse von Daten im großen Maßstab für eine Wertsteigerung der DCIM-Daten sorgen. Dies könnte letztendlich ein datengesteuertes, autonomes Echtzeit-Management von Rechenzentren (möglicherweise mit geringem oder ganz ohne Personal vor Ort) ermöglichen, wenn große Datasets verarbeitet werden müssen.
      • Intelligente und transaktive Energie – In der Rechenzentrumsindustrie wurden in puncto verbesserte Energieeffizienz und Power Usage Effectiveness (PUE) große Fortschritte gemacht. Der nächste Schritt in diesem Prozess ist jedoch die Verknüpfung des Energieverbrauchs mit der Nachfrage und die Steuerung der Energieversorgung. Eine Möglichkeit wäre der strategische Kauf und Verkauf von Energie, einschließlich der besseren Nutzung der Nachfrage, und das Management des IT-Stromverbrauchs durch den besseren Einsatz von Strommanagement- und Power-Capping-Funktionen (Begrenzung der Leistungsaufnahme).
      • Konnektivität – Durch das Aufkommen der öffentlichen Cloud geraten Unternehmen und MTDC-Anbieter zunehmend unter Druck. Diese Entwicklung bietet jedoch auch neue Möglichkeiten, die öffentliche Cloud mit der privaten Cloud sowie Diensten außerhalb der Cloud zu verbinden und zu integrieren. Folglich gewinnt die Vernetzbarkeit (direkte Verbindung zwischen Unternehmen und Cloud-Anbietern, Partnern, Betreibernetzwerken usw.) als Dienst zunehmend an Bedeutung. Anwendungs- und Datenresilienz, einschließlich Disaster Recovery, wird in vielen Fällen auf Netzwerk- oder Softwareebene umgesetzt. Dazu werden Prozesse und Daten über ein regionales bzw. regionenübergreifendes Anlagennetzwerk hinweg repliziert.
      • Offene Architekturen (Open Compute Project/Open 19) – Das Open Compute Project (OCP) hat bisher noch keine spürbaren Spuren (außerhalb des Hyperscale-Bereichs) hinterlassen, könnte jedoch langfristig durch die fortschreitende Entwicklung offener Ökosysteme an Bedeutung gewinnen. Mit Open-Source-Hardware und -Software kommen durch Hyperscale inspirierte Design- und Effizienzkonzepte auf den Unternehmens- und Colocation-Markt, die die herkömmlichen Anlagenarchitekturen aufbrechen, wie verteilte USV, alternative Rack-Designs, verteilte Konnektivität und Gleichstromversorgung. Die kürzlich eingeführte Open19-Spezifikation, die in mancher Hinsicht eine niedrigere Einstiegshürde als OCP hat, beinhaltet auch neue Formfaktoren für Racks.
      • Edge-Rechenzentren – Der Begriff „Edge-Computing“ umfasst eine Reihe verschiedener Workload-Typen und Anwendungsfälle, etablierte wie auch neue. Die Nachfrage nach Edge-Computing wird wahrscheinlich ein wichtiger Treiber für neue Rechenzentrumstypen und Formfaktoren sein, einschließlich Mikro-Rechenzentren (Rechenzentren mit kleinem Formfaktor, wie vorgefertigte mikromodulare Rechenzentren), aber auch neue, zentralisierte Anlagen (diese werden nachfolgend näher beschrieben).
Zukünftige Rechenzentren und spezielle Attribute

Es ist natürlich schwierig, die Entwicklung im Aufbau und Betrieb physischer Rechenzentren langfristig genau vorherzusehen. Seit den Anfängen des Mainframes hat sich die Anzahl und Art der Formfaktoren von Rechenzentren stark verändert. Wir erwarten, dass das Tempo der Veränderungen in absehbarer Zeit gleich bleibt. Wahrscheinlich dürfte jedoch zu einer Abkehr von generischen, (normalerweise) ineffizienten, unternehmenseigenen Rechenzentren stattfinden.
Es lassen sich einige zukünftige Rechenzentrumstypen (die heute bereits existieren) erkennen, die sehr wahrscheinlich mindestens das nächste Jahrzehnt beherrschen werden. Zu den Rechenzentrumstypen der Zukunft könnten u. a. die folgenden gehören:

      • Hyperscale (Cloud-Betreiber, aber auch einige andere Dienstanbieter)
      • Cloud (nicht Hyperscale) und Dienstanbieter
      • Colocation (MTDC) und Dienstanbieter
      • Unternehmen (dedizierte Premium-Rechenzentren und wenige Schränke/Räume)
      • Edge (Mikro-Rechenzentren wie auch Kernrechenzentren)
      • HPC und Spezialrechenzentren

Diese verschiedenen Typen von Rechenzentren werden durch einige der folgenden Kriterien und Attribute gekennzeichnet:

Geschäftsmodelle
Geschäftsmodelle für Rechenzentrumstypen sind je nach Eigentümer unterschiedlich. So müssen Colocation-Rechenzentren und Rechenzentren von Dienstanbietern eine hohe Verfügbarkeit und oft auch Dienste mit niedriger Latenz anbieten, was häufig durch räumliche Nähe und Konnektivität erreicht wird. Ebenso gibt es in einigen Unternehmen spezifische Workloads, Datenanforderungen oder Governance-Aspekte, wodurch sie weiterhin gezwungen sind, eigene Premium-Rechenzentren zu entwerfen und zu betreiben. Vor diesem Hintergrund bieten sich diesen Unternehmen dann Innovations- und Anpassungsmöglichkeiten, die kommerziellen Betreibern (Colocation, Hosting) nicht zur Verfügung stehen.

Skaleneffekt
Trotz der starken Verlagerung von Rechenkapazitäten und Workloads in Edge-Rechenzentren deutet alles darauf hin, dass der Bedarf an Hyperscale-Rechenzentren auch in Zukunft nicht abnehmen wird. Dies ist vor allem auf den Skaleneffekt zurückzuführen, von dem bestehende Hyperscale-Rechenzentren profitieren. Am anderen Ende des Spektrums sehen wir kleinere Mikro-Rechenzentren, die sich wahrscheinlich noch weiter verbreiten werden und für IoT und andere Anwendungen eingesetzt werden. Dennoch werden in Zukunft Serverräume und -schränke (alte Edge-Anlagen) in Colocation-, Cloud- und in einigen Fällen Mikro-Rechenzentren konsolidiert werden.

Resilienz
Die Resilienzanforderungen werden in Zukunft enger mit dem Geschäftsszenario und der Funktion verknüpft sein. Hyperscale-Rechenzentren können beispielsweise eine leichtere physische Infrastruktur (reduziertes USV-System, Aufbau mit niedrigerem Tier-Level) aufweisen, da die Servicelevel niedriger sind und die Verfügbarkeit über Lastausgleich weniger gut verwaltet werden kann. Einige MTDCs können auch für unterschiedliche Resilienzniveaus in derselben Anlage ausgelegt sein, abhängig von den Anforderungen des Kunden. Zudem wird sich die softwarebasierte, verteilte Resilienz bei einer geringeren Abhängigkeit von der physischen Infrastruktur (Generatoren, USV) immer stärker durchsetzen.

Effizienz
Effizienz wird auch in Zukunft auf allen Ebenen eine Grundvoraussetzung bleiben. In einigen Anlagen, wie Hyperscale-Rechenzentren, wird großer Wert auf Effizienz gelegt, in einigen Fällen hat die Effizienz sogar oberste Priorität. Bei einem Teil der Hyperscale-Rechenzentren wird der Schwerpunkt weiterhin auf Nachhaltigkeit und der Reduzierung des Kohlenstoffausstoßes durch die Verwendung erneuerbarer Energien (durch Stromabnahmeverträge, erneuerbare Verträge oder in einigen Fällen Erzeugung vor Ort) liegen.

IT-Dichte
Die durchschnittliche Leistungsdichte bei Racks, die derzeit unter 5 kW liegt, wird im Laufe der Zeit wahrscheinlich weiter steigen. Dies ist auf Anwendungen wie künstliche Intelligenz/maschinelles Lernen, High-Performance Computing und Big Data zurückzuführen. Einige Wild-Card-Technologien (z. B. Quantum-Computing) haben jedoch das Potenzial, die Rechenkapazität zu steigern und gleichzeitig den Leistungsbedarf erheblich zu senken. Die Dichte wird zunehmend an die Geschäftsfunktion und den Workload geknüpft sein. Es können Zonen mit hoher Dichte eingerichtet werden, um eine effizientere Kühlung und Energieverteilung zu erzielen. HPC und andere Spezialrechenzentren werden wahrscheinlich über IT-Geräte mit hoher Dichte (>25 kW pro Rack) verfügen und beispielsweise mehr Energie pro Rauneinheit/Rack verbrauchen. Dadurch wird auch das Kühlsystem voraussichtlich eng gekoppelt, d. h. an die Anforderungen einer relativ kleinen Anzahl von Racks mit hoher Dichte ausgelegt werden.

Geografie und Verteilung
Ein Großteil der Cloud-Betreiber hat eigene Standorte (z. B. in Europa) gebaut oder von MTDC-Anbietern geleast, teilweise um Datenschutzvorgaben zu erfüllen. Dieser Trend wird sich bei zukünftigen Typen von Rechenzentren wahrscheinlich fortsetzen. Hyperscale-Rechenzentren werden auch weiterhin in Gebieten mit niedrigen Stromkosten, Steueranreizen und Klimabedingungen gebaut werden, die eine Freiluftkühlung ermöglichen. Edge-Computing wird seinen Weg in zentralisierte Rechenzentren und in Metro-Rechenzentren außerhalb der Kernrechenzentrums-Hubs finden (siehe Abbildung 3).

EDGE-RECHENZENTREN

Von allen Trends, die in Zukunft die Entwicklung von Rechenzentren prägen werden, stellt die Nachfrage nach Edge-Computing wahrscheinlich den wichtigsten Trend der Zukunft dar und verdient daher besondere Aufmerksamkeit. Edge-Computing kann als die Verlagerung der Datenverarbeitung und Datenspeicherung an den Rand des Netzwerks, die sogenannte Edge, beschrieben werden, d. h. an die Randstelle, wo Daten generiert und verwendet werden. Das kann die Werkshalle eines Unternehmens, der Point of Presence eines Netzwerkbetreibers, ein Sendemast oder ein Smart Building sein.
Während Anwendungsfälle wie Content Distribution Networks (CDN) und lokale Datenverarbeitung und -speicherung die Nachfrage nach Edge-Computing in nächster Zeit voraussichtlich ankurbeln werden, wird das Internet of Things (IoT) einer der langfristigen Treiber für neue Edge-Computing-Kapazitäten sein. Die Anwendungsfälle für IoT sind breit gefächert. Selbst bei ähnlichen Anwendungsfällen unterscheiden sich die Datenpfade und Rechenzentrumstypen. Unserer Ansicht nach ist es wahrscheinlich, dass Daten bei einigen IoT-Bereitstellungen letztendlich in einer Kombination aus öffentlichen und nicht öffentlichen Clouds gespeichert werden. Dazu sind sowohl verteilte Mikro-Rechenzentren als auch sehr große zentralisierte Rechenzentren erforderlich.
In manchen Fällen werden Schlüsseldaten, einschließlich Daten, die von anderen Anwendungen oder Personen benötigt werden, in großen Rechenzentren „am Rand“ verfügbar gemacht, wenn Colocation- und andere Metro-Rechenzentren sich in der Nähe des Erzeugungsortes der Daten befinden. Große Cloud-Anbieter bauen in kürzester Zeit Hyperscale-Rechenzentren mit direkten Faserverbindungen zu geleasten Colocation-Rechenzentren auf. Dadurch rückt die Hyperscale-Cloud-Kapazität näher an den Rand und fungiert somit effizient als Rechenzentrumskapazität in Randnähe. Cloud-Anbieter werden zudem „Cloudlets“ verwenden, verteilte Edge-Computing-Kapazität für Daten-Caching und Datenverarbeitung mit niedriger Latenz.

Wenn die Daten verbraucht oder integriert wurden, werden sie normalerweise in große Rechenzentren oder Remote-Hyperscale-Rechenzentren verschoben oder gestreamt, wo sie zusammengeführt, analysiert (u. a. durch Integration in andere Daten und Anwendungen) und archiviert werden. Diese großen Anlagen stellen die „Kernebene“ dar.
Die umfassende Darstellung in Abbildung 3 zeigt die Hauptebenen des IoT und der Edge-Rechenzentren mit einigen der unterschiedlichen Rechenzentrumstypen und Datenpfade, die bei IoT-Anwendungen erforderlich sein können.

Die IT-Hardware in einem Rechenzentrum wird ca. alle drei bis vier Jahre aktualisiert, bei einem Großteil der Anlageninfrastruktur ist die Aktualisierung bzw. Nachrüstung wesentlich schwieriger und kostenintensiver. Im Normalfall werden die Kühl- und Stromressourcen überdimensioniert, um auch zukünftigen IT-Kapazitätsanforderungen (im effizienten Rahmen) entsprechen zu können. Dadurch wird jedoch vor allem zukünftigen Veränderungen der Workload und weniger neuen Technologien Rechnung getragen, wodurch einige Aspekte der Konzeption von Rechenzentren möglicherweise hinfällig werden. Es gibt jedoch neue und bewährte Strategien und Technologien (die teilweise Rechenzentrumstypen der Zukunft prägen werden), mit denen die Effizienz und das Kapazitätsmanagement maximiert und das Risiko der Veralterung verringert werden kann. Dazu gehören:

      • Modularer Aufbau – Das Hinzufügen von neuem Speicherplatz durch PFM (einschließlich Container oder Mikro-Rechenzentren) bietet Vorteile in Bezug auf kurzfristige Kapazitätsanforderungen wie auch langfristige Innovationen. Architekten und Techniker können dank der vorgefertigten Systeme nach neuen (und in manchen Fällen radikalen) Wegen suchen, um die strukturellen, technischen und elektrischen Merkmale des Aufbaus zu verbessern. Durch die Werksintegration und modulare Installation der PFM-Infrastruktur der nächsten Generation können solche neuen Konzeptionen kostengünstiger und einfacher in bestehenden Rechenzentren bereitgestellt werden.
      • Flexible Energieverteilung und -speicherung – Durch den Einsatz bestimmter Technologien, wie aufrüstbare, intelligente PDUs (mit drei Phasen), Mittelspannungsverteilung und Sammelschienen zur Stromverteilung lassen sich bestehende Rechenzentren an die geänderten Lastanforderungen anpassen und entsprechend skalieren. Auch ein ausreichender Spielraum für die Datenverarbeitung in intelligenten Geräten, wie intelligenten PDU-Controllern, kann die Nutzungsdauer verlängern. Für Betreiber lohnt es sich, diese Technologien in bestehenden Rechenzentren zu testen und einzusetzen, da sie in der Zukunft voraussichtlich in Rechenzentren immer mehr zum Standard gehören werden. Mit neuen Technologien für das Energiemanagement, die Energieerzeugung und -speicherung am Standort, einschließlich Mikronetze, lässt sich eine zuverlässige Energieversorgung in Rechenzentren auch in Zukunft sicherstellen.
      • Effiziente Kühlung mit hoher Dichte – Wie bei der Energieverteilung liegt auch beim Kühlsystem der Schlüssel zum effizienten Kapazitätsmanagement und zur Zukunftssicherheit in der Flexibilität. Betreiber, die derzeit noch auf mechanische Kühlsysteme setzen, sollten den Einsatz eines Systems ohne Kältemaschine prüfen, da Freiluftkühlsysteme in den meisten zukünftigen Rechenzentren (abhängig von der geografischen Lage) voraussichtlich zum Standard werden. Bei neuen Anlagen sollte zudem die Möglichkeit einer engen Kopplung des Kühlsystems bestehen, einschließlich Wärmeaustausch auf der Rückseite und/oder direkte Flüssigkeitskühlung (Wasserverteilung an Rack oder Reihe erforderlich).
      • Managementsoftware– Tools wie DCIM vermindern das Risiko und sorgen gleichzeitig für neue Effizienzen, eine bessere Kapazitätsvorhersage und geschäftliche Flexibilität. Zudem lassen sich durch die Verwendung von DCIM und DMaaS datengesteuerte Erkenntnisse gewinnen, um bestehende Rechenzentren genauer überwachen und verwalten zu können. Das Ergebnis ist eine optimierte Anlageneffizienz und Kapazitätsplanung.

Fazit und Ausblick

Betreibern von Rechenzentren stehen noch nie dagewesene Veränderungen bevor. Es ist durchaus möglich, dass die Rechenzentrumslandschaft in zehn Jahren völlig anders aussehen wird, da sie den zuvor beschriebenen Makrofaktoren und Technologietrends unterworfen ist und auf diese reagiert:

      • Das verteilte Rechenzentrum, wie wir es heute kennen, wird sich voraussichtlich zu einem intelligenteren, stark verknüpften Netzwerk aus neuen Formfaktoren für Rechenzentren entwickeln. Kompakte, selbstverwaltete Rechenzentrum-Nodes und -Hubs (Daten oder Konnektivität oder beides) werden eingebettet und in große Rechenzentrumscampusse integriert.
      • Neue Edge-Computing-Kapazität wird aus klar abgesteckten, unterschiedlichen Typen von Rechenzentren bestehen. Dazu gehören Hyperscale-Cloud-Anlagen und große Colocation-Rechenzentren, die nahe an der Datenerzeugung liegen und somit viele Anwendungen unterstützen; neue Mikro-Rechenzentren am Rand; und kleinere Kapazitätscluster, die womöglich nicht groß und wichtig genug sind, um in technischer Hinsicht als Rechenzentren bezeichnet zu werden.
      • Große Rechenzentren könnten als eigener Stromversorger und Energie-Hubs fungieren. Die Möglichkeit, die Quantität, Qualität und Sicherheit der Energiequelle, z. B. über private Mikronetzwerke zu steuern, führt zu einer zuverlässigeren Energieversorgung.
      • Die Konnektivitätsmöglichkeiten, die zuverlässige Energieversorgung und die Energiekosten werden auch in Zukunft die Standortauswahl neuer Anlagen beeinflussen. Data Governance und Datenschutz gewinnen jedoch zunehmend an Bedeutung und Betreiber von Datenzentren müssen immer strengere Vorschriften erfüllen und auf öffentlichen Druck reagieren. Durch das IoT und andere Anwendungen/Anwendungsfälle steigt der Bedarf an Edge-Computing sowie neuen und speziellen Formfaktoren für Rechenzentren an vornehmlich städtischen Standorten.

Die nächsten zehn Jahre werden von noch nie dagewesenen Veränderungen und neuen disruptiven Technologien geprägt sein. Daher ist es offensichtlich, dass das Rechenzentrum mit all seinen neuen Formen und Funktionen auch in Zukunft Innovationen ermöglichen und den technologischen und geschäftlichen Wandel vorantreiben wird.

Über Raritan

Das Legrand Unternehmen Raritan ist ein bewährter Anbieter im Bereich Power-Management- und KVM-over-IP-Lösungen sowie Energieverbrauchsmessung in Unterverteilschränken, Transfer Switches, Umweltsensoren, serielle Konsolenserver und Audio Visual Lösungen für Rechenzentren jeder Größe. Das 1985 gegründete Unternehmen mit Hauptsitz in Somerset, New Jersey, unterhält Niederlassungen in über 76 Ländern. An mehr als 60.000 Standorten weltweit helfen Raritans preisgekrönte Hardware- und Software-Lösungen dabei, die Energieeffizienz zu steigern, die Zuverlässigkeit zu verbessern und die Produktivität zu erhöhen und unterstützen IT Abteilungen mit sicheren und zuverlässigen Möglichkeiten zur Fernwartung unternehmenskritischer Ressourcen. Weitere Informationen unter Raritan.de.

Vollständigen Bericht mit Bildern jetzt herunterladen