Ein Rechenzentrum ist eine physische Einrichtung, in der Unternehmen ihre geschäftskritischen Anwendungen und Informationen unterbringen. Da sie sich von zentralisierten lokalen Einrichtungen über Edge-Bereitstellungen bis hin zu öffentlichen Cloud-Diensten entwickeln, ist es wichtig, langfristig darüber nachzudenken, wie sie ihre Zuverlässigkeit und Sicherheit aufrechterhalten können.

Was ist ein Rechenzentrum?

Rechenzentren werden oft als eine singuläre Sache bezeichnet, aber in Wirklichkeit bestehen sie aus einer Reihe technischer Elemente.,ul>

  • Compute: Die Speicher-und Rechenleistung für die Ausführung der Anwendungen, die im Allgemeinen von High-End-Servern bereitgestellt werden
  • Storage: Wichtige Unternehmensdaten befinden sich im Allgemeinen in einem Rechenzentrum auf Medien, die von Band-bis zu Solid-State-Laufwerken reichen, mit mehreren Backups
  • Networking: Verbindungen zwischen Rechenzentrumskomponenten und zur Außenwelt, einschließlich Routern, Switches, Application-Delivery-Controllern und mehr
  • Dies sind die Komponenten, die zum Speichern und Verwalten der wichtigsten Ressourcen erforderlich sind, die für den kontinuierlichen Betrieb der eine Organisation., Aus diesem Grund haben Zuverlässigkeit, Effizienz, Sicherheit und ständige Weiterentwicklung von Rechenzentren in der Regel oberste Priorität. Sowohl Software-als auch Hardware-Sicherheitsmaßnahmen sind ein Muss.

    Ein Rechenzentrum benötigt neben der technischen Ausstattung auch eine erhebliche Infrastruktur, um Hard-und Software am Laufen zu halten. Dazu gehören Strom-Subsysteme, unterbrechungsfreie Stromversorgungen (USV), Lüftungs-und Kühlsysteme, Backup-Generatoren und Verkabelungen zum Anschluss an externe Netzbetreiber.,

    Rechenzentrumsarchitektur

    Jedes Unternehmen von erheblicher Größe wird wahrscheinlich mehrere Rechenzentren haben, möglicherweise in mehreren Regionen. Dies gibt der Organisation Flexibilität bei der Sicherung ihrer Informationen und schützt vor Naturkatastrophen und von Menschen verursachten Katastrophen wie Überschwemmungen, Stürmen und terroristischen Bedrohungen. Wie das Rechenzentrum aufgebaut ist, kann einige der schwierigen Entscheidungen erfordern, da es fast unbegrenzte Möglichkeiten gibt. Einige der wichtigsten Überlegungen sind:

    • Benötigt das Unternehmen gespiegelte Rechenzentren?,
    • Wie viel geografische Vielfalt ist erforderlich?
    • Was ist die notwendige Zeit, um sich im Falle eines Ausfalls zu erholen?
    • Wie viel Platz wird für den Ausbau benötigt?
    • Sollten Sie ein privates Rechenzentrum mieten oder einen Co-Location / Managed Service nutzen?
    • Was sind die Bandbreiten-und Leistungsanforderungen?
    • Gibt es einen bevorzugten Träger?
    • Welche Art von physischer Sicherheit ist erforderlich?

    Antworten auf diese Fragen können helfen, zu bestimmen, wie viele Rechenzentren zu bauen und wo., Zum Beispiel erfordert ein Finanzdienstleistungsunternehmen in Manhattan wahrscheinlich einen kontinuierlichen Betrieb, da jeder Ausfall Millionen kosten könnte. Das Unternehmen würde wahrscheinlich entscheiden, zwei Rechenzentren in unmittelbarer Nähe zu bauen, wie New Jersey und Connecticut, die Spiegel Standorte voneinander sind. Ein ganzes Rechenzentrum könnte dann ohne Betriebsverlust heruntergefahren werden, da das Unternehmen nur eines davon ablaufen könnte.,

    Ein kleines professionelles Dienstleistungsunternehmen benötigt jedoch möglicherweise keinen sofortigen Zugriff auf Informationen und kann über ein primäres Rechenzentrum in seinen Büros verfügen und die Informationen auf nächtlicher Basis an einem alternativen Standort im ganzen Land sichern. Im Falle eines Ausfalls würde ein Prozess zur Wiederherstellung der Informationen gestartet, hätte jedoch nicht die gleiche Dringlichkeit wie ein Unternehmen, das auf Echtzeitdaten angewiesen ist, um Wettbewerbsvorteile zu erzielen.

    Während Rechenzentren häufig mit Unternehmen und Cloud-Anbietern im Webmaßstab verknüpft sind, kann ein Unternehmen jeder Größe ein Rechenzentrum haben., Für einige KMU könnte das Rechenzentrum ein Raum in ihren Büroräumen sein.

    Industriestandards

    Um IT-Führungskräften zu helfen, zu verstehen, welche Art von Infrastruktur bereitgestellt werden soll, veröffentlichten das American National Standards Institute (ANSI) und die Telecommunications Industry Association (TIA) 2005 Standards für Rechenzentren, die vier diskrete Ebenen mit Design-und Implementierungsrichtlinien definierten. Ein Tier-1 – Rechenzentrum ist im Grunde ein modifizierter Serverraum, während ein Tier-4 – Rechenzentrum die höchste Systemzuverlässigkeit und-sicherheit bietet.,

    Wie bei allen Dingen Technologie, Rechenzentren befinden sich derzeit in einem signifikanten Übergang, und das Rechenzentrum von morgen wird deutlich anders aussehen als die meisten Unternehmen mit heute vertraut sind.

    Unternehmen werden immer dynamischer und verteilter, was bedeutet, dass die Technologie, die Rechenzentren antreibt, agil und skalierbar sein muss., Da die Servervirtualisierung an Popularität gewonnen hat, hat die Menge des Datenverkehrs, der sich seitlich über das Rechenzentrum (Ost-West) bewegt, den traditionellen Client-Server-Datenverkehr, der sich ein-und auszieht (Nord-Süd), in den Schatten gestellt. Dies spielt Chaos mit Rechenzentrumsmanagern, wenn sie versuchen, die Anforderungen dieser IT-Ära zu erfüllen.

    Hier sind Schlüsseltechnologien, die Rechenzentren von statischen und starren Umgebungen, die Unternehmen zurückhalten, zu flüssigen, agilen Einrichtungen entwickeln, die in der Lage sind, die Anforderungen eines digitalen Unternehmens zu erfüllen.,

    Edge Computing und Micro Data Centers

    Edge Computing ist ein zunehmend beliebtes Paradigma, bei dem ein Großteil der Rechenarbeit, die traditionell in einem zentralisierten Rechenzentrum geleistet worden wäre, näher am Rand des Netzwerks stattfindet, wo Daten gesammelt werden. Das bedeutet weniger Verzögerung für Anwendungen, die nahezu Echtzeit-Aktionen benötigen, und eine Verringerung der benötigten Datenbandbreite. Mikro – Rechenzentren sind kompakte Einheiten, die Daten physisch in der Nähe der Geräte, die sie sammeln, verarbeiten, analysieren und speichern können und deren Platzierung vor Ort Edge Computing ermöglicht., Mikro – Rechenzentren werden zur Unterstützung einer Reihe von Anwendungen eingesetzt, darunter 5G-Netzwerke, Rollouts für das Internet der Dinge und Content Delivery-Netzwerke.

    Es gibt eine Reihe von Anbietern im Micro Data Center-Bereich, einige mit Hintergrund in anderen angrenzenden Bereichen wie IaaS oder Colocation Services. Micro – Rechenzentren werden oft (aber nicht immer) als vormontierte Geräte verkauft, und „Micro“ deckt eine ziemlich breite Palette von Größen ab-sie können von einem einzelnen 19—Zoll-Rack bis zu einem 40-Fuß—Versandcontainer reichen-und die Verwaltung kann vom Anbieter übernommen oder an einen Managed Service Provider ausgelagert werden.,

    Die Rolle der Cloud

    In der Vergangenheit hatten Unternehmen die Wahl, ihre eigenen Rechenzentren aufzubauen oder einen Hosting-Anbieter oder einen Managed Service-Partner zu verwenden. Die letzteren Routen verlagerten das Eigentum und die Wirtschaftlichkeit des Betriebs eines Rechenzentrums, aber die langen Vorlaufzeiten, die für die Bereitstellung und Verwaltung der Technologie erforderlich waren, blieben bestehen. Der Aufstieg von Infrastructure as a Service (IaaS) von Cloud-Anbietern wie Amazon Web Services und Microsoft Azure hat Unternehmen die Möglichkeit gegeben, mit nur wenigen Mausklicks ein virtuelles Rechenzentrum in der Cloud bereitzustellen., Im Jahr 2019 gaben Unternehmen erstmals jährlich mehr für Cloud-Infrastrukturdienste aus als für physische Rechenzentrumshardware, und mehr als die Hälfte der verkauften Server ging in die Rechenzentren der Cloud-Anbieter.

    Trotzdem geht das lokale Rechenzentrum nicht so schnell weg. In einer Umfrage des Uptime Institute aus dem Jahr 2020 gaben 58% der Befragten an, dass die meisten ihrer Workloads in Unternehmensdatenzentren verbleiben, und nannten mangelnde Transparenz in öffentlichen Clouds und Verantwortung für die Uptime als Grund, sich dem Wechsel zu widersetzen.,

    Viele Unternehmen erhalten das Beste aus beiden Welten, indem sie einen Hybrid-Cloud-Ansatz verwenden, bei dem einige Workloads in eine öffentliche Cloud entladen werden, während andere, die mehr praktische Kontrolle oder Sicherheit erfordern, noch im lokalen Rechenzentrum ausgeführt werden.

    Software-Defined Networking (SDN)

    Ein digitales Unternehmen kann nur so agil sein wie seine am wenigsten agile Komponente. und das ist oft das Netzwerk. SDN kann ein nie zuvor erlebtes Maß an Dynamik bringen.,

    Hyperconverged Infrastructure (HCI)

    Eine der operativen Herausforderungen von Rechenzentren besteht darin, die richtige Mischung aus Servern, Speicher und Netzwerken zusammenzubringen, um anspruchsvolle Anwendungen zu unterstützen. Sobald die Infrastruktur bereitgestellt ist, muss der IT-Betrieb herausfinden, wie er schnell skaliert werden kann, ohne die Anwendung zu stören. HCI vereinfacht dies durch die Bereitstellung einer einfach zu implementierenden Appliance, die auf Commodity-Hardware basiert und durch Hinzufügen weiterer Knoten zur Bereitstellung skaliert werden kann. Es gibt HCI-Angebote von einer Reihe hochkarätiger Anbieter.,

    HCI kann eine Reihe von Vorteilen gegenüber herkömmlichen Rechenzentren bieten, darunter Skalierbarkeit, Cloud-Integration und einfachere Konfiguration und Verwaltung. Frühe Anwendungsfälle für HCI drehten sich um Desktop-Virtualisierung, aber die Technologie nimmt jetzt eine Reihe von Nischen ein, einschließlich Remote-Office/Branch Office-Bereitstellungen, Test-und Entwicklungsumgebungen, Backup und Datenwiederherstellung sowie Protokollierung und Analyse.,

    Container, Microservices, Service-Maschen

    Die Anwendungsentwicklung wird oft durch die Zeitdauer verlangsamt, die für die Bereitstellung der Infrastruktur benötigt wird, auf der sie ausgeführt wird. Dies kann die Fähigkeit eines Unternehmens, zu einem DevOps-Modell zu wechseln, erheblich beeinträchtigen. Container sind eine Methode zur Virtualisierung einer gesamten Laufzeitumgebung, mit der Entwickler Anwendungen und ihre Abhängigkeiten in einem in sich geschlossenen System ausführen können. Container sind sehr leicht und können schnell erstellt und zerstört werden, sodass sie ideal sind, um zu testen, wie Anwendungen unter bestimmten Bedingungen ausgeführt werden.,

    Containerisierte Anwendungen werden häufig in einzelne Microservices unterteilt, die jeweils einen kleinen, diskreten Teil der Funktionalität einkapseln, die miteinander interagieren, um eine vollständige Anwendung zu bilden. Die Aufgabe, diese einzelnen Container zu koordinieren, fällt auf eine architektonische Form, die als Service Mesh bekannt ist, und während das Service Mesh viel Arbeit leistet, um die Komplexität von Entwicklern zu abstrahieren, benötigt es seine eigene Pflege und Wartung., Service-Mesh-Automatisierungs-und Managementinformationen sollten in Ihr umfassendes Rechenzentrumsnetzwerk-Managementsystem integriert werden—zumal Containerbereitstellungen zahlreicher, komplexer und strategischer werden.

    Mikrosegmentierung

    Traditionelle Rechenzentren verfügen über die gesamte Sicherheitstechnologie im Kern, sodass der Datenverkehr in Nord-Süd-Richtung verläuft, die Sicherheitstools durchläuft und das Unternehmen schützt., Der Anstieg des Ost-West-Verkehrs bedeutet, dass der Verkehr Firewalls, Einbruchschutzsysteme und andere Sicherheitssysteme umgeht und Malware sehr schnell verbreiten kann. Microsegmentation ist eine Methode, um sichere Zonen innerhalb eines Rechenzentrums zu schaffen, wo Ressourcen voneinander isoliert werden können, so dass, wenn eine Verletzung passiert, der Schaden minimiert wird. Die Mikrosegmentierung erfolgt normalerweise in Software, wodurch sie sehr agil ist.

    Non-Volatile Memory Express (NVMe)

    In einer Welt, die zunehmend digitalisiert wird, ist alles schneller, und das bedeutet, dass sich Daten schneller bewegen müssen., Traditionelle Speicherprotokolle wie die Small Computer System Interface (SCSI) und Advanced Technology Attachment (ATA) gibt es schon seit Jahrzehnten und stoßen an ihre Grenzen. NVMe ist ein Speicherprotokoll, das entwickelt wurde, um die Übertragung von Informationen zwischen Systemen und Solid-State-Laufwerken zu beschleunigen und die Datenübertragungsraten erheblich zu verbessern.

    Und NVMe beschränkt sich nicht nur auf die Verbindung mit Solid-State-Speicherchips: NVMe over Fabrics (NVMe-oF) ermöglicht die Erstellung von superschnellen Speichernetzwerken mit Latenzen, die mit Direct Attached Storage konkurrieren.,

    GPU Computing

    Zentralverarbeitungseinheiten (CPUs) betreiben seit Jahrzehnten die Rechenzentrumsinfrastruktur, aber Moores Gesetz stößt auf physische Einschränkungen. Auch neue Workloads wie Analytics, maschinelles Lernen und IoT treiben die Notwendigkeit für einen neuen Typ von Rechenmodell, das übersteigt, was CPUs tun können. Grafikverarbeitungseinheiten (GPUs), die einst nur für Spiele verwendet wurden, arbeiten grundlegend anders, da sie viele Threads parallel verarbeiten können.,

    Damit finden GPUs einen Platz im modernen Rechenzentrum, das zunehmend mit KI-und neuronalen Netzwerkaufgaben betraut ist. Dies führt zu einer Reihe von Verschiebungen in der Architektur von Rechenzentren, von der Verbindung mit dem Netzwerk bis zur Kühlung.

    Rechenzentren waren schon immer entscheidend für den Erfolg von Unternehmen fast aller Größen, und das wird sich nicht ändern. Die Anzahl der Möglichkeiten zur Bereitstellung eines Rechenzentrums und der Aktivierungstechnologien befindet sich jedoch in einem radikalen Wandel., Um eine Roadmap für das zukünftige Rechenzentrum zu erstellen, erinnern Sie sich daran, dass die Welt immer dynamischer und verteilter wird. Technologien, die diesen Wandel beschleunigen, werden in Zukunft benötigt. Diejenigen, die dies nicht tun, werden wahrscheinlich eine Weile bleiben, aber immer weniger wichtig werden.

    Schreibe einen Kommentar

    Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.