Die Digitalisierung lässt die Datenflut immer weiter anwachsen. Insbesondere Mittelständler sehen sich zunehmend mit Anforderungen konfrontiert, die sie nur mit der Hilfe moderner und professionell gehosteter Rechenzentren erfüllen können, Stichwort Colocation. Denn sie müssen darauf vertrauen können, dass ihre IT umfassend und zuverlässig geschützt ist. Dazu sind mehrere tragende Säulen nötig. Ein Blick auf die notwendigen Maßnahmen lohnt sich in jedem Fall – für die Mieter wie auch für die Selbstbetreiber.
Laut Statista gab es 2017 weltweit rund 8,4 Millionen Rechenzentren jedweder Größe [1]. Dies überrascht wenig, schließlich müssen in einer digitalisierten Welt immer mehr Daten gespeichert, bearbeitet und vorgehalten werden. Als Schmierstoff im Motor einer modernen und digitalen Wirtschaft nehmen sie einen unverzichtbaren Platz ein: Durch multidimensionale Verbindungen zwischen Kunden- und Provider-Services für die verschiedenen Märkte der Zukunft entstehen neue IoT-Ökosysteme, in denen Rechenzentren die Basis für den Umgang mit Daten bilden.

Um dieser Aufgabe gerecht zu werden, müssen sie stets zuverlässig erreichbar und dabei bestmöglich geschützt sein. Kurz: Ein durchgängiges Sicherheitskonzept für ein Datacenter muss kontinuierlich ganz oben auf der Agenda eines Rechenzentrumsbetreibers stehen und folgende fünf Punkte umfassen: technische Sicherheit, Betriebssicherheit, Datensicherheit im Sinne der ISO 27001, wirtschaftliche Sicherheit und Rechtssicherheit. Zudem sollte als Mindestanforderung die Qualitäts-Management-Norm ISO 9001 erfüllt sein.

Energiehunger braucht stabile Versorgung

Kein Datacenter kann zuverlässige Arbeit leisten, wenn es immer wieder zu Energieschwankungen kommt. Eine unterbrechungsfreie Stromversorgung (USV) ist demzufolge für jedes Rechenzentrum überlebenswichtig. Dabei kann bereits ein einzelnes so viel Strom verbrauchen wie eine Kommune mit über 10.000 Haushalten. 2016 überholten Frankfurts Rechenzentren sogar Deutschlands größten Flughafen beim Stromverbrauch [2]. Klar ist: Um eine USV bei zugleich hohem Energiebedarf zu jeder Zeit zu garantieren, müssen Anbieter höchste Sicherheitsstandards zwingend einhalten.

Die Nähe zu einem Energieversorger als Primärquelle kann schon ein entscheidender Faktor sein, um eine durchgängige Versorgung sicherzustellen: je kürzer der Leitungsweg, desto geringer der Übertragungsverlust. Denn der ohmsche Widerstand wirkt einerseits generell stärker bei längeren Wegstrecken, andererseits besteht mit jedem weiteren Streckenmeter die Gefahr von Leitungsschäden und damit zusätzlichen Spannungsabfällen. Zudem kann die Zuleitung günstiger redundant – möglichst mittels einer 2N-Redundanz – erfolgen, wenn der Weg zum Stromanbieter sehr kurz ist.

Selbstverständlich sollte auch der Energieversorger über modernste Technik und redundante Systeme verfügen. Die Energieversorgung vor Ort ist bei führenden Colocation-Anbietern folglich so konzipiert, dass in den Server-Räumen eine Flächenlast von bis zu zwei Kilowatt pro Quadratmeter und bei Bedarf ergänzende Hotspots von bis zu 20 Kilowatt pro Rack garantiert werden können.

Falls dennoch alle Stricke der externen Versorgung reißen, muss ein Rechenzentrumsbetreiber eine unterbrechungsfreie Stromanlage vorhalten, die die gesamte Energiezufuhr für mehrere Tage unterbrechungsfrei sicherstellen kann. Ob ein solches Notfallsystem wirklich zuverlässig funktioniert, können nur Tests unter realen Bedingungen klären. Der Anbieter Maincubes führt beispielsweise regelmäßig sogenannte Black-Building-Tests durch, die die komplette Nutzlast eines Rechenzentrums kombiniert mit diversen Ausfallszenarien bis hin zum Totalausfall der externen Stromversorgung simulieren. Nur Rechenzentren, die solche Härtetests bestehen, können als wirklich zuverlässig gelten.

Cool bleiben im Datacenter

Unzureichende Kühlung kann für IT-Systeme schnell den Hitzetod bedeuten. Immerhin wandeln Milliarden von Transistoren elektrische Energie in Wärme um und sind daher ununterbrochen zu kühlen. Ziel ist es, Temperatur und relative Luftfeuchtigkeit in einem Rahmen zu halten, in dem die Technik optimal arbeiten kann. Denn zu hohe Luftfeuchtigkeit lässt Kondenswasser entstehen – und ist die Luftfeuchtigkeit zu niedrig, kann das von statischer Aufladung bis hin zum Kurzschluss führen. Konkret sollte die Temperatur sich zwischen 21°C und maximal 27°C bewegen, während die relative Luftfeuchtigkeit im Bereich zwischen 20 und 80 Prozent liegen sollte. Der Kühleffekt gelingt durch unterschiedliche Maßnahmen: von der Architektur über Passivkühlung mittels Luftaustausch bis hin zur Aktivkühlung mit Kühlmitteln. So kann bereits eine intelligente Fassade zur Abkühlung der Innenräume beitragen. Individuelle Klimaanforderungen in den Server-Räumen lassen sich unter anderem durch vereinzelte, voneinander unabhängige Betriebszonen realisieren. Ein durchgängiges Kaltgang-Konzept sorgt für eine physische Trennung von Kühl- und Abluft zwischen den Racks.

Der Gesamtaustausch zwischen warmer Innen- und kühlender Außenluft kann über eine moderne Kyoto-Kühlung mit indirekter Freikühlung besonders effizient erfolgen. So gelingt beispielsweise der Betrieb des Maincubes-Rechenzentrums in Frankfurt dank eines neuartigen Konzepts und Designs komplett ohne zusätzliche Wärmeträger wie Wasser oder Kühlmittel.

Da in der Regel bei den älteren bestehenden deutschen Rechenzentren 80 Prozent der gesamten Stromkosten auf die Kühlung entfallen, müssen Betreiber betriebliche Notwendigkeit und Kosteneffizienz klug abwägen. Der von „The Green Grid Organization“ in die Bewertung eingebrachte PUE-Wert (Power Usage Effectiveness) hilft bei der Einordnung. Er ist der Koeffizient aus dem Stromverbrauch der IT-Komponenten und dem Gesamtverbrauch inklusive aller Nebenaggregate. Demnach wäre ein Idealzustand bei genau 1 erreicht.

Während Deutschlands Datacenter im Mittel auf einen PUE-Wert von 1,8 kommen, gilt erst ein Wert von 1,5 als wirklich effizient. Liegt der Wert unter 1,3, handelt es sich um eine sehr effiziente Energienutzung und damit um die Premiumklasse bei Rechenzentren.

Bränden keine Chancen geben

Bei aller berechtigten Euphorie rund um die Digitalisierung sind Rechenzentren noch immer Teil der analogen Welt. Sie sind in Gebäuden untergebracht, beheimaten Hardwarekomponenten aus Hunderten Racks sowie viele Kilometer Verkabelung und verbrauchen große Mengen an Energie. Demzufolge sind Datacenter auch physischen Gefahren ausgesetzt, vor denen sie bestmöglich zu schützen sind. Ohne umfangreiche Brandschutzmaßnahmen kann bereits ein einziger Funke schwerste Schäden verursachen.

Um dieser Gefahr angemessen zu begegnen, ist ein modernes und umfangreiches Brandschutzkonzept unabdingbar. Neben konventionellen Brandmeldesystemen, die sichtbare Rauchentwicklungen registrieren, sollten zusätzlich moderne Anlagen installiert sein, die die Luft kontinuierlich auf kleinste Rauchpartikel überprüfen. Lange vor sichtbarem Rauch lassen sich damit Schwelbrände frühestmöglich erkennen. Kommt es dennoch zum Brand, sind automatische Gaslöschanlagen die erste Wahl. Sie entziehen einem Feuer entweder den Sauerstoff (etwa durch den Einsatz von Stickstoff oder Argon) oder wirken reaktionshemmend auf den Verbrennungsprozess ein. Die Vorteile: Die eingesetzten Gase haben im Gegensatz zu Löschmitteln wie Schaum oder Wasser keinerlei Auswirkungen auf die Hardware und verflüchtigen sich zudem rückstandslos.

Zutritt nicht gestattet

Rechenzentren zählen wie Kraftwerke zur Kategorie der kritischen Infrastrukturen (Kritis). Damit sie ihren Dienst zuverlässig leisten, muss der Betreiber auch den Zutritt klar regeln und einschränken. Naheliegend ist demzufolge, das Gelände entsprechend abzuriegeln und bereits für den Außenbereich umfangreiche Videoüberwachung und Bewegungssensoren zu installieren. Der Eintritt in das Gebäude oder in einzelne Abteilungen lässt sich bereits organisatorisch einschränken: Stabile betriebliche Abläufe sorgen dafür, dass befugtes Personal nur in klar vordefinierten Zeiträumen und Umfang Zugang erhält. Gleichzeitig erfolgen mehrstufige Zutrittskontrollen über Sicherheitsschleusen.

Personen sollten sich hier mittels Biometrie authentifizieren müssen. Besonders dafür geeignet sind etwa moderne Handvenenscanner, die mittlerweile sicherer und zudem benutzerfreundlicher als Irisscanner sind. Außerdem kontrollieren sowie regulieren Vereinzelungsanlagen Zugänge unter höchsten Sicherheitsanforderungen.

Auch im Gebäudeinneren helfen umfangreiche Videoüberwachung und empfindliche Bewegungssensoren dabei, Personen sofort zu registrieren und ihren Aufenthaltsort zu dokumentieren. Zudem muss ein modernes Datacenter über einen 24-Stunden-Sicherheitsdienst verfügen, der im Notfall jederzeit eingreifen kann. So ergänzt die menschliche Komponente auf sinnvolle Weise die technischen Maßnahmen und sorgt für ein redundantes Security-Konzept für die gesamte Anlage.

Standortvorteile nicht unterschätzen

Moderne Datenübertragungstechnik stellt immer wieder neue Rekorde auf. Demzufolge gehen viele davon aus, dass es im Grunde keine Rolle spielt, wo genau ein Rechenzentrum steht. Doch dies ist ein Irrtum: Der Standort ist auf verschiedenen Ebenen ein ganz entscheidender Faktor beim Thema Security: von der geografischen Lage über die rechtsstaatliche Verfassung bis hin zur Infrastruktur.

Umwelteinflüsse können etwa darüber entscheiden, wie sicher der Standort eines Rechenzentrums ist. Risikofaktoren wie schwere Unwetter, Erdbeben, Überschwemmungen oder extreme Hitze treiben die Kosten stark in die Höhe oder machen den Betrieb gar vollständig unmöglich. Daher kommen geografisch nur möglichst sichere Regionen für den Standort eines Datacenters in Frage. Zudem sollten auch die klimatischen Bedingungen nicht unterschätzt werden: Ein moderates Klima, wie man es etwa in Deutschland vorfindet, erlaubt beispielsweise unter Einsatz moderner Technik eine Zukühlung von höchstens 20 Prozent. Dies senkt neben dem Energieverbrauch auch die Kosten und ist darüber hinaus umweltschonender.

Auch die politische/rechtsstaatliche Verfassung übt einen großen Einfluss auf die Sicherheit eines Rechenzentrums aus. Grundsätzlich sorgen zum Beispiel stabile politische Verhältnisse für mittel- und langfristige Investitionssicherheit. Eine freiheitlich demokratische Staatsordnung mit Gewaltenteilung und konstitutionell zugesicherten Rechten zur Vertragsfreiheit sowie dem Schutz der informationellen Selbstbestimmung des Einzelnen bilden einen starken Rahmen für ein hohes Maß an Sicherheit von Daten. Bindende Rechtsvorschriften wie etwa das Bundesdatenschutzgesetz (BDSG) zusammen mit der Datenschutz-Grundverordnung (DSGVO) und dem IT-Sicherheitsgesetz bescheinigen beispielsweise dem Standort Deutschland besondere Kompetenzen in Sachen Datenschutz und -sicherheit.

So glänzt die Bundesrepublik heute weltweit mit dem Slogan „Security Made in Germany“ und sorgt dafür, dass Betreiber von Datacentern ihre Sicherheitskonzepte noch umfangreicher gestalten. Zugleich ist auch die nationalstaatliche Zugehörigkeit wichtig: Während etwa US-Provider sich in einer Zwickmühle zwischen europäischem und amerikanischem Recht befinden, gelten in Deutschland für deutsche Betreiber nur die Rechtsvorschriften der Bundesrepublik und die der Europäischen Union.

Hohe Sicherheitsvorschriften, technische Standards sowie Kontrollinstanzen mit weitreichenden Befugnissen bieten einen zusätzlichen formellen Rahmen. Internationale Normen für das Qualitäts-Management wie die ISO 9001 oder die ISO 27001 im Bereich des IT-Sicherheits-Managements bieten Orientierung und klare Vorgaben. Kontrollbehörden oder private Prüforganisationen wie der TÜV in Deutschland können etwa durch Zertifikate die geprüfte Sicherheit sowie Zuverlässigkeit bescheinigen. Auch für die DSGVO arbeiten Experten derzeit an einem Zertifikat, das sich am noch gültigen TCDP (Trusted Cloud Datenschutzprofil) orientiert.

Zuletzt ist auch die Infrastruktur auf verschiedenen Ebenen ein wichtiger Faktor im Sinne von Energie, Transportwegen, dem Zugang zu modernen Datenübertragungstechnologien und Bildung. So sorgt etwa der direkte Zugang zu großen Internetknoten wie dem DE-CIX in Frankfurt für die sichere Anbindung an die weltweiten Datenströme. Selbst die Mentalität gegenüber Technik innerhalb einer Gesellschaft kann sich positiv oder negativ auf die Standortsicherheit eines Rechenzentrums auswirken. Das Konzept der physischen Sicherheit eines Rechenzentrums ist wie bei einer Kette nur so stark wie ihr schwächstes Glied. Nur eine sorgfältig austarierte ISO-zertifizierte Gesamtstrategie sorgt dafür, dass beispielsweise Colocation-Kunden sich voll und ganz auf ihren Anbieter verlassen können. Schon bei der Frage der Ausfallsicherheit sollten nur Betreiber in Frage kommen, die mindestens den TÜV-Level 3 erreichen, was analog zum Tier-3-Standard ist, und die somit eine 99,98-prozentige Verfügbarkeit gewährleisten können.

Moderne Konzepte zeigen, dass Sicherheit, Kosteneffizienz und Umweltschutz sich problemlos in Einklang miteinander bringen lassen. Dies beweisen auch immer wieder die Preisträger des seit 2011 verliehenen Deutschen Rechenzentrumspreises mit ihren hochinnovativen Ideen. Die Herausforderungen etwa der Industrie 4.0 oder des IoT unter der Ägide der Digitalisierung machen neue Denkansätze und Konzepte zwingend notwendig. Ein Beispiel ist die Secureexchange-Plattform von Maincubes. Sie bietet neben umfangreichen Sicherheitspaketen auch eine direkte Vernetzung von Marktpartnern, die dort ihre eigenen Services anbieten, Informationen austauschen, neue Features in die Angebote integrieren und flexibel in neue Bereiche wie Digital Factory, Secure Mobility, Smart City oder Secure Payment einsteigen können.

Damit entsteht ein Ökosystem, das in der digitalen Ära zunehmend erfolgsentscheidend ist. Denn an einer gemeinsamen Nutzung von Ressourcen in einem Netzwerk wird künftig kein Unternehmen mehr vorbeikommen, da die umfassenden Herausforderungen allein kaum mehr zu erfüllen sind. Die horizontale Vernetzung auf einem sicheren „Marktplatz der Digitalisierung“ weist daher den Weg in die Zukunft.

 

Albrecht Kraas ist CTO und einer der Geschäftsführer von Maincubes One, www.maincubes.com.