Smart Homes, Internet of Things, Industrie 4.0: Die Technologisierung des Berufs- und Lebensalltags lässt die Anforderungen an die verarbeitende IT-Infrastruktur steigen. Ausfallsicherheit und Backup-Systeme werden immer relevanter – denn ein Netzausfall verursacht heute binnen kürzester Zeit Kosten im fünfstelligen Bereich. Im Rahmen des Forschungsprojektes fast realtime optimiert Cloud&Heat Technologies die Datenverfügbarkeit im Notfall. Das Dresdner Unternehmen hat ein System der standortübergreifenden Datenreplikation entwickelt, das dank schnellster Übertragungsraten Hochverfügbarkeit gewährleistet.

Laut einer Studie von Veeam Software fallen die IT-Infrastrukturen von Unternehmen und Behörden im Schnitt 27 Mal pro Jahr aus. Die Ursache: Stromausfälle, defekte Bauteile, menschliches Versagen, Hackerangriffe oder Störungen der Internetverbindung. Nur bei großen Firmen gelangt das in die Öffentlichkeit, wie z. B. bei Spiegel Online, Amazon oder British Airways in jüngster Vergangenheit geschehen. Gerade bei kritischen Prozessen und Netzen spielt die Hochverfügbarkeit von Daten eine wichtige Rolle. Immerhin setzen weltweit etwa 96 Prozent aller mittleren und großen Unternehmen auf die digitale Verarbeitung von Daten und versuchen, ihre Geschäftsprozesse durch innovative Technologien zu optimieren. Deshalb werden immer mehr Geräte und Sensoren ans Internet angeschlossen. Laut Gartner steuern bereits etwa 4,9 Milliarden Geräte u. a. Produktions- und Fertigungsabläufe, um sie besser planen und kosten- sowie zeiteffizienter gestalten zu können. Störungen der IT-Infrastruktur verzögern die Produktions- und Lieferkette – mit verheerenden Folgen. Die Hochverfügbarkeit von Daten ist hier also immens wichtig. Auch rechenintensive Jobs, wie sie in großen Forschungseinrichtungen – z. B. dem Kernforschungszentrum CERN – anfallen, brauchen stabile digitale Infrastrukturen. Hier werden täglich riesige experimentelle Datenmengen erhoben, analysiert und interpretiert. Und die müssen rund um die Uhr verfügbar sein.

Backup-Rechenzentren als Notfall-Mittel

Um dem Notfall und damit dem zeitweisen Verlust von wichtigen Daten vorzubeugen, erwägen besonders Behörden oder Unternehmen mit einem umfangreichen IT-Betrieb und hohen Verfügbarkeitsanforderungen ein zusätzliches Backup-Rechenzentrum zu nutzen. Der Hintergrund: Ein zusätzliches Rechenzentrum kann den gesamten IT-Betrieb übernehmen, falls das eigentliche ausfällt. Neben dem optimalen Standort und der Distanz zwischen den Rechenzentren geht es vor allem um die Schnelligkeit, mit der das Ausweichrechenzentrum die Aufgaben übernimmt. Außerdem müssen die Daten an beiden Standorten ständig synchronisiert werden. Um sie eins zu eins an verschiedenen Standorten zur Verfügung zu stellen, spielt Niederlatenz eine wichtige Rolle. Sie stellt den kontinuierlichen Datenabgleich, die Replizierung sowie die synchronisierte Datenspeicherung sicher. Mit Latenz ist die technisch bedingte zeitliche Verzögerung in Netzen gemeint, die durch den Durchlauf der Datenpakete entsteht. Den Zeitraum besonders klein zu halten („Niederlatenz“) ist wichtig, um die IT-Infrastruktur im Notfall so schnell wie möglich wieder produktiv zu schalten.

Echtzeitsynchronisation nur von relevanten Änderungen

Die Mehrheit aller Replikationsprogramme kopieren Daten immer vollständig, auch wenn sich nur ein kleiner Teil der Datei ändert. Gerade bei großen Dateien mit kleinen Änderungen wird so die Netzlast enorm und vor allem unnötig erhöht. „Fällt ein Rechenzentrum aus, sind die zu replizierenden Daten möglicherweise noch gar nicht am Backupstandort angekommen. Dieses Problem zu lösen, ist Teil unserer aktuellen Forschungsarbeit“, erklärt Marius Feldmann von Cloud&Heat Technologies. Dazu hat das Unternehmen aus Dresden einen Mechanismus entwickelt, der Dateien zunächst in sogenannte Blöcke unterteilt. Sind die möglichst klein, müssen im Falle einer Replikation eben auch nur kleine Datenmengen über das Netz geschickt werden, was die Schnelligkeit der Datenübertragung erhöht. Außerdem: Erkennt die Software eine Änderung, repliziert sie nur den geänderten Block. „Durch kurze Prüfintervalle und möglichst kleine Datenmengen können wir sogar die Zeiten herkömmlicher Programme um durchschnittlich 30 bis 70 Prozent verringern“, so Feldmann weiter.

Intelligente Suche für den besten Serverstandort

Darüber hinaus hat Cloud&Heat einen Geolokalisator entwickelt, der es dem Nutzer ermöglicht, softwaregesteuert denjenigen Serverstandort auszuwählen, der die geringste Latenz aufweist. Denn es ist nicht nur wichtig, so wenig wie möglich Daten standortübergreifend zu replizieren, sondern auch die Zeitverzögerung bei der Datenübertragung zwischen Nutzer und Cloud so klein wie möglich zu halten. Forschungsziel ist auch, die Latenz zwischen den einzelnen Standorten zu verbessern. Sind die Infrastrukturen eines Rechnungszentrums auf verschiedene lokal betriebene, kleinere Standorte verteilt, lässt sich die Zeitverzögerung der Übertragung zwischen den einzelnen Datendepots minimieren. Die Zeit, die benötigt wird, alle vorhandene Daten von Standort A am Standort B zu synchronisieren und im Falle eines Ausfalls von Standort A zu sichern, kann so auf wenige Millisekunden reduziert werden. Werden die Daten in lokaler Nähe zum Kunden synchronisiert und gespeichert, braucht die Datenübertragung außerdem weniger Zeit, als wenn Cloud-Nutzer aus Deutschland ihre Cloud-Ressourcen in Serverfarmen in den USA verarbeiten.

Über fast realtime

Fast realtime ist Basisprojekt im Förderprojekt fast (fast actuators, sensors and transceivers). Fast startete im Jahr 2013 und wird im Rahmen des BMBF „Zwanzig20 – Partnerschaft für Innovation“ gefördert. Das Programm, an dem sich insgesamt 80 Konsortiumspartner beteiligen, hat sich dem Zukunftsthema innovativer Echtzeitsysteme verschrieben. Das Projekt startete am 01.02.2015 und wird am 31.01.2018 abgeschlossen.

Über Cloud&Heat Technologies

Cloud&Heat ist Anbieter OpenStack-basierter Public- und Private-Cloud-Lösungen. Seit 2012 betreibt das Unternehmen eine eigene, auf verschiedene Standorte verteilte Cloud-Infrastruktur, auf der klassisches Cloud Computing (IaaS) angeboten wird. Mit der Konzeption, der Inbetriebnahme und Wartung maßgeschneiderter Cloud-Lösungen für Unternehmen komplettiert Cloud&Heat Technologies sein Portfolio um das Datacenter in a Box und reagiert damit auf die rasant steigende Nachfrage nach unternehmensinternen Cloud-Infrastrukturen. All unsere Cloud-Lösungen basieren auf der Cloud&Heat-eigenen Serverbasis „Datacenter in a Box“, die dank innovativer Heißwasserkühlung weltweit einzigartig energieeffizient ist. Die Serverabwärme wird direkt von den Wärmehotspots wie CPU oder RAM aufgenommen, abgeführt und kann zum Beheizen von Immobilien und zur Warmwasseraufbereitung genutzt werden. Das energie- und kosteneffiziente Konzept ist mehrfach preisgekrönt, u. a. durch den Deutschen Rechenzentrumspreis 2015 und 2016.

BMBF Logo