Fibre Channel, iSCSI und FCoE im Vergleich

Das ideale SAN-Konzept gibt es nicht

17. Dezember 2008, 23:00 Uhr | Annette Bornemann/dp Annette Bornemann ist Geschäftsführerin des Storage- und Backup-Anbieters Stor IT Back in Marxen.

Im Storage-Bereich sind derzeit die Schlagworte "Unified Network" und "Fibre Channel over IP" in aller Munde. Doch welche Speicherarchitektur sich am besten für ein Unternehmensnetz eignet, hängt von Kriterien wie der Größe des Netzes, der notwendigen Geschwindigkeit, der Netzwerkauslastung und dem verfügbaren Budget ab. Hinzu kommt, dass Fibre Channel over Ethernet immer noch in der Entwicklungsphase steckt und es kaum Anbieter dafür gibt.

Das älteste und verbreiteste Protokoll im Bereich der Storage Area Networks (SANs) ist Fibre Channel (FC), ein speziell für die Anbindung von Speichersystemen entwickeltes Protokoll. Es wird derzeit mit Übertragungsgeschwindigkeiten bis zu 8 GBit/s angeboten, benötigt aber spezielle Hardware im Serverbereich und im Netzwerk. Für den redundanten Aufbau eines SANs werden zwei HBAs (Host Bus Adapter) pro Server und mindestens zwei FC-Switches benötigt.

iSCSI als Einstiegslösung

Eine Antwort auf die hohen Hardware-Kosten des FC-SANs ist die Entwicklung von SCSI over IP. Dieses "Internet-SCSI" (iSCSI) ist standardisiert, und die Hersteller halten die Standards auch ein, sodass in einer kurzen Entwicklungszeit eine gute Kompatibilität entstanden ist. Dank der geringen Anschaffungskosten ist diese Lösung gerade bei kleinen und mittleren Unternehmen stark verbreitet. Einstiegslösungen (Netzwerk plus Storage) sind schon ab 2000 Euro möglich. Der Anwender nutzt dafür Standard-GbE-Karten und LAN-Switches. Dabei verpackt ein Softwaretreiber (Software-Initiator) oder eine entsprechende Hardwarekarte das SCSI-Protokoll in TCP/IP. Da iSCSI Block-Devices überträgt, zählt es zu den SAN-Lösungen. Beim FC-SAN wird das SCSI-Protokoll in FC verpackt, beim iSCSI-SAN in TCP/IP. Zudem behandelt das Betriebssystem die iSCSI-Festplatten wie interne Festplatten, sodass sich iSCSI auch für Datenbanken eignet. Vorhandene DAS-Systeme (Direct Attached Storage) können damit einfach und kostengünstig zusammengefasst und zentralisiert werden. Das reduziert den Administrationsaufwand und spart Energie (Green IT). Die Zentralisierung des Speichers kann zudem die Verfügbarkeit der Systeme steigern, wenn die Daten zum Beispiel über das Storage-System an einen zweiten Standort repliziert werden. Eine redundante Anbindung der Server über Multipathing ist problemlos möglich.

iSCSI bietet zwar einen geringeren Durchsatz als FC oder FCoE, doch reicht das für viele Anwendungen aus. Der entscheidende Vorteil gegenüber diesen Konzepten ist die Kostenersparnis. Deshalb sollte der Anwender auch das verbreitete und preiswertere GbE und nicht 10GbE nutzen. Damit ist der Nutzdatendurchsatz auf etwa 80 bis 90 MByte/s beschränkt. Arbeitet das SAN aber mit Multipathing und Round-Robin (Nutzung von zwei GbE-Verbindungen), liegen die Datenraten bei 150 MByte/s. Der Administrator sollte zudem die Übertragung von Jumbo-Frames aktivieren. Dabei ist 9216 ein optimaler Wert für die maximale Paketgröße (MTU) der beteiligten Geräte bei einer 32-Bit-Check-Summe zum Transport von 8-kByte-Paketen zuzüglich Header-Informationen.

Die Latenzzeiten sind sonst kaum beeinflussbar und auch die höhere Auslastung des Servers nicht. Erfolgt die Verpackung der Pakete mit einem Software-Initiator und mithilfe der CPU, kann damit ein großer Teil der CPU-Leistung verloren gehen. Aber selbst GbE-iSCSI reicht in vielen Fällen für File-, Web-, kleine Datenbank- und Anwendungsserver aus.

Das iSCSI-Netz sollte aus Performance- und Sicherheitsgründen vom restlichen LAN getrennt und je nach Anforderung redundant ausgelegt werden. Der Server benötigt entweder eine spezielle iSCSI-Karte (iSCSI-HBA) oder einen Software-Initiator plus Netzwerkkarte. Viele GbE-Karten besitzen schon iSCSI-Features, wie TCP Offload Engines oder den iSCSI-Remote-Boot bei Intel-PRO/1000-PCIe-Serverkarten. Mit diesen PCI-Express-Netzwerkkarten kann ein Server von einem iSCSI-Target booten und braucht keine internen Systemplatten. Die Weiterleitung der iSCSI-Daten auf die SAS-, SATA- oder FC-Platten oder das Bandlaufwerk übernimmt in der Regel entweder ein iSCSI-RAID-System oder eine iSCSI-Netzwerkkomponente (Router oder Bridge). Beide Varianten sind seit längerer Zeit erhältlich, von kostengünstigen Einsteigerversionen (Open-E DSS) bis zu Unternehmenslösungen im HA-Cluster (zum Beispiel Sanrad V-Switch).

Das iSCSI-RAID-System ist wie ein FC-RAID aufgebaut und stellt seine internen Festplatten (oder Teile davon) über iSCSI den anderen Nutzern zur Verfügung. Die meisten Hersteller (wie EMC, Hitachi, IBM, HP oder Infortrend) bieten ihre RAID-Systeme meist sowohl mit FC- als auch mit iSCSI-Anschlüssen an. Bis auf die Schnittstelle sind die Geräte meist identisch. Wer vorhandene Storage-Geräte in ein iSCSI-Netz einbinden will, nutzt dazu einen iSCSI-Router, der zum Beispiel iSCSI in Fibre Channel oder SCSI umwandelt. Eine vorhandene Library mit SCSI-Laufwerken kann damit einfach in ein iSCSI-Netzwerk integriert werden.

Auch fast jedes NAS-System bietet zusätzlich iSCSI-Services an. Zum Beispiel hat der Anbieter Netapp von Anfang an seine Systeme zusätzlich mit iSCSI ausgerüstet. Andere Anbieter wie Open-E oder Reldata stellen dies unter dem Begriff "Unified Storage" bereit.

FCoE - Unified Network

Die neueste Entwicklung im Speicherbereich ist Fibre Channel over Ethernet, oder kurz FCoE. Der große Nachteil von FC-Lösungen ist die spezielle Hardware, das separate Netz zur Anbindung des Storage-Bereichs. Dafür bietet es aber eine hohe Performance. FCoE soll nun genauso leistungsfähig wie FC sein, zudem sicher über Ethernet zu transportieren sein, aber nur eine gemeinsame Hardware sowohl für die Daten (Storage) als auch für die Client-Anbindung benötigen. Ziel dieser Lösung ist ein hochperformantes und hochredundantes Ethernet im Rechenzentrum für alle Datendienste. Dies spart Energie und soll die Administration vereinfachen. Man könnte FCoE als Weiterentwicklung des iSCSI-Protokolls betrachten, die das FC-Protokoll in einen Ethernet-Frame einkapselt. Zusätzlich benötigt das Ethernet-Protokoll noch einige Ergänzungen, um die Performance zu verbessern. So wird immer ein FC-Frame in einen Ethernet-Frame verpackt, und zwar in einen nativen Layer-2-Ethernet-Frame mit der Kennung "FCoE". Zudem verbessern die FCoE-Entwickler noch die Latenzzeit und Priorisierung des Ethernet-Protokolls. Im Vergleich zu iSCSI weist FCoE somit eine geringere Latenzzeit auf, der Datenverkehr kann priorisiert werden, und der Overhead ist deutlich geringer. Im Gegensatz zu FC-SANs ist keine komplett andere Hardware und Bedienung notwendig. Es gibt ein gemeinsames Netzwerk für Daten- und Storage-Dienste. Doch die Investition in FCoE wird sich nur für größere Rechenzentren lohnen, die sonst in eine umfangreiche FC-Infrastruktur investiert hätten. FCoE lässt sich in vollem Umfang nur in einer reinen 10-GBit/s-Umgebung realisieren. Die IT-Abteilung benötigt dann bestimmte FCoE-Netzwerkkarten und hochperformante Switches, die alle FCoE-Features unterstützen. Anders als bei iSCSI kann also keine herkömmliche Ethernet-Hardware genutzt werden.

Derzeit befindet sich die FCoE-Hardware noch im Entwicklungsstadium, sodass die Auswahl an Geräten noch sehr übersichtlich ist: Intel hat die erste 10-GBit/s-Kombinetzwerkkarte im April dieses Jahres angekündigt, Qlogic stellte im August seine erste FCoE-Karte (QLE8042) vor, zusammen mit Cisco (Nexus-5000-Serie) wollen sie die Verbreitung vorantreiben. Die Preise für die Komponenten liegen noch deutlich über denen für entsprechende FC-Hardware. Gerade im Bereich Storage-Devices (RAID-Systeme, Bandlaufwerke) ist man noch auf Umsetzer angewiesen. Hierzu kann zum Beispiel der FCoE-Switch Nexus 5000 dienen, der auch FC-Ports anbietet und somit eine sanfte Migration von FC auf FCoE erlaubt. Wer im nächsten Jahr den Umbau seiner vorhandenen Struktur (Netzwerk und Storage) plant, sollte auf jeden Fall die Vor- und Nachteile von FCoE für die eigene Umgebung genau beleuchten.

Geschwindigkeitsunterschiede

Entscheidend für die Auswahl ist auch, wie groß die tatsächlichen Geschwindigkeitsunterschiede bei 8-GBit/s-FC, GbE-iSCSI und 10-GBit/s-FCoE sind. Relevant ist dabei der Durchsatz. Dies verdeutlicht der Vergleich mit einer Autobahn: Bei wenig Verkehr können die Fahrzeuge auch auf einer einspurigen Straße (1-GBit/s-iSCSI) mit maximaler Geschwindigkeit fahren. Wird der Verkehr aber dichter, kommt es dort schnell zu einem Stau. Ist die Autobahn aber achtspurig (8-GBit/s-FC), so können wesentlich mehr Fahrzeuge bei maximaler Geschwindigkeit ohne Stau fahren. Beim FCoE ist es dann eine zehnspurige Autobahn, die müssen sich aber LKWs (Storage) und Sportwagen (LAN) teilen.

Ein direkter Vergleich zwischen 1-GBit/siSCSI und 1-GBit/s-FC verdeutlicht die Unterschiede. FC ist optimiert für den Transport großer Datenmengen, Ethernet jedoch für Transaktionen mit meist sehr kleinem Inhalt. Beide basieren auf einer Übertragungsgeschwindigkeit von 1065 Bit/s, jedoch ist der Nutzdateninhalt sehr unterschiedlich, wie auch die Ansteuerung durch den Prozessor. Mit GbE kann eine Übertragungsrate von 50 bis 80 MByte/s erreicht werden. Dies variiert je nach Anzahl der Teilnehmer und der Datenstruktur. Bei FC liegen die Übertragungsraten auch bei ungünstigen Verhältnissen bei 90 MByte/s. Ein weiterer Faktor ist die Anzahl der Prozessor-Interrupts bei der Übertragung von Daten. Sie liegt bei Ethernet um Faktoren höher als bei FC. Dies bedeutet eine sehr starke Belastung für den Server und lässt sich bei iSCSI-SANs durch spezielle iSCSI-Karten oder TCP Offload Engines vermindern. Sie übernehmen die gesamte Umwandlung. Zudem kann der Anwender mehrere GbE-Verbindungen bündeln oder auf 10GbE umsteigen. In beiden Fällen muss ein iSCSI-HBA verwendet werden, da der Durchsatz mit einem Software-Initiator selbst moderne Prozessoren in die Knie zwingen würde.

FCoE wird vergleichbare Übertragungsraten wie 8-GBit/s-FC erreichen, erste Tests mit der erhältlichen Hardware zeigen dies. Der produktive Einsatz als konsolidiertes (und einziges) Übertragungsmedium im Rechenzentrum steht aber noch aus.

Fazit

FC ist immer noch die Standardvernetzung für Speichernetzwerke im Rechenzentrum. Die Technik ist ausgereift, alle wichtigen Hersteller bieten ihre Storage-Systeme oder Bandsicherungsgeräte mit FC-Anschluss an. 8 GBit/s sind eine ausreichende Performance, die Infrastruktur ist einfach zu bedienen und stabil. iSCSI wird mit Sicherheit im Einstiegssegment noch mehr Zuwachs gewinnen. Die Kosten der Hardware (GbE) sind unschlagbar niedrig, und die Performance ist in vielen Fällen mehr als ausreichend. Durch immer leistungsfähigere Prozessoren tritt die CPU-Belastung durch iSCSI weiter in den Hintergrund. Selbst wenn bei einem Vier-Core-Server ein gesamter Core mit iSCSI beschäftigt ist, bleibt noch ausreichend Leistung für viele Anwendungen. FCoE steht noch ganz am Anfang. Der Ansatz, ein Netzwerk für alles zu erhalten, ist vielversprechend. Gerade in größeren Rechenzentren kann dies zu starken Einsparungen in den Bereichen Energie und Klimatisierung führen. Weiterhin wird es bei einem 1-HE-Server schon schwierig, zwei FC- und zwei GbE-Karten unterzubringen, bei FCoE sind es insgesamt nur zwei Karten oder eine Dual-Channel-Karte.


Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Lampertz GmbH & Co. KG

Matchmaker+