An der Cebit in Hannover hatte IT Reseller Gelegenheit, sich mit einigen Vertretern von Hitachi Data Systems (HDS) Europa zu treffen. In den Gesprächen über Strategien und Produkte rückten sie immer wieder ähnliche Themen in den Vordergrund: Hochverfügbarkeit und Verlässlichkeit, wenn es um die Produkte ging, Verlässlichkeit und Vertrauen im Bezug auf Partner.
Die Wahl scheint nicht ganz zufällig. Wie John Taffinder, der COO für EMEA, erklärt, stellte HDS früher fast ausschliesslich Storage-Systeme für S/390 Umgebungen her, und hatte sehr viel mit Kunden aus dem Bankbereich zu tun. Aus dieser Geschichte erkläre sich ganz automatisch die grosse Betonung von Verlässlichkeit und Solidität bei
Hitachi. Das sei «in den Genen von HDS» verankert und diese Haltung wolle man nun auch in die für Hitachi neueren Unix- und NT-Bereiche hinüberbringen.
SAN quer durch Hannover
An der Cebit präsentierte
Hitachi eine Demoinstallation seiner «Geo SAN»-Architektur für über verschiedene Standorte verteilte SANs. Die Demonstration simulierte zwei Client-Sites, die sich ein externes Speichersystem teilen. Business-Kontinuität und Archivierung wird an einem vierten Ort gesichert, wo das Storage-System gespiegelt wird und sich die Tape Silos befinden.
Die vier Standorte befanden sich zwischen 10 und 25 Kilometern voneinander entfernt, eine Distanz, die gemäss Hitachi in Europa noch nicht erreicht worden ist. Verwendet wurden neben Hitachis 9910er Speicherschränken Switches von
Brocade, Controller von Troika und weitere Komponenten von
Nortel und
Qlogic. Auf der Softwareseite arbeitete man mit SQL-Server, Windows 2000 Server, MS Cluster Services, Troikas Path Command Plus und
Veritas Volume Manager.
Was ist offen?
Auch
Hitachi betont, dass man eine offene SAN-Architektur pflege. Vincent Franceschini, Director of Data Networking Architecture von HDS, sagt, dass Hitachi das offene SAN schon 1997 gepredigt habe, während Compaq erst 1999 gefolgt sei. In der Hitachi Architektur könne man die Produkte der Dritthersteller, zum Beispiel Switches, «direkt vom Regal» ganz ohne Umstände integrieren. Auch eine weitere kleine Spitze kann er nicht lassen: Wenn man zwischen den Zeilen lese, sei das Konzept von Compaq gar nicht so offen: «It’s open as long as it’s Compaq.»
Blitz und Donner
Schon bekannt sind die
Hitachi High-End Flagschiffe Freedom Lightning 9910 und 9960. Mit dem Thunder 9200 ist seit Ende Februar ein Midrange-System hinzugekommen. Thunder soll gemäss Hitachi zu einem Midrange-Preis die meisten von Hitachi gewohnten Highend-Management-Features bieten.
Dazu gehört die Möglichkeit, den Microcode online zu upgraden, diagnostische Fernüberwachung und redundante, während des Betriebs austauschbare Komponenten. Thunder basiert auf reiner Fibre-Channel-Architektur und ist von 72 GB bis 7,2 TB skalierbar. Bald könnte die Produktpalette noch weiter nach unten erweitert werden. Gemäss Franceschini sind auch NAS-Systeme von Hitachi in der Pipeline, entsprechende Ankündigungen sollten bald kommen.
Speicher nach Bedarf mit einem Mausklick
Im Moment werden nach den USA auch in Europa die «Just in Time» Services eingeführt, Hitachis Version von Storage nach Bedarf. Die Plattform dafür ist der Lightning 9960. Ein eingebautes System sammelt dauernd Daten über die vom User freigeschalteten Kapazitäten und sendet sie automatisch an ein HDS Zentrum, wo sie verrechnet werden. Das System ist auf Einfachheit ausgelegt, bietet aber noch einige über die Verwaltung der Speicherkapazität hinausgehende Funktionen, z.B. Kurzfristige und langfristige Prognosen über die Bedarfsentwicklung des Unternehmens. «Just in Time» wird in der Schweiz im April eingeführt. (hjm)
Vincent Franceschini (Bild) zu Storage over IP
Vicent Franceschini ist neben seiner Tätigkeit bei
Hitachi auch Direktor der Fibre Channel Industry Association (FCIA) Europe. Das Thema Storage over IP (SoIP), das im Moment in der Luft liegt, beschäftigt auch ihn.
SoIP wird kommen, glaubt er, aber nicht so schnell, wie sich das einige vorstellen. Natürlich sei der Aufbau von Storage-Netzwerken mit Fibre Channel (FC) sehr teuer, vor allem wenn man viele Zentren erreichen wolle. IP erscheine da als eine günstige Alternative. Im Moment seien aber noch zu viele Probleme ungelöst, SoIP weder verlässlich noch schnell genug.
Es gebe zwar einige Ansätze zur Standardisierung (iSCSI von Cisco/
IBM, SoIP von Nishan, FCoIP von den FC-Herstellern), aber noch habe keiner von ihnen den Status eines Standards erreicht.
Vor allem wenn man den Performance-Nachteil gegenüber Fibre Channel ausgleichen wolle, verschwinde der Kostenvorteil wieder. Die TCP/IP-Software sei langsam und müsste hardwareseitig durch teure Chips beschleunigt werden.
Ausserdem haben die SANs ja den Zweck, das übrige Netzwerk zu entlasten. Separate Netzwerke wären ein weiterer Kostenfaktor für SoIP.
Im Moment sieht Franceschini für SoIP daher nur ein Potential im Entry-Level-Bereich. Der ideale zukünftige Einsatzbereich könnte das Verschieben von Daten zwischen SAN-Zentren über lange Distanzen sein, die man mit FC (Reichweite ca. 100 km) nicht überbrücken kann.
Franceschini glaubt, dass sich der Aufgabenbereich für SANs und FC in näherer Zukunft noch erweitern könnte. Im Moment werden SANs vor allem für Backup und Recovery eingesetzt. Ihr wahres Potential würden sie aber erst entfalten, wenn die Business Applikationen direkt mit den SANs arbeiten könnten. Und warum sollte FC nicht in manchen Bereichen, z.B. der Verbindung von businesskritischen Servern, eine leistungsstarke Alternative zum herkömmlichen Netzwerk darstellen?