Next Generation Computing: Mitten drin, in der schönen, neuen IT-Welt

Frank Gens, oberster IDC-Marktforscher, propagiert sie bereits: die Wiederauferstehung des Technologiesektors. Die Nachfrage nach Hightech soll zunehmen, weil Anwender ihre dynamische IT effizienter ausnutzen und ihre Geschäftsprozesse besser unterstützt wissen möchten. In den Unternehmen sind kostensenkende Technologien und Konzepte wie ILM, ECM oder iSCSI bereits auf dem Vormarsch. Auch in Forschungslabors und Entwicklungsabteilungen passiert Einiges, damit die viel gepriesene Informationsgesellschaft real wird. Immer unauffälliger, einfacher, leistungsstärker und vor allem bezahlbarer soll demnach die Technik werden, die uns umgibt und sämtliche Prozesse im privaten sowie geschäftlichen Bereich steuert.

Meist sind sie noch grau und würfelförmig, manchmal schon flach, schwarz, schick und selten als Wandbildschirm in ein wohnliches Ambiente integriert. Die Rede ist von Computern. Die Wissenschaftler des Fraunhofer Instituts verlassen die Gegenwart und erforschen bereits das Post-PC-Zeitalter. In dieser Vision haben wir Chipkarten bei uns, die Daten von allgegenwärtigen Mobilien wie dem Schwarzen Brett in der Firma, den Fahrplan an der Bushaltestelle oder Terminals der lokalen Zeitung anzapfen. Denkbar ist auch, dass die in Wände oder Möbel integrierten, unauffällig, trendigen Terminals Passanten an ihrer Chipkarte erkennen und ihnen Zeichen geben, falls sie passende Informationen haben. Immerhin ein Szenario, das in einigen Jahren schon wirklich sein könnte. Doch was verbirgt sich technologisch hinter der gestylten Digitalisierung unserer unbelebten Umwelt? Wie lassen sich gigantische Mengen an Bits & Bytes kostensparend verarbeiten, speichern und wieder auffinden?

Hochleistungsrechner und Teraflops

Herkömmliche Betriebssysteme werden diese Herausforderung nicht bewältigen können. Hochleistungs-Rechner und Anwendungen dringen deshalb aus dem Schatten der wissenschaftlichen Forschung in die Unternehmen vor. Der Markt für High Performance Computing (HPC) ist bislang eine Domäne der klassischen Unix-Derivate, die allerdings zunehmend durch kostengünstige Linux-Systeme abgelöst werden. Waren Rechnerverbünde zunächst nur auf den Forschungsbereich ausgerichtet, setzen mittlerweile immer mehr Unternehmen Hochleistungs-Cluster für komplexe Rechenaufgaben ein, um ihre Kosten überschaubar zu halten.

Der Rechenkönig mit den meisten Gleitkommarechnungen pro Sekunde (Teraflops) ist neuerdings nicht mehr der japanische Supercomputer „Earth Simulator“, sondern der sogenannte Blue Gene/L von IBM. Damit bestätigt sich der Trend zu Clustern statt zu massiven Systemen. Der Blue Gene ist ein Verbund von Power-5-Nodes. Clustering, also das Zusammenschließen von Servern, reduziert deutlich die Kosten hoher Rechenleistung.

Grenzenlos rechnen im Gitter

Der nächste Schritt auf dem Weg zum breit genutzten Highend- Computing sind virtuelle Supercomputer, beziehungsweise Grids. Im Projekt „Distributed European Infrastructure for Supercomputing Applications“ (Deisa) sind vier IBM-Großrechner zusammengeschaltet. Zwei aus Deutschland und je einer aus Frankreich sowie Italien vereinen mehr als 4.000 Prozessoren und schaffen eine Leistung von 22 Tflop/s.

Langsam aber sicher findet Grid Computing den Weg aus den Universitäten in die Unternehmen. Sie suchen händeringend nach Möglichkeiten, um ihre vorhandenen Ressourcen besser ausnutzen zu können. Genau diesen Effekt verspricht laut Definition das verteilte Rechnen im Grid. Eine große Anzahl heterogener und locker miteinander verknüpfter Rechner im virtuellen Verbund erlauben eine optimale und effiziente Ausnutzung der vorhandenen Prozessorleistung. Das Konzept füllt dabei die Lücke, die zwischen der Entwicklung der Prozessor- und der Netzwerkleistung entstanden ist. Während sich die Durchsatzraten in modernen Glasfasernetzen alle 9 Monate verdoppeln, müssen Unternehmen 18 Monate warten, bis sich, laut Moore’schem Gesetz, die Anzahl der Transistoren auf einem Speicherchip verdoppelt. Grid Computing macht sich also die rasanten Netze zu Nutze, um viele Prozessoren zu einem einzigen virtuellen Rechner zusammen zu schalten. Schon bilden sich erste Herstellerinitiativen wie MegaGrid. Mit diesem Projekt möchten EMC, Dell, Intel und Oracle die Standardisierung von Infrastrukturen für Enterprise Grid Computing voran treiben. Während Dell die Server, Intel die Chip-Technologie und Oracle seine 10g-Umgebung zur Verfügung stellen, steuert EMC die vernetzte, mehrstufige Storage-Infrastruktur und Management Software bei. Damit die Grid User tatsächlich Kosten sparen können, müssen künftig auch die Telekommunikationsanbieter und Netzbetreiber umdenken und ihre Tarife attraktiver gestalten.

Auch Speichernetze profitieren von Virtualisierung

Wer sich Gedanken über die Zukunft des digitalen Rechnens macht, kommt an der Virtualisierung ebenfalls nicht vorbei. In den letzten Monaten ist sie für die Speicherbranche zu einem der bedeutendsten Schlagworte geworden. Im Kommen sind mehrstufige Speichernetze, die unterschiedliche Service Levels abbilden können. Dazu müssen die Daten flexibel zwischen den verschiedenen Storage-Ebenen und -Systemen verschoben werden, ohne die Verknüpfung zu den Anwendungen zu unterbrechen. Der Schlüssel hierzu heißt Virtualisierung: Die Technologie trennt die logische Sicht auf Daten und Datenträger von der physischen Einheit. Die installierten Systeme erscheinen dem Administrator wie ein einheitlicher Speicherpool, den er flexibel und bedarfsgerecht aufteilen kann.

Technologien, die Kosten kappen, haben Erfolg

Der Aufbau von Speichernetzen galt bislang als aufwändig und kostspielig. Seit aber iSCSI (Internet Small Computer Systems Interface) die teure Fibre-Channel-Technik (FC) ergänzt, können auch kleine und mittelgroße Unternehmen in die Welt der Storage Area Networks (SANs) einsteigen: das meist im Unternehmensnetz vorhandene Ethernet-Protokoll erlaubt ohne großen Aufwand den Aufbau von IP-Speichernetzen für einen zentralen Storage. Sogar für große Unternehmen, die bereits komplett mit Fibre Channel ausgestattet sind, bietet sich iSCSI zur Anbindung ihrer Filialen an. Insbesondere die Personalkosten spielen dem IP-Speicherprotokoll in die Hände. Spezialisten, die sich mit der Wartung und Pflege von FCUmgebungen auskennen, sind rar und teuer. Das gilt gleichermaßen für Fachpersonal, das Backup-Server einrichten und pflegen kann. iSCSI hingegen muss nicht lange gelernt werden, denn die Basisprotokolle sind jedem System- und Netzwerkverwalter bekannt.

ILM optimiert Datenverwaltung

Laut Meta Group werden 68 Prozent aller gespeicherten Daten nicht länger als 90 Tage genutzt. In Unternehmen wird teurer, hochverfügbarer Plattenplatz noch viel zu häufig mit veralteten Daten verstopft. Information Lifecycle Management soll hier Abhilfe schaffen. Der Begriff ILM meint im Kern, dass Alter-, Nutzungshäufigkeit und Inhalte von Daten gewichtet werden müssen. Aus dieser Klassifizierung lassen sich Regeln für eine differenzierte Verwaltung und kostengünstige Speicherung ableiten. So könnte eine E-Mail mit einer Terminverschiebung und einer Auftragsbestätigung im Anhang in zwei Teile gesplittet werden: der Eine landet am nächsten Tag im Papierkorb, der Andere bleibt drei Monate online verfügbar, um danach in ein Langzeitarchiv zu wandern.

Mit der eigentlichen ILM-Umsetzung steht die Branche am Anfang. Der Markt ist derzeit von einer unüberschaubaren Menge von Insellösungen geprägt. Andreas Zilch, Chef-Berater beim Marktforscher TechConsult, fordert: „Die Hersteller von Speicherlösungen sollten konkrete Einsparpotenziale nachweisen und diese den Anwendern gegenüber auch garantieren.“

Ein weiteres Thema, das heute und in Zukunft für Unternehmen und Hersteller von großem Interesse sein wird, ist ECM – Enterprise Content Management. ECM ist ein Sammelbegriff für Technologien und Produkte, mit deren Hilfe Unternehmen ihre unstrukturierten Daten wie Dokumente, Berichte, Bilder oder Rich Media besser managen und deren Wert und Nutzen steigern können. Im Informationszeitalter wird der schnelle Zugriff auf relevante Informationen immer wichtiger. So steigt auch der Druck, Content-Management-Systeme zu implementieren. Eine Studie der Metagroup belegt diese Behauptung, denn die europäischen Anwender sind sich zunehmend bewusst, welches Potenzial das effiziente Management ihrer Inhalte bietet und wie viel Zeit sie oft auf der Suche nach den richtigen Daten vergeuden.

Zukunft als Chance verstehen

Ständig angeführte negativ besetzte Vokabeln wie Datenflut, Komplexitätsfalle, Kostendruck oder Management-Dilemma spiegeln nur die halbe Wahrheit wider. Vielleicht sollten wir dem Beispiel des renommierten Zukunftsforschers Matthias Horx folgen und zur Abwechslung wieder positiv denken: „Wir befinden uns nicht in einer Endzeit, sondern in einem Übergang. Die Wissensgesellschaft, die nun als faszinierendes Versprechen vorliegt, ist die nächste Stufe des zivilisatorischen Abenteuers, die nach der tribalen, der argrarischen und der industriellen Welt auf uns wartet.“ Mit Technologien wie Grid-Computing, Virtualisierung und iSCSI sowie Konzepten wie ILM oder ECM messen Unternehmen ihren Informationen heute schon einen zentralen Wert bei. Sie bauen zukunftsfähige Informationsumgebungen, um sich auf den Märkten von morgen behaupten zu können. Die genannten Technologien und Konzepte lassen sich modular aufbauen und Schritt für Schritt umsetzen. Jede einzelne Phase wirkt sich so kostendämpfend und komplexitätsschonend aus. Es gibt also viele Lichtstreifen am Horizont des IT- und Speicher-Marktes. Anstatt dabei ständig nach dem ultimativen Aufschwung Ausschau zu halten, sollten Unternehmen, die Chancen nutzen, die ihnen die Informationstechnologie heute schon für die Entwicklung ihres eigenen Geschäftsbereichs bietet.

Dieser Artikel erschien am und wurde am aktualisiert.
Nach oben scrollen