Technologie Trend Report 2004: Blick in die Zukunft

Autor: Leo Pfeffererl  veröffentlicht am 16 Januar 2004  
 
0.0 (0)
Bewertung schreiben
Inhalt weiterempfehlen / teilen:

SiemensWelcher Trend wird in diesem Jahr am Markt für Furore sorgen und wie sehen die wichtigsten Anwendungsfelder aus? Welche Entwicklungen besitzen bereits eine ausreichende Technologiereife um am Markt bestehen zu können? Diese und andere Fragen versucht der aktuelle Report mit Weitsicht zu beantworten.

In einem neuen Technologie Trend Report präsentieren Siemens IC Networks, Siemens Corporate Technology und Roland Berger Strategy Consultants wichtige Entwicklungen in der Informations- und Kommunikationstechnologie (I&K) für die nächsten Jahre. Als wesentliche Zukunftstrends in diesem Bereich wurden vor allem die Echtzeitkommunikation, neue Formen der Mensch-Maschine-Interaktion, Embedded Devices und Verteiltes Rechnen/Grid Computing identifiziert.

Ein in der Studie erstmals vorgestellter Trend-Radar erläutert diese Zukunftstrends, unterteilt sie in wichtige Anwendungsfelder und bewertet ihre Markt- und Technologiereife. Dabei wurde von zwei gegenläufigen Sichtweisen ausgegangen, die einander aber sehr gut ergänzen: Zum einen die Extrapolation aus der „Welt von heute" und zum anderen die Retropolation aus der „Welt von morgen". Der Blick nach vorne – die Extrapolation – entspricht dem so genannten Road Mapping. Dabei werden die derzeit bekannten Technologien und Produktfamilien in die Zukunft fortgeschrieben und als Generationenfolge dargestellt. Man versucht möglichst präzise abzuschätzen, zu welchem Zeitpunkt etwas verfügbar ist und gebraucht wird. Der Vorteil dieses Verfahrens – die sichere Ausgangsbasis – ist zugleich sein größter Nachteil: Diskontinuitäten und Entwicklungssprünge lassen sich damit nicht vorhersagen.

Zu deren Beurteilung dient ein komplementäres Verfahren – die Szenariotechnik. Der Betrachter versetzt sich dazu in Gedanken weit voraus in die Zukunft. Für den gewählten Zeithorizont wird dann ein umfassendes Szenario entworfen, das möglichst viele Einflussfaktoren berücksichtigt. Daraus lassen sich schließlich durch Retropolation in die Gegenwart die Aufgaben und Problemstellungen identifizieren, die heute angegangen werden müssen, um in der Welt von morgen zu bestehen. Mit Hilfe der Kombination von Extra- und Retropolation – indem beide Betrachtungsweisen in Einklang gebracht werden – entstehen aussagekräftige Bilder der Zukunft.

Der Computer ist künftig überall
Ein zentraler Trend, der schon bald mehr oder weniger jedes Unternehmen berühren wird, ist nach Meinung von Siemens und Roland Berger die Echtzeitkommunikation oder Real Time Communications (RTC). Geht es bei der ersten Generation der Konvergenz von Sprach- und Datenkommunikation auf Basis des Internet-Protokolls (IP) vor allem um die Verringerung der Kosten durch eine effizientere Nutzung der Infrastruktur, liegt in der zweiten Generation der IP-Kommunikation der Schwerpunkt auf der Optimierung und Differenzierung der Abläufe in den Unternehmen. Dadurch entsteht zunehmend ein Real-Time-Business, das die persönliche Erreichbarkeit entscheidend verbessert und wesentlich zur Produktivitätssteigerung beiträgt.

Neue Mensch-Maschine-Schnittstellen werden dabei in Zukunft die Kommunikation mit dem Computer deutlich vereinfachen. Von Anwendungen in der Biometrie, über Virtual Reality und Softwareagenten, die zum Beispiel selbstständig Terminabsprachen für ihre Besitzer treffen können, bis hin zur Computersteuerung mit Hilfe der menschlichen Gedanken reichen dabei die möglichen Entwicklungsperspektiven.

Gleichzeitig hält der Computer Einzug in die alltäglichen Gegenstände des Lebens. So genannte Embedded Devices im Auto, im Haus oder in Kleidungsstücken sind längst keine reine Vision mehr. Intelligente Etiketten auf Basis der RFID-Technologie (Radio Frequenz Identifikation) steuern heute bereits ganze Logistikketten. Dieser Trend des „allgegenwärtigen Computers“ wird sich nach Einschätzung von Siemens und Roland Berger weiter fortsetzen und zum Beispiel zu Body Area Networks führen, in denen der menschliche Körper selbst als Medium der Datenübertragung genutzt wird.

Auch das verteilte Rechnen oder Grid Computing, bei dem zehntausende Computer zur Lösung von rechenintensiven Aufgaben über das Internet zusammenarbeiten, ist bereits heute ein aktuelles Thema. In Zukunft – so der Technologie Trend Report – entwickeln sich die Computing Grids zur nächsten Generation des World Wide Web und sorgen für die allgegenwärtige Vernetzung. Statt wie heute nur Informationen auszutauschen, bietet das Internet dann zusätzlich immer und überall Zugang zu beliebiger „Rechnerleistung aus der Steckdose“.

Kein starres Korsett, sondern Messlatte für eigene Planung
Vor dem Hintergrund, dass heute 75 bis 90 Prozent der I&K-Budgets in den Unternehmen für nicht wahlfreie Ausgaben – insbesondere für laufende Betriebskosten –aufgebracht werden müssen, ist das Fokussieren der Investitionen in wertsteigernde Technologien nach Meinung von Siemens und Roland Berger von besonderer Bedeutung. Dabei muss jedoch auch Weitsicht bewiesen werden. Das Beispiel der Internet-Boom-Phase, in der weltweit viele Unternehmen übereilt auf die neuesten technologischen Entwicklungen aufsprangen, unterstreicht dies deutlich. Denn häufig musste schon bald festgestellt werden, dass die neuen Internet- und E-Commerce-Angebote längst nicht den sofort erhofften Erfolg brachten.

Die Verantwortlichen in den Unternehmen haben auch hierauf reagiert. In den vergangenen beiden Jahren wurden Investitionen umfassend verschoben, gestrichen oder gekürzt. Hierbei ist aber jedem klar, dass diese verständliche Reaktion auf die wirtschaftliche Flaute nicht immer so weiter gehen kann. Kein Unternehmen erhält auf Dauer seine Wettbewerbsposition, wenn es nicht in den technologischen Fortschritt und den Ausbau der eigenen Fähigkeiten investiert.

Der Technologie Trend Report von Siemens und Roland Berger Strategy Consultants soll dabei helfen, indem er die abzusehenden Entwicklungen in den nächsten Jahren vorstellt und bewertet. Die darin ausgesprochenen Empfehlungen sind allerdings nicht als enges Korsett zu verstehen. Sondern eher als Messlatte, mit der jedes Unternehmen die eigene zukünftige Positionierung im Umfeld der Informations- und Kommunikationstechnologie selbst besser bestimmen kann.

Echtzeitkommunikation – ein Schlüsseltrend

Wenn den zeitkritischen Geschäftsabläufen im Unternehmen und ihre Auswirkungen auf die nachgelagerten Prozesse nicht genügend Aufmerksamkeit geschenkt wird, können erhebliche Probleme auftreten. Arbeiten zum Beispiel Mitarbeiter an verschiedenen Standorten oder mobil, kommt es bei der Bewältigung von kommunikationsintensiven Aufgaben nicht selten zu erheblichen Verzögerungen. Gesprächspartner sind telefonisch unerreichbar, reagieren nicht auf E-Mails oder erledigen wichtige Aufgaben nur mit Verspätung.

Kunden landen mit ihren Anliegen im Nirwana, müssen den gleichen Sachverhalt mehrmals schildern und wenden sich schließlich enttäuscht vom Unternehmen ab. Fehlende Datentransparenz und Brüche im Kommunikationsfluss – etwa bei der Nutzung verschiedener Medien oder zwischen Mensch und Maschine – sind weitere Gründe für Stockungen im Geschäftsablauf. Sie führen zu vermeidbaren Kosten und verhindern die vollständige Ausschöpfung des möglichen Umsatzpotenzials.

Von der Infrastruktur hin zu den Geschäftsprozessen
Der Ausweg aus diesem Kommunikationsdilemma ist die Echtzeitkommunikation oder Real Time Communications (RTC). Sie steht bereits in naher Zukunft vor dem Sprung aus den Forschungslabors und Pilotversuchen in die betriebliche Praxis. Die Konvergenz von Sprach- und Datenkommunikation auf Basis des Internet-Protokolls (IP) ist dabei das Kernelement moderner Anwendungen und trägt wesentlich zur Wertschöpfung durch Optimierung und Differenzierung der Geschäftsprozesse bei.

Durch die Verbindung unterschiedlichster Systeme an verschiedenen Orten und ohne zeitliche Verzögerung ist eine einheitliche Kommunikationserfahrung möglich. Die Einführung von Real Time Communications macht so in absehbarer Zeit die Abläufe im Unternehmen effizienter, schneller und sicherer. Im Fokus der ersten Generation der IP-Kommunikation (1gIP) steht die Kostenreduktion, etwa durch eine effizientere Nutzung der vorhandenen Netzinfrastruktur und ein gemeinsames Netzmanagement. Durch den Einsatz von IP-Konvergenz-Technologien können bereits in diesem Stadium Vorteile wie die Senkung der Betriebskosten und ein verbessertes Asset Management realisiert werden.

Interessanter wird es mit der zweiten Generation der IP-Kommunikation (2gIP), deren Schwerpunkt auf der Optimierung und Differenzierung der Abläufe im Unternehmen liegt. Durch die Integration von RTC in die Informationstechnologie werden die Geschäftsprozesse „enabled”, so dass ein Real-Time- Business möglich wird. So kann zum Beispiel unabhängig vom Endgerät auf alle Unternehmensinformationen in Echtzeit zugegriffen werden. Dadurch ist eine spürbare Effizienzsteigerung möglich, ebenso eine schnellere und fundiertere Entscheidungsfindung sowie eine gemeinschaftliche Planung.

Zeit- und Kosteneinsparungen bei gleichzeitiger Qualitätssteigerung
Insbesondere in den beiden Anwendungsfeldern „prozessunterstützende Kommunikation” und „Adhoc-Kommunikation” wird erwartet, dass RTC künftig eine große Rolle spielt und neue Produktivitätspotenziale erschließt. „Prozessunterstützende Kommunikation” findet bei allen teilautomatisierten Abläufen statt, bei denen an bestimmten Punkten Menschen eingreifen und miteinander kommunizieren müssen. Zur „Adhoc-Kommunikation” kommt es dagegen dann, wenn mehrere Personen spontan miteinander Informationen austauschen. Etwa bei Terminabsprachen oder Nachfragen.

In beiden Fällen wird die Echtzeitkommunikation – so die Erwartung – wesentlich zur Einsparung von Zeit und Kosten sowie zur Qualitätssteigerung beitragen. Untersuchungen haben zum Beispiel für den Einsatz einer RTC-Lösung zur Reklamationsbearbeitung im Rahmen des Customer-Relationship-Managements eine Zeiteinsparung von 30 Prozent, eine Kostenreduzierung von 25 Prozent und eine Qualitätssteigerung von fünf Prozent ermittelt.

Das Gesamtpotenzial hängt allerdings nicht allein von der Integration der Systeme ab, sondern ebenso vom Grad der Prozesssynchronisation. Denn nur, wenn die gesamte Wertschöpfungskette „im Takt schwingt“ und sämtliche Systeme und Abläufe zwischen allen Beteiligten – Zulieferern, Abnehmern und Dienstleistern – synchron sind, wird die maximale Produktivitätssteigerung im Real-Time-Business erreicht.

Keine Erreichbarkeit um jeden Preis bei der Adhoc-Kommunikation
Bei der spontanen Adhoc-Kommunikation geht es nicht darum, für jeden Anrufer zu jeder Zeit erreichbar zu sein, sondern um die individuelle Auswahl der möglichen Kommunikationspartner. Mit Hilfe einer persönlichen Filterfunktion durch definierte Profile kann bei diesem Präsenzmanagement jeder Nutzer selbst festlegen, wann, von wem und wie er erreichbar sein will.

Dadurch gewinnt er mehr Freiraum für die Erledigung von wichtigen Aufgaben. Aus den elektronischen Kalendern der Besitzer lassen sich automatisch Terminabsprachen treffen, indem beispielsweise der Zugriff über Sprache auf die Kalenderdaten und damit auf die verfügbaren Zeiträume ermöglicht wird. Über das persönliche Kommunikationsportal stehen alle Medien zur Informationseingabe und Alarmierung bereit und das System greift automatisch auf die richtigen Daten und das zu diesem Zeitpunkt passende Medium zur Kontaktaufnahme zu. Auch eine automatische Konferenzsteuerung wird durch das Präsenzmanagement unterstützt. Der Initiator sieht dabei in seinem Kommunikationsportal anhand einer Buddy-Liste die Verfügbarkeit der möglichen Teilnehmer, bevor er zum geplanten virtuellen Meeting einlädt.

Ein weiterer Aspekt ist die freie Wahl der Kommunikationsform ohne Medienbrüche: Während einige Teilnehmer sich in ihren Büros aufhalten und über das Festnetz an der Konferenz teilnehmen, befinden sich andere zu Hause, im Hotel oder am Flughafen. Sie nutzen dabei einen DSL-Anschluss, ein Notebook an einem Wireless-LAN-Hotspot, ein Handy oder ein anderes Mobile Device. Unabhängig vom Endgerät stehen dabei jedem Teilnehmer die jeweils möglichen Leistungsmerkmale in gewohnter Weise zur Verfügung.

Neue Formen der Mensch-Maschine-Interaktion

Die Weiterentwicklung der Informations- und Kommunikationstechnologie hängt zunehmend von der Existenz leistungsfähiger Mensch-Maschine-Interfaces ab. Als körperliche Schnittstellen lassen sich dabei die menschliche Stimme – aber auch Mimik, Gestik und Haptik – zur Steuerung nutzen. Denkbar ist darüber hinaus sogar die Verwendung der menschlichen Gehirnströme.

Der Mensch besitzt fünf direkte Inputkanäle: Sehen, Hören, Riechen, Tasten und Schmecken. Der Output in umgekehrter Richtung erfolgt über die zwei Kommunikationskanäle Sprache und Bewegung der Körperglieder. Maschinen dagegen verfügen über beliebig viele denkbare In- und Output-Kanäle, deren Nutzung jedoch durch die limitierten Fähigkeiten des Menschen schnell an Grenzen stößt.

Neue Schnittstellen vereinfachen die Kommunikation mit dem Computer
Auch indirekte menschliche Kommunikationskanäle wie Blickrichtung, Denken oder Emotionen lassen sich in Zukunft für die Mensch-Maschine-Interaktion nutzen. Verschiedene Forschergruppen arbeiten bereits an einem Affective Computer mit der Fähigkeit zum Aufnehmen menschlicher Reaktionen und zum Erkennen von Verhaltensmustern.

Sensoren in der Kleidung (Wearable Computer) erfassen biologische und physiologische Reize direkt am menschlichen Körper, die dann ausgewertet, in einem Modell verarbeitet und anschließend in Interaktion umgesetzt werden. Das System lernt so von seinem Benutzer und stellt sich mit der Zeit immer besser auf ihn ein. Affective Computing ermöglicht dadurch mehr Bedienerfreundlichkeit und effizienteres Arbeiten durch weniger Fehler und schnellere Informationsverarbeitung.

Die Biometrie nutzt ebenfalls neue Schnittstellen und ermöglicht so Sicherheitsanwendungen, die auf unverwechselbaren menschlichen Eigenschaften basieren. Dies können neben der Handschrift und der Stimme zum Beispiel der Fingerabdruck, die Hand-Geometrie, die Form des Gesichts oder die Struktur der Netzhaut des Auges sein.

Mit dem Brain-Computer-Interface, das sich bereits in der Erprobung befindet, lassen sich Rechner sogar mit der Kraft der Gedanken steuern. Dazu trägt der Nutzer eine Haube mit 128 Elektroden, die an der Kopfhaut angebracht sind und seine Gehirnströme messen. Die Signale dieses Elektroenzephalogramms (EEG) werden verstärkt und nach der Ausfilterung von Störimpulsen an einen Computer übermittelt, der sie mit Hilfe speziell entwickelter Lern- und Signalverarbeitungsalgorithmen online in Steuerungsbefehle umwandelt.

Softwareagenten übernehmen Routineaufgaben und sind proaktiv tätig
Intelligente Softwareagenten, an denen bereits weltweit in vielen Forschungszentren gearbeitet wird, stellen einen weiteren Ansatz im Bereich der Mensch-Maschine-Interaktion dar. Sie sollen in Zukunft fähig sein, Verhandlungen zu führen, Aufträge zu erfüllen und auch autonom mit anderen Agenten zu kommunizieren. Der entscheidende Unterschied zu konventionellen Computerprogrammen besteht darin, dass die virtuellen Problemlöser mit einem Profil der Nutzerwünsche ausgestattet sind, von sich aus aktiv werden und eigenständig Entscheidungen treffen können.

Agententechnologien unterstützen den Anwender, in dem sie als sein Stellvertreter Routineaufgaben übernehmen und ihm Entscheidungsvorschläge unterbreiten. Dabei erfassen sie Veränderungen und reagieren auf externe Ereignisse. In personalisierten Agentensystemen sind unterschiedliche digitale Assistenten tätig. Der Application Agent etwa ist ein Vermittler. Er muss die Aufgaben des Anwenders analysieren, interpretieren und entscheiden, welche Funktionsagenten zur Erarbeitung einer Lösung geeignet sind und in welcher Reihenfolge sie aktiviert werden sollen. Denn die besitzen das spezielle Wissen für ihre jeweilige Funktion, etwa im Bereich der Internet-Suche oder der Navigation. Die Agenten müssen deshalb in der Lage sein, zusammenzuarbeiten und Teilaufgaben weiter zu delegieren.

Eine wichtige Voraussetzung für die Kommunikation solcher Softwareroboter ist ein „klügeres“ Internet. Dieses semantische Netz versendet nicht nur Zeichen, sondern versteht auch ihre Bedeutung. Damit ist es das ideale Biotop für die Agenten, die ein Reservoir an Wissensquellen benötigen. Seitdem sich eine Reihe von namhaften Firmen wie Fujitsu, HP, IBM, Intel, Motorola, NEC, NTT, Sun, Toshiba und Siemens gemeinsam ein Regelwerk für den Bau der elektronischen Helfer definiert haben, ist auch die Standardisierung in diesem Bereich weit gediehen.

Virtuelle Realität schafft neue Interaktionsräume zwischen Mensch und Maschine
Ein besonders intensives Erlebnis der Mensch-Maschine-Interaktion bietet die Virtual Reality (VR), das Eintauchen in eine vom Computer geschaffene dreidimensionale Umgebung. Dies kann mit einem speziellen Datenhelm oder durch Projektionen geschehen, aber auch „im Raum schwebende", holografische Objekte sind möglich. VR-Anwendungen erlauben es, mit holografischen Projektionen genauso zu arbeiten wie mit realen Objekten. Ihre Einsatzmöglichkeiten sind vielfältig – von der virtuellen Produktentwicklung über die Gebäudesimulation bis hin zur Operationsunterstützung in der Klinik.

Die VR-Technologie ermöglicht völlig neue Services und trägt zur Produktivitätssteigerung bei, indem sie den langen Weg von der Idee zum fertigen Produkt deutlich verkürzt. Bereits der Entwurf wird dreidimensional in den virtuellen Raum gestellt. Das spätere Produkt kann dabei aus jeder gewünschten Perspektive betrachtet, bei Bedarf von verteilten Teams modifiziert und so oft getestet werden, bis es allen Anforderungen entspricht. Tele-Immersion ist das Vermischen realer und virtueller Umgebungen zur Darstellung, aber auch zur Interaktion. Die Anwendungsfelder dieser Mixed Realities reichen von Telemeetings und Collaborative Engineering & Design über Teletraining und dem Einsatz in der Medizin bis hin zu Unterhaltungsangeboten.

Mixed Realities erleichtern die virtuelle Zusammenarbeit von Teams
Auch bei der Augmented Reality (erweiterte Realität) werden reale Bilder mit Computerdaten überlagert. Auf diese Weise können versteckte Informationen zu Objekten aller Art sichtbar gemacht werden. Ob durch eine Datenbrille oder eine holografische Projektion – neben der wirklichen Umgebung treten virtuelle Daten, die sie überlagern. So lassen sich zum Beispiel jeweils kontextbezogen virtuelle Baupläne direkt vor das Auge eines Monteurs projizieren, der dann bei seiner Arbeit keine dicken Anleitungen aus Papier mehr wälzen muss.

Während Mixed Realities schon bald die virtuelle Zusammenarbeit von Konstruktionsteams erleichtern werden, sind intelligente Robot Squads noch ferne Zukunftsmusik. Diese selbstorganisierenden Roboterschwärme, die mit Hilfe von neuronalen Netzwerken gesteuert werden, sollen einmal ein risikoloses und effizientes Durchführen sicherheitsrelevanter Arbeiten in Chemiefabriken oder anderen Gefahrenbereichen ermöglichen. Dabei steigert die Wechselwirkung vieler einzelner Denkprozesse – ähnlich wie bei Ameisen oder Vogelschwärmen – die Leistung des Gesamtsystems.

Embedded Devices – der allgegenwärtige Computer

Die Vision des Ubiquitous Computing – des allgegenwärtigen Computers – beschäftigt heute weltweit die Forscher. So genannte Embedded Devices, die in größere Systeme eingebettet sind und dort Steuerungsfunktionen übernehmen, erfüllen spezifische Aufgaben und kommunizieren drahtlos über das Internet miteinander: Die Miniaturcomputer verfügen dabei über Sensoren und Aktuatoren, um bestimmte Prozesse selbsttätig zu überwachen und zu steuern.

Paradebeispiel für die zunehmende Verbreitung dieser unsichtbaren Helfer sind moderne Autos: Hier übernehmen Embedded Devices bereits das Motormanagement, regeln Sicherheitssysteme wie Airbags und ABS oder finden sich im GPS-Navigationssystem. Durch die Einbindung in Kommunikationsnetzwerke können sie in Zukunft auch Informationen austauschen und jederzeit auf Ressourcen im Internet zugreifen. Schon in naher Zukunft lassen sich solche kommunikationsfähigen Mikroprozessoren sehr billig herstellen und millionenfach in die Umwelt einbringen oder unsichtbar in Gegenstände integrieren.

Die unsichtbaren Computer sind in Zukunft überall vertreten
Vor allem in drei Themenfeldern werden Embedded Devices das Konzept des Ubiquitous Computing vorantreiben: SmartTags sind kleine funkbasierte Objekte auf Basis der RFID-Transpondertechnologie (Radio Frequency Identification), die in industriellen Anwendungen Identifikations- und Logistikprozesse unterstützen. SmartDevices werden künftig überall zu finden sein – in der Kleidung und in Einrichtungsgegenständen, in industriellen wie in privaten Anwendungen. Im SmartOffice führen mit Embedded Devices ausgestattete Büroarbeitsplätze zu mehr Effizienz und besseren Arbeitsbedingungen.

Die Entwicklung der RFID-Technologie steht heute erst am Anfang. Sie erlaubt es, Objekte kontaktlos und ohne Sichtverbindung – im Unterschied zum Barcode – auf einen Abstand bis 70 cm zu identifizieren. Der Transponder besteht aus einem Chip und einer Antenne, die in Papier, Kunststoff oder Keramik verpackt sind. Erste Pilotprojekte in Unternehmen zeigen die möglichen Potenziale zur Effizienzsteigerung.

Alltagsgegenstände kommunizieren mit dem Menschen
SmartDevices verleihen Alltagsgegenständen in Zukunft eine neue, zusätzliche Qualität – denn sie können nicht nur mit Menschen und anderen smarten Gegenständen in geeigneter Weise kommunizieren. Sie erfahren auch, wo sie sich gerade befinden, welche anderen Gegenstände in der Nähe sind und was aktuell in ihrer Umgebung geschieht.

Einsatzmöglichkeiten dafür gibt es viele: Von der Inspektionsunterstützung für das Servicepersonal in Industrieanlagen, über berührungslos zu lesende Bustickets und Ausweise bis hin zu intelligenten Haushaltsgeräten und Transportmitteln. Bei der Inspektionsunterstützung ist zum Beispiel der Einsatz von spezialisierten Sensoren – etwa für Geräusch, Infrarotstrahlung, Vibration oder Geruch – denkbar oder die dreidimensionale Online-Darstellung der zu inspizierenden Objekte. Ebenso die Übermittlung der Inspektionsplanung an das Wartungspersonal und eine angeleitete Kontrolle mit automatischer Protokollierung.

Mit Kleidungsstücken aus Stoffen, die leitfähige Fasern enthalten, wird im Bereich des Wearable Computing schon länger experimentiert. Diese Fasern, die beim Dehnen ihren elektrischen Widerstand ändern, ermöglichen neue Mensch-Maschine-Schnittstellen. Sie erfassen Körperbewegungen und bewirken das Auslösen von Funktionen beispielsweise durch leichtes Ziehen an einem Stück der Kleidung. Spannend sind auch die Entwicklungen im Bereich der Body Area Networks – hier wird der menschliche Körper selbst als Medium zur Übertragung von Signalen sehr geringer Stromstärken genutzt. Allein durch das Anfassen eines Gerätes oder Gegenstandes kann diesem eine eindeutige Identifikation – die beispielsweise von der Armbanduhr in den Körper eingespeist wird – übermittelt werden. Auf diese Weise lassen sich zum Beispiel Zugangsberechtigungen erteilen, die individuelle Konfiguration von Geräten durchführen oder Dienstleistungen abrechnen.

Im SmartOffice arbeitet die Technologie unaufdringlich im Hintergrund
Ein völlig neues Arbeitsgefühl wird es im SmartOffice geben. So genannte Roomware –Raumelemente wie Wände, Türen, Möbel, in die Informations- und Kommunikationstechnik integriert ist – macht den herkömmlichen Computer unsichtbar. Doch die Funktionalität, die er bereitstellt, ist trotzdem überall zugänglich und verfügbar. Die Roomware-Komponenten arbeiten unaufdringlich im Hintergrund, sind vernetzt und interaktiv. Einige sind auch mobil, haben eine eigene Stromversorgung und kommunizieren über drahtlose Netze. Die Ausstattung mit Sensortechnik macht die automatische Konfiguration von bestimmten Umgebungen oder die Bereitstellung von Inhalten möglich.

Durch den ständigen Zugriff auf die wichtigsten Arbeits- und Hilfsmittel, entweder in einem integrierten Device zusammengefasst oder unmerklich in die Büro-Infrastruktur eingebunden, erleichtern sie den Arbeitsalltag. Eingebettete Systeme – wie elektronische Assistenten, intelligente Buchhalter und digitale Telefonzentralen – übernehmen im SmartOffice eigenständig Arbeitsaufträge. Dadurch werden zusätzlich kreative Freiräume für die Beschäftigten eröffnet, weil lästige operative Büroarbeiten entfallen können.

Computer Grids – die nächste Generation des Web

Computer stehen häufig ungenutzt herum: In der Nacht, in den Arbeitspausen oder zwischen dem Abrufen von zwei E-Mails befinden sie sich meist im Leerlauf. Ob PC, Workstation oder Großrechner – 80 bis 95 Prozent der Kapazitäten bleiben ungenutzt. Im Zeitalter der weltweiten Vernetzung ist diese chronische Nichtauslastung eine volkswirtschaftliche Verschwendung. Zumal überall Rechenleistung gebraucht wird: Zum Beispiel in rechenintensiven Prozessen wie der Klimaforschung, im Katastrophenschutz oder in der Medizin.

Auch Unternehmen benötigen jede Menge Computer-Power für aufwändige Produktsimulationen, virtuelle Crashtests, die Stammdatenaktualisierung oder umfangreiche Finanzanalysen. Könnte man nicht die vorhandenen Rechnerkapazitäten nach dem Vorbild des Stromnetzes zusammenschalten und dort aus der Steckdose fließen lassen, wo sie aktuell gebraucht werden?

World Wide Grid sorgt für Rechenpower aus der Datensteckdose
Beim Grid Computing geschieht genau dies. Die Vision, die auch den Namen des Grid (Gitter) erklärt, stammt aus der Energieversorgung: Der Begriff Computing Grid ist als Gegenstück zum Power Grid, dem Stromnetz, gedacht. Denn genau wie in der Energiewirtschaft beauftragt der Kunde hierbei einen Dienstleister mit der Lieferung von Rechenleistung. Ist der Vertrag erst einmal geschlossen, steht ihm die gewünschte Rechen- und Speicherkapazität auf Abruf an der Datensteckdose zur Verfügung. Grid Computing entwickelt sich zur nächsten Generation des World Wide Web und sorgt für die allgegenwärtige Vernetzung. Statt wie heute nur Informationen auszutauschen, bietet das Internet dann zusätzlich immer und überall den Zugang zu den leistungsfähigsten Rechnern der Welt.

Distributed und Grid Computing wird in Zukunft vor allem in drei Themenfeldern relevant: Computing Grids verbinden bei Bedarf die PCs, Server und Großrechner unterschiedlicher Besitzer, um damit eine rechenintensive Applikation schneller auszuführen. Data Grids nutzen die Speicherkapazitäten verschiedener Anwender, um riesige Datenbestände durch die Verteilung besser zu verwalten und den Zugriff zu vereinfachen. Collaboration Grids tragen mit der Verknüpfung vieler Kollaborationssysteme diverser Eigentümer zur besseren Zusammenarbeit bei.

Tausende Computer knacken gemeinsam ein rechenintensives Problem
Nach dem Prinzip des verteilten Rechnens arbeiten bereits seit mehreren Jahren zahlreiche Wissenschaftler in aller Welt. In ihren Netzen sind zum Teil hunderte oder gar tausende PCs und Server zusammengeschlossen. Aber auch die Industrie erkennt langsam die Vorteile des Distributed Computing. Typische Einsatzbereiche finden sich beispielsweise bei den Automobilherstellern. Diese fassen ihre verteilten Computer-Ressourcen zusammen und steigern damit die Kapazität und die Auslastung der Rechner. So lässt sich die Modellentwicklung beschleunigen und aufwändige Crashtests der Fahrzeuge sind als Simulation im Computer möglich.

Aber auch andere rechenintensive Branchen wie Electronic Design, Life Science, Energiewirtschaft und das Finanzdienstleistungsgewerbe profitieren von dieser Technologie. Für die industrielle Nutzung müssen die Rechenstrukturen allerdings so gewappnet sein, dass sie im Grid automatisch Computer mit der benötigten Kapazität ausspähen und gleichzeitig, ohne dass es der Benutzer merkt, genau jene Rechner finden, die die für das Problem passenden Programme und Daten anbieten. Das verteilte Computing benötigt dazu neuartige Software, die Programme in Einzelteile zerlegt und diese dem Netzwerk zuweist, aus dem das Gitter besteht. Gleichzeitig zählt die Verfügbarkeit einer leistungsfähigen und zuverlässigen Netzwerkinfrastruktur zu den essenziellen Voraussetzungen.

Die Grid Architektur ist in verschiedenen Ebenen aufgebaut: Auf den beiden unteren Netzwerk- und Ressourcen-Layern werden die verteilten Rechenkapazitäten durch das Netzwerk miteinander verbunden. Die Middleware sorgt dafür, dass die Anwendungen auf der Applikations- und Serviceware-Ebene entsprechend den vorhandenen Ressourcen in zu bearbeitende Pakete zerlegt und an die einzelnen Rechner verteilt werden. Sie ist zudem dafür zuständig, dass die Ergebnisse aufbereitet und wieder an die Applikation zurückgeliefert werden.

Verteilte Speicherung von Daten nutzt brachliegende Ressourcen
Neben der höheren Rechenleistung liegt eine Hauptmotivation zum Grid Computing in der koordinierten Nutzung und Speicherung großer, verteilter Datenmengen. Der Anwender hat dabei keine Informationen darüber, wo und wie seine Daten archiviert werden. Der wesentliche Vorteil eines Data Grid besteht in der Nutzung von derzeit brach liegenden Speicherressourcen. Der Schwerpunkt seiner Anwendung ist in der intelligenten Verteilung und in der breitbandigen Vernetzung der Datensammlungen zu sehen.

Organisationen wie die amerikanische Weltraumbehörde NASA oder das europäische Laboratorium für Teilchenphysik CERN, die riesige Datenmengen in zahllosen Archiven aufbewahren, können damit den Nutzern einen einfacheren und schnelleren Zugriff ermöglichen. Im Rahmen eines staatlich geförderten Forschungsprojekts wurde in den USA auch eine umfangreiche Datensammlung zum menschlichen Gehirn eingerichtet, die in einem Data Grid spezielle Speicher- und Suchmechanismen für das Bildmaterial verwendet.

Collaboration Grids vereinfachen den Datenaustausch zwischen Partnern
Industrielle Produktentwicklung und Forschung sowie wissenschaftliche Kollaboration erfolgen heute – und in verstärktem Maße auch in der Zukunft – durch das Zusammenwirken verschiedener verteilter Arbeitsgruppen mit unterschiedlichen Kompetenzen. Collaboration Grids unterstützen diese Entwicklung durch ein optimiertes Data-Sharing über alle Systeme hinweg und sorgen für die bessere Auslastung von vorhandenen und ungenutzten Computerkapazitäten. Sie vereinfachen den Austausch und gemeinsamen Zugriff auf Daten zwischen Partnern, wodurch die Prozesse beschleunigt werden und die Kapazität auf Abruf verfügbar ist.

Grid Computing kann analytische Prozesse und Simulationen durch dynamisches Dazuschalten der erforderlichen Ressourcen erheblich beschleunigen, so dass sich Entscheidungen fundierter und zeitgerechter treffen lassen. Darüber trägt es durch ein schnelles Zusammenwirken von verschiedenen Arbeitsgruppen innerhalb eines Unternehmens mit Zulieferern bereits im Produktentstehungsprozess zur Reduzierung von Entwicklungszeiten und zur Kostensenkung bei. Es stellt neue und verbesserte rechenintensive Applikationen zu vertretbaren Preisen bereit und optimiert das Teilen von Wissen in Unternehmen. Schon bald wird das World Wide Grid – ähnlich wie seinerzeit das Web – neue Geschäftsmodelle und Dienstleistungen hervorbringen, wie etwa das Grid-Service-Providing oder das Daten- und Anwendungs-Broking.

IT-Thema des Eintrags?
  • Mobile IT
  • Smarte IT

Benutzerkommentare

In dieser Liste gibt es noch keine Bewertungen.
Haben Sie schon ein Konto?
Bewertung (je höher desto besser)
Bewerten Sie den Artikel:
Fachartikel
Für die Bewertung des Fachartikels, wie ist Ihr Status zum Thema oder wie schätzen Sie sich ein?
Kommentare

Haftungsausschluss Fachartikel

ECIN.de bietet unter www.ecin.de/fachartikel einen Bereich zum Veröffentlichen von (teils werblichen) Fachartikeln.

Für den Inhalt der Fachartikel ist allein deren Urheber verantwortlich.

ECIN.de  distanziert sich von dem Inhalt der Fachartikel. Der Inhalt der Fachartikel wurde von ECIN.de weder auf ihre Richtigkeit noch darauf überprüft, ob damit die Rechte Dritter verletzt werden.

Wenn Ihnen ein Rechtsverstoß auffällt kontaktieren Sie ECIN.de