Informationstechnik-Sammelsurium
Geschwurbel von Daniel Schwamm (07.06.1994 bis 01.08.1994)
Inhalt
Problemstellung: Informationen sind für Unternehmen wichtig
geworden als Produktionsfaktoren. Der Informationsaustausch erfolgt über
Kommunikationssysteme. Kommunikationssysteme kommunizieren untereinander auf
Basis von Protokollen. Damit zwei Protokolle von zwei heterogenen Systemen
miteinander Informationen austauschen können, müssen sie standardisiert werden.
ISO/OSI-Referenzmodell für offene Systeme: Dieses Modell
bildet die strukturelle Basis für standardisierte Protokolle. Ziel ist es, die
einzelnen Schichten voneinander zu entkoppeln, um jede für sich Standardisieren
zu können.
Standardisierungsgremien: beispielsweise ISO (International
Organization for Standardization), ANSI (American National Standards
Institute), DIN (Deutsches Institut für Normung), IEEE (Institute of
Electrical and Electronics Engineers), ECMA (European Computer
Manufacturers Association), IEC (International Electrotechnical Commission)
und CCITT (Comité Consultatif International Téléphonique et Télégraphique).
Die Protokolle werden jeweils von Technical Committees gebildet.
Politik: Am Standardisierungsprozess sind Anwender
und Hersteller gleichermassen interessiert, was diesem Prozess einen
eher politischen, als sachlichen Charakter gibt. Wenn auch bis zu einem
gewissen Grad Marktmechanismen berücksichtigt werden müssen, finden
die Gremien leider häufig statt einfacher Lösungen faule Kompromisse.
Die Apokalypse der zwei Elefanten: David D. Clark zeigt, dass
der Zeitpunkt der Normierung nicht zufällig ist. Er liegt im Aktivitätstal
zwischen der Forschung (erster Elefant) und der Milliarden-Dollar-Investition
(zweiter Elefant). Liegen diese Aktivitäten zu nahe beieinander, kommt es zur
Apokalypse, d.h., die Normierung dazwischen wird quasi zerquetscht und kann
nicht korrekt ausgearbeitet werden.
Beispiele für faule Kompromisse beim ISO/OSI-Referenzmodell:
Das IEEE musste drei Vorschläge in Schicht eins und zwei unter einen Hut
bringen, nämlich Ethernet, Token-Ring und Token-Bus. Auch in Schicht drei und
vier wurde ein fauler Kompromiss geschlossen, da neben verbindungsabhängiger
Kommunikation auch verbindungsunabhängige Kommunikation ermöglicht wird.
C/S-Architektur (Client/Server): Standards fehlen in diesem
Bereich noch weitgehend, obwohl diese Architektur als die
Prozesskommunikationsarchitektur der Zukunft gilt. Bereits jetzt hält sie 40%
des Geschäfts der Systemintegratoren.
Midrange-Markt: Dieser Markt betrachtet vernetzte PCs,
kleine Hosts und Midframes wie die AS/400 und High-End-Workstations wie die
RS/6000 von IBM. Mit 41% Marktanteil führt die AS/400 das Segment an - wohl vor
allem aufgrund des riesigen Standard-Software-Angebots -, doch das Volumen des
Midrange-Marktes insgesamt geht zurück. Grund dafür ist die fehlende
Offenheit der meisten Midrange-Systeme.
AS/400: Dieser Rechner von IBM ist proprietär. Das
objektorientierte Betriebssystem OS/400 verschliesst sich gegenüber
heterogenen Welten. Noch wächst der Marktanteil der AS/400, jedoch hat
auch IBM die Zeichen der Zeit erkannt, und versucht nun, die AS/400 zu
öffnen und als High-End-Server für LANs zu platzieren (als ein
C/S-Backend-System). Der bisheriger Erfolg der AS/400 beruht im Wesentlichen
auf ihr enorm grosses Standard-Software-Angebot.
RS/6000: Dieser RISC-Rechner (Reduced Instruction Set
Computer) von IBM verfügt über die POWER-Technologie und Micro
Channel-Architektur. Der Prozessor ist geteilt in Subprozessoren, als
Benutzeroberfläche wird OSF/Motif angeboten und Betriebssystem ist AIX - die
RS/6000 setzt also auf Offenheit. Das scheint sich zu lohnen, denn im hart
umkämpften Workstation-Markt besitzt sie bereits einen Marktanteil von 12%,
wobei sich ihr Produktlebenszyklus noch in der Wachstumsphase befindet.
Fertigungstechnologie-Automatisierung: Schlagworte in
diesem Bereich sind NC (Numerical Control), CNC (Computerized Numerical Control),
DNC (Distributed Numerical Control), Roboter, Lagersysteme, dedizierte
Steuerungssysteme (kommen nur mit Eckdaten aus) und fahrerlose
Transportsysteme.
Fertigungstechnologie-Flexibilisierung: Schlagworte in
diesem Bereich sind Bearbeitungszentrum, flexible Fertigungszellen und flexible
Fertigungssysteme.
Offene Kommunikation zwischen CIM-Bausteinen (Computer Integrated
Manufacturing): Schlagworte hierzu sind CAM (Computer Aided Manufacturing),
CAP (Computer-Aided Planning), CAD (Computer-Aided Design), CAQ (Computer-aided
Quality Assurance) und PPS (Produktionsplanungssysteme und Steuerungssystem).
Alle diese Bausteine von CIM müssen miteinander kommunizieren. So werden z.B.
die CAD-Daten beim CAM für die DNC-Maschinen benötigt. Die offene Kommunikation
wurde bisher noch nicht stark genug standardisiert.
Offene Kommunikation über alle Hierarchieebenen hinweg: Natürlich muss
eine offene Kommunikation in Produktionsbetrieben nicht nur zwischen den
CIM-Bausteinen stattfinden, sondern auch zwischen den einzelnen Ebenen.
Offene Kommunikation-Probleme: Wie erwähnt, lassen Standards bei der
offenen Kommunikation noch auf sich warten. Weitgehend wird auf
herstellerspezifische Einzellösungen zurückgegriffen, was aber der
CIM-Philosophie von der generellen Integration der Produktionsstufen
widerspricht.
MAP (Manufacturing Automation Protocol): Das ist ein von General Motors
initiiertes Fertigungskommunikationsprotokoll mit dem Status eines De-facto-Standards.
Es bietet für die Endbenutzer u.a. eine High-End-Benutzeroberfläche (API; Application
Programm Interface) und lässt sich auch als Mini-MAP konfigurieren. Der bisherige
Erfolg dieses Echtzeit-Kommunikationssystems auf Basis des Token-Busses wird sich
wohl auch langfristig positiv auf seine weitere Durchsetzung am Markt auswirken.
Motivation: Die Dynamik des Marktes wächst, die Produktlebenszyklen werden
kürzer. Das verlangt eine neue Beschaffungsphilosophie und Fertigungsphilosophie,
wie sie etwa die JIT-Produktion (Just-In-Time) anbieten kann.
JIT-Konzept: Das JIT-Konzept bedeutet Beschaffung, Produktion und
Zulieferung auf Abruf, wobei wesentlich kundenorientierter vorgegangen werden
kann. Durch produktionssynchrone Lieferung kann auf teure Lagerhaltung
verzichtet werden, wodurch die Fertigung allerdings zu einer zeitkritischen
Sache wird - eine effiziente Ablauforganisation ist dafür eine notwendige
Voraussetzung. Es müssen sogenannte Regelkreise geschaffen werden, wobei hier
der Materialfluss stets dem Informationsfluss entgegenläuft.
Branchenstandards: Um den freien Fluss der Marktkräfte ging es wohl
bei der Schaffung von Standards im Bereich JIT-Production. Jeder Lieferant
sollte mit jedem Unternehmen auf Basis dieser Standards in Kommunikation zwecks
einer JIT-Produktion treten können. Als Standards in den einzelnen Branchen haben
sich durchgesetzt:
- VDA (Verband der Automobilindustrie) für die Automobilindustrie.
- SWIFT (Society for Worldwide Interbank Financial Telecommunication) im Bankbereich.
- SEDAS (Standardregelungen Einheitlicher Daten-Austausch-Systeme) im Handel.
EDI (Electronic Data Interchange) auf Basis von EDIFACT (Electronic Data
Interchange/Electronic Data Interchange For Administration): Im
Verwaltungsbereich hat sich dieses Austauschformat für Informationen
branchenübergreifend durchgesetzt, vor allem in Grossserien-Produktionen.
Bewertung: Die JIT-Production-Standards sind derzeit nicht
branchenübergreifend konzipiert, was ihre Funktionalität und ihre
Offenheit einschränkt. EDIFACT dagegen ist in allen Branchen einsetzbar,
allerdings zum Preis, dass es dadurch sehr umfangreich geworden ist.
Anforderungen an die Kommunikationsdienste im Bankbereich:
Die Dienste müssen in erster Linie mit sehr grossen Datenmengen
fertig werden können, wie sie u.a. bei allen Zahlungsvorgängen
anfallen. Ausserdem müssen sie transaktionsorientiert sein, damit
keine katastrophalen Inkonsistenzen auftreten können.
Kommunikationssysteme in Kreditinstituten: Nach Untersuchungen weiss man,
dass über 80% der Kommunikation von Kreditinstituten Inhouse-Kommunikation ist.
Dies verlangt die Installierung ausgereifter Kommunikationssysteme innerhalb
der Institute und ausserhalb zu ihren Filialen. Wie z.Z. überall wird auch hier
verstärkt auf offene Systeme gesetzt, nicht zuletzt deswegen, weil dann das interne
Kommunikationssystem gleichzeitig auch als externes Kommunikationssystem dienen kann.
Datenkommunikation zwischen Bank und Kunden: Die Bedeutung
der Informationstechnologie wächst, die Internationalisierung wächst und
die Dynamik der Märkte wächst. Daraus ergibt sich eine Änderung des
Anforderungsprofils der Kunden, die von Banken entsprechend berücksichtigt
werden müssen.
Electronic Banking im Privatbereich:
-
Automatisierte Schalter: Das betrifft i.d.R. nur Geldausgabe und Kontoausdruck.
-
Point of Sale-Banking: Online und offline Computerkassen arbeiten im
Handel über Transaktionsverwaltungssysteme.
-
Homebanking (Telebanking): Informationseinholung und Überweisungen von
zu Hause aus über Telefon und BTX.
Electronic Banking im Firmenbereich:
-
Datenaustausch im Zahlungsverkehr: z.B. periodisch Massendaten
von Subinstituten erhalten.
-
Cash Management Systems: Unterstützung zeitkritischer
Finanzierungsdaten. Ermöglicht die Entscheidung von Finanzplänen.
Kommunikationsstandards: Hierunter fallen öffentliche
Netze (Telefax, Datex P/L, BTX), internationale Netze (MARK III, TYMNET),
Standards wie SWIFT (Bank) und FTAM (File Transfer and Access Management)
sowie Kunden-Bank-Kommunikationsstandardsoftware über BTX bzw. Datex-P wie
beispielsweise MultiCash.
Trends: ISDN und Datex-J werden BTX und Telefon mittelfristig verdrängen.
Motivation: Integration von vielen Diensten auf nur einem Medium
mit einem einheitlichen, digitalen Übertragungsverfahren.
Technische Aspekte: Zur digitalen Datenübertragung ist die Frequenzmodulation
(FM), die Amplitudenmodulation (AM) und die Puls Code Modulation (PCM) relevant.
Die dadurch erreichte Kanalzuteilung für rein digitale Daten sieht in ISDN
folgendermassen aus:
-
B-Kanal: 64 kbps (64.000 bit/s), orientiert sich am öffentlichen Netz mit
einer Abtastrate von 8 kHz a 8 bit)
- D-Kanal: 16 kbps für Out-of-Band-Signaling.
Ein Primärmultiplexanschluss erlaubt die Zusammenschaltung von mehreren
ISDN-B-Kanälen für bis zu 1.920 kbps. ISDN bietet Teledienste, kann
multifunktionale Endgeräte über eine Nummer ansprechen und ist an LANs
anschliessbar. Für die Zukunft ist B-ISDN (Breitband-ISDN) vorgesehen,
welches noch wesentlich grössere Datenraten zur Verfügung stellen soll.
Betriebswirtschaftliche Aspekte: ISDN kann virtuelle
Oberflächen in stark arbeitsteiligen Betrieben schaffen. Es stellt
JIT-Production-Anrufer-Checks zur Verfügung. ISDN bringt relativ wenig Neues
mit sich, verbessert aber die bestehenden Systeme. Die Installation macht
130 DM, die Miete 74 DM; bei Primärmultiplexanschluss 200 + 5.180 DM.
Aber ISDN lohnt sich weniger organisationsintern, als vielmehr zur
Überbrückung grosser Entfernungen, sofern dabei die volle Datenrate
genutzt werden kann.
Fazit: Die Integration aller möglichen Dienste auf nur einem (ISDN-)Netz
funktioniert nicht vollständig. ISDN ist aber ein gutes Instrument zur
Diversifikation. Bei einer weiteren Verbreitung gewinnt dieses Kommunikationssystem
sicherlich deutlich an Zugkraft, bisher verkauft es sich jedoch nur in der BRD gut.
Software-Ergonomie: Ergonomie ist die Lehre von der Kommunikation
zwischen Mensch und Maschine. Sofern sich diese Kommunikation auf
die Schnittstelle bzw. Benutzeroberfläche beschränkt, kann von
Software-Ergonomie geredet werden. Die Software-Ergonomie erlangt sehr
grosse Bedeutung für neue Informationstechnologien durch ihre Akzeptanz
fördernde Wirkung.
Probleme der Software-Ergonomie: Lange Zeit mussten sich
die Menschen an die Maschinen anpassen, doch dies ist heute umgekehrt. Die
Experten allerdings, welche die Maschine an den Menschen anpassen sollen,
sind häufig mit Expertenblindheit geschlagen oder benutzen zeitraubende
Trial-and-Error-Verfahren zur Findung geeigneter Schnittstellen. Besser
wäre es, wenn sie von vorneherein die ergonomischen Gestaltungsgesetze
berücksichtigen würden.
Ergonomische Gestaltungsgesetze: Die EDV-Systeme bzw. Dialogkomponenten
sollten in sich geschlossen, leicht steuerbar, erwartungskonform, fehlerrobust
und von guter, ordentlicher Gestalt sein. Sie sollten sich selbst erklären
können und raumzeitliche Nähe durchgehend aufrechterhalten.
Interaktionstechniken: Prompting wie bei MSDOS ist unergonomischer als
kommandoorientierte Systeme. Diese sind unergonomischer als der Einsatz von
Abfragesprache wie SQL (Structured Query Language). Abfragesprachen sind
ihrerseits unergonomischer als Steuerungssysteme, welche wiederum
unergonomischer sind als Menüsysteme. Am ergonomischsten verhalten sich
Systeme mit Formulardialogen oder gar objektorientierten Oberflächen, die
eine direkte Manipulation aller Systemelemente ermöglichen.
Hilfssysteme: Hilfssysteme sind statisch, wenn sie nur unveränderliche
Systemeigenschaften aufzeigen. Sie können des Weiteren kontextsensitiv sein,
individuell auf den Anwender zugeschnitten und passiv (Benutzer muss Fragen)
oder aber auch aktiv (Benutzer wird automatisch informiert) sein.
Zukunft: Der Trend geht zu einer objektorientierten Oberfläche für alle
anstehenden Arbeiten. Realisiert wird dies wie im User-Agent-Concept, bei dem
der genormte Agent dem Benutzer und seinen individuellen Instrumenten
zwischengeschaltet ist.
Allgemeiner Hinweis: Die Standardisierung von Schnittstellen betrifft
in erster Linie Graphical User Interfaces (GUI). Eine Ausnahme hierzu bildet das
umfassendere SAA-Konzept (System Application Architecture) von IBM. Durch
geeignete GUIs möchte man hier ein einheitliches Look & Feel beim Anwender
erzeugen. Wichtig ist dazu eine physische, syntaktische und semantische
Durchgängigkeit aller Schnittstellen.
Kritik an der Standardisierung: Positiv bei Standards sind die
kürzere Einarbeitungszeit, kürzere Entwicklungszeit, der
Investitionsschutz für den Anwender, die Herstellerunabhängigkeit und
die Chancen, die sich dadurch für Nischen-Produzenten ergeben. Nachteilig
an Standards sind dagegen ihre innovationsbremsende Wirkung. Ausserdem
sind sie häufig eher politische Produkte denn sachbezogene Produkte - und
dadurch meist sehr komplex, weil sie alle Wünsche berücksichtigen müssen.
PC-Oberflächen: Zu nennen wäre hier in erster Linie Microsoft
Windows, welches inzwischen den Status eines De-Facto-Betriebssystems besitzt.
Bereits in naher Zukunft wird es Windows-NT (New Technology) geben und
eventuell Windows ablösen. Im professionellen Bereich dominiert derzeit dagegen
noch der OS/2-Presentation Manager, der den SAA-Richtlinien von IBM folgt und
damit den ersten Common User Access (CUA) darstellt.
UNIX-Oberflächen: NeWS von SUN gibt es hier, aber v.a. auch den
X11-Standard vom MIT. X11 ist eigentlich mehr als ein GUI; der GUI-Part
wird alleine vom Window Manager abgedeckt. In Amerika gibt es zudem den
Standard Open Look von AT&T und SUN, während in Europa eher OSF/Motif
als SAA-CUA vorherrscht.
SAA (System Application Architecture): Die Heterogenität der eigenen
Produktpalette zwang IBM zum System Application Architecture-Konzept, welches
für alle ihre Produkte gemeinsame Richtlinien ins Leben rief. SAA umfasst das
Common Programming Interface (CPI) für Standard-Programmiersprachen (C, FORTRAN,
COBOL, DB2, SQL, PL1), den Common Communication Support (CCS) für genormte
Datenübertragungsprotokolle (SNA, OSI, DIA-Dokumentenaustausch) und den Common
User Access (CUA) für systemübergreifende, proprietäre Schnittstellen. Unter
dem SAA-Standard laufen alle Software-Produkte von IBM als Common Applications.
Ausblick: Offene Systeme wie X11 gewinnen in Zukunft am Markt.
Welches GUI-Konzept das Rennen letztlich macht, Open Look oder OSF/Motif,
bleibt abzuwarten. Das SAA-Konzept durchgängig durchzuführen erweist sich als
äusserst schwierig, zumal auch sein proprietärer Charakter beim Kunden eher
negativ ankommt (u.a. fehlte dadurch lange Zeit die Implementierung von so
etwas Elementaren wie einem TCP/IP-Anschluss). IBM hat dies erkannt und die
Open Enterprise-Strategie ins Leben gerufen, die über das eigene Betriebssystem
AIX den Anschluss an die offene UNIX-Welt sucht. Bleibt abzuwarten, ob Big Blue
mit diesen verspäteten und teilweise auch halbherzigen Massnahmen noch einmal
den Kopf aus der Schlinge ziehen kann.
Abgrenzung: Client/Server-Computing bedeutet nicht offene
Kommunikation, nicht eine spezielle Art von Hardware-Konfiguration und auch
nicht verteilte (Betriebs-)Systeme. Client/Server-Computing bedeutet einfach
nur eine Kommunikationsarchitektur, bei der Server-Prozesse diverse Dienste für
Client-Prozesse erledigen.
Umsetzung in die Praxis:
-
OSF/DCE (Open System Foundation/Distributed Computing Environment):
Ein verteiltes, offenes Client/Server-System mit RPC-Facility (Remote Procedure
Call) in heterogenen Netzen, einer Technik zur Realisierung von
Interprozesskommunikation.
-
X11 (auch: X Windows System): GUI, Netzwerkprotokolle und mehr,
welche hauptsächlich in der UNIX-Welt eingesetzt werden.
-
NetWare: Das ist die klassische proprietäre Client/Server-Software
von Novell. NetWare setzt auf das eigene IPX/SPX als Netzwerkprotokoll.
Unternehmenswirkung: Rückgrat für Rightsizing-Projekte. Rightsizing bedeutet
erst Downsizing so viel wie möglich und dann neu strukturiertes Upsizing (Integration)
so weit wie nötig.
Tendenzen: Client/Server-Computing folgt der Leitidee "Network is the
Computer". Das Rightsizing läuft auf eine unternehmensweite Integration aller
Systeme hinaus.
Mögliche Serverleistungen: Disk-, DB-, File-, Presentation-, Print-,
Name-, Directory-, Mail- und Retrieval-Server.
Leistungskennzahlen von Dateiverwaltungssystemen (DVS): Solche
Leistungskennzahlen sind sinnvoll zur Entdeckung von Engpässen in DVS.
Sie dient auch zum Vergleich von alternativen DVS.
Mögliche Leistungskennzahlen sind:
-
Prozessor-Leistungsmasse: MIPS (Million Instructions Per Second), MOPS
(Million Operations Per Second), FLOPS (Floating point Operations Per Second)
und mittlere Befehlszeit.
-
Speicher-Leistungsmasse: Anzahl Bytes im RAM (Read Access Memory),
Dichte = bit/Zoll, Zuverlässigkeit = Fehler/bit und Übertragungsrate = bit/s.
-
System-Leistungsmasse: Durchsatz, Kapazität und Auslastung.
-
Benchmarks: Drystone und SPECmarks, sowie Harmonics von PC Bench.
Beurteilung der Benchmarks: Benchmarks bieten nur eine Detailsicht.
Bei rekursiven Programmen sind RISC-Architekturen (Reduced Instruction Set
Computer) gegenüber CISC-Architekturen (Complex Instruction Set Computer)
im Vorteil. Und durch die Standardisierung der Benchmarks kommt es zu
Manipulationen, sodass auch eher langsame Rechner bei bestimmten Benchmarks
zaubern können.
Architekturwandel von Datenbanksystemen (DBS): Moderne
Client/Server-Konzepte gestattet (transparente) verteilte Datenbanksysteme
mittels DBMS-Server (Datenbankmanagementsysteme).
Datenbank-Server: Datenbank-Server beinhalten ein nicht mehr
rein Host-basiertes Architektur-Potenzial. Sie können File-Server zusammen mit
SQL-Server stellen, die womöglich in naher Zukunft in verteilten DBS Verwendung
finden werden.
Leistungsmessung von Datenbank-Servern: Interoperabilität
(transparente Kommunikation zwischen heterogenen Systemen),
Datenintegrität, Sicherheit, Transaktionsverwaltung, Optimizer und
Benchmark-Tests stehen zur Verfügung.
Systeme am Markt: ORACLE bietet Datenbank-Server an. Ebenso INFORMIX.
Prozessor-Änderung: Neben normalen CPUs gibt es für Multimedia auch
dedizierte digitale Signalprozessoren (DSP), z.B. für die Kompression und
Dekompression von Daten in Echtzeit.
Sonstige Systemänderungen: Optische Speichermedien sind die
multimedialen Speicher der Zukunft. Das Betriebssystem muss Tondaten
zeitkritischer bearbeiten können als Bildinformationen, weil das menschliche
Gehör eher Fehler wahrnimmt als das menschliche Auge. Rechner sind über
Highspeed-LANs zu verbinden, z.B. mittels FDDI-Ring.
Kompressionsverfahren: Multimediale Daten sind vor der Übertragung
sinnvollerweise zu komprimieren, um nicht kostbare Bandbreite zu verschwenden
bzw. damit sie überhaupt in Echtzeit übertragen werden können. Bei Bildern
hat sich die JPEG-Kompression (Joint Photographic Experts Group) etabliert,
bei Filmen das MPEG-Format (Moving Picture Experts Group). Und ganz neu ist
das FIF (Fractal Interchange Format), welches auf Selbstähnlichkeiten in den
Daten beruht.
Dokumentationsarchitekturen: relevant nur Open Document Architecture.
Anwendungsgebiete: Hypertext- bzw. Hypermedia-Systeme,
z.B. zur Mitarbeiterausbildung einsetzbar. Weitere Märkte: Point of Info,
Point of Sale, elektronische Kioske, Personal Home Video und
Information-Highways.
Informationsverarbeitung und Informationsmanagement: Die
Informationsverarbeitung ist der Nachfolger der klassischen Datenverarbeitung.
Da Informationen als Produktionsfaktor gelten, wurden Informationsmanagementsysteme
für die Informationsverarbeitung eingerichtet, welches die strategischen,
administrativen und operationalen Zielsetzungen und Zieldurchsetzungen vornimmt.
Integration der Informationsverarbeitung im Unternehmen:
-
Anforderungen: Structure follows Strategy (oder umgekehrt).
Standards sind zu beachten, genauso der Standort, die Flexibilität, die
Akzeptanz und die Wirtschaftlichkeit der neuen Informationstechniken.
-
Auswirkungen: Wirkt sich auf die Informationsdatenverarbeitung aus,
auf Lean-Bestrebungen im Unternehmen, d.h. auf die Hierarchie, und auf die
Qualifikationsstruktur.
-
Strukturmodelle: Es muss eine Wahl getroffen werden zwischen
funktionaler bzw. objektorientierter Integration oder Projekt-Matrizen.
Problematik: Gegen die Informationsverarbeitung gibt es mehr politische
als sachliche Vorbehalte. Eine Akzeptanz ist schwierig erzeugbar. Kontrolle
kann missbraucht werden. Face-to-Face-Kommunikation ist persönlicher. Die
Wirtschaftlichkeit ist weniger von der Leistung der Informationssysteme abhängig,
als von den Managern, die sie einführen.
IBM bietet folgende Produktpaletten an:
-
Personal Systems (PS): Anfang der 80er kam der PC heraus, der sich in
die PS/1- und PS/2-Serie aufspaltete.
-
RISC-Systeme (Reduced Instruction Set Computer): Ende der 80er brachte
IBM innerhalb dieses Segments die RS/6000 heraus.
-
Basis-Datenverarbeitungssysteme: Die S/360 und S/380 wurde Mitte der 80er
abgespeckt zur proprietären Midframe AS/400.
-
Mainframes: Die S/360 kam Anfang der 70er auf den Markt, entwickelte sich
bis 1972 zur S/370 weiter, die sich dann bis zu den 90ern in die S/390 und die
9000er-Familie aufspaltete.
-
Prozessrechner: Als Prozessrechner bietet IBM seit 1976 die S/1 an.
-
Fehlertolerante Systeme: Als sogenanntes Fault Tolerance System
führt IBM seit den frühen 80ern die S/88 ein.
Informelles zu IBM: Bei der umfangreichen Produktpalette von IBM blickt
kaum noch ein Kunde durch. V.a. auch, weil es Unmengen an Software und Hardware zu
jeder Variante gibt, die untereinander nicht kompatibel ist. Aus diesem Grund entwarf
IBM 1987 das SAA-Konzept (siehe später), nichts zuletzt, weil IBM Personal
abspecken musste - von 400.000 Mann auf 200.000 Mann, was aber relativ einfach
ging, weil IBM-Leute in anderen Unternehmen begehrt sind. Auch ihre ethischen Werte
musste IBM abspecken: So verkaufen sie heute ihre Anlagen an jeden und
arbeiten z.T. sogar mit den Japanern zusammen! Eine Rettung durch Einrichtung
von Profit-Center erschwert das SAA-Konzept. Aber gerade die Vielfalt der
Angebote und der Service den IBM leistete, um ihre Produkte zu warten, dieses
einzigartige Vermarktungskonzept, erklären den Erfolg von IBM.
Die S/370 von 1970 basiert auf dem Vorgänger S/360, besitzt aber ein eigenes
Architekturprinzip. Dieses wurde zwar stetig erweitert, jedoch wurde parallel
dazu 1985 eine neue Architektur, Extended Architecture (XA), von besonderem
Status kreiert: die IBM 3090. Dieser Mainframe wurde bis Anfang der 90er zur
ESA (Enterprise System Architecture) aufgepeppt, die über einen Adressraum von
48 Bit verfügt und durch das Modell ES/9000 repräsentiert wird. Die
64-Bit-Architektur-Erweiterung wird wohl nicht mehr lange auf sich warten
lassen.
Informelles: Architekturen sind nicht mit der Technologie
gleichzusetzen. Bei identischem Chipsatz sind verschiedene Architekturen denkbar
(und umgekehrt). Die diversen Architekturen (wie z.B. XA und ESA) sind nur
aufwärts kompatibel, nicht aber abwärts kompatibel. Dabei musste sich jeweils
das I/O-System stark ändern, während das Befehlsformat (die "Herzklappen" des
Systems) weitgehend gleich blieb.
Genügte für die S/360 noch ein Programm-Status-Word mit einem Adressraum
von 25 bit für 32 MByte (nur
durch Notmassnahmen zu erreichen; eigentlich waren 24 bit vorgesehen),
wurden beim S/370-Modell schon 32 bit Adressraum für 2^(32-1)=4
Gigabyte Speicher realisiert, der allerdings z.T. im virtuellen Adressraum
liegt (woraus dann auch die Nicht-Abwärtskompatibilität folgt; allerdings
konnte die XA-Architektur den Prozessor auf die alten Adressformate
umschalten - im Supervisor- und im User-Modus).
Wann braucht man eigentlich
solche riesigen Speicher? Z.B. für die Berechnungen des Wetters, bei denen
der atmosphärische Raum durch ein dreidimensionales Array (1.000, 1.000, 1.000)
dargestellt wird.
Ein Jahr vor Auslieferung kündigte IBM die 3090 an. 1986
kam sie heraus, wo sie durch anfängliche Preisnachlässe sofort hohe
Installationszahlen erreichte. Als sich diese Wachstumsphase abzuflachen
begann, kam 1987 der erste Leistungsschub durch die E-Modelle. Die
Installationszahlen sprangen wieder sprunghaft an, jedoch nur bis 1988, wo dann
zusätzliche erweiterte Varianten auf den Markt geworfen wurden. Um etwa
1989 kamen die S-Modelle heraus, doch bis 1990 kam der endgültige
Abstieg mit den J-Modellen. Bis 1991 wurden ca. 15.000 3090-Systeme installiert,
und IBM geht davon aus, dass ab dann die potenzielle Käuferschaft auf die
neue Architektur ES/9000 umspringt, deren Lebenszyklus gerade erst
beginnt. Ziel ist es, die 9000-Installationen auf 3090-Niveau zu bringen,
was aber noch einige Jahre andauern wird.
Weil die Inter-Cache-Kommunikation bei mehr als zwei
Prozessoren sehr teuer ist, wird es wohl auch in Zukunft keine IBM mit mehreren
symmetrischen Prozessoren geben. Bei der 3090/600-E gibt es zwei Caches, die von
sechs Prozessoren gemeinsam genutzt werden. Die Upgrade-Schemata der einzelnen
Varianten sind schwer nachzuvollziehen, aber in ca. fünf Schritten wurden
dabei jeweils Leistungsmultiplikationen von 1.5 bis 2.1 erzielt.
Informelles: Um den Lebenszyklus einer Architektur möglichst lange zu
erhalten (mindestens vier bis fünf Jahre), muss ein Hersteller gegen
eigene Neuerungen, fremde Konkurrenz und öffentliche Kritik ankämpfen. Zur
schnellen Etablierung einer Innovation werden frühe Investoren mit
Vergünstigungen geködert (First Customer Shipment-Strategie für
Referenzkundenschaffung, dazu zusätzlich Early Installation Programs), aber
nur kurz. Danach werden von Pilotanwendern hohe Preise verlangt, die nur
allmählich abflachen (dies ist bei Mainframes zu ungenügend
geschehen, daher gewinnen die Workstations ständig an Markt).
Innovationssprünge (Launchings) bestehender Produkte können sein:
bessere I/O-Kanäle, Hauptspeicherausbau, höhere Chipintegration,
verbessertes Microcoding und Ausbau des Cache-Memories. Der Lebenszyklus
lässt sich weiter verlängern durch Produktvariationen und
sukzessive Preisnachlässe. Wie weit die Leistungssteigerung zunimmt,
verschweigt IBM bei der Ankündigung aufgrund der Fear, Uncertainly and
Doubt-Strategie gegen die Konkurrenz. Erfahrungswert ist hier aber ca. 10 bis
20%. Um neue Produkte zu stärken, müssen die alten aufgegeben werden,
was IBM durch die Out-of-Release- und Out-of-Service-Politik erreicht.
Sehen wir uns die IBM-Politik im Einzelnen an:
-
Ankündigungspolitik: Doubt, Uncertainly and Fear-Strategie, d.h., IBM
bringt etwas leicht anderes heraus, als die Konkurrenz erwartet, daher kann
diese trotz der Freigabe der Principles of Operation nicht wirklich im Voraus
produzieren.
-
Preispolitik: Frühe Investoren locken, Pilotanwender schröpfen, Nachzügler
durch Preisnachlass ködern.
-
Kommunikationspolitik: Vertriebskonzepte für jede
Lebensphase für optimale Kundennähe. Serviceleistungen. Motto:
"Grossrechnerkauf ist Vertrauenssache". Unterschieden werden die Kunden:
Frühe Investoren, Pilotanwender, frühe Mehrheit, späte Mehrheit
und Nachzügler (die Second-Hand-Geschäfte oder PCM-Systeme
(Plug Compatible Manufactures bzw. IBM-kompatible Systeme) wollen;
Strafe: Out-of-Politik).
Der Lebenszyklus der ES/9021 beginnt Ende der 90er mit ihrer
Ankündigung. Bis Mitte 1992 waren die alten 3090-Modelle ausgelaufen, die
Käufer auf die ES/9000 umgestiegen. Die Installationszahlen wuchsen bis
Mitte 1993, wo dann eine im Vergleich zur 3090-Architektur frühe Abflachung
der Verkaufszahlen einsetzte, trotz laufender Verbesserungen bis hin zur
64-bit-Architektur der ESA-Modelle.
Wesentliche PCM-Hersteller: Amdahl ist Entwickler und Vertreiber
eigener IBM-Klone. Sie tragen die Bezeichnungen 5890, 5990 und 5595. An der
Entwicklung beteiligt ist Fujitsu, deren Modell von Siemens als 7800-Modell
vertrieben wurde, bis dieses Geschäft durch COMPAREX aufgelöst
wurde. COMPAREX bezieht seine IBM-Klone 7/XX, 8/XX und 9/XXX von Hitachi,
die sie in Eigenregie (ohne Amdahl) herstellen. Hitachi-Klone werden
ausserdem von Olivetti als 5500-Modell und HDS (Hitachi Data Systems)
als EX- bzw. GX-Systeme vertrieben.
PCM-Grundprinzipien: Die PCM-Hersteller halten die POP (Principles
of Operations) der S/370 ein. Sie bieten stets etwas mehr Leistung für
etwas weniger Geld als IBM an. Die PCM-Hersteller peppen die Klone durch eigene
Hardware-Features auf, wie z.B. mit der Virtual Machine von Amdahl. Die Modellsystematik
orientiert sich an die IBM-Bezeichnungen, so konkurriert eine Amdahl 5890/200
mit einer IBM 3090/200. Ein wesentlicher Vorteil von PCM-Klonen gegenüber
IBM-Originalen sind auch die niedrigeren Betriebskosten, die bisweilen gerade
mal die Hälfte durch niedrigere Mietkosten, billigere Kühlung (Luft
statt Wasser) u.ä. erreichen. Ausserdem sind Field Upgrades von PCM-Herstellern
billiger zu beziehen als von IBM.
Die Situation der Betriebssysteme: Das Betriebssystem der PCM-Klone
wird meist von IBM bezogen, wobei der Code noch an die Klone-Architektur
angepasst werden muss. Dies geschieht entweder durch Änderung des Mikrocodes
oder aber durch spezielle Software-Module. Einige PCM-Hersteller gehen auch
den Weg, eigene Betriebssysteme als Ersatz für IBMs Multiple Virtual Storage (MVS)
zu entwickeln, die aber so gut wie nie die Fähigkeiten eines originalen MVS
erreichen können. Ein Beispiel wäre hier BS3000 von Fujitsu und Siemens,
doch beide Firmen bekamen schon bald kalte Füsse und zogen zu MVS zurück.
NIDOS von Nixdorf erging es ähnlich kläglich. Erfolgreicher wird mit
ganz neuen, offenen Betriebssystemen experimentiert, z.B. führte Amdahl
die Mainframe-UNIX-Variante UTS recht erfolgreich ein.
PCM-Hersteller-Abwehr bei IBM: IBM baute gegen Klone-Produzenten
Feindbilder auf. War der Feind zunächst Gene Amdahl, dann folgte schon
bald Japan generell, dann DEC, bis ihnen in den 90ern die Feinde ausgingen
(oder es zu viele wurden). Juristisch war Amdahl nicht beizukommen gewesen
(Basispatente sind nicht geschützt), daher hatte IBM MVS-Zusätze in den
Mikrocode eingebaut, was die Anpassungen erschweren sollte. Doch v.a.
strategisch ging IBM gegen die PCM-Unternehmen vor. Zu nennen wäre da
die Preispolitik, die Vermarktungsstrategie, die Ankündigungspolitik,
die Modellpolitik und schliesslich die Lieferzeitpolitik.
Status von Amdahl: Die grösste Mainframe von Amdahl, die 5900,
bringt 1990 eine Leistung von 113 Mips (Million instructions per second).
Der Umsatz von Amdahl verteilt sich zu 80% auf CPUs, 22% auf die Peripherie
und 10% auf Schulung, Service etc.
Informelles: Neue Informationstechnologien bringen kundenspezifischere
Produkte hervor und unterstützen die Unternehmen in ihrer Strategie, die einen
Zeitraum von 5 bis 20 Jahren umfasst. Monopole sind nicht mehr up to date,
daher muss auf Standardanwendungen umgeschwenkt werden. In den Markt der
Informationstechnologien für herstellerunabhängige Informationssysteme
(umfassender als klassische Datenverarbeitungssysteme) führen auch neue
Techniken der Künstlichen Intelligenz (z.B. Neuronale Netze) und die
nicht-proprietären Netzwerke. Durch das verstärkte Aufkommen von Rechnernetzen
bieten sich Downsizing- und Outsourcing-Konzepte an. Outsourcing bringt
Vorteile, weil Outsourcer u.U. besser bzw. innovativer sind, weil das
Mutterunternehmen sich alleine auf das Kerngeschäft konzentrieren kann,
es seine Rechner dadurch besser ausnutzen kann, EDV-Personalkosteneinsparungen
möglich werden, die Kapitalbindung sinkt (fixe Kosten werden zu variablen),
und das technologische Risiko auf den Outsourcer verlagert wird. Nachteilig
beim Outsourcing sind v.a. hohe Switching-Costs, wodurch der Outsourcer bis
zu einem gewissen Grad Macht über das Mutterunternehmen erhält. Auch
Datensicherheitsaspekte müssen berücksichtigt werden. Das Outsourcing
kann aber gestaffelt vorgenommen werden: Es wird nur der Service, die Schulung,
die Anwendungsprogrammierung, das Facility Management (Entwicklung, Betrieb,
Schulung) oder letztlich doch das ganze System Management (strategische
Informationssystemplanung) ausgelagert. Generell sollte nur die
Standard-Software ausgelagert werden, sonst erhält der Outsourcer zu
viel Einfluss.
Zu den PCM-Herstellern: Es gibt hierzu drei Kundengruppen: IBM-Treue,
Zwei-Bein-Philosophen und reine PCM-Installateure (selten). Der Markt hat
sich in Richtung Workstations geändert: Heute werden in der Wirtschaft keine
schnelleren Rechner mehr benötigt, sondern vielmehr benutzerfreundlichere
Systeme, bei denen die Workstations gegenüber den Mainframes eindeutig die
Nase vorne haben. Standards geben den Kunden die Chance, sich endlich aus
der Politik von IBM auszuklinken - die Sünden der Vergangenheit von IBM
sind nicht vergessen worden. Zu diesen Sünden gehören beispielsweise,
dass IBM Ankündigungen zurückzog (die 360/90 z.B. erschien nie), dass
sie auf Upgrades oder sogar Migrationen drängte, wobei sie günstige
Möglichkeiten durch fehlende Hilfen verhinderte, dann noch ihre
Verzögerungspolitik bezüglich UNIX, dass sie nur Host-Netze anbietet,
den Token-Ring erst unter Druck entwickelte und generell alles zu
teuer verkaufte.
Amdahl im Vergleich zu IBM: Amdahl ist mit 1.000 Mann ein Zwerg im
Vergleich zu IBM, besitzt dafür aber kurze Reaktionszeiten und ein ungeheures
Know-how, ohne dem Amdahl allerdings auch keine Chancen hätte. Joachim
Niedereichholz empfiehlt daher, die System-Administratoren (heute: Informations-Manager)
bis in den Vorstand zu holen, um so ihre Wichtigkeit zu unterstreichen.
PCM-Hersteller besorgen sich als erst Massnahme die IBM-Innovationen, um ihren Mikrocode,
der nicht öffentlich ist, zu knacken. Schon im Voraus werden Rohlinge gefertigt,
die dann nur noch an die IBM-Originale angepasst werden müssen. Die Software
von IBM bleibt unangetastet, allerdings entwickeln die PCM-Hersteller inzwischen
auch eigene UNIX-Systeme. IBM wehrt sich gegen PCM-Hersteller, indem sie Kunden
androht, bei Problemen keinen Finger zu rühren, sofern auch nur ein einziges
PCM-Teil in ihren Anlagen enthalten ist.
Geschichte der MVS-Systeme (Multiple Virtual Storage):
1967 gab es zwei Betriebssysteme von IBM: OS/PCP und OS/MFT. Ersteres ging früh ein,
das zweite Betriebssystem hielt sich noch als BPE bis 1983. Erfolgreicher war
das MVS-Betriebssystem, welches 1969 in Form des OS/MVT auf den Markt
kam und erst ab 1977 MVS/370 heisst, nachdem die TSO (Time-Sharing Option)
integriert wurde. 1983 kam die MVS/XA-Variante auf den Markt und 1988
schliesslich MVS/ESA für die 9000er-Modelle.
MVS-Grundarchitektur: MVS heisst Multiple Virtual
Storages. Die Basiskomponenten sind die verschiedenen Managereinheiten für
den Speicher, die Ressourcen, die Daten und das Sicherheitskonzept. Ein
spezieller Job-Scheduler sorgt für einen effizienten Off-Line-Betrieb.
Sehen wir uns die einzelnen Komponenten etwas näher an:
- Job Entry Subsystem (JES): Übernimmt Job-Queuing und Job-Spooling.
- Job-Scheduler: Teil von JES. Allokiert Ressourcen und startet Jobs.
- System Resources Manager: Steuerung des Betriebsmitteleinsatzes.
- Storage Management: Verwaltet virtuellen und realen Speicher. Paging.
- Data Management: Steuert das Input-Output-System (IOS).
- Recovery Termination Management: Sorgt für Konsistenz im Fehlerfalle.
In MVS wurde die Zeitscheiben-Technik "rucksackmässig" implementiert (im
Gegensatz zu VM). Vorher arbeitete es mit Job-Prioritätsmechanismen. Heute
können bis zu 64 Prozesse simultan ausgeführt werden. Bis zu 16 Prozessoren
lassen sich betreiben. Etwa 10.000 DM/Monat kommen so an Kosten zusammen.
Zukunft von MVS: MVS/ESA verdrängt alle anderen MVS-Varianten,
v.a. die geleasten Einstiegsversionen von MVS. Da der Lebenszyklus der MVS/ESA
bald zu Ende geht, ist mit einer Preissenkung zu rechnen. MVS wird in Zukunft
wohl das Betriebssystem für High-End-Server werden. Ausserdem kann es zu einem
parallelen System für mehr als 16 Prozessoren ausgeweitet werden. Eine Absetzung
des erfolgreichen MVS-Systems wäre Selbstmord - 20.000 Mannjahre erfordern
eine Evolution von MVS.
VSE-Geschichte: Die Virtual Storage Extended Systems entstand aus dem
Betriebssystem DOS/360 von 1965. Die SSX-Variante sorgte 1978 für Verwirrung,
doch die VSE/SP-Version trug letztlich den Sieg davon und hat sich bis 1990
zum VSE/ESA-System gemausert.
VSE-MVS-Migration: VSE ist nur der kleine Bruder von MVS,
sozusagen ein
Mini-MVS für den Einstieg. IBM hat es von vorneherein darauf abgezielt, die
VSE-Käufer früher oder später zu MVS zu bekehren. Für
verschiedene Teile existieren daher von IBM Migrationshilfen, so kann z.B. mit
JCA (J2EE Connector Architecture) die VSE-JCL (Job Control Language) auf
die MVS-JCL automatisch migriert werden. Schwieriger wird dies jedoch
bei den Online-Programmen und Datenbanken, die mittels TSO gesteuert werden.
VM/ESA: Das Virtual Machine-Betriebssystem ist sehr sauber aufgebaut.
Von vorneherein war es auf Zeitscheiben-Technik ausgelegt, ist also vielmehr
dialogorientiert als das batchorientierte MVS. VM kann zusammen mit VSE
betrieben werden, was aber teurer ist als MVS alleine. VM ist eine Art
Hilfssystem für VSE, obwohl nur VM den direkten Zugriff auf die Hardware hat.
Im Gegensatz zu allen anderen Betriebssystemen von IBM kann sich VM selbst
aufrufen und verwalten, ganz so als wäre es ein eigenständiges Programm.
Zukunft der IBM-Betriebssysteme: Hardware-Preisnachlässe verwöhnen
User dahingehen, dass sie auch Software- und Betriebssystem-Preisnachlässe
fordern. MVS wird ausgebaut zu einem parallelen Betriebssystem für mehr als
16 Prozessoren, zudem wird die POSIX-Schnittstelle ausgebaut, was die
Proprietät mildern soll. VSE wird sich wohl auch noch halten können,
während jedoch das VM-System bereits wieder auf dem absteigenden Ast ist,
obwohl auch VM/ESA sicher noch eine Weile existieren wird. Sparmassnahmen
und personeller Umstrukturierung - z.B. weniger Systementwickler - werden
kaum abzuschätzende Wirkung auf die IBM-Betriebssysteme haben.
Informelles: Die 20.000 Mannjahre, die in MVS stecken sollen,
sind dem System nicht immer anzumerken. Einiges ist offenbar schief gegangen;
ausserdem arbeitet IBM sehr redundant. Derzeit sind auch nur noch 500
Leute damit beschäftigt, MVS weiter zu warten - eine weitere Abspeckung
ist zu erwarten. Es gilt: MVS ist zwar sehr leistungsstark, aber auch
unnötig komplex. Einige Kunden gelang es jedoch, ihr Betriebssystem so gut
kennenzulernen, dass sie die Upgrades von IBM nicht mehr nachvollziehen
mussten. Die normale S/370-Architektur verfügt über 16 MB, über Notlösungen
ist diese auch auf 32 MByte erweiterbar. Die XA-Architektur kann 2 GB
adressieren, notfalls auch 4 GB. Die ESA-Architektur schliesslich kann
gar 8000 x 4 GB = 32 TB adressieren!
Auch IBM hat erkannt, dass proprietäre Betriebssysteme gegenüber offenen
Betriebssystemen an Markt verlieren. Seit 1980 propagierte IBM daher auch das
IX-Betriebssystem, eine Variante von UNIX. Allerdings fand keine aktive
Vermarktung statt; es wurde nur ausgeliefert, wenn Kunden es direkt einforderten.
IX war also noch eine ziemlich halbherzige Sache, zumal die wichtigen
3270-Terminals dort nicht unterstützt wurden! IBM wartete zunächst ab.
1985 kam ein schwerer Schlag für IBM: Grossaufträge der US-Luftwaffe und der
US-Finanzämter gingen nicht an IBM, da diese kein offenes UNIX im Angebot hatte.
Auch in Europa forderten die Behörden immer stärker UNIX-Produkte. Gerade in Bezug
auf den internationalen Datenverkehr ist hier Offenheit wichtig. Internet und
UNIX haben sich bereits bewährt.
Ab 1988 ging IBM in die Offensive und begann die aktive Vermarktung ihrer
eigenen UNIX-Version AIX. Insbesondere durch den Einstieg in den RISC-Markt
über die RS/6000 und der OSF-Gründung (Open System Foundation) wurde AIX forciert.
Allerdings strebt IBM weiterhin eine Koexistenz von SAA und UNIX an, obwohl
das SAA-Konzept einen eher proprietären Charakter besitzt. AIX/ESA läuft
z.B. auf der IBM ES/9000, z.T. parallel zu MVS/ESA.
Informelles: XENIX ist ein PC-UNIX von IBM, das praktisch nicht gewartet
wird und für das auch keine Werbung gemacht wurde. Seine Verbreitung ist
entsprechend gering. IX war native mit der VM-Hardware verwurzelt, d.h.,
vor dem UNIX-Betriebssystem lag noch das VM-Betriebssystem, wodurch die
Portabilität verloren ging. MACH-3 als VBS (verteiltes Betriebssystem) ist
die Weiterentwicklung von IX. Auch den CODEASYL-Standard versuchte IBM, durch
Verzögerungstaktiken und Überladungen, zu bremsen.
Gerade weil IBM sich so vornehm zurückhielt, konnte wohl auch der RISC-Markt
derart explodieren. Obwohl bereits 1984 ein RISC-Rechner 6150 herauskam,
erreichte dieser nur einen für IBM lächerlichen Marktanteil von 1.5%.
Erst die RS/6000 mit ihrer erweiterbaren Architektur ist ein echtes
Angriffsmodell. Weitere Vorteile wären für IBM drin, wenn auch sie die
Rechnung-vor-Lieferung-Taktik anbieten würden, wodurch Abteilungsleiter
schnell noch ihr Budget an den Mann bringen könnten. Die neuartigen
Migrationshilfen sind zudem eine Gefahr für IBM, da diese die IBM-Software
auf Nicht-MVS-Systeme ziehen können, wo sie standalone laufen. Selbst
so spezialisierte MVS-Software wie der CICS-Transaktionsmonitor lässt
sich inzwischen unter AIX auf einer RS/6000 ohne MVS betreiben.
1988 wurde die AS/400 (Application System) als gemeinsamer
Nachfolger (Integrationsmodell) von S/360 und S/370 angekündigt.
Allerdings gilt die S/370 als Ausgangsbasis für die AS/400-Architektur.
Als Betriebssystem findet OS/400 Verwendung, ein den SAA-Bedürfnissen
angeglichenes Betriebssystem. Je nach Prozessoranzahl sind dafür 10.000
bis 100.000 DM Einmal-Lizenzgebühren zu entrichten. Die Kosten für die
Modelle selbst beginnen ab 40.000 DM aufwärts - und beim teuersten
Wachstumsmodell, der B60, sogar 500.000 DM. C, D, E und F-Modelle
werden folgen.
Die Bestellzahlen der AS/400 waren für IBM sehr zufriedenstellend und
erinnern an ihren Erfolg von 1978 mit der S/370. In
vielen anderen Punkten gleicht die AS/400 ebenso der S/370, z.B. in der
Architektur. Auch hier ist die Architektur vollständig mikrocodiert worden
(horizontal und vertikal), was Klone schwieriger zu realisieren macht. Die
AS/400 wurde zudem objektorientiert designt. Auf dem Mikrocode sitzt der
S/370-Instruction-Set auf, der durch das Betriebssystem OS/400 (Control
Programm Facility von der S/370 im SAA-Design) unterstützt wird.
Die Zukunftsaussichten der AS/400 sind nicht schlecht. Ihr
Wachstumspotenzial ist noch lange nicht ausgereizt, auch wenn keine
Zuwachsraten mehr erwartet werden. Mehr und mehr entwickelt sich die AS/400
zur Ersatz-Cash-Cow für die 9000er-Serie. Grund für die hohen Verkaufszahlen:
Die Software-Palette ist sehr gross, trotz des proprietären Betriebssystems.
In Zukunft werden wohl SQL- und CASE-Tools noch zunehmen, während sonst
in Bezug auf Software wohl eher abgespeckt wird. Mit einem AIX/400-Betriebssystem
ist nämlich in absehbarer Zeit wohl nicht zu rechnen.
Es ist zu erwarten, dass die meisten S/370-User zur AS/400 wechseln und
nicht zu den AIX-Systemen wie die RS/6000. Die S/360-User dagegen neigen
eher zur AIX-Lösung - oder gar PC-Netzen auf Client/Server-Basis. Dort ist
das Reservoir deutlich kleiner für IBM.
Als Downsizing- bzw. Rightsizing-Lösung kommt die AS/400 v.a. für VSE-User
infrage, sofern diese keine Migration auf MVS benötigen. Wer einmal bei der
AS/400 ist, wird wohl eher dem Pfad zukünftiger Upgrades folgen, als auf
ungewisse AIX-Lösungen umzusteigen (womit IBM sie wieder im Sack hätte).
Das gilt aber nur bei Hochmigrationen; im gegensätzlichen Fall wird die
RS/6000 vermutlich mehr Chancen als die AS/400 haben.
Informelles: Die Installationszahlen der AS/400 dürfen
nicht mit denen von PCs verglichen werden. Erstens bringen AS/4000 weit
grösseren Umsatz und v.a. bedeuten sie eine Bindung des Kunden an IBM
- daher kann IBM hier auch leicht Rabatte bis zu 30% vergeben! Bei der AS/400
ist so viel als möglich mikrocodiert worden, wodurch die System-Interna
nicht Public Domain sein müssen. Ohne grosse Migration kann die
S/360-Software auf AS/400-Rechner portiert werden. Die AS/400 verfügt
über einen seltenen 48 bit-Adressbus (eine XA-Variante ist nicht zu erwarten,
den 48 bit genügen wohl für immer; ein möglicher Ausbau wäre aber von vier
auf sechs Prozessoren).
Mit der RS/6000 machte sich IBM selbst Konkurrenz. IBM versucht Downsizer
von der 3090 bzw. 9000 auf die "schräge Maschine" AS/400 zu ziehen. Die
proprietäre Formularsprache RPG (Report Program Generator) verstärkt den
Inselcharakter der AS/400.
Die vier Säulen des SAA: Die Systemanwendungsarchitektur von 1987 beruht
auf den Säulen Common Communication Support (CCS), Common Programming Interface (CPI),
Common User Access (CUA) und - als Verbindungssäule - Common Applications (CA). Das
SAA-Konzept berücksichtigt die Umgebungen und das Betriebssystem S/370 mit MVS,
AS/400 mit OS/400 und PS/2 mit OS/2.
Elemente des SAA-Konzepts sind:
-
CCN (Common Communication Network): Diese Netzwerk-Philosophie setzt auf
OSI-Protokolle (X.25 und Token-Ring, nicht aber ETHERNET!) und SNA (System
Network Architecture, proprietäres Netzwerk von IBM). Berücksichtigt wird
auch die Norm 3270 für Terminals.
-
CPI (Common Programming Interface): An Sprachen werden berücksichtigt
ANSI COBOL, ANSI FORTRAN 77, ANSI C X3J11 (nicht für VSE!), PL/1, RPG, REXX
(Restructured Extended Executor; dafür flogen CLIST und JCL raus!),
ANSI SQL (dafür wiederum flog DL/1 raus - wird DL/1 nun nicht mehr gewartet?),
QMF (Query Management Facility), die Forth Generation Languages
CPS und ISPF/PDF (Dialog Interface). Wichtig: APL (A Programing
Language) wurde nicht integriert!
-
CUA (Common User Access): Dies bedeutet einheitliche Tastaturen und
GUI (Graphical User Interfaces), die an Apple orientiert sind.
Informelles: Die Aufnahme von Non-IBM-Languages wie C oder
COBOL fiel IBM sicher schwer, musste aber sein, um die Kunden zu
beruhigen. Das SAA-Konzept umfasst S/XXX-Mainframes, AS/400-Minis und
PS/2-Mikrosysteme. Mit SAA will IBM zum Konkurrenten NEC aufschliessen,
die ihr VMS-Betriebssystem auf allen
Maschinen ohne grossen Interface-Wust laufen hat. FORTRAN wurde v.a.
für Parallel-Rechner beibehalten. Bisher wurde SAA zu 50% realisiert,
der Rest ist fraglich, v.a. auch im Hinblick darauf, dass IBM vielleicht
seine marktbeherrschende Stellung verliert - wer übernimmt dann die
Wartung all der SAA-Produkte? SAA bedeutet laut Joachim Niedereichholz:
IBM repariert seine Vergangenheit.
Seit 1990 ist die RS/6000 von IBM im Vertrieb. Sie soll DEC,
SUN, MIPS und HP-Workstations Paroli bieten. Domäne ist - typisch RISC -
der technische Bereich, doch auch ökonomische Anwendungen sollen über
die RS/6000 zu meistern sein. Als Prozessor-Architektur dient der POWER-Chip
(ein 32-Bitter). Durch mehrere parallel arbeitende Subprozessoren (Branch-,
Fix- und Floating-Point) können in einem Takt fünf Instruktionen
abgearbeitet werden. RISC ist der Prozessor: Er kennt "nur" 187 verschiedene
Instruktionen (Mainframe-CISC bis zu 500!). Die POWER-CPU kann virtuell
2^52 Bytes adressieren, doch der reale Adressraum ist nur 4 Gigabyte gross und
in 4 kB-Seiten unterteilt. Als Betriebssystem findet AIX Verwendung! Die
POWER-Technologie selbst ist allerdings proprietär.
Obwohl nur mit 30 MHz getaktet, bringt es die High-End-RS/6000
auf 13 MFLOPS (Millions of Floating Point Operations per Second),
72 kDhrystone und 41 MIPS (Million Instructions Per Second). Die
schnellste RS/6000 kommt sogar auf 104 MIPS, während die AS/400 gerade
einmal 26 MIPS zustande bringt). Die Prozessoren basieren auf der
CMOS-Technik (Complementary Metal Oxide Semiconductor). Die untragbare
AT-Bus-Lösung wurde durch die IBM-spezifische Micro Channel-Lösung ersetzt.
Die RS/6000 verfügt über eine SCSI-Schnittstelle für die externe bzw. interne
Kommunikation. Der Hauptspeicher verfügt über Error Correction Code,
der 2-bit-Fehler findet und 1-bit-Fehler sogar korrigiert! Was das
Verhältnis Preis zu Leistung angeht, schlägt die RS/6000 die AS/400 also
um Längen.
In einem möglichen Zukunftsszenario lässt sich eine Verschmelzung von
AS/400 und RS/6000 absehen. Bis 1995 könnte die AS/400 ihre 400-Chips
durch POWER-Chips ersetzten, sowie neben OS/400 auch AIX als Betriebssystem
integriert haben, während die RS/6000 unter AIX die AS/400-Software-Pakete
laufen lässt. Bis zum Jahr 2000 liesse sich dann ein einheitliches
Produkt denken, welches basierend auf der POWER-Technik die RS/6000- und
AS/400-Architektur parallel verarbeiten kann.
Informelles: Die wenigen Befehle der RISC-Architektur lohnen sich,
weil in ABC-Analysen festgestellt wurde, dass 80% der Befehle nur zu 20%
genutzt wurden (C-Gruppe). Die C- und B-Befehle werden über die Software
realisiert. Nur die A-Befehle werden mittels Hardware installiert bzw.
mikrocodiert (nach Möglichkeit sollten sie zudem innerhalb eines Zyklus
abgearbeitet sein). Eine Taktzeit von 10 ns liefert damit eine theoretische
MIPS-Leistung von 100 MIPS. Praktisch erreicht werden aber nur ca. 50% davon,
wegen technikbedingter Engpässe in der Hardware. SUN dominiert den Markt
der RISC-Architektur derzeit mit 40% Anteil. IBM bringt es aber inzwischen
auch auf immerhin 10%. Neben RISC-Workstations existieren im Übrigen
auch weiterhin moderne Nicht-RISC-Workstations, wie z.B. die VAX von DEC.
Downsizing und Rightsizing haben das Hauptziel der Rückbesinnung auf das
Kerngeschäft. Das strategische Management sieht die Informationstechniken
als Erfolgsfaktoren an, bei denen die Besitzverhältnisse keine Rolle
spielen, d.h., sie können prinzipiell auch an Outsourcer vermittelt werden.
Downsizing geht oft mit den Megatrends Outsourcing (siehe Kapitel 4) und
Networking einher. Die Marktposition der Mainframes bröckelt. IBM, Amdahl,
HDS (Hitachi Data Systems) u.a. versuchen durch intensives Brokerage in das
eigene Portfolio den Sturz der Mainframes aufzuhalten, doch selbst zusammen
mit neuartigen Leasingangeboten und der Verschiebung des Geschäfts - weg von
der Hardware mehr auf Service und Software zu - ist dies ein hoffnungsloses
Unterfangen.
Von einem Mainframe spricht man, wenn es sich um einen CISC-Rechner mit dem
Betriebssystem MVS, VSE oder VM handelt. Ist der Rechner in ein Netz
eingebunden, muss er über VTAM (Virtual Telecommunications Access Method)
verfügen. Beim Downsizing muss beachtet werden, dass die kleinere Maschine über
die nötigen Leistungseinheiten verfügt, um die gestellten Anforderungen erfüllen
zu können. Gemessen wird die Leistung z.B. mit den Leistungsmassen
MIPS (kommerzielle Rechner), FLOPS (technische Rechner), MOPS
(Million Operations Per Second, v.a. bei Vektorrechnern relevant),
LIPS (Logical Instructions Per Seconds bei KI-Rechner), Whetstone,
SPEC (RISC-Systeme), TPC (Transaction Processing Performance Council),
Dhrystone und Wisconsin Benchmark (synthetische Datenbanksystem-Simulation).
Typische Migrationsformen sind: Ausbauverzicht (oft), Reskalierung (Wechsel
auf kleinere Systeme) und Abbau (Outsourcing; selten). Bei einer Reskalierung
von Mainframes greift man meistens auf die Zielsysteme AS/400,
Client/Server-UNIX-Systeme oder MAC- bzw. DEC-Netze zurück. Wichtig ist,
dass heute überhaupt ein Wechsel möglich ist.
Folgende Migrationsformen haben sich in der Praxis gezeigt:
* MVS/ESA (S/370) ==> AIX/ESA (RS/6000).
* COPICS ==> totaler Abbau nötig, Suche eines anderen PPS.
* SQL-Applications ==> einfach migrierbar.
* CICS ==> Tuxedo oder ENCINA.
* VTAM ==> TCP/IP.
* IMS ==> DB2 ==> DB2/6000 oder ORACLE oder INGRES.
* TSO ==> in UNIX-System bereits funktionell integriert.
* SAP-Systeme ==> verlangen wiederum SAP-Systeme.
Es hat sich gezeigt, dass nur 20% der MVS-Applikationen migrierbar sind.
Für den deutlich grossen Rest ist ein aufwendiges Reengineering angesagt.
Auf UNIX-Systemen gibt es bereits hervorragende PPS (Produktionsplanungssystem
und Steuerungssystem wie z.B. R/4 von SAP), sodass auf COPICS (Communications
Oriented Production Information and Control System) notfalls
verzichtet werden kann. High-End-RISC-Systeme sind demnach gefährlich
für Mainframes, v.a. dann, wenn Multimedia erwünscht wird, wenn Kunden
verärgert sind oder wenn sie ohnehin vor einer Migration stehen. Dennoch
dominiert Migration eher im technischen Bereich als in ökonomischen Bereichen,
vermutlich, weil bei Ersteren die Datenbestände eher partitioniert werden
können. Zu den Problemen beim Downsizing kommen wir in einem späteren Kapitel.
Die Client/Server-Architektur sieht vor, möglichst viel
Service-Leistungen aus dem Betriebssystem zu entfernen und in Form von Server-Prozessen
anzubieten. Anwenderprogramme (Clients) können sich diese Funktionen dann
über IPC nutzbar machen, während das Betriebssystem auf seinen monolithischen
Kern beschränkt bleibt. Der Vorteil ist, dass Programme je nach
Umgebung andere Server aufrufen können und dass die Zahl der Server
leicht erweiterbar ist; eine Funktionsintegration in ein Betriebssystem dagegen stellt
einen sehr grossen Arbeitsaufwand dar. Dadurch können Client/Server-Programme
auf relativ einfache Weise auf heterogenen Plattformen mehrerer Hersteller
betrieben werden, was wichtig sein kann in Bezug auf das
SAA-Vorhaben von IBM. Besonders im Zusammenhang mit Downsizing wird dem
Client/Server-Markt eine grosse Zukunft vorausgesagt. Anstatt die
Mainframes komplett aufzugeben, können sie als mächtige Server-Rechner,
die an ein LAN angebunden sind, weiterhin parallel zu den PCs und Workstations
genutzt werden.
Verbunden mit dem Client/Server-Konzept ist auch die Schichtendenkweise:
Bestimmte Schichten sind in sich abgeschlossen und kommunizieren über
stabile Schnittstellen miteinander, d.h., interne Schichtänderungen sind
jederzeit möglich, ohne dass sich dies auf andere Schichten auswirkt.
Eine Schicht enthält dabei die Logikbausteine für die Repräsentation
der Daten, eine andere die Verwaltungsinformationen, wiederum eine andere
steuert die Applikationen usw. Dieses erst seit den 80ern praktizierte
Schichtendenken unterstützt auch noch weitere moderne Trends: das
objektorientierte Vorgehen und die Wiederverwendung. Das Client/Server-Vorgehen
verschärft dabei noch den Schichtcharakter, da hier - anders als bei
monolithischen Betriebssystemen - ganze Schichten als Server-Prozesse
implementiert werden. Zu beachten bei z.B. mehreren Datenbank-Servern
sind jedoch Redundanz- und Zugriffsprobleme.
Die traditionelle Organisation der Datenverarbeitung (vor ca. 15 Jahren)
sieht vor, dass es ein zentrales Rechenzentrum gibt, in dem die
Fachkräfte sitzen, die die Administration der Datenverarbeitung übernehmen.
Geleitet wurde das Rechenzentrum oft nur von einer Person. Das Ganze funktionierte
noch auf Auftragsbasis: Die Abteilungen sagten, was sie wollen, und die
Programmierer entwerfen die entsprechenden Programme. Ein zentraler Mainframe,
auf dem i.d.R. ein (hierarchisches) Datenbanksystem betrieben wird, steuert
die Terminals, die in alle Bereiche des Unternehmens führen.
Obiges Bild gibt wieder, wie Datenverarbeitung einst betrieben wurde. Doch
inzwischen wurde Information als strategischer Gewinnfaktor identifiziert,
da sie erhebliches Flexibilisierungspotenzial besitzt und damit
Wettbewerbsvorteile einbringen. Das Top-Management dezentralisiert daher
allmählich die Datenverarbeitung (welche inzwischen passenderweise Informationsverarbeitung
genannt wird). Das Top-Management kann in jede Abteilung Fachkräfte der
Informationsverarbeitung positionieren oder weiterhin eine zentrale Abteilung
für die Informationsverarbeitung aufrechterhalten, aus der dann die Leute
für die Programmierarbeiten vor Ort rekrutiert werden können. Dem
Informationsmanagement obliegt es dabei v.a., eine Informationsinfrastruktur
aufzubauen, die für eine unternehmensweite Konsistenz der Daten sorgt
(dazu ist u.a. ein Unternehmensdatenmodell nötig).
Nicht immer setzte der Vorstand zur Koordination zentrale Rechenzentren ein.
Mit unter entstanden - v.a. bei divisionalen Strukturen - die Systeme ganz
von alleine direkt bei den Ausführenden. Bis die jeweiligen Vorgesetzten von
den Vorteilen überzeugt waren und sie ebenfalls bei sich einsetzten. So kam es
bisweilen zu sehr heterogenen Rechnerwelten innerhalb der Divisionen,
aber v.a. auch zwischen den Divisionen. Wobei sich Divisionen auch nicht
selten absichtlich an ihr System klammerten, weil sie darin Wettbewerbsvorteile
gegenüber den anderen Divisionen sahen. Rechenzentren zu implementieren
und gemeinsame Richtlinien von oben zu verordnen, ist generell ein hartes
Stück Arbeit für das Informationsmanagement.
Drei mögliche Outsourcing-Klassen sind:
-
Professional Services: Die klassische Datenverarbeitung wird
vom Outsourcer übernommen.
-
Facility Management: Der Outsourcer übernimmt auch Verwaltung
und Wartung der Datenverarbeitungsressourcen.
-
Systemintegration: Alle operationellen Dienste liegen voll beim Outsourcer.
Motive für Outsourcing:
Quantifizierbare Motive:
Kosten- (Personalkosten-, CPU-Auslastung+, Kapitalbindung-)
Liquidität+ (weniger HW-Anlagevermögen gebunden)
Datensicherheit+
Terminpflicht der Outsourcer
Raum+
Nicht-quantifizierbare Motive:
Flexibilität+ (Outsourcer-Wechsel möglich, Outsourcer moderner)
Servicegrad+ (Outsourcer für alle Fälle gerüstet)
Konzentration auf das Kerngeschäft
Technisches/personelles Risiko- (Abwälzung auf Outsourcer)
Fachkräftemangel kein Engpass mehr
Know-how+ der Outsourcer
Kein Ärger über Strategien der EDV-Hersteller
Überdurchschnittliches Systemwachstum Outsourcer-Problem
Standardisierung der EDV-Ergebnisse
Risiken:
Wirtschaftliche Risiken:
Verschlechterung der Kostensituation möglich (Verträge-)
Abhängigkeit grösser vom Outsourcer (nur DV, nicht Informationsverarbeitung outsourcen!)
Leistung nimmt ab beim Outsourcer, Gefahr für Unternehmen
Personalpolitische Probleme:
Fachkräfte fehlen, weil sie entlassen wurden
Gegenwehr gegen Outsourcing
Organisatorische Probleme:
Datenaustausch mit Outsourcer: Wie zu realisieren?
Nur DV outsourcen oder ganze Informationsverarbeitung?
Einige kurze Statements zum Outsourcing: In den nächsten 10 Jahren
wird Outsourcing sicherlich noch ein dominantes Thema sein, denn so lange wird
der Kostendruck anhalten. Die Gesamtverantwortung für die Datenverarbeitung
nur einem Outsourcer zu übergeben ist besser, denn sonst schiebt ein Outsourcer
die Schuld auf einen anderen. Das Outsourcing ist auch bei Banken beliebt,
obwohl dort der Liquiditätsvorteil eher bedeutungslos ist. Bekannte Outsourcer
sind EDS und die debis AG(Mercedes Benz-Tochter). EDS versucht, bei Neuanwendungen
generell UNIX-Systeme zu platzieren. Kundennahe EDV-Teile, wie z.B.
Information-Service-Center, werden seltener extern implementiert,
kundenunabhängige Standard-EDV-Teile, die üblicherweise von Rechenzentren
erledigt werden, dagegen schon. Outsourcing betrifft eher die unteren
Hierarchieebenen als die oberen.
Ein konsequentes Downsizing kann zur Stilllegung des Rechenzentrums führen.
Dass dies nicht unbedingt von Vorteil ist, sei hier kurz dargelegt.
In das Rechenzentrum wurde viel Geld für Hardware und Software investiert,
welches durch eine Stilllegung verloren ginge, obwohl dadurch doch zuvor
erst eine funktionierende Infrastruktur gegeben war. Ein Wechsel
von MVS auf UNIX ist mindestens genauso schwer, wie der Wechsel von einem
Mainframe auf den nächsten. Neben den reinen Konvertierungskosten stehen
auch noch Netzkosten, Akzeptanzförderungskosten (im Gegensatz zu Technikern
können Wirtschaftler nur selten selbst programmieren; Stichwort:
Kulturschock) und Mehrkosten für einen zeitweiligen Parallelbetrieb. Viele
Downsizing-Kosten sind versteckt, z.B. die Kommunikationskosten, der Support,
die Redundanzen, die Neuschulung und nicht zuletzt die Programmierung neuer
Anwendungsprogramme (obwohl fertige Lösungen auf dem Mainframe bereits
existieren).
Wenn man also schon migriert, dann sollte besser nur reskaliert werden,
oder der Mainframe sollte zumindest beibehalten werden, um die Investitionen
nicht unnötig in den Sand zu setzten. Wie wir in einem vorherigen Kapitel
gesehen haben, bietet sich dazu das Client/Server-Konzept an, auch wenn in
diesem Bereich noch viel geschult werden muss, um ein organisationsinternes
Know-how aufzubauen. Ein Verzicht auf vollständiges Downsizing kann noch weitere
gute Gründe für sich beanspruchen. Die Preisvorteile, die UNIX-Systeme derzeit
bezüglich der Software gegenüber Mainframes besitzen, könnten in Zukunft
verschwinden: Die Standardisierung und die dadurch bedingte zunehmende
Komplexität der Programme zur Lösung von Problemen, all das wird auch
weiterhin seinen Preis haben. Allerdings erlauben Standards auch die
schnelle Migration von beispielsweise einem Datenbanksystem zu
einem anderen, sofern die Daten nur in 3NF (Third Normal Form) vorliegen.
Mainframes nutzen die Ressourcen im Allgemeinen deutlich besser aus,
als vernetzte Systeme dieses je könnten. Pro MIPS unterstützt ein CISC-Rechner
15 Mal mehr User als eine RISC-RS/6000. Workstation-CPUs warten die meiste
Zeit eigentlich nur auf Benutzer-Eingaben, daher ist der Durchsatz bei
Mainframes viel grösser. Und während bei den Workstations der MIPS-Bedarf
rasant wächst (alle vier Jahre ist ein Austausch fällig), nimmt er bei
Mainframes eher leicht ab oder bleibt wenigstens konstant.
Es gilt: Modeerscheinungen, wie Downsizing, die bestehende
Lösungen diffamieren (in diesem Fall Rechenzentren), bringen dem Käufer nur
selten wirkliche Vorteile, sondern nur mehr Imagepunkte - "Seht her, mein Betrieb
ist up to date!" Die einfache Rechnung, 10 Workstations mit je 100 MIPS
ersetzen eine 1.000 MIPS-Mainframe, funktioniert nicht, weil ein Lastenausgleich
noch nicht - wie bei verteilten Betriebssystemen vorgesehen - realisierbar ist
(nur ein User kann die Workstation-CPU bisher nutzen, nicht jeder User im
ganzen Netz). Und auch die Netzkoordination selbst verschlingt einen
nicht unerheblichen Teil der Ressourcen.
Unternehmensberatungen wie Gartner und Xephon raten daher von einem
völligen Downsizing ab. Sie empfehlen weiter, bei 200 Mitarbeitern einen
luftgekühlten Mainframe, und bei über 500 Mitarbeitern einen wassergekühlten
Mainframe, da deren Unterstützungspotenzial für das administrative
und operative Geschäft noch lange nicht von Workstations abgedeckt werden
kann.
Behält man das Rechenzentrum bei, gibt es zwei wesentliche
Implementierungsphilosophien:
-
"Alles aus einer Hand"-Strategie, d.h., man setzt nur auf IBM oder nur auf PCM-Hersteller.
-
"Zwei Bein"-Strategie, d.h., die Hardware und Software kann sowohl von IBM als auch
PCM-Herstellern sein.
Informationstechniken haben ein grosses Potenzial an
Anwendungsmöglichkeiten; sie sind sehr flexibel einsetzbar. Es gilt daher:
Informationstechniken determinieren nicht länger die Strukturen der
Organisation. So können LANs z.B. für eine erhöhte zentrale Kontrolle
genutzt werden, aber auch genauso gut einer Dezentralisation und
Entscheidungsdelegation förderlich sein. Es bleibt dem Management
überlassen, die Potenziale der Informationstechnik im Sinne der Organisation
zu gebrauchen. Zu beachten ist dabei jedoch stets die Akzeptanz der Mitarbeiter
und auch die der Manager selbst. Fantasie ist gefragt. Leider muss gesagt werden,
dass Informationstechniken - bisher zumindest - eher konservierende Wirkung besitzen,
als wirklich neue Wege aufzuzeigen. Die dem Taylorismus anhängenden Manager
sehen in den Informationstechnologien offenbar eher technokratische
Instrumente, statt damit anthropozentrische Ideen wie autonome Teams u.ä.
zu realisieren.
Informationstechniken haben strategisches Gewicht im Unternehmen und müssen
dementsprechend in Form strategischer Informationssysteme beachtet werden.
Wie in der Informatik üblich, werden Informationssysteme häufig in Schichten
ausgelegt. Folgende Schichten sind dabei für die Planung von
Informationssystemen relevant:
-
strategische Unternehmensplanungsschicht: Diese Schicht sollte
existieren für grundlegende Richtungsangabe (z.B. RISC statt CISC oder
relationales Datenbanksystem statt hierarchisches Datenbanksystem?)
-
herstellerunabhängige Planungsschicht: Hier werden die Ziele
von (1) im Markt auf ihre Durchführbarkeit überprüft. Ein stimmiges
Unternehmensdatenmodell ist dafür allerdings Voraussetzung.
-
herstellerabhängige Realisationsschicht: Diese Schicht betrifft
den Kauf konkreter Hardware und Software nach Angaben von (2). Die operative
Ebene sollte dabei auch die strategische Ebene beeinflussen können
(Rückkopplungseffekt).
In der Praxis zeigt sich, dass die Schichten (1) und (2) von Schicht (3) bei
Weitem dominiert werden. Oft drückt sich dieser Umstand darin aus, dass nur ein
System, z.B. von IBM, im Unternehmen vorherrscht, weil oft externe Berater nur
von bestimmten Firmen in den eigenen Betrieb geholt werden. Falls diese Berater
dann aufsteigen, bekommen ihre Entscheidungen allmählich strategisches
Gewicht, was die Herstellerabhängigkeit weiter verschärft. Wird auf
(2) und (3) verzichtet, können bestehende Lösungen (z.B. IMS, ein hierarchisches
Datenbanksystem von IBM) bis zum Gehtnichtmehr geflickt werden, anstatt direkt
auf bessere Lösungen zu setzten (z.B. DB2, ein relationales Datenbanksystem,
ebenfalls von IBM). Folgerung: Das Budget für die Schichten (2) und (1) muss
aufgestockt werden. Richtwert für viele Branchen ist z.B. 1.5% vom Umsatz
(mehr als 2% oder aber weniger als 1% können destabilisierend wirken).
Auch die Gehälter der Leiter im Informationsmanagement sollten sich an
der Systemgrösse orientieren.
Die Informatik war ein stetig wachsender Markt, doch die
Leistungsbedürfnisse nach oben scheinen erst einmal abgedeckt zu sein. Mehr
Leistung als nötig ist irrational. Aus diesem Grund verlangt die Industrie
und v.a. auch die Techniker (denen 40% von MVS i.d.R. genügen würden)
nicht mehr nach noch schnelleren Mainframes, sondern kann sogar ans Migrieren
auf reskalierte Systeme denken. Dennoch ist die Informatik wohl kein Poor-Dog
in naher Zukunft. Ihr Innovationspotenzial ist ungebrochen, auch wenn sie sich
mehr auf dezentrale, verteilte Systeme konzentriert als auf zentrale Systeme.
Der integrative, inderdisziplinäre Charakter der Informatik tritt immer
mehr zutage. Kaum ein Bereich, der nicht auch mit den Mitteln der Informatik
bearbeitet wird. Neuronale Netze sind stark im Kommen, ebenso Rechnernetze und
verteilte Betriebssysteme. Es gibt viel zu tun, ein Ende ist nicht absehbar - nein,
die Informatik ist kein traurig-jaulender Poor-Dog und wird so schnell auch
keiner sein!
Noch beherrschen Hewlett-Packard und SUN den RISC-Markt. Doch die RS/6000
rennt und rennt und rennt. Den vielleicht wichtigsten Posten stellt aber die
IBM AS/400 dar. Die AS/400 ist ein Kannibale. Die Innovationsvielfalt, die rund
um dieses System entwickelt wird, ist enorm. Line of Business ist ABS
(Application Business Solutions), welche erst jüngst die AS/400 mit
RAID-Systemen gekoppelt hat. Durch dieses innovative Speicherverfahren
frisst die neue AS/400 die alten, dazu inkompatiblen AS/400-Systeme auf, wodurch
eine IBM-externe Konkurrenz keine Chance hat, durch Innovationen die AS/400
selbst zu stoppen. Die Käufer der AS/400 rekrutieren sich nicht nur aus
/36- und /38-Nutzern, die AS/400 spricht auch für sich selbst. Von
der Leistung her dringt sie inzwischen bis in die Enterprise System-Welt vor.
Sie ist skalierbar von 2 bis 5.000 Usern! Das kannibalisiert den Mainframe-Markt.
Doch die wichtigste Neuerung ist (und davor zittern die Nicht-IBM-Anbieter am
meisten): AS/400 goes UNIX. Es wird bereits an einem UNIX-tauglichen OS/400
gearbeitet, d.h., die AS/400 gibt ihre Proprietät auf, denn sie hält
sich an den POSIX-UNIX-Standard. Auch soll vom 48-bit-Prozessor auf die
POWER-Technologie der RS/6000 zurückgegriffen werden, so wie der
POWER-RISC mit 64 bit auf den Markt kommt (derzeit noch 32 bit) - dann
schmelzen RS/6000 und AS/400 vielleicht bald zu einem System zusammen. Ein
zusätzlichen Drive erhalten die UNIX-Bestrebungen der AS/400 durch
inzwischen verfügbare Migrationstools (auch von IBM selbst) und der
Einarbeitung von Server-Eigenschaften in die AS/400-Architektur. Die
AS/400 ist also de facto hart dabei, auch den UNIX-Markt zu kannibalisieren.
Allenfalls der hochgetaktete (derzeit 200 MHz, aber 1.000 MHz sind wohl
möglich) Alpha-Chip von DEC kann hier IBM noch Paroli bieten.
Für alle Mainframe-Hersteller sind die guten Zeiten vorbei, egal, ob sie
zu IBM kompatibel oder nicht-kompatibel. Gründe dafür, dass die potenziellen
User abnehmen, sind:
- der strategische Wert der Mainframes als Rückgrat des Unternehmens wird bezweifelt.
- intelligente Workstations dringen in Mainframe-Leistungsklassen vor.
- Leaning und Dezentralisierung herrschen vor.
- Rezession verhindert Grossinvestitionen.
- Anwenderprofil-Änderung: Die Anwender verlangen nach GUIs u.ä.
- Outsourcing: Ein Mainframe genügt für mehrere Unternehmen.
Derzeit steigt aber der Umsatz der PCM-Hersteller gegenüber IBM und gegen die
Downsizing-Tendenz noch mächtig an. V.a. bei Amdahl, die über ein hervorragendes
Know-how und ein exzellentes Vertriebssystem verfügen.
Im RISC-Markt sind die Marktanteile aktuell folgendermassen verteilt: SUN=25%,
HP=30%, IBM=12%, Mips=20% und CLIPPER=6%. Übrigens: IBM hat den RISC-Prozessor
erfunden (!), allerdings hat Big Blue offenbar zu lange auf Mainframes gesetzt.
Derzeit herrscht ein weltweiter Mangel an DRAM-Chips (Dynamic Random Access
Memory), v.a. 4- und 16-MByte-Bausteine. Grund: Die IT-Industrie hat sich
verrechnet; der Hardware-Verkauf war nicht wie erwartet rückgängig, daher wurde
letztlich zu wenig in neue Chip-Fabriken investiert. Folge: Der Wechsel auf die
neue Computergeneration wird zwangsläufig hinausgezögert.
Microsoft entwickelt ein neues Betriebssystem: Chicago (Windows 95).
Microsoft streckt dabei aber auch die Waffen gegen das Kompressionsverfahren Stac
und gibt das eigene DoubleSpace von DOS 6.0, 6.2. und Windows-NT auf. Der
Upsizing-Trend von Microsoft stösst beim Anwender auf Widerstand, daher wildern
die im Low-End-Bereich tätigen Firmen Oracle, Informix und Sybase erfolgreich im
alten Microsoft-Revier.
Siemens hatte 1993 die höchsten Forschungskosten und Entwicklungskosten
im IT-Bereich, ca. 15 Milliarden DM. Danach folgen die Firmen IBM, Hitachi,
AT & T und Matsushita.
Derzeit ist das Client/Server-Konzept (C/S) ein Megatrend: 3 von 4 deutschen
Unternehmen wollen das C/S-Konzept bei sich verwirklichen, hauptsächlich
um die Time-to-Market zu reduzieren und flexibler zu sein als über Mainframes.
Angestrebt wird eine Integration von Mainframes und PCs. Aber hier wird häufig
übersehen: C/S erfordert gewaltige Anfangsinvestitionen, die Verwaltung
(Remote Data Management) und die Integration heterogen gewachsener PC-Welten
ist ebenfalls teuer. Aber v.a.: Nur 5% des Datenverarbeitungspersonals sind
vertraut mit C/S-Computing! Daher sind die zu erwartenden Personalschulungskosten
höher als die Technikkosten.
Der C/S-Trend kann mit dem CIM-Fieber ((Computer Integrated Manufacturing)
der 80er verglichen werden, welches den Firmen - CIM-Salabim - vollautomatisierte
Fabriken u.ä. versprach, die flexibel und kostensparend sein sollten. Aber
auch hier waren zunächst hohe Kosten für ein integrales Konzept aufgetreten,
die nicht von jeder Firma getragen werden wollten bzw. konnten. Folge: Das
CIM fruchtete letztlich nicht, wie es auch das C/S-Konzept nicht tun wird,
wenn nicht genügend in das Know-how des Personals investiert wird.
Die Überlebensfähigkeit von Organisationen hängt z.Z. wesentlich davon ab,
dass sie sich laufend verändern können. Diese ständige Veränderung muss von
den Informationstechniken unterstützt werden, die z.B. Teams, Partizipation
und Benutzerservice-Zentren oder dezentrale Benutzerservices fördern sollten
statt einer zentralen Datenverarbeitung. Hieraus erwachsen auch solche Ideen
wie die der laufenden Unternehmensprozessverbesserung, wie sie etwa das
Business Process Reengineering-Konzept vorschlägt.
R/3 von SAP ist ein integrales Konzept für die Optimierung von
Geschäftsabläufen. Module erkennen z.B. automatisch, wann ein Lager seinen
Mindestbestand erreicht hat, und sorgen dafür, dass Bestellempfehlungen,
die die Zukunftsprognosen berücksichtigen, ausgegeben werden. Bisher
ist R/3 über 1.000 Mal installiert worden - und dass weltweit für alle
Branchen (R/3 ist offenbar an jede Organisationsstruktur anpassbar).
Der Standard-Software-Markt, der im Wesentlichen beherrscht
wird von SAP, Oracle, Microsoft und Novell, wächst nicht mehr ganz so stark wie
Anfang der 90er. Der Hardware-Markt wird von Professional Services und
Systemintegratoren dominiert, wichtiger ist aber noch das Facility Management,
also der Systembetrieb, der von IBM, Debis, EDS (Konzernmutter ist Opel),
Microsoft, SAP, DEC und HP abgedeckt wird.
Function Point-Analysen können helfen, die Kosten der Weiterentwicklung
bestehender Systeme im Vergleich zu Neuentwicklungen abzuschätzen.
Ein aktuelles 4GL-Produkt (Forth Generation Language) ist
Powerhouse. Wie die meisten 4GL ist es an ein Datenbanksystem
gekoppelt und NICHT standardisiert!
EDV ist ein zweischneidiges Schwert, denn: Die EDV hat häufig
erst das Problem geschaffen, ihre Produkte benutzen zu müssen! Als es noch
keine Rechner gab, gab es keine Programmierprobleme. Als es kleine Rechner gab,
gab es nur kleine Programmierprobleme. Aber heute haben wir vernetze Rechner,
die sehr komplexe Probleme aufwerfen.
Client/Server-Computing-Varianten:
S DB DB DB DB DB C
e AP AP AP l
r Praes. i
v DB e
e AP AP AP n
r Praes. Praes. Praes. Praes. Praes. t
C/S-Werkzeuge sind GUI-Painter, 4GL, Prototyping-Tools, Multiuser-Repositories.
Der Konkurrenzdruck bei z.B. Windows und Word 6.0 sorgt zwar für eine
schnellere Software-Produktion, jedoch auch für eine fehlerhaftere,
bei der mit Speicher nicht gegeizt wird, bei der sich die Performance auf
schnellere Rechner verlässt, und bei der Anwender aus Abgrenzungsgründen
mit Funktionsüberladung gepeinigt werden. Die Konkurrenz macht die Software
zwar billiger, aber die nötige Hardware schluckt diesen Preisvorteil bei
Weitem. Zudem sind die nötigen, laufenden Updates oft nur über Compuserve
(Internet) zu beziehen.
Das Mainframe-Betriebssystem MVS/ESA von IBM wird Open Software. IBM
hat dieses Betriebssystem nämlich mit einer POSIX-Schnittstelle versehen,
die die Portierung von UnixWare ermöglicht. TCP/IP und NFS als
Netzwerk-Protokolle sind in Arbeit, ebenso ein Compiler für C++!
Das DCE (Distributed Computing Environment) ermöglicht eine verteilte
Client/Server-Kommunikation, wobei durch die Benutzung des RACF-Systems
(Resource Access Control Facility) die Sicherheit gewährleistet bleibt
(C2-Norm der US-Regierung). IBM will schneller offen werden, als die
UNIX-Anbieter mit ihren RISC-Systemen die Robustheit der Mainframes
erreichen können!
Die objektorientierte, nicht-proprietäre Betriebssystem-Software Open
Step läuft auf den Alphas von DEC, auf den SPARCstations von SUN und auf
den PA-RISCs von HP. Eine beliebige Portierbarkeit von Software zwischen
diesen Systemen wird dadurch möglich.
WABI: Eine Software von SUN, um Windows-Applikationen auf
SPARCstations laufen zu lassen.
dBASE for Windows von Borland benötigte 3 Jahre Entwicklungszeit.
Es waren 60 Programmierer daran beteiligt. Kosten: 20 Millionen Dollar!
Raubkopie-Schutz: Datenträger, Verpackung und Bildschirmmasken mit
(versteckten) Warenzeichen versehen.
Juristen sind sehr wichtig beim Outsourcing. Outsourcing ist
als radikale Diätkur sinnvoll, aber die Partitionierung ist zu beachten.
Die Gefahr der Fremdbestimmung besteht auch für einen Outsourcer, weil dieser
die Angestellte laut der Gesetze für eine Betriebsabspaltung mitübernehmen muss.
Im Gegensatz zum angloamerikanischen Raum können deutsche Arbeitnehmer Widerspruch
einlegen gegen Outsourcing. Üblich sind beim Outsourcing 5-Jahres-Verträge.
Oft bleibt der Outsourcer in den Räumen ansässig, den die EDV zuvor beanspruchte.
Leistungskontrollen, z.B. Antwortzeiten, sind in Verträgen festzuhalten.
Ein bekannter Outsourcer ist z.B. Origin.
Multi-Protokoll-Router entwirren die heterogene Protokollwelt, für
Highspeed-Backbones wie FDDI oder ATM mit 150 Mbps bzw. Fast-Ethernet
mit 100 Mbps.
Die meisten Informatiker finden eine Tätigkeit im Bereich Forschung
und Entwicklung. Der Rest verteilt sich auf Vertrieb, Beratung, Leitung und Support.
Oracle ist mit seinen Datenbanksystemen schneller und billiger pro Transaktion
(170 tps mit 5.000 Dollar pro tps), als Informix. Und Informix wiederum ist
schneller und billiger als Sybase (110 tps mit 8.000 Dollar pro tps).
Downsizing: 70% der Firmen wollen downsizen. 40% davon von Hosts auf UNIX,
17% auf OS/2 und 10% auf Windows-NT.
Die Revolutionsmärkte der Zukunft:
-
Informationstechnologie: Chips, Computer, Unterhaltungselektronik,
medizinische Geräte, Auto-Elektrik, usw. Sie stellt den grösster Industriezweig
mit über 1.000 Milliarden DM Umsatz dar, auch ohne Telekom-Firmen!
-
Genetik: Grösster Wachstumsmarkt überhaupt. Von aktuell 6 Milliarden DM
Umsatz bis zum Jahr 2000 mit voraussichtlich über 100 Milliarden DM Umsatz.
- Neue Werkstoffe: z.B. Keramikmotoren der Japaner.
- Alternative Energiequellen: Fusionsenergie und Solarenergie.
- Luft- und Raumfahrtforschung.
Deutsche Stärken: viel Mittelstand für Nischen, viele Facharbeiter,
gute Mechaniker und viele Forschungsaktivisten.
Japans Management-Strategien wie Lean Production, Lean Management, JIT
und TQM gelten als strategische Erfolgsformeln der 90er Jahre.
Zu beachten: Wenn Organisationsstrukturen kopiert werden, dann muss auch
die japanische Unternehmenskultur kopiert werden, die v.a. auf Partizipation
auf allen Ebenen setzt. Bisheriges Vorschlagswesen-Verhältnis zwischen
Deutschland und Japan: pro 100 Mitarbeiter 15:3.000 Vorschläge,
von denen 40%:85% auch realisiert wurden. Japaner verzichten weitgehend
auf eine strikte Kompetenztrennung bei den Mitarbeitern, weil sie eine
breite Meinungsbildung und Entscheidungsfindung befürworten.
Fehler in der Führung sind gravierender als Fehler im Informationssystem
sind gravierender als Fehler in der Organisationsstruktur.
Dennoch wird bei Problemen i.d.R. mit Organisationsstruktur-Umgestaltungen
begonnen. Wichtiger: Qualifikation der Mitarbeiter, damit diese neue
Informationstechnologien als Dienst in Anspruch nehmen können und
nicht als Herrschaftsinstrument verstehen müssen. Ziel: Eine
informationsorientierte Führung, die auf Stäbe verzichtet und statt
kleiner Kontrollspannen grosse Kommunikationsspannen einrichten kann!
Bekannte deutsch-japanische Mainframe-Allianz: Siemens Nixdorf und Fujitsu.
Diese beiden Firmen beliefern sich rund um ihr Betriebssystem BS2000 gegenseitig.
BS2000 soll, wie MVS/EA von IBM, offener werden.
Eine Host-PC-Migration wird meist aufgrund organisatorischer Probleme begangen,
während sich Midrange-PC-Migrationen auf die hohen Betriebskosten der Minis
zurückführen lassen.
Software ist weich bis plastisch, dadurch ist sie langlebiger als
Hardware (ca. drei Generationen). Setzt ein Unternehmen nicht auf Outsourcing,
so muss es daher unbedingt auf Portabilität achten, und die Produkte dazu sollte
von langlebigen Produzenten stammen.
AMD war ursprünglich ein Cloner von Intel-Chips aus den USA gewesen,
wollen nun aber auch eigene RISC-Chips herstellen.
Gene Amdahl, ehemaliger IBM-Ingenieur, glaubt noch immer an
den Mainframe, der zum Datei-Server werden soll - und durch VLSI-Technik
(Very Large Scale Integration) nicht mehr viel Platz benötigen wird.
John Akers war derjenige CEO von IBM, der die UNIX- und
Rechnernetze-Entwicklung verschlief und die Baby Blues-Divisionalisierung
durchführte. Wurde 1992 vom Verwaltungsrat abgesetzt.
BS3000 von Siemens und Hitachi war der Versuch eine Plagiats von MVS.
Es enthielt aber auch ca. 5% eigene, verbesserte Routinen. Es wurde verboten.
Bull ist ein französisches IT-Unternehmen, bei dem der Staat Grossaktionär ist,
welcher aber seine Anteile bis 1995 über die Börse abstossen will. Es machte 1993
noch Verluste.
Connectivity-Anbieter sind Firmen, die Hardware- und Software-Produkte verkaufen,
die helfen sollen, heterogene, selbstständige Systeme (wie PCs) in bestehende
proprietäre Systeme (wie SNA) zu integrieren, z.B. Attachmate Corporation in Seattle.
Andrew Grove ist der CEO von Intel.
Steve Jobs, Apple-Erfinder und Boss der Firma NeXT.
NeXT stellt Rechner mit 68040-Prozessoren her, die über eine optimierte
Multimedia-Architektur verfügen.
Philipp Kahn ist der Borland-Chef. Borland ist aus seiner
Reorganisationsphase heraus!
Sandra Kurtzig, gründet als Verkäuferin in einer Wohnung 1972 die Firma
ASK. 10 Jahre später ging das Unternehmen an die Börse. 1989 erfolgte
ihr Austritt, nach Krise kehrte sie aber wieder zurück zu ASK. Sie führte eine
erfolgreiche Sanierung durch. 1994: Kurtzig gehört zu den 10 grössten
Software-Verdienern.
Maintenance-Anbieter sind EDV-Wartungsunternehmen. Grösstes Marktvolumen
in Deutschland (rückläufig), dann Grossbritannien und dann Frankreich. Ist v.a.
in Osteuropa eine Wachstumsbranche.
Scott McNealy ist als Chef von SUN nicht eben befreundet mit
Steve Jobs, macht aber dennoch auch Geschäfte mit NeXT.
MIPS Computer Systems Inc. ist ein Prozessor-Hersteller, der im Gegensatz
zu Intels nur RISC-Prozessoren anbietet (genauer: MIPS, also Microprocessor without
interlocked pipeline stages, mit 64 bit-Bus). Ist u.a. Partner von Siemens Nixdorf.
Novell ist ein US-amerikanisches Hardware-/Software-Haus. Novell ist der
Anbieter von NetWare, einem sehr erfolgreichen Netzwerkbetriebssystem, welches
PCs miteinander verbinden kann. Kaufte 1991 Digital Research mit deren
Software-Produkten GEM, CP/M, DR-DOS auf. Novell will seine UnixWare auf
AS/400 portieren.
Otherware: Dinge um Hardware und Software herum, wie die Systemziele,
Administratoren, Operateure, Organisation und Arbeitsressourcen. Otherware
beansprucht z.B. im Lebenszyklus eines Informationssystems gut zwei Drittel
der Kosten.
PIMS (Personal Information Management System): Büro-Datenbanksystem
mit Notizbuch, Kalender und Verwaltung persönlicher Daten. Mithilfe eines
PIMS sind vom Arbeitsplatz aus alle nötigen Daten erreichbar. Häufig sind
diese Systeme auch mit Hypertext-Funktionen ausgestattet.
POS-System (Point-Of-Sale): Kassensystem, das EAN-Barcode liest,
Preis bestimmt, Bon ausdruckt, Erlöse und Lagerbestandsabnahme verbucht,
Nachbestellungen vornimmt, Managementinformationen verwaltet und
ausserbetriebliche Statistiken erstellt.
Lewis Platt ist Präsident und Chief Executive Officer von HP.
Robotik-Verbreitung:
- Japan: 350.000 (v.a. Autoindustrie)
- GUS 65.000
- USA 47.000
- BRD 40.000
- Frankreich
- Grossbritannien.
Es wird in der Robotik eine Zuwachsrate von über 40% erwartet in den nächsten Jahren.
John Rollwagen ist CRAY-Chef. Clinton-Berater.
SAP: ein deutsches Software-Haus in Walldorf bei Heidelberg. Eines der
erfolgreichsten deutschen IT-Unternehmen. Führte Module-Software für ein
globales Informationsmanagement ein. Bietet das gängigste Outsourcing-Verfahren
in mehreren Schritten an.
John Sculley war Chief Executive Officer von Pepsi,
dann von Apple (woraufhin Steve Jobs nach einem Jahr gehen musste)
und war sogar als IBM-Chef im Gespräch. Geht vermutlich aber in
die Politik (kennt u.a. Clinton). 1993: CEO von Kodak.
TCI (Telecommunications Inc.): der grösste Kabelfernsehbetreiber der USA.
Tandem ist ein US-Hersteller von fehlertoleranten Parallelrechnern.
Topper-Data-Service: Spezialist für EDV-Outsourcing, engagiert sich
v.a. in den neuen Bundesländern.
Outsourcing ist noch lange betreibbar - die Marktforschungsunternehmen
rechen in diesem Markt auf längere Sicht mit einem jährlichen Wachstum von 11%.
Lewis Platt ist der Boss von Hewlett-Packard P. HP ist in Divisionen
unterteilt, z.B. besitzt die Division Service-Bereich die Teildivisionen Outsourcing,
Reengineering und Systemintegration. Alleine die Systemintegration, die
hauptsächlich Client/Server-Beratung betreibt, beschäftigt 4.100 Mitarbeiter
und macht 900 Millionen Umsatz.
Informationsbroker: ein neu entstehender Beruf, der sich zunehmend zu
organisieren beginnt. Der Informationsbroker besorgt sich z.B. für ca.
1.500 DM Informationen für Firmen, indem er auf 5.000 Datenbanken online
und auf CD-ROMs u.ä. offline zugreift.
IT-Marktführer 1993:
- Service: EDS
- Datenbanken: Oracle
- System-Software: Microsoft
- Kommunikation: CISCO
- PCs: Compaq
- Drucker: HP
- Festplatten: Seagate
- Halbleiter: Intel
Gibt es bald wieder den Trend zur Disintegration (Re-Diversifizierung)?
Datenverarbeitungsunternehmen kümmern sich mehr um Kerngeschäft wegen besserer
Kundenorientierung, denn Produktion und Service verlangen zu unterschiedliche
Strategien - die Motivation ist also ähnlich wie beim Outsourcing. IBM ist
zu gross, um die jeweiligen Geschäftsbereiche aufzugeben, daher divisionalisierte
sie die Geschäftsbereiche in die sogenannten "Baby Blues".
Die Highspeed-Datenübertragung mit 150 Mbps ist wegen der monopolistischen
Telekom in Deutschland siebenmal (!) teurer als in den US. Dies bedeutet einen
Wettbewerbsnachteil für den Standort Deutschland. Die derzeitige Telekom-Strategie
ist darüber hinaus nicht progressiv, d.h. doppelte Datenraten bedeuten auch
doppelte Kosten!
IBM, Apple und HP haben seit 1992 ein neues objektorientiertes Koalitionsbetriebssystem
in der Mache: Taligent!
Deterministische PPS-Expertensysteme sind out, fuzzige dagegen in,
denn die Fuzzy Frames erlauben umgangssprachliche Objektbeschreibungen,
sie benötigen weniger Regeln (da mehr Regeln feuern können, aber mit
verschiedener Intensität) und sind flexibler, weil sie mit unscharfen
Mengen hantieren können.
Die User lechzen nach Groupware, doch der Markt dafür schläft.
Windows for Workgroups ist ein besseres E-Mail-System für Mininetze.
Und Lotus Notes ist zwar durchaus brauchbar, jedoch nicht für den
Low-End-Markt gedacht.
IBM hat seine gesamten, weltweiten Werbeaufträge (ein 800-Millionen-Deal)
an nur eine Marketingfirma übertragen. Andere Unternehmen wie AT & T zogen
daraufhin ihre Werbeaufträge bei dieser Firma zurück.
Das Mobilfunknetz D1 (Siemens Nixdorf?) bringt es auf 2.400 bps. D2
(Mannesmann) immerhin auf 9.600 bps. D1 mangelt es noch an Flächendeckung,
in D2 kann zwar global gesendet, aber nur lokal empfangen werden. Europa
ist in diesem Markt vor den USA, die wiederum vor Japan sind.
Krankenhausroboter: 6 DM/h verlangt der Besitzer für diese elektronischen
Diener, die Krankenpapiere transportieren, zentral gesteuert werden und sogar
Fahrstühle bedienen können.
Derzeitiger IBM-Chef: Louis Gerstner.
Siemens Nixdorf (SNI): 1/3 des Geschäfts wird mit neuen Mainframes und
dem Betriebssystem BS2000/OSD realisiert. Platzierung als Server. Problem:
Die Nachfrage nach Mainframes ist gleich hoch geblieben (also nicht gestiegen),
die Mainframes mussten aber billiger werden.
Quantenrechner: ein AT & T-Projekt. Geht die Lösung eines Problems
gleichzeitig auf 1.000 verschiedene Arten an. Bei Dechiffrierungsaufgaben
u.ä. sollen sie einmal viel schneller als heutige Superrechner sein.
Uniface eine 4GL in Client/Server-Umgebung mit Rapid Application
Builder- und Repository-Server. Arbeitet nach dem "Deklarieren statt
Programmieren"-Motto.
C++ goes IBM mit CSet++ für AIX und OS/2.
Parallelserver sind ein neuer Schatten am Horizont für Mainframes,
die ihr letztes Heil derzeit im Server-Dasein erblicken. Sogar IBM reagierte
sofort darauf durch eigene Parallelserver-Projekte.
Das Netzwerkprotokoll FDDI arbeitet asynchron, kann daher nicht mit
bewegten Bildern umgehen. Fast Ethernet eignet sich nur für kleine Netze.
Cell-Switching-Netze (nicht Frame-Switching-Netze) jedoch sind gross im
kommen. ATM erlaubt feste Bitraten bis 150 Mbps und alleine durch die
Adressierung den Aufbau von logischen Netzen - dadurch ist ein Umzug ohne
Adressänderung möglich (im Gegensatz zu FDDI). Zudem ist bei ATM der Übergang
LAN-MAN-WAN fliessend gehalten.
BPR (Business Process Reengineering) (von Andersen Consulting,
Ernst & Young u.a.) ist hochaktuell. Der Druck auf die CEOs wächst.
Bei IBM und Kodak wurden die Chefs bereits durch die Aktionäre gefeuert,
um einen Führerwechsel zu erzwingen! Falls BPR NEUE Geschäftsbereiche
hervorbringt, spricht man auch von Business Process Engineering.
BPR ist prozessorientiert und kundenorientiert, und damit ein Management
der Wertschöpfungskette. Die erhofften Quantensprünge sind nur über
Prozessteams mit strikten Zeitplänen, Meilensteinen usw. möglich. Verlangt
einen psycho-strategischen Top-down-Ansatz, d.h., ein Wandel ist zuerst
in den Köpfen der Manager vonnöten.
Ratioplan ist eine Komplettlösung für die AS/400, die in Bezug auf
PPS, Controlling, Qualität usw. den wichtigsten Rohstoff liefert: Informationen!
In den nächsten 5 Jahren wird IBM zwar voraussichtlich genauso viele, aber
dafür auch billigere Mainframes verkaufen. 65% der Firmen setzten weiterhin
auf Mainframes. Die Mainframes werden als High-End-Server verkauft. IBM setzt
in Zukunft auf die billige CMOS-Technik, behält die CICS-Architektur aber bei.
Im Ausgleich dazu wird intensiv an einer verstärkten Parallelisierung gearbeitet.
Die Mainframes werden offener. Über eine POSIX-Schnittstelle ist MVS inzwischen
sogar UNIX-verträglich geworden. Zahlreiche Migrationshilfen auf UNIX sind
aktuell in Arbeit.
DEC hat zu kämpfen. Gründer Ken Olsen musste gehen und
Robert Palmer wird sich wohl auch nicht mehr lange halten.
Endbenutzer bilden den SOHO-Markt (Small Office/Home Office). Sie können
z.B. über Franchising (Markenhändlerei) in Angriff genommen werden.
ISO9000: In Deutschland sind 3.000, in GB sogar 30.000 Zertifikate
vergeben worden. Aber auch in Deutschland wird verstärkt auf ISO9000 gesetzt,
besonders im Zusammenhang mit dem BPR (Business Process Reengineering). Das
Zertifikat gilt nur für jeweils 3 Jahre.
Workstation-Cluster (Workstation-Farmen): RISC-Prozessoren im Verbund.
Zu unterscheiden sind Batch-Betrieb (ein Rechner rechnet) und Parallelbetrieb
(die Aufgabe wird von allen gelöst). Derzeitige Obergrenze: 20 RISC-Prozessoren.
Telekom-Boss ist Helmut Ricke. Das Neueste: Datex-M(ultimegabit) mit
n x 64 kbps, max. 43 Mbps, connectionless, DQDB-Technik, zur LAN-LAN-Verbindung
gedacht. Datex-J(edermann) brachte BTX ganz schön in Schwung. Derzeitige
Abschlusszahl: 600.000. Ab 1995 sollen 9.600 bps möglich sein.
Die (EDV-)Qualifizierung der Mitarbeiter wird immer intensiver betrieben.
VOD (Video-on-Demand): Interaktives Fernsehen. Die US-Amerikaner lassen
5 Milliarden Dollar beim Kino, 30 Milliarden beim Fernsehen und 50 Milliarden
bei Online-Diensten. VOD steht also ein potenzieller Markt in der Grössenordnung
von 100 Milliarden zur Verfügung, der noch dazu drastisch wächst!
EDI (Electronic Data Interchange) ist branchenübergreifend oder
branchenspezifisch, aber nicht international. EDIFACT ((Electronic Data
Interchange/Electronic Data Interchange For Administration) ist dagegen
nur branchenübergreifend und international.
Bisheriges Controlling-Problem: Das Controlling ist zu sehr
ergebnisorientiert, d.h., es werden zu spät Soll-Ist-Unterschiede
festgestellt. Neue Controlling-Software ist daher ganz im Sinne des
Business Process Reengineering prozessorientierter.
Das "fünfte Generation"-Programm der Japaner wurde 1992 nach 10
Jahren beendet. Es war kein Flop, wie manche denken, denn die Japaner
sind dadurch die Führenden in der KI geworden. Ihr jetziges "Real World
Computing"-Programm bringt ihnen vielleicht schon bald die dringend
benötigten Altersversorgungsroboter (Japan altert schneller als alle
anderen Länder!).
Neben dem Downsizing-Trend gibt es inzwischen auch einen
verstärkten Upsizing-Trend. Im Zuge dessen werden die bisherigen
Stand-alone-Applikationen immer mehr zu Groupware-Server-Applikationen
ausgebaut werden.