Informationsmanagement
Geschwurbel von Daniel Schwamm (10.05.1994)
Inhalt
Das Informationsmanagement setzt sich in den Unternehmen immer stärker durch.
Kieser und Kubicek beschreiben, wie die Informationstechnologie (IT), die durch
das Informationsmanagement verwaltet wird, im Laufe der Zeit ihre deterministische
Wirkung auf die Organisationsstrukturen verloren hat. Fand man in den 70ern noch
weitgehend grosse Rechenzentren vor, die eine aufwendige Abstimmung einzelner
Abteilungen erforderten, um reibungslos funktionieren zu können, so kam mit den
Timesharing-Betriebssystemen ein Dezentralisierungsprozess in Gang, der durch
die leistungsstarken PCs bis heute anhält. Aufgabenintegration wurde dadurch
ebenso möglich wie die technokratische Ausweitung der Arbeitsabläufe.
Die neuen Informationstechnologien erhöhen demnach die Spielräume, die
den Gestalter der Organisationsstrukturen zur Verfügung stehen, und dies
fordert geradezu die Beteiligung der Betroffenen heraus - zumal die
Auswirkungen der neuen Informationstechnologien noch gar nicht absehbar sind.
Sicher scheint jedoch
zu sein, dass Kommunikationssysteme die Face-to-Face-Kommunikation nicht
gänzlich unterlaufen werden; zu gross sind die Unterschiede (z.B.
fehlt die Hierarchie, wodurch der Konsens länger dauert, Junk Mails werden
durch die Anonymität möglich, und Gestik sowie sonstige
nichtsprachliche Kommunikationsmittel fallen weg). Die Experten lassen sich
ebenfalls nicht durch Expertensysteme ersetzen. Und die starke
Dezentralisierung birgt die Gefahren von Insellösungen und Wildwuchs, eine
verstärkte Zentralisation dagegen die Gefahr einer erhöhten
EDV-Abhängigkeit. Ob die Informationstechnologie letztlich ein Fluch oder
Segen ist, hängt massgeblich vom Informationsmanagement ab, das Thema dieser
Arbeit ist.
Insbesondere die Auswirkungen des Informationsmanagements auf die
Arbeitsplätze ist ein sensitives Thema. Kieser und Hildebrand stellen
heraus, dass v.a. für die Einführung neuer Informationstechnologien ein spezielles
Management von Nöten ist. Der Produktionsbereich hat eindeutig Vorteile
aus den Errungenschaften der Technik gewonnen, die Hoffnung besteht, dass
sich dieser Erfolg auch auf die Büros wird übertragen lassen
können. Fest steht, dass die neuen Informationstechnologien ganz massiv die Inhalte der
Arbeitsplätze oder die Arbeitsplätze selbst ändern können.
Sie wirken rationalisierend, integrativ oder zentralisierend, sie fördern
die dequalifizierende Spezialisierung, aber auch die Professionalisierung, sie
können die Motivation erhöhen oder Akzeptanzprobleme schaffen. Ein
umsichtiges Informationsmanagement muss all diese Faktoren Beachtung schenken, wenn es
erfolgreich sein will (wobei sich dieser Erfolg in Wettbewerbsvorteilen wie
z.B. besserer Ressourcenausnutzung und organisationsübergreifender
Vernetzung widerspiegeln kann).
Informationen in Unternehmen sind maschinell verarbeitbare
Daten, die an einen bestimmten Zweck gebunden sind.
Das Management ist ein Unternehmens-Instrument, welches die
Funktionen Planung, Entscheidung, Kontrolle und Organisieren innehat.
Institutionalisiert erscheint das Management in Form von Managern.
Datenmanagement bedeutet die Verwaltung von Informationen. Es
umschliesst die Speicherung, Beschaffung und Aufbereitung von
Informationen, die Hardware, die Software, die Manware und die Orgaware, und
auch die Gestaltung von Formularen und Rechtsfragen. Das Datenmanagement ist
aber nur ein Teil des Informationsmanagements. Denn es beachtet v.a. die
nicht-technischen Seiten der Bedeutung von Informationen. Da z.B. der
technische Wandel immer schneller vonstattengeht, können
Informationstechnologien Ängste und Akzeptanzprobleme beim Personal
verursachen, denen entgegenzuwirken ist.
Das Informationsmanagement versorgt das Unternehmen mit bedarfsgerechten
Informationen. Es hat eine strategische und eine operative Ausrichtung. Die
strategische Ausrichtung resultiert aus den Unternehmensstrategien, die den
langfristigen Erfolg des Unternehmens sichern sollen. Die operative Ausrichtung
resultiert aus der Konkretisierung der strategischen Ziele in operative
Ziele.
Informationstechnologien haben das Potenzial, organisatorische
Gestaltungsspielräume zu schaffen. Gestaltungsspielräume, die bei
geeigneter Ausnutzung einem Unternehmen überlebenswichtige
Wettbewerbsvorteile schafft. Die Information ist derweilen zum
Produktionsfaktor geworden, ja, mehr noch, zum eigenständigen
wirtschaftlichen Gut (auch wenn das noch nicht alle wahrhaben wollen; noch ist
dafür nicht ein eigenes Vorstandsressort eingerichtet worden), auch wenn
Informationen schwer monetär abzuwägen und i.d.R. zeitgebunden sind.
Moderne Organisationen sind nicht länger nur leistungsorientiert, sondern
informationsorientiert. Denn Wissen heisst Macht. Doch das Plus an
Informationen muss auch verwaltet werden, denn wie wir im folgenden
Abschnitt sehen, bergen Informationstechnologien ein Potenzial,
dessen Auswirkung nicht in jedem Fall dem Unternehmen zum Vorteil gereicht.
Aus diesem Grund ist ein Informationsmanagement (neben einem rein technisch
orientierten Datenmanagement) unbedingt notwendig.
Neue Informationstechnologien bewirken tendenziell eine Zunahme der Kommunikation,
eine Minderung der Arbeitsteilung, eine Verringerung von Wartezeiten (z.B.
muss bei Verwendung von Mailboxen anders als beim Telefon nicht auf den
Kommunikationspartner gewartet werden) und die Vermeidung von mehrfacher
Informationsverarbeitung. All dies fördert sicher die Arbeit und macht sie
effizienter. Doch neue Informationstechnologien können ebenso missbraucht werden,
von den Vorgesetzten, den Mitarbeitern und von Externen. Sie können auch ganz
einfach störanfällig sein, oder sie ändern die Qualitätsstruktur des Personals
in unvorhergesehener Weise (z.B. Polarisierung). Das Informationsmanagement
hat daher die Gefahren der Informationstechnologien gleichermassen im
Auge zu behalten wie ihre Chancen.
Anders ausgedrückt: Die Chance der Informationstechnologien liegt darin, mit
ihnen Informationen effizienter als bisher nutzen zu können. Die Gefahr
liegt im fehlenden oder falschen Einsatz von Informationstechnologie.
Die Einführung neuer Informationstechnologien wirkt sich auf die
Arbeitsplätze aus. Entweder schafft sie neue Berufe, wie z.B. den
Informatiker-Beruf, oder sie ändert die Inhalte der Arbeit, macht sie z.B.
autonomer, befreit sie von diversen Sachzwängen und erlaubt mehr
Rationalisierung. Die Qualitätsstruktur der Ausbildung ändert sich
dahin gehend, dass Professionalisierung und Spezialisierung zunehmen, oder
dass die Spezialisierung abnimmt und das allgemeine Qualitätsniveau
zunimmt. Die Arbeitsabläufe ändern sich dahin gehend, dass es
z.B. zu vertikaler und horizontaler Integration kommt (Leaning!), oder
dass das Informiertsein die klassische Stellungsautorität untergräbt.
Von den Auswirkungen neuer Informationstechnologien sind alle Hierarchiestufen
gleichermassen betroffen. Das Top-Management muss z.B. lernen, wie IT-Alternativen
gegeneinander abgewägt werden können. Dieser Qualifizierungsprozess kann
formell, halbformell oder informell (autodidaktisch) geschehen. Dabei sollten
fachliche Details zunächst ausgespart und nur die direkten Auswirkungen der
Informationstechnologien erfahren werden. Üblicherweise wird dieses Wissen
dem Top-Management durch Externe vermittelt. Das mittlere Management hat
dagegen v.a. für eine schonende Einführung neuer Informationstechnologien
zu sorgen, etwa durch Mehrphasenprozesse, um so Akzeptanzprobleme möglichst
zu umgehen; auch hier ist aber ein Wissen um die Auswirkungen der
Informationstechnologien unumgänglich. Die Mitarbeiter können wiederum
über die Informationstechnologien selbst etwas über deren Auswirkungen
erfahren. So bieten z.B. Computerprogramme Lernkurse für bestimmte
Software an (Computer-Based Training, CBT). Dadurch können die Betroffenen
wirksam vor Überforderung geschützt werden.
Zusammengefasst wirken sich Informationstechnologien aus auf:
- die Organisation: Zentralisierung bzw. Dezentralisierung wird verstärkt.
- die Mitarbeiterqualifikation.
- die Motivation und Arbeitszufriedenheit aufgrund Akzeptanzresultate.
- das Informationsangebot.
- das Controlling (Qualität darf ruhig etwas teurer sein).
- die Aufgabenstrukturen durch Integrationstendenz.
- die Unternehmensstrategien (z.B. aufgrund von CIM-Einsatzes).
- die Wertschöpfungskette (z.B. durch JIT, PPS und CAM/CAD).
- die Wettbewerbsstruktur.
Es bleibt zu sagen, dass zwischen den Möglichkeiten der Informationstechnologien
und ihrer bisherigen anwendungsorientierten Umsetzung eine noch wachsende (!)
Lücke klafft. Der technische Wandel geht schneller vonstatten, als die Manager
folgen können. Eine Gap-Analyse veranschaulicht diese Lücke und zeigt einmal
mehr die Notwendigkeit von Informationsmanagement.
Die Informationstechnologien in Organisationen werden häufig nicht wirklich
voll ausgenutzt. Die Gap-Analyse zeigt auf, wo genau es noch hapert:
-
Strategielücke: Es ist oft keine passende Informationsstrategie
auf Grundlage der Unternehmensstrategien vorhanden. Statt eines punktuellen
und temporären Denkens ist vielmehr ein übergreifendes Denken nötig.
-
Gestaltungslücke: Was strategisch nötig ist, ist oft organisatorisch
noch nicht umgesetzt worden. Ebenso oft ist noch nicht organisatorisch
umgesetzt worden, was technisch möglich wäre. Nötig ist daher eine der
Informationsstrategie angepasste Organisationsstruktur.
-
Akzeptanzlücke bzw. Führungslücke: Nur technologiefreundliche
Vorgesetzte, die die neuen Informationstechnologien umsichtig einführen,
können Akzeptanz und Arbeitszufriedenheit bei den Mitarbeitern ernten.
Das Informationsmanagement hat Ziele auf strategischer, administrativer und
operationaler Ebene, wobei die administrativen Ziele kaum von den operationalen
Zielen zu trennen sind. Zur Verwirklichung dieser Ziele müssen gewisse
Voraussetzungen geschaffen werden, so muss u.a. genau geklärt werden,
wem wo wann welche informationsorientierten Aufgaben bzw. Kompetenzen
zukommen. Wichtig dabei ist, dass auf allen Ebenen die Bedeutung der IT
erkannt wird.
Allgemeines Ziel ist die Entwicklung, Erhaltung und Nutzung
einer unternehmensindividuellen Informationsinfrastruktur zur Erfüllung
der Informationsbedürfnisse aller Mitarbeiter (und der Externen).
Gebildet werden beim Informationsmanagement vorrangig strategische Ziele, aus
denen dann die administrativen bzw. operationalen Ziele abgeleitet werden
können. Das Informationsmanagement hat z.B. die strategischen Ziele bzw. Aufgaben:
- Informationsinfrastruktur: siehe später.
- Systementwicklung im Grossen:: siehe später.
- Personalmanagement im Grossen:: siehe später.
- Akzeptanzmanagement im Grossen:: siehe später.
- (De)Zentralisierungsmanagement:: siehe später.
- Sicherheitsmanagement im Grossen:: siehe später bei operativem Informationsmanagement.
- Innovationsmanagement:: Technologische Neuerungen im Auge behalten.
- Datenmanagement im Grossen.:
- Informationsstrategie:: Überbau gegen PC-Wildwuchs und Insellösungen.
Die operativen Ziele umfassen i.d.R. auch die administrativen Ziele, daher werden
sie hier in einem Abschnitt dargestellt. Dennoch lassen sie sich einigermassen
abgrenzen. Ziele bzw. Aufgaben auf eher administrativer (realisierender) Ebene sind:
- Systementwicklung im Kleinen: siehe später bei strategischem Management.
- IT-Projektmanagement: Zeit- und Ressourcenplanung zu beachten.
-
Konfigurationsmanagement: Pflichtenheft für Hardware bzw. Software
gemäss strategischem Informationsmanagement.
-
Hardware- bzw. Software-Beschaffung: insbesondere Auswahl der Lieferanten
sowie Vertragsgestaltung.
- Sicherungsmanagement im Kleinen: siehe später.
- Datenmanagement im Kleinen
-
Personalmanagement im Kleinen: siehe später beim
strategischen Informationsmanagement.
Ziele bzw. Aufgaben auf eher operationaler (in Betrieb nehmender) Ebene sind:
- Betrieb und Wartung von Hardware und Software.
- Anwendungssysteme.
- Datenmanagement im Kleinsten.
- Benutzerservice: siehe später.
- Individuelle Datenverarbeitung: siehe später.
- Sicherungsmanagement im Kleinsten: siehe später.
- Abrechnung: siehe später.
Zur Realisierung der Ziele bzw. Aufgaben des Informationsmanagements sind
verschiedenen Strategien denkbar. Diese können nach Intensität des
Durchsetzungswillens folgendermassen kategorisiert werden:
- Explosive (plötzliche) Strategie.
- Aggressive (hartnäckige) Strategie.
- Moderate (geruhsame) Strategie.
- Retardierende (Bewährung abwartende) Strategien.
- Defensive (Althergebrachtes bevorzugende) Strategie.
- Destruktive (abwehrende) Strategie.
Die Ziele bzw. Aufgaben des Informationsmanagements wurden weiter oben beschrieben.
Wir wollen nun auf einige der dort aufgeführten Ziele noch etwas näher eingehen.
Die Informationsinfrastruktur dient der Produktion von Informationen. Sie lässt
sich unterteilen in:
-
technische Systeme: Diese umfassen das Komponenten-, Technologie- und
Architektur-Management. Es muss geklärt werden, welche Hardware im
Unternehmen insgesamt Verwendung findet: proprietäre Systeme oder offene
Systeme? Fremdbezug oder Eigenherstellung? Eigene EDV oder Outsourcing?
Zentrale Mainframes oder dezentrale Rechnernetze?
-
Anwendungssysteme: Standard-Software oder individuelle Datenverarbeitung?
Ein oder mehrere Entwickler der Software? Eine oder mehrere Programmiersprache?
Wie lassen sich die Anwendungssysteme verknüpfen?
-
Konzeptionen: Einbettungsmuster für (1) und (2). Hierzu gehören auch
Überlegungen bezüglich des Technisierungsgrades, des Automatisierungsgrades und
des Durchdringungsgrades.
Traditionell wird bei der Systementwicklung in mehreren Phasen
vorgegangen, wobei für jede Phase bestimmte Meilensteine aufgestellt
werden, die angegeben, wie weit ein Projekt schon fortgeschritten ist. Dadurch
wird der Kommunikationsaufwand minimiert, worin wohl auch der Erfolg der
Phasenmodelle begründet liegt. Solche Phasen der Systemeinführung unter
Einbeziehung der Betroffenen (eher untypisch bei traditionellen Phasenschemata)
können nach Kieser sein:
- Spannungsabbau zwischen Experten+Fachabteilung mittels Konfrontationsmeetings.
- Problemanalysen: Sind überhaupt Ist-Probleme vorhanden?
- Vorläufiges Design: Soll-Vorstellungen ergründen.
- Projektorganisation aufbauen: Mitgliederrekrutierung, Struktur festlegen.
- Ist-Analyse: Phase (1) detaillieren.
- Zielplanung: Phase (2) detaillieren.
- Alternative Grobkonzeptentwürfe (eventuell plus Prototyp) entwickeln.
- Grobkonzeptbewertung und Entscheidung, z.B. mittels Kosten-Nutzen-Analyse.
-
EDV-Einrichtung durch Experten, organisatorische Faktoren-Einrichtung (Schulung,
Stellenbildung, Ablaufoptimierung usw.) durch Gestalter und Fachabteilungen.
- Testphase: Nicht nur Fehler, auch Mängel aufdecken.
- Optimierte Systemeinführung: Parallelbetrieb, Crash oder Pilotbetrieb.
- Wartungsphase: God save CASE-Tools.
Durch neuartige Informationstechnologien lassen sich in den verschiedenen Phasen
Automatisierungspotenziale einbringen. Bei der anfänglichen Spannungsabbau- und
Analysephase sind diese noch wenig gegeben (ausser bei der objektorientierten
Analyse). Die Designphasen jedoch kennen Entity Relation Diagrams, Petrinetze,
Flussdiagramme u.ä.m. In der Implementierungsphase kann dann richtig stark automatisiert
werden: Ein Compiler z.B. findet Syntax-Errors und kann Cross-Reference-Tabellen
erstellen. Es sind 4GL (Fourth Generation Languages) einsetzbar. Auch Tests
lassen sich stark automatisieren, ebenso die Wartung über Debugging-Programme,
Monitore und Reverse Engineering zur Modul-Wiederverwendung.
Welche Rechte sollen den Betroffenen eingeräumt werden? Mögliche Stufungen sind:
- Rechtlos: Beispiel Winfried Wintersteins Programm für das Prüfungsamt.
- Informationsrecht: User werden vorgewarnt.
- Vorschlagsrecht: User können Ideen einbringen, aber nicht durchsetzen.
- Passive Mitwirkung: Von User werden Vorschläge verlangt.
- Aktive Mitwirkung: User können über Abstimmungen Vorschläge durchsetzen.
- Selbstgestaltung (hier kommen die Endbenutzersprachen von Niedereichholz zur Geltung).
Vorteilhaft an der Benutzerpartizipation ist die Effizienzsteigerung der Systeme,
da sie den Bedürfnissen der Anwender
gerechter werden, die dann auch eher motiviert sind, damit zu arbeiten
(Requirement Engineering). Zuerst muss allerdings das Misstrauen
zwischen Experten und Fachabteilungsmitgliedern gemildert werden, wie dies im
obigen Phasenmodell in Phase 0 geschieht. Dies gelingt natürlich nicht,
wenn die Experten die Betroffenen einfach ausquetschen wie Zitronen und danach
den Rest der Arbeit alleine gestalten. Nein, die Betroffenen sind in jeder
Phase mehr oder weniger zu beteiligen.
Am ehesten wird die Partizipation gewährleistet, wenn die
Betroffenen die Wahl zwischen mehreren Alternativen (Grobkonzepten/Prototypen)
haben. Dabei wird u.a. auch im besonderen Masse das Erfahrungspotenzial
der Betroffenen genutzt. Allerdings muss aufgepasst werden,
dass das Grobkonzept/der Prototyp nicht als fertiges Produkt
gepriesen wird, da dies die späteren Anwender leicht schocken könnte.
Neben dem schnellen, auf Dokumentation verzichtendem
Prototyping gibt es auch noch das Versionskonzept zur Systemauswahl. Wir
wollen diese Verfahren kurz gegenüberstellen:
Prototypen werden i.d.R. nach ihrem für gut befunden
komplett neu entworfen und implementiert (Rapid Prototyping), während
Versionen nach ihrem für gut befunden direkt eingeführt werden. Anders
als Prototypen, die bei nicht gut befunden ein anderes Grobkonzept implementieren
oder sogar nur die Implementierung des alten Prototyps verfeinern, werden
abgelehnte Versionen komplett verworfen und aus der Problemdefinition eine
neue Version entwickelt. Insgesamt gesehen scheint uns das Prototyping der
effektivere Weg zu sein, da hier die Betroffenen frühen und wesentlichen
Einfluss auf das Endergebnis haben.
Wird Software gekauft, kann ein dreistufiges Evaluierungsverfahren angewendet werden:
-
Stufe 1: Ein Vorfilter selektiert die Marktangebote für
EDV-Anlagen. Eine Rolle spielt dabei Proprietät, Hersteller-Image,
Service-Leistungen und Leistungseinschränkungen.
-
Stufe 2: Ein Grobfilter selektiert die übrigen Angebote
nach den Muss-Anforderungen, nach der nötigen Software, dem Preis und den
Ausbaumöglichkeiten.
-
Stufe 3: Die übrige Menge durchläuft einen
Feinfilter, d.h., jedes Angebot wird gewichtet, es werden Benchmark-Tests
durchgeführt und gesehen, ob auch noch Wunschziele damit realisierbar
sind. Danach trifft man seine Wahl für ein Produkt.
Zum strategischen Personal-Management im Bereich Information
und Kommunikation gehören die folgenden Aufgaben:
- strategische Stellenplanung.
- Festlegung der Qualifikationsprofile.
Daraus kann eine Personal-Beschaffungsstrategie abgeleitet werden.
Früher gab es eine Manager-Pyramide, die von der zahlenmässigen Verteilung
ein ebenmässiges dreieckiges Bild ergab. Sie bestand aus den Ebenen:
- obere Führung (Top-Management).
- mittlere Führung (Abteilungsleiter).
- untere Führung (Gruppenleiter).
- Geführte (Ausführende).
Im Laufe der Zeit hat sich den Parkinsonschen Gesetzen folgend
ein Strukturwandel vollzogen: Die mittlere Führung und v.a. die untere
Führung haben sich aufgebläht, während die Ausführenden immer
weniger wurden. Nur das Top-Management blieb, wie es war. Kein Wunder also,
dass das organisatorische Leaning schnell als Notwendigkeit erkannt wurde,
welches über die horizontale und v.a. vertikale Integration, welche die neuen
Informationstechnologien bieten, am leichtesten zu erreichen ist - auf
Kosten allerdings von Macht der Manager, die sich dagegen natürlich
erheblich sperren.
Die neuen Informationstechnologien haben das Potenzial, die Aufgabenstrukturen
grundlegend zu ändern.
Es können mehr Spezialisten und Professionalisten nötig werden (bei mehr
Arbeitsteilung), oder aber auch mehr allgemein hoch qualifizierte
Allround-Sachbearbeiter (bei horizontaler/vertikaler Integration). Die
allgemeine Qualifizierung scheint uns der bessere Weg zu sein, um die
neuartigen Informationstechnologien voll
auszuschöpfen. Wird vertikal integriert (Minderung der Arbeitsteilung),
dann lässt sich die Organisation als Autarkiemodell verstehen.
Wird horizontal integriert (nur Änderung der Arbeitsteilung), dann lässt
sich die Organisation als Kooperationsmodell verstehen.
Das Management muss lernen, die Potenziale der neuen
verschiedenen Informationstechnologien gegeneinander abzuwägen, um so strategisch günstige
Entscheidungen für ein Konzept treffen zu können. Das mittlere
Management muss lernen, wie die neuen Informationstechnologien am geschicktesten eingeführt
werden, um Akzeptanzprobleme zu minimieren. Das untere Management
schliesslich muss wissen, wie es die Geführten motivieren kann, um
die Fähigkeiten der Informationstechnologie auf die beste mögliche
Weise auszunutzen.
Das Top-Management muss v.a. um die Auswirkungen der IT-Alternativen wissen.
Detailwissen ist bei ihnen nicht gefragt. Qualifizieren können sie sich:
- informell (autodidaktisches Lernen).
- halbformell (freiwillige Fortbildungskurse besuchen).
- formell (Pflichtseminare besuchen).
Das mittlere und untere Management lässt sich von (externen) Stäben beraten,
und spezialisiert auf die Systeme, die die Führung ausgesucht hat. Schulungen
sind nicht unüblich.
Die Geführten können sich ebenfalls schulen lassen.
Inzwischen gibt es aber auch ein computerbasiertes Lernen, CBT genannt, welches
ein kostengünstigeres autodidaktisches Lernen ermöglicht. Man muss allerdings
darauf achten, dass die Geführten dabei nicht überfordert werden.
Die Akzeptanz neuer Informationstechnologien hängt von vielen Bedingungen ab.
Diese Bedingungen sind von der Führung zu erkennen und als Programm umzusetzen,
wobei eine frühzeitige Einbeziehung der Betroffenen und ein ganzheitliches
Gestaltungskonzept von wesentlicher Relevanz sind. Die alten Informationstechnologien
können jedoch durch die neuen Informationstechnologien zumeist (noch) nicht völlig
ersetzt werden.
Bisher existieren wenige empirische Untersuchungen über die Auswirkungen
der neuen Informationstechnologien und der damit zusammenhängenden Akzeptanz
bei den Benutzern. Diesen Zusammenhang zu analysieren ist nicht einfach. Ein
kurzes Brainstorming soll zeigen, was einem spontan zur Arbeit mit neuen
Informationstechnologien einfällt:
- die Arbeitsgeschwindigkeit nimmt zu.
- Entlassungen drohen.
- Routine wird vereinfacht.
- die Arbeitsinhalte werden formaler.
- die Quantität und Qualität der Informationen nimmt zu.
- Datenschutz bzw. Datensicherheit sind wichtig, aber schwer realisierbar.
Der ökonomische Nutzen von Informationstechnologien steht und fällt mit
der Akzeptanz der Nutzer und Bediener, ohne dass diese sich dessen
bewusst sein müssen.
Steigt die Arbeitszufriedenheit nach Einführung von neuen Informationstechnologien?
Ergebnisse laut einer Vorher-Nachher-Umfrage:
-
Die Arbeitszufriedenheit steigt, aber unterschwellig überwiegt dennoch der Wunsch
nach persönlichen Kontakten.
-
Die Arbeitszufriedenheit steigt erst nach einer gewissen Umgewöhnungszeit
bzw. Umstellungszeit.
-
Die Art der IT-Einführung bestimmt im Wesentlichen die Arbeitszufriedenheit.
-
Ärgern sich die Vorgesetzte über die Informationstechnologien, dann auch
deren Mitarbeiter.
-
Je grösser der Sprung von alten auf neuen Informationstechnologien ist,
desto geringer ist die Arbeitszufriedenheit.
-
Beamte verlangen andere Informationstechnologien als Kreative, damit
die Arbeitszufriedenheit gegeben bleibt.
-
Die gesellschaftliche Akzeptanz der Informationstechnologie bewirkt
eher Arbeitszufriedenheit in der Organisation.
Es sind bei Einführung neuer Informationstechnologien drei Ebenen
der Akzeptanz zu beachten:
-
Gesellschaftliche Ebene: Ist die Arbeitsmarktsituation durch
Informationstechnologien besser geworden? Wie ist die Ausprägung der
allgemeinen Technikfreundlichkeit?
-
Organisatorische Ebene: Ist die Produktivität durch Informationstechnologien
höher geworden? Kann ich die Ergebnisse besser überwachen? Der
Wirtschaftlichkeitsnachweis ist hier wichtig. Arbeitsplatzeinsparungen
fallen bei wachsenden (Büro-)Aufgaben eher nicht an.
-
Individuelle Ebene der Nutzer bzw. Bediener: Sind die Arbeitsabläufe
effizienter geworden? Sind meine Arbeitsinhalte attraktiver als zuvor? Habe
ich mehr Mitsprachemöglichkeiten? Werde ich nicht stärker überwacht? Wird
die Belastung durch die Informationstechnologie weniger?
Die Akzeptanz der Informationstechnologie durch die Nutzer lässt sich steigern durch:
- bessere Präsentationsmöglichkeiten aufgrund neuer Technologien (z.B. Briefköpfe).
- höhere Erreichbarkeit von Ansprechpartnern (z.B. durch E-Mail-Systeme).
- vertikale Aufgabenintegration (autonome Arbeitsplätze).
- horizontale Aufgabenintegration (erhöhte laterale Kooperation).
- bedienerfreundliche Technik.
- unterstützendes Verhalten der Vorgesetzten.
- geeignete organisatorische Einsatzbedingungen, wie dezentrale Verfügbarkeit.
- Schulungen und Einweisungen.
Ob neue Informationstechnologien von den Anwendern akzeptiert werden, hängt von
der persönlichen Einstellung der Mitarbeiter ab (sind sie begeistert oder lehnen
sie die IT ab?) und vom Verhalten der Führung (werden die Informationstechnologien
den Mitarbeitern aufgezwungen oder freiwillig zur Verfügung gestellt?). Unnötige,
weil vermeidbare Belastungsfaktoren sind:
- von Informationstechnologien nicht-begeisterte Vorgesetzte.
- unergonomische IT-Gestaltung.
- Nichtbeteiligung in der Implementierungsphase der Informationstechnologien.
- keine Schulungen.
- der Zugriff auf die Informationstechnologien ist umständlich.
- die Aufgabeninhalte ändern sich nicht.
Die Nutzung neuer Informationstechnologien beim Top-Management ist stark
altersgebunden. Die jüngeren Manager greifen viel eher zu Informationstechnologien
als ältere Manager. Dies hat aber weniger mit der Akzeptanz zu tun, als dem
Glauben der Älteren, nichts von den neuen Informationstechnologien zu verstehen.
Und auch bei den Jüngeren ist die Akzeptanz wesentlich höher (97%), als die
tatsächliche Nutzung (55%). Gründe hierfür sind fehlende Kenntnisse bezüglich
der EDV sowie der Gedanke der Delegation ("Das ist Aufgabe der Geführten").
Im Vergleich zu anderen IT-Nutzern herrscht bei Top-Managern
geradezu eine Technik-Euphorie vor, auch wenn sich das in realen
Implementierungen nicht immer widerspiegelt. Bei den Nutzern, v.a. Studenten,
wurde der Computer vom Heilsbringer (1980) zum Jobkiller (1983) und dann erneut
zum Heilsbringer (1988) erklärt; die IT-Akzeptanz ist hier also starken
Schwankungen unterlegen. Es fällt auf: Die Manager nutzen Informationstechnologien
weit weniger, als sie dies von ihrer Einstellung her machen müssten, wobei hier die
oben erwähnten Altersunterschiede zu beachten sind.
In den 70ern bedingten die neuen Informationstechnologien noch eine Zentralisation
in den Organisationen. Doch durch die stetige Ausarbeitung der Informationstechnologien
ergeben sich heute vielfältige Gestaltungsspielräume, die eine verstärkte
Dezentralisation nahelegen.
Die Zentralisierungsphilosophie besagt: "Wissen ist Macht. Verteile ich das
Wissen nicht, dann bleibt auch die Macht in einer Hand."
Die Dezentralisierung geht mit einer Verteilung der Macht
einher. Die Führung muss den Entscheidungsspielraum ihrer
Geführten vergrössern und muss ihnen mehr Mitspracherechte
zugestehen. Dafür ist den dezentral arbeitenden Mitarbeitern ein
flexibleres und kundennäheres Arbeiten möglich, was sich letztlich
positiv auf den Erfolg eines Unternehmens auswirkt (und dadurch auch das
erfolgsgebundene Einkommen des Top-Managements erhöht).
Die Dezentralisierung kann räumlich sein - effizientere
Verteilung von Abteilungen im Raum -, oder sie kann rein organisatorisch sein,
d.h., es geht nur um die Verteilung von Entscheidungsbefugnissen. Eine
räumliche Dezentralisierung impliziert keine organisatorische
Dezentralisierung und umgekehrt!
Autonomen Entscheidungen sind selten in Organisationen.
Entschieden wird i.d.R. nach Absprachen und Abstimmungsverfahren. Dies
täuscht aber eine Demokratie vor, die faktisch nicht gegeben ist.
Entscheidungen, die in Konferenzen u.ä.m. getroffen werden, sind
üblicherweise von bestimmten Personen herbeigeführt worden. Dies sind
z.B. Personen, die besonders redegewandt und selbstsicher sind, nicht aber
unbedingt auch sonderlich fachwissend. Die Entscheidung ist zentral und
top-down gelagert.
Informationstechnologien erlauben hierarchiefreiere Entscheidungsprozesse. Im
Rechnernetz z.B. ist jeder gleich, dort hat jeder die gleichen
Ausdrucksmöglichkeiten. Bei Verwendung neuer Informationstechnologien setzt sich daher
fachliches Wissen eher gegen mikropolitische Bestrebungen durch. Dadurch sind
Entscheidungen möglich, die dezentral und bottom-up gelagert sind. Eine
entsprechende Personalqualifikation muss vorausgesetzt werden. Dann ist
auch ein Ausdünnen der mittleren Managementebene im Bereich des
möglichen.
Je höher die Partizipation in einem Unternehmen ist,
desto verteilter (autonomer) wird in ihr entschieden. Informationstechnologien
unterstützen die
verteilte Entscheidung und damit die Partizipation, allerdings nicht zwingend.
Genauso gut können sie zentrale Entscheidungshilfen anbieten, die eher dem
Zentralismus förderlich sind. I.d.R. verstärken Informationstechnologien die Partizipation
v.a. bei den introvertierten Mitarbeitern und mildern sie bei den
extrovertierten Mitarbeitern. Dadurch wird zwar eine flächendeckendere
Infrastruktur geschaffen, jedoch leidet häufig das mittlere Management.
Informationstechnologien können Informationen aktiv oder passiv in alle
Bereiche einer Organisation liefern. Die Informationsversorgung nimmt also zu -
dies gilt für Qualität, wie Quantität, wie Geschwindigkeit.
Insbesondere in der Frühphase von Informationstechnologien, in der "Spielphase",
kommt es sogar häufig zu einem Information-Overloading. Hier muss
Selbstorganisation das richtige Quantum bestimmen, dass als Grundlage
für optimale Entscheidungen dienen kann.
Die neuen Informationstechnologien bieten zahlreiche Möglichkeiten zur
Verteilung von Abteilungen (räumliche Dezentralisation). So kann durch sie
z.B. die Heimarbeit gefördert werden - durch ISDN wären sogar bereits
die technischen Möglichkeiten dafür gegeben. Auch Nachbarschaftsbüros,
d.h. die Zusammenlegung von Telearbeitsplätzen, sind derweilen realisierbar
geworden. Mobile Telearbeit (Stichwort: Laptop und Funktelefon) gibt es
bereits häufiger als man vermuten mag. Besonders gerne werden auch autonome
Spezialabteilungen aus der Hauptorganisation räumlich ausgegliedert.
Die Heimarbeit kann erhebliche Effizienzgewinne für ein
Unternehmen bedeuten. Einige Prognosen wollen die Heimarbeit bis zum Jahre
2050 bereits als den Normalfall ansehen. Doch ist dies überhaupt
wünschenswert?
Bisher gilt, dass die Möglichkeit zur
räumlichen Dezentralisierung innerhalb gewachsener Organisationen auch
mittels neuer Informationstechnologien schwierig ist - ausser an den Rändern. In
Organisationen werden oftmals Informationen transportiert, die auch mittels
neuer Informationstechnologien nicht transportiert werden können; hier ist
Face-to-Face-Kommunikation oder physischer Güteraustausch von Nöten.
Standardaufgaben wie Schreibdienste, Programmierung u.ä.m. kann jedoch
relativ leicht räumlich dezentralisiert werden.
Sicher wird sich die Geschäftstätigkeit von
Unternehmen räumlich ausweiten. Statt regionaler Verflechtung kommt es zur
internationalen Verflechtung. Face-to-Face-Kommunikation wird nur dann
betrieben, wenn Vertrautheit gefordert ist oder Güter ausgetauscht werden
müssen, wodurch Zeit gespart wird.
Vorteile der Heimarbeit sind:
- Fahrzeiten fallen weg, d.h. Energieeinsparung und weniger Verkehr.
- Privatatmosphäre wächst.
- die Arbeitszeiten werden flexibler.
- ohne Chef arbeitet es sich stressfreier.
- Fluktuation und Krankenstand gehen zurück.
- Bürofläche kleiner dimensionierbar.
- Mitarbeiter sind nicht unbedingt fest angestellt, d.h., sie sind leichter zu entlassen.
Nachteile sind aber:
- soziale Versicherung durch Arbeitgeber entfällt durch Selbstständigkeit.
- soziale Isolation (ausser in der Familie).
- mikropolitische Anfechtungen bleiben unbemerkt.
- die Face-to-Face-Kommunikation ist beliebter, bringt schneller Ergebnisse.
- Teamarbeit mit Telearbeitern ist schwer.
- Arbeitsbewertung als Lohngrundlage schwierig.
- Gefahr des in die eigene Tasche wirtschaften.
Unter den operativen Aufgaben eines Informationsmanagements werden alle
Tätigkeiten und Verantwortlichkeiten zusammengefasst, die den
laufenden Betrieb in diesem Bereich betreffen. Im Einzelnen sind dies
Hardware-Aufgaben, der Rechenzentrum-Betrieb, Software-Aufgaben,
Benutzerservices, laufende Sicherung, Abrechnungsfragen u.ä.m.
- Hardware-Beschaffung und Hardware-Beratung: Fremd- oder Eigenbezug?
- Hardware-Wartung: interner Reparaturdienste u.ä.m.
- Rechenzentrum-Betrieb: Dadurch bedingt auch Produkt- und Netzmanagement nötig.
- Betrieb der Anwendungssysteme über den gesamten Lebenszyklus hinweg.
- Software-Entwicklung.
- zentraler Beratungsdienst, v.a. bei ausgeprägter individueller Datenverarbeitung nötig.
Individuelle Datenverarbeitung (Personal Computing) nimmt
ständig zu, wobei v.a. dem Endbenutzer verstärkt die persönliche
Nutzung von IV möglich gemacht wird. Der Endanwender kann hierzu
selbstständig Lösungen ermitteln, er verfügt über Rechenzeit
und SW-Tools (Tabellenkalkulation, Datenbanksysteme, Branchen-Software usw.),
und er kann diverse (zentrale) Benutzerservice in Anspruch nehmen.
Die individuelle Datenverarbeitung ist gleichermassen arbeitsplatzbezogen
wie personenbezogen, die Beratung und Betreuung jedoch häufig in zentrale
Benutzerservice-Zentren untergebracht.
Die wichtigsten Aufgabenbereiche/Anwendungsmöglichkeiten
der individuellen Datenverarbeitung sind:
- selbstständige Informationsverwaltung (Anlegen, Speichern, Finden).
- selbstständige Problemlösung (Analyse, Aufbereitung, Berechnung).
- Textverarbeitung.
- Kommunikation.
- Remote Office Work, was z.B. durch Rechnernetze möglich wird.
- Verwaltung persönlicher Ressourcen (Kalender u.ä.m.)
Aus Sicht des operativen Informationsmanagements ergeben sich für die
individuelle Datenverarbeitung folgende Forderungen:
-
Die Endanwender müssen erkennen, ob Probleme über
individuelle Datenverarbeitung lösbar sind.
-
Die Endanwender müssen die Potenziale der individuellen Datenverarbeitung
kennen und nutzen können.
-
Für die individuelle Datenverarbeitung muss eine zentrale Betreuung
installiert sein.
- Arbeitsplatzrechner müssen in das globale Datenkonzept passen.
-
Datenredundanz ist zu vermeiden, v.a. wegen der Inkonsistenz-Problematik.
- Regelmässige Schulung soll die Akzeptanzproblematik mildern helfen.
- Ergonomievorschriften sind zu beachten.
Wirtschaftlichkeit bedeutet günstige Kosten-Nutzen-Relation. Diese ist
bei neuen Informationstechnologien schwer zu bestimmen, da ihre
Nutzen hauptsächlich aus Personalentlastung bestehen, die sich nicht
monetär berechnen lassen. Doch die Kosten von Informationstechnologien
stellen eine beträchtliche Investition dar, die untersucht werden muss.
Kosten können in Kostenarten, Kostenstellen und
Kostenträger untergliedert werden. Sehen wir uns die Kosten im Bereich der
Informationsinfrastruktur an, die von strategischer Bedeutung für dieselbe
sind.
Einteilung in Kostenarten:
- EDV-Material (z.B. Disketten).
- Personal- und Personalnebenkosten (z.B. Löhne).
- Betriebskosten für Hardware und Software.
- Grundstücke und Gebäude (für Rechenzentren).
- allgemeine Kosten (Steuern, Gebühren usw.).
- kalkulatorische Kosten (Abschreibung, Zinsen).
Kostenstellen sind zum einen Stellen, die Leistungen für den
Produktionsbetrieb erbringen, und zum anderen Stellen, die
Leistungen für die Entwicklung und Beratung erbringen.
Kostenträger können aufgrund ihrer
Heterogenität schwer klassifiziert werden. Das liegt v.a. daran, weil
Informationen der IV immaterielle Güter sind, daher müssen
Ersatzgrössen wie CPU-Zeit oder Beratungszeit als
Zwischenkostenträger herangezogen werden. Geeignete Kostenträger sind
dann die verschiedenen EDV-Anwendungssysteme.
Getrennt untersucht werden können auch Einmalkosten
(z.B. Gebäudekosten) und laufende Kosten (z.B. Mieten für die
Gebäudenutzung).
Die Informationsverarbeitung kann Kosten einsparen, durch:
- direkte Einsparungen wie z.B. Personalkosten.
- indirekte Einsparungen wie z.B. durch effizientere Arbeitsflüsse.
- Liquiditätsverbesserungen durch z.B. Lagerbestandsreduzierung.
Neben quantitativen Leistungsmerkmalen wie Zeitersparnis besitzen
Informationstechnologien v.a. qualitative Leistungsmerkmale, so z.B.:
- besserer Servicegrad im Unternehmen.
- höhere Kundenzufriedenheit.
- höhere Arbeitszufriedenheit und Motivation.
- schnelleres Reaktionsverhalten.
- bessere Markteinschätzung.
- höheres Innovationspotenzial.
- informationsgestärkte Entscheidungen.
- besserer Informationszugriff.
- mehr Autonomie und Partizipation.
- effizientere Kommunikationskanäle.
Investitionsrechnungen gibt es viele. Gebräuchlich sind z.B.:
- Kostenvergleichsrechnung.
- Rentabilitätsrechnung.
- Amortisationsrechnung.
- Barwertrechnung.
- interne Zinsfussmethode.
Der Begriff Datensicherheit ist im allgemeinen Sprachgebrauch
vom Begriff Datenschutz dahin gehend zu trennen, dass unter Datensicherheit
eher die Verhinderung der Zerstörung von Daten fällt und unter
Datenschutz die Verhinderung des Missbrauchs von Daten. Personenbezogenen
Daten werden also von der Datensicherheit und dem Datenschutz
gleichermassen berührt.
Das Bundesdatenschutzgesetz (BDSG) fasst den Begriff
Datenschutz enger als die Informatiker. Während bei den Informatikern der
Datenschutz den Missbrauch von allgemeinen Daten berührt,
berührt beim BDSG der Datenschutz nur den Missbrauch von
personenbezogenen Daten. Da der Staat heute nicht mehr nur
"Nachtwächterfunktion" im Sinne John Lockes hat, weil er auch die
Ausbildung und Altersversorgung der Bürger usw. übernimmt, kann die
Aufrechterhaltung der "Schneckenhaus"-Intimsphäre des Bürgers
gegenüber dem Staat nicht mehr aufrechterhalten werden. Aus diesem
Grund existieren einige Regelungen, welche die Daten über Personen
einer weiteren Verarbeitung zugänglich machen.
-
Daten dürfen nur zu dem Zweck verwendet werden, zu dem
sie erhoben wurden (z.B. dürfen Bücherei-Daten nicht an eine
Buchhandlung weitergegeben werden).
-
Daten dürfen erst bei Richtigkeit Geltung erlangen
(eine Bank darf keinen Kredit ablehnen aufgrund eines noch offenen Kredits).
-
Daten dürfen nicht von einer Stelle an eine andere
weitergegeben werden, zumindest nicht wahllos (z.T. lässt sich
dies nicht ganz verhindern, z.B. zwischen Sozialamt und Arbeitsamt).
-
Neben dem allgemeinen BDSG gibt es auch noch ein Landesdatenschutzgesetz.
-
Das Allgemeinwohl steht über dem Individualwohl - u.U. darf
der Gesetzgeber daher personenbezogene Daten zum Schutz anderer einsetzen.
-
Nicht nur elektronisch gespeicherte Daten fallen unter das
BDSG, sondern auch von Computern ausgedruckte Daten (erst seit 1991!).
-
Ab fünf Mitarbeitern muss ein Unternehmen seine Daten aktiv zu einem
Datenschutz-Beauftragten bringen (Bring-Schuld).
-
Der Bürger hat bezüglich der Speicherung personenbezogener Daten
- Auskunftsrechte.
- Zustimmungsrechte.
- Einspruchsrechte.
- Geheimhaltungsrechte.
- Benachrichtigungsrechte (!). Ausnahme: Adresshändler.
- Richtigkeitsrechte.
Es steht im Gesetz nirgends bindend geschrieben, wie
personenbezogene Daten zu löschen sind, nur: Es ist nach dem Stand der
technischen Möglichkeiten zu verfahren - demnach sind die Daten wohl
physisch zu löschen, wobei auch Backups nicht vergessen werden dürfen.
Durch die zunehmende Verwendung von Informationstechnologien in Unternehmen
und in der Öffentlichkeit weitet sich das Gebiet der Computerkriminalität
immer stärker aus. Und darin liegt eine steigende Bedeutung des BDSG
begründet.
- Unbefugte dürfen das Rechenzentrum nicht betreten, d.h., es wird Wachpersonal benötigt.
- Datenträgerkontrolle - kein Datenträger darf verschwinden.
- Speicherkontrolle: Prozessfremde Speicherbereiche sind tabu.
- Übermittlungskontrolle an andere Rechner.
- Weitergabebeschränkungen (z.B. Amtsgeheimnis, Insider-Wissen).
- Sicherheitsaggregate gegen Stromausfall.
- Klimaschutz.
- korrigierende Codes für die Datenübertragung.
- Qualitätskriterien beachten wie Zuverlässigkeit und Robustheit.
- Kryptologie.
- Plausibilitätskontrollen von Ergebnissen.
- Personalqualifikation.
- Kompetenzabgrenzung.
- Backups.
- Passwortschutz-Verfahren auf Betriebssystem-Ebene.
- Passwortschutz-Verfahren auf Datenbanksystem-Ebene.
- Schutzbits für Dateien.
- Rechnerschloss.
- Viren-Scanner.
- unterbrechungsfreie Stromversorgung.
- gespiegelte Platten.
- Streamer-Backups.
Hacker, Cracker und Crasher produzieren bisweilen bösartige Software wie z.B.:
- Viren: medizinisch "das" Virus, aber "der" Computer-Virus.
- Würmer: Vermehren sich nur im Speicher, infizieren keine Dateien.
- Trojanische Pferde: Programme mit versteckten Funktionen.
Die Funktionen der EDV-Abteilungen dezentralisierten sich im Laufe der Zeit immer mehr:
- in 60ern: Rechenzentrum und System-Entwicklung.
- in 70ern: Datenverwaltung.
- in 80ern: Benutzerservice-Zentren.
Ein Benutzerservice-Zentrum, das kooperativ mit autonomen
Arbeitsgruppen arbeitet, hat die Aufgaben: EDV-Beurteilung, Beratung,
SW-Beschaffung, Schulung, Fehlerbeseitigung, SW-Anpassung, Marktbeobachtung,
Vereinheitlichung und EDV-Marketing. Ein zentrales Informationsmanagement sorgt für
Aufrechterhaltung bestimmter Richtlinien, Standards und
Kommunikationskanälen.
Das Informationsmanagement ist ein eigenständiger Funktionsbereich neben
Absatz, Produktion, Beschaffung, usw. Sie benötigt Verantwortungen und
Kompetenzen, um Entscheidungen treffen zu können. Daher ist sie
möglichst hoch in der Hierarchie anzuordnen, am besten als eigener
Funktionsbereich (dies gilt nur für grosse Unternehmen). Die
Informationsmanagement-Abteilung kann folgendermassen strukturiert sein:
-
verrichtungsorientiert: Dem Informationsmanagement sind die
Verrichtungseinheiten Planung, Entwicklung und Betrieb untergeordnet.
-
objektorientiert: Dem Informationsmanagement sind die Objekte
Rechenzentrum, Systemplanung und EDV-Ablauforganisation untergeordnet.
Folgende aufbauorganisatorischen Strukturen des Informationsmanagements sind denkbar:
-
Ergänzung: Das Informationsmanagement ergänzt die Funktionsbereiche
Produktion, Organisation und EDV integrativ in Form von Stäben.
-
Addition: Neben dem Funktionsbereich EDV kommt noch das Informationsmanagement
als eigenständiger Bereich (z.B. als Benutzerservice-Zentrum) hinzu, um
alle EDV-Aufgaben zu übernehmen, die der EDV-Funktionsbereich nicht
abdeckt.
-
Fusion: Das Informationsmanagement fusioniert mit der Datenverarbeitung und
dem Organisationsfunktionsbereich und ersetzt diese.
-
Integration: Das Informationsmanagement taucht als eigenständige
Funktionseinheit auf, ist aber auch in alle anderen Funktionsbereiche teilweise
integriert. Dies wird allgemein als das beste Konzept der Eingliederung des
Informationsmanagements empfunden.
Je nach Struktur des Informationsmanagements eignet sich eine andere
Einführungsstrategie von Informationstechnologien, wie wir sie in einem
früheren Abschnitt bereits besprochen haben. Es gilt:
- Die Ergänzungsstruktur bevorzugt die defensive Einführung.
- Die Additionsstruktur bevorzugt die retardierende (verzögerte) Einführung.
- Die Fusionsstruktur bevorzugt die moderate Einführung.
- Die Integrationsstruktur bevorzugt die aggressive Einführung.
Der Vorgänger des Informationsmanagers war der EDV-Leiter.
Der EDV-Leiter war noch alleiniger Besitzer des EDV-Know-hows, er schuf die
verschiedenen Insellösungen. Der Informationsmanager ist dagegen mehr im
Spannungsfeld zwischen Wirtschaftlichkeitsgebot und den Benutzern, die hohe
Anforderungen an die Systeme stellen, mit denen sie arbeiten sollen. Die
Qualifikation eines Informationsmanagers ist ungleich breiter angelegt, als die
des EDV-Leiters. Aus diesem Grund gibt es auch den Wirtschaftsinformatiker, der
die Sprache der BWL genauso versteht wie die Sprache der Informatiker.
- EDV-Leiter.
- Programmierer.
- Operator.
- EDV-Berater.
- Wirtschaftsinformatiker.
- Informationsmanager.
- computerbasierte Sachbearbeitung.
- CAM-Ingenieur (Computer Aided Manufacturing).
Informationsmanagement wirkt in viele Aufgabenfelder hinein, daher sind seine
Auswirkungen auch sehr breit ausgelegt. Mögliche Auswirkungen werden in
den folgenden Abschnitten besprochen.
Stärken von Informationsmanagement sind Vorteile, die gegenwärtig
bereits vorhanden sind. Dazu gehört, dass die übergreifende
Koordinationsstelle für ein einheitliches Datenkonzept sorgt, für
Integration von Insellösungen, für Standards, für offene
Systeme, Wegfall von Doppelarbeit, bessere Datentransparenz und
Kosteneinsparung in Personal, Material, Kapital und Service.
Chancen von Informationsmanagement sind Vorteile, die in Zukunft gegeben sein
werden. So sorgt z.B. effizientes Informationsmanagement für Wettbewerbsvorteile
aufgrund schnellerer Bearbeitungszeit und ständiger Verfügbarkeit. Eine
kundenspezifische Marktbearbeitung wird realisierbarer. Die Mitarbeiter werden
höher qualifiziert. Durch die Reorganisation zur Eingliederung des Informationsmanagements
können gleichzeitig alte Fehler ausgemerzt werden. Know-how auf dem Gebiet des
Informationsmanagements kann u.U. Externen in Form von Beratungen angeboten
werden (Informationsmanagement als Profitcenter).
Schwächen von Informationsmanagement sind Probleme, die gegenwärtig
bereits vorhanden sind. Die übergreifende Koordinationsstelle kann sich
unverzichtbar machen, bewährte Konzepte fehlen ihr noch aufgrund ihres
Alters, sie reagiert zu träge angesichts der Marktdynamik und zur
Realisation sind i.d.R. umfassende Reorganisationsmassnahmen
nötig.
Bedrohungen von Informationsmanagement sind Probleme, die in Zukunft gegeben sein
werden. Wird Informationsmanagement unter falschen Einschätzungen installiert,
weil nur die Hard Facts, nicht aber Soft Facts wie Arbeitszufriedenheit und
Motivation berücksichtigt wurden; reines Wunschdenken kann daneben gehen.
Das Informationsmanagement kann auch
unerwünschte Machtbündelungen hervorrufen. Ein bestehendes Informationsmanagement
verhindert u.U. eine strategische Umorientierung, obwohl diese aufgrund einer
schlechten Marktposition dringend geboten ist. Vernetzte Computer können
die Anwender von ihrer eigentlichen Arbeit ablenken - vielleicht zocken sie
lieber oder sehen sich die Sex-Seiten des Internets an.
Der Informationsprozess umfasst alle
Aktivitäten an und mit Informationen, z.B. Verarbeitung, Aufbereitung und
Archivierung. Eine Technologie umfasst das materielle Produkt und seine
Anwendungsmöglichkeiten. Unter Informationstechnologien werden wir also alle
Produkte plus ihrer Verfahrensweisen verstehen, die den Informationsprozess
unterstützen. Insbesondere heisst dies die Betrachtung aller Computersysteme
und Rechnernetze in einem Unternehmen.
Die Telekommunikation ist gross im Kommen in den
Unternehmen. Problem: Kompatibilität ist bei den verschiedenen Systemen
bisher nicht gegeben. Ausweg: ISO/OSI-Referenzmodell für offene Systeme.
Kommunikation gibt es zwischen Mensch-Mensch, zwischen
Mensch-Maschine und zwischen Maschine-Maschine. Die Mensch-Mensch-Kommunikation
ist technisch und nichttechnisch möglich, gestört werden kann sie
durch psychologische Elemente genauso wie durch technische. Die
Maschine-Maschine-Kommunikation muss technisch erfolgen, wodurch auch der
Störungsraum allein technischer Natur sein kann. Die
Mensch-Maschine-Kommunikation bildet wird durch die gleichen Techniken
unterstützt und von den gleichen Störungsformen betroffen wie die
Mensch-Mensch-Kommunikation. Generell steht Kommunikation für den
Austausch von Informationen. Abgewickelt wird dieser Austausch über
Kommunikationskanäle, die duplex, halbduplex oder simplex sein
können.
Telekommunikation heisst der Austausch von Informationen
(über grössere Strecken) hinweg, der technisch unterstützt
wird. Dieser Austausch kann z.B. genauso über das Telefon wie auch
über Computernetzwerke erfolgen. Alle nichttechnischen
Kommunikationskanäle fallen nicht unter den Begriff Telekommunikation.
Netzwerktechnik und Transporttechnik müssen aufeinander
abgestimmt sein, damit die Telekommunikationsdienste wirkungsvoll
unterstützt werden können. Alte Transporttechniken wie
Trommelschlagen oder Rauchzeichen sind z.B. für die moderne
geschäftliche Kommunikation kaum das adäquate Mittel. Die
Netzwerktechnik sitzt unter der Transporttechnik und beschreibt, wie u.a.
Verbindungen zwischen Teilnehmern aufgebaut werden können. Netzwerk- und
Transporttechnik dienen dabei der Realisation von Transportdiensten.
Rechnernetze verbinden mehrere selbstständige Rechner miteinander. Sie bauen
sich nach dem ISO/OSI-Referenzmodell aus drei Hauptschichten auf:
- Netzwerktechnik (Hardware): Bitübertragungsschicht, Sicherungsschicht, Vermittlungsschicht
- Transporttechnik (Software): Transportschicht, Sitzungssicht
- Transportdienste (Software): Darstellungsschicht, Anwendungsschicht
Der Trend geht hin zu neuen Übertragungsmedien wie z.B. Lichtwellenleitern
für High-Speed-Netze. Diese Übertragungsmedien sind störungsfreier,
abhörsicherer als ältere Medien; zudem gestatten sie riesige Datenraten.
Fernmeldenetze bedeuten die den Rechnernetzen zugrunde liegende
Hardware. Topologisch können dies Ringe, Sterne, Busse, Bäume oder
(vollständig) vermaschte Netze sein. Man unterscheidet LANs und WANs. LANs
sind in privater Hand, relativ klein, bieten Telekommunikationsdienste an,
betreiben Broadcast-Übertragung und sind digital. WANs werden
öffentlich verwaltet, sind international, bieten neben
Kommunikationsdiensten auch reine Trägerdienste an, sind
vermittlungsorientiert und analog oder digital. Folgende öffentlichen
Fernmeldenetze betreibt die Telekom:
- Fernsprechnetz (ein analoges Schmalbandnetz).
- Telenetz (für Fernschreiber, Direktruf, Rundschreiben u.ä.m.)
- Datex-Netz (Datex-Paketvermittlung, Datex-Leitungsvermittlung).
- IDN (Integrated Data Net; alle Datendienste auf einem Kabel).
- ISDN (Integrated Service Data Net; alles auf einem Kabel).
- B-ISDN (Breitband-ISDN für Voice-E-Mails, Bilder u.a.).
ISDN bietet alle bisherigen Fernmeldedienste der Telekom auf
nur einem Kabel an, und zwar grundsätzlich in digitaler Form. Es stellt
sich die Frage, ob bereits ein Sachzwang zur Anschaffung von ISDN besteht, denn
zu ISDN besteht praktisch keine Alternative, ausser natürlich den
Status quo zu halten.
Dienste der Telekom sind: Telefon, Telefax, Telex, Teletext,
BTX, Dateldienste, Temex, Datex-P und Datex-L. Dienste basieren auf
anerkannten Standards, wodurch ein Nachrichtenaustausch zwischen zwei
Endteilnehmern überhaupt erst möglich wird. Häufig existieren in
diesem Zusammenhang die Wahl zwischen verschiedenen Dienst-Qualitätsstufen
sowie die Suche nach Teilnehmern in Teilnehmerverzeichnissen.
Bürokommunikation bedeutet Austausch, Beschaffung, Weitergabe und
Archivierung von büroaufgabenbezogenen Informationen.
Das Büro eines Unternehmens ist eine zentrale
Schaltstelle. Sie hat das Ziel, betriebliche Funktionen zu koordinieren und zu
steuern. Voraussetzung dazu ist, dass Informationen zur rechten Zeit am
richtigen Ort vorliegen. Und dies kann am besten über
Bürokommunikationssysteme gewährleistet werden.
80% aller büroaufgabenbezogenen Informationen werden
intern in der Organisation ausgetauscht und nur 20% nach aussen zu
externen Teilnehmern. Daher spielt die Bürokommunikation für ein
Unternehmen eine grössere Rolle als die Telekommunikation. Die
Bürokommunikation kann zwei wesentliche Funktionen abdecken:
-
Inhaltliche Funktion: aufgabenbezogener Informationsaustausch.
-
Soziale Funktion: Schmiermittel der informellen Organisation. Diese Funktion
wird gerne übersehen, weil sie sich schlecht monetär ausdrücken lässt.
Die Bürokommunikation soll die Tätigkeiten der
wesentlichen Arbeiten im Büro durch folgende Hilfsmittel
ermöglichen:
- Besprechungen über Telefon/Computer (Kommunikation).
- Abrechnen über Computer/BTX (Datenverarbeitung).
- Sammeln und Speichern über IRS (Information Retrieval System) bzw. Massenspeicher (Archivierung).
- Überwachen über Terminkalender (Terminbehandlung).
Die Bürokommunikation erlebt einen rasanten Aufschwung. Es ist eine stetige
Zunahme zu beobachten von:
- PCs.
- Datendienste (z.B. der Telekom).
- die allgemeine Digitalisierung.
- die LANs (Local Area Networks) und WANs (Wide Area Networks).
Es wurde festgestellt, dass je mehr Routineaufgaben im
Büro anfallen, umso stärker die Bürokommunikation genutzt wird.
Bei Büros, die Einzelfälle bearbeiten, ist der direkte Kontakt nach
wie vor dominierend. D.h., verschiedene Tätigkeiten verursachen eine
verschiedene Benutzung der Kommunikationskanäle. Derzeit muss jedoch
gesagt werden: Die Kostensteigerung durch die Bürokommunikation rechnet
sich noch lange nicht, und auch das papierlose Büro ist bisher blosse
Utopie geblieben.
Im Schnitt sieht die Nutzung der Bürokommunikation folgendermassen aus:
- 42% bleiben beim persönlichen Gespräch (für komplexe Probleme).
- 39% nutzen das Telefon (für schnelle Informationen).
- 16% benutzen Mailsysteme (meistens zu externen Teilnehmern).
- 3% greifen auf Faxgeräte zurück (zu externen Partnern).
Mit der Dezentralisierung hapert es derzeit noch, obwohl rein
technisch die Möglichkeit für multifunktionale Arbeitsplätze
gegeben wäre. Schritte dorthin sind LANs, Informationsmanagement und
Kommunikationsanalysen.
Mehr noch als bisher sollen die Bürokommunikationssysteme
die Integration verschiedener Informationen gestatten, also Daten, Texte und
Bilder über nur ein Medium verwalten können. Ausserdem soll dies
auch generell in offener Form geschehen, also systemunabhängig sein,
sodass Herstellerabhängigkeiten aufgebrochen werden können.
Richtungweisend für die offene Kommunikation ist dabei das
ISO/OSI-Referenzmodell. Generell sollen dadurch die Effizienz und die
Produktivität gesteigert werden, wie dies auch bei der
Fertigungsautomation erreicht worden ist.
Anforderungen an die (neuen) Kommunikationskanäle (die am
ehesten durch das Telefon abgedeckt werden): Schnell, bequem, leicht zu
bedienen, vertraulich und genau sollen sie sein. Ferner sollen sie auch ein
gewisses Kreativitätspotenzial besitzen, Informationen in mehrfacher Weise
präsentieren können, ständige Erreichbarkeit garantieren und
Konferenzen ermöglichen. Endziel ist der multifunktionale Arbeitsplatz,
der in Verbindung mit anderen multifunktionalen Arbeitsplätzen steht.
Bürokommunikation kann strategisch auf Zentralebene
(Host), Abteilungsebene (Midframe) oder Arbeitsplatzebene (Workstation)
eingeführt werden. Zählt man auch die öffentlichen Netze und
Dienste dazu, kann man auch noch von einer externen Ebene (ISDN-Gerät)
sprechen. Die Trennung in mehrere Ebene ist heute aber relativiert aufgrund des
integrativen Charakters moderne Informationstechnologien. Ein durchgehendes
Client/Server-Konzept z.B. lässt die drei (vier) Ebenen verschwimmen.
Die alleinige Betrachtung der Zentralebene ist Vergangenheit.
Dezentralisation heisst die Parole. Dies gilt auch für die
Abteilungsrechner. Allenfalls herstellerunabhängige Lösungen
können hier auf Dauer noch greifen, obwohl sie sich bisher in der Praxis
von grossen Unternehmen gut gehalten haben. Für kleine und mittlere
Unternehmen eignet sich am besten die vernetzte PC-Lösung. Jedoch sollten
Wildwuchs und Insellösungen vermieden werden, und stattdessen integrative
Wege gegangen werden. In einer Organisation die Bürokommunikation
ausschliesslich über ISDN mittels Nebenstellenanlagen (PABX, Private Automatic
Branch Exchange) zu betreiben, ist wenig sinnvoll; ISDN kann hier allenfalls
als Ergänzung Verwendung finden. Das beste Konzept stellt wohl die integrierte
Bürokommunikation dar, wobei auf jeder Ebene die typischen Systeme
beibehalten werden, diese dann aber über ein Backbone-Netz wie z.B. FDDI
nach dem Client/Server-Prinzip verwaltet werden. Nur in diesem Fall kann von
echter verteilter Informationsverarbeitung gesprochen werden.
In Datenbanken sind Dateien enthalten, die aus Datensätzen,
Datenfeldern und Datenfeldwerten bestehen. Die Daten (Informationen) sind darin
in einer standardisierten Form enthalten, die es ermöglicht, dass
beliebige Programme auf sie zugreifen können. DB sind Komponenten von
Informationssystemen bzw. Datenbanksystemen. Sie liefert das "Rohmaterial"
für die Informationssysteme.
Typische Informationssysteme sind
Entscheidungsunterstützungssysteme, die in der Lage sind, relevante
Informationen zu sammeln und sie Managern als Entscheidungsgrundlage in
geeigneter Form zu präsentieren. Informationssysteme werden heutzutage nicht
mehr an den EDV-Ressourcen ausgerichtet, sondern orientieren sich an den Daten,
die sie verwalten. Dadurch lässt sich leichter eine unternehmensweite
Integration der Daten erreichen. Zudem leben Daten auch häufig
länger, als die EDV-Systeme eines Unternehmens.
Ein Datenbanksystem (DBS) besteht aus einem Datenbank-Management-System (DBMS)
und der Datenbank. Das DBMS stellt
Mittel zur Verfügung, um die Daten der Datenbank zu manipulieren, sie also zu
finden, zu ändern, zu löschen, zu lesen und zu erzeugen. Die Datenbank
muss möglichst konsistent gehalten werden, auch wenn Daten aus
Effizienzgründen häufig replikativ bzw. redundant gehalten werden. Das DBS
sollte das Unternehmen flächendeckend mit Informationen versorgen
können, was i.d.R. LANs oder Ähnliches voraussetzt.
Sicherheitsaspekte müssen dabei besonders berücksichtigt werden.
Neben unternehmensinternen Informationen können auch
Informationen von externen Anbietern von Interesse sein, so z.B. für einen
Investor die allgemeine Wirtschaftslage in Südchina o.ä. Dafür
gibt es externe Datenbanken von öffentlichen oder privaten Betreibern, in die man
sich über Modem einwählen kann, um dann von dort online relevante
Daten zu beziehen.
Datenbanksysteme wirken v.a. auf die Ablauf- und Aufbauorganisation ein,
weil sich dort die neue Informationsvielfalt am ehesten entfalten kann.
Datenbanksysteme sorgen durch ihr globales Datenkonzept dafür, dass Abteilungen
im Bezug auf die Daten die gleiche Sprache sprechen (müssen).
Arbeitsabläufe lassen sich demnach also leichter lateral (horizontal)
integrativ gestalten. Gleichfalls lässt sich auch eine vertikale
Integration beobachten, was sich durch das Bild einer Informationspyramide
verdeutlichen lässt: Das Top-Management bildet die Spitze mit den
Basisinformationen, und die Ebenen darunter garnieren die Informationen jeweils
mit neuen Details, sodass sie an Quantität zunehmen.
Mögliche Wirkungen integrierter Datenverarbeitung können sein:
-
Verbesserung der strukturellen Flexibilität, weil jeder
von überall her auf die relevanten Daten zugreifen kann.
-
Integration von Arbeitsaufgaben aufgrund der Computer-Multifunktionalität.
-
Dezentralisierung der Entscheidungsbefugnisse, weil z.B.
Kompromisslösungen auf Gruppenebene leichter möglich werden.
Management-Informationssysteme sollen Informationen für bestimmte Aufgaben zum
richtigen Zeitpunkt am richtigen Ort in richtiger Form (Verdichtung)
bereitstellen. Die Analyse, Aufbereitung und Verarbeitung obliegt nicht den
Management-Informationssystemen, wodurch Transparenz nach innen erreicht wird.
Dadurch können Kosteneinsparungsmöglichkeiten frühzeitig entdeckt und genutzt
werden, was Wettbewerbsvorteile mit sich bringt, v.a. da heutzutage der
Käufermarkt vom Verkäufermarkt verdrängt wurde (ausser in Nischen).
Das Management benötigte schon immer Informationen
über marktorientierte Vorkommnisse und Informationen über
innerbetriebliche Vorgänge. Management-Informationssysteme sind daher nichts Neues;
in Form von Terminkalendern haben sie z.B. bereits in der Vergangenheit existiert. Die
Navigation des Entscheidungsfeldes ist für das Management der 90er Jahre
von zentraler Bedeutung. Daraus resultiert nämlich:
- Kunden- und Wettbewerbsorientierung.
- hohe Innovationsfähigkeit und damit Flexibilität.
- eine Optimierung von Geschäftsprozessen.
- betriebswirtschaftliche Transparenz.
Im Grunde soll das "Management of Change", z.B. Total-Quality-Management und
Leaning, mit dem "Management of Information" ergänzt
werden. Nur so wird auch die nötige Infrastruktur geschaffen, die den
neuen Management-Konzepten gerecht wird.
Wie bereits erwähnt, gehören im Prinzip schon Terminkalender zu den
Management-Informationssystemen. Durch den Einsatz neuer
Informationstechnologien nahm die Komplexität der Management-Informationssysteme zu,
wobei am Anfang zu viel Wert auf die Quantität der Informationen gelegt wurde.
Dadurch kam es zu einer Aufblähung der Datenverarbeitungsabteilungen, was durch
Reorganisationsmassnahmen wieder in normale Bahnen gelenkt werden
musste. Integrierte Datenverarbeitung und das Client/Server-Konzept, sowie grafische
Oberflächen machen Management-Informationssysteme derzeit immer
attraktiver und effizienter. Wichtig
ist, dass sie in der Lage sind, relevante Daten zu kanalisieren und zu
selektieren, und die so ausgewählten Daten in anschaulicher Weise zu
präsentieren.
Das Spektrum der Management-Informationssysteme reicht von Standard-Berichtssystemen
bis hin zu Planungswerkzeugen und Simulationswerkzeugen. Simulationswerkzeugen kann
durchaus kritisch gegenübergestanden werden, da sie u.U. über das Ziel
hinausschiessen. Sie sind sehr komplex, benötigen eine Unzahl von
Parametern, die erst mühsam erhoben werden müssen, sie rechnen tagelang - und
werden der Komplexität der Realität letztlich doch nicht gerecht.
Nein, der Manager benötigt eher Systeme, die vielleicht ungenau, aber
dafür sehr schnell arbeiten. Management-Informationssysteme sollen v.a.
handlungsunterstützend sein, weniger planungsunterstützend. Die Wahl
des richtigen Management-Informationssystems ist von
strategischem Gewicht. Bisher muss hier ein eindeutiger Konservatismus
festgestellt werden; nur selten greift ein Top-Management hier neue Ideen auf,
i.d.R. verlässt es sich auf bewährte Hardware und Software.
Auch wenn Management-Informationssysteme handlungsorientiert sind, also die Führung
zum Thema haben, so können sie aufgrund ihrer Komplexität jedoch auch
zur Prognostizierung verwendet werden. Management-Informationssysteme decken
also die Bereiche Soll, Ist und Wird ab. Wesentlich ausgeprägter als herkömmliche
Datenverarbeitungssysteme können Management-Informationssysteme Daten von z.B.
betrieblichen Funktionsbereichen oder externen
Informationsquellen analysieren, und sie nach bestimmten
Bedürfnisinteressen verknüpfen, wobei gewisse systematische oder
planerische Aspekte automatisch berücksichtigt werden. Dadurch können
für jeden Bereich, z.B. für Projektmanager, für Controller und
für den Vorstand, individuelle Sichten auf die Ist-/Soll-/Wird-Daten
ermöglicht werden. Grundlage dafür ist allerdings eine integrative
Datenverarbeitung, damit eine über alle Bereiche einheitliche und durchgängige
Informationskette für Management-Informationssysteme gegeben sein kann.
Im Kern eines Management-Informationssystems sitzt sein Entwicklungssystem.
An dieses sind die Hypertext-Systeme, die Programmiersprachen, die Spreadsheet-Systeme,
die Datenbanksysteme, die Personal-Information-Management-Systeme und die Generatoren
für die Benutzeroberflächen angeschlossen. Die Entwicklungsumgebung
eines Management-Informationssysteme benötigt dafür Host-Systeme, Netzwerke,
Betriebssystem-Plattformen, eine Client/Server-Architektur, PC-Systeme und
generalisierte Benutzeroberflächen.
Der Erfolg von Management-Informationssystemen, wozu auch die Akzeptanz der
Benutzer zu zählen ist, wird am ehesten durch eine sachgerechte
betriebswirtschaftliche Modellierung der Organisationsrealität erreicht,
die am besten im Rahmen eines Projektmanagements entwickelt wird. Die
Benutzerpartizipation muss vorausgesetzt werden, wobei vorher genau die
Qualitäten, Kompetenzen und Verantwortlichkeiten der Teilnehmer
festgestellt bzw. festgelegt werden müssen. Natürlich muss
für erfolgreiche Management-Informationssysteme auch eine günstige
Basissoftware existieren, die zeitaktuelle Informationen aus allen Ebenen
anbieten kann. So ist zu verhindern, dass am Ende des Geldes und der Zeit
wegen noch ein gehöriges Stück Projekt übrig bleibt.
Intelligenz ist die Fähigkeit, Wissen zu erwerben und
darin eine gewisse Ordnung zu erkennen. Darauf zielt auch der Turing-Test ab.
Die harte künstliche Intelligenz (KI) glaubt, Denken sei ein mechanischer Prozess,
die weiche KI schliesst dabei das Verstehen aus. Wäre harte KI richtig, hätten
Maschinen früher oder später auch die Verantwortung für ihr Tun
zu übernehmen. Zur KI zu zählen sind: Sprachverarbeitung,
Bildinterpretation, Robotik, Deduktionssysteme (zum Beweis mathematischer
Sätze), neuronale Netze und Expertensysteme.
Expertensysteme sind gebietsspezifische, wissensbasierte Systeme, die sich
derzeit ganz gut verkaufen. Sie sollen das Wissen von Experten jederzeit
verfügbar (und nachvollziehbar) machen. Ein Experte zeichnet sich
gegenüber einem Laien durch angeborene hohe Intuition und grosse erlernte
Fähigkeiten auf einem bestimmten Gebiet aus. Diesen Status - v.a. der
Intuition - erreichen Expertensysteme nie, jedoch können sie einige Kompetenz
vortäuschen.
Ein Expertensystem besteht aus der:
-
Wissensbasis: Diese Komponente enthält die Regeln und Fakten. Die
Fakten sind dabei gesichertes Fachwissen, Heuristiken, unscharfes Fuzzy-Wissen.
Die Repräsentation des Wissens erfolgt in Frames (ähnlich den Klassen der
Programmiersprache C++), semantischen Netzen (Graph mit "has"- oder
"part of"-Kanten) und Wenn-Dann-Regeln. Wie der Mensch hört auch
ein Expertensystem nie auf zu lernen - nach ein paar Jahren arbeitet es
jedoch zu 95% zuverlässig.
-
Inferenzmaschine bzw. Problemlösungskomponente: Diese Komponente
wendet die Regeln auf die Fakten an und gewinnt so neue Fakten zur Lösung
eines Problems. Der Regelinterpreter schliesst entweder aus den Prämissen
auf die Konklusion (Forward Chaining) oder ermittelt die nötigen Fakten zu
einem bereits vorhandenen Ergebnis (Backward Chaining).
-
Dialogkomponente: Diese Komponente dient der interaktiven
Falldateneingabe bzw. Ergebnisausgabe.
-
Erklärungskomponente: Das Expertensystem erklärt hiermit, wie es
auf das Resultat kam. Das erhöht die Akzeptanz der Lösung.
Ausserdem hat die Erklärung auch einen lehrenden Effekt.
-
Lernkomponente bzw. Wissenserwerbskomponente: Diese Komponente
dient der Eingabe der
Regeln und Fakten durch einen Experten/Wissensingenieur (passiv). Eine aktive
Lernkomponente ist ein Produktionssystem, das selbstständig neue Regeln
(nicht Fakten!) erschliesst. Dazu gehört auch, sich frühere
Analysen und Synthesen zu merken und Faustregeln darauf zu entwickeln.
Die Expertensysteme haben den neuen Beruf des Wissensingenieurs
hervorgebracht. Er ist dafür zuständig, dass das
Unternehmenswissen im Expertensystem korrekt abgebildet wird.
Realisiert werden Expertensysteme i.d.R. über KI-Sprachen wie LISP
und PROLOG; diese erlauben ein regelbasiertes Programmieren, welches nicht
vollständig algorithmisch (prozedural) ist. Die Entwicklungsumgebung wird
von sogenannten Shells gestellt, die im Prinzip ein komplettes Expertensystem
ohne Wissensbasis darstellen. Die Wissensakquisition verhindert, dass
Phasenschemata zum Einsatz bei der Entwicklung kommen.
Vorteile von Expertensystemen:
- Sie sind nie gestresst (Stress-Stabilität).
- Sie erlauben schnellen Wissenstransfer zu jeder Zeit.
- Sie helfen v.a. bei Routineaufgaben und entlasten die Experten.
- Sie helfen bei der Aus- und Weiterbildung.
- Sie übersehen keine Regeln, die Wissensbasis wird zu 100% ausgeschöpft.
- Sie helfen überall dort, wo hinter Entscheidungen keine Verantwortung liegt.
Nachteile von Expertensystemen:
- Stammtischverhalten: Sie wissen nicht, wann sie keine Ahnung haben.
- Die regelbasierte Programmierung ist nicht für alle Probleme geeignet.
- Der Verbesserungsprozess der Antwortfindung ist langwierig.
- Sie können keine Verantwortung übernehmen, werden dazu aber missbraucht.
Anwendungsgebiete in Organisationen sind: Investitionsplanung,
Schulung, Planung, Controlling, Lieferanten-Auswahl, Bilanzanalyse,
Steuerberatung, Personalpolitik, usw.
Neuronale Netze simulieren das biologische Gehirn: Eine
grosse Anzahl von Neuronen ist untereinander verbunden und reagiert bei
entsprechender Reizung (Input) mit der Annahme eines bestimmten
Gesamtenergieniveaus, welches als Output interpretiert werden kann. Wie
Menschen lernen neuronale Netze Wissen, bekommen es also nicht einprogrammiert.
Da gibt es z.B. das Backpropagation-Verfahren, bei dem ein neuronales Netz
bestimmte Inputs eingegeben werden sowie der erwartete Output. Bei jedem
Lernschritt gewichtet das neuronale Netz die Synapsen zwischen den Neuronen neu,
wodurch sich deren Bereitschaft zur Reaktion bzw. Feuerung auf bestimmte
Reize hin ändert.
Anwendungsgebiete sind: Spracherkennung, Handschriften-Identifizierung,
Bildverarbeitung, Hubschraubersteuerungen, Trennung von Sprache und Rauschen
(bei ISDN angewendet) u.ä.m. Häufig werden sie bei nicht-linearen Prozessen
benötigt oder bei Berechnungen mit unscharfen Mengen (Fuzzy-Logik).