fit 2002 > "intelligente" Maschinen > frühe AI-Vorstellungen > konzeptionelle Entwicklungen und Auswirkungen

Überblick

starke AI versus schwache AI

In den 70ern des vorigen Jahrhunderts macht sich in der AI Forschung eine gewisse Ernüchterung breit. Die enthusiastischen Voraussagen der Anfangszeit treffen nicht ein. Charakteristisch für diese Epoche ist etwa Henry Dreyfus’ Vermutung 1972, dass Computer nie einen Schachweltmeister schlagen können. Es scheint so, als ob die Wirklichkeit viel zu komplex wäre und die verfügbare Rechnerleistung bei weitem nicht ausreichte, als dass die Fortschritte auf kleinen Teilbereichen („Toy Examples“, „kleine Welten“) zu Lösungen von Problemen in realistischer Größe führen könnte. Es setzte sich daher zu dieser Zeit die Vorstellung eine „schwächeren AI“ durch. Das heißt:
Man beschränkt sich auf die Entwicklung von Systemen zur Behandlung bestimmter Teilaufgaben, anstatt sich weiter dem Ziel der Schaffung universeller Systeme zu widmen.
Man wendet sich vom Konzept eines autonomen Systems ab zugunsten einer Maschine zur Unterstützung des Menschen. (Siehe auch Pflüger: Hören, Sehen, Staunen. [http://waste.informatik.hu-berlin.de/mtg/mtg4/pflueger.html]). Ein typisches Forschungsobjekt zu dieser Zeit sind wissensbasierte Systeme.
Man beschränkt sich allerdings auf bereichsspezifisches Wissen in engem Rahmen

Im Folgenden soll auf die geschichtliche Entwicklungsperioden, einzelne Entwicklungen, sowie auf die Verbreitung und den Erfolg von Anwendungen der KI näher eingegangen werden:

>Enwicklungsperioden der KI
>Mustererkennung
>Wissensrepräsentation
>Umsetzung, Verbreitung und (wirtschaftlicher) Erfolg der KI

Entwicklungsperioden der KI

Barbara Becker schreibt in ihrem Buch „Künstliche Intelligenz, Konzepte, Systeme, Verheißungen“: 
„Die KI ist eingebettet in eine jahrhundertealte Denktradition; sie speist sich aus unterschiedlichen Quellen, von denen Rationalismus und Positivismus nur die prägnantesten sind. Sie als isolierte, von gesellschaftlichen und historischen Strömungen unabhängige Entität zu betrachten, hieße zu verkennen, dass mit Kybernetik, Informationstheorie und mathematischer Logik ihre theoretischen Voraussetzungen geschaffen wurden, und dass mit einer zunehmenden Vormachtstellung der instrumentellen Vernunft die Bahnen für ihre gesellschaftliche Institutionalisierung gelegt wurden.“ 

Die im ersten Kapitel beschriebenen Grundlagen führten dazu, dass formale Methoden gefunden werden sollten, um geistige Prozesse zu beschreiben und um Denkprozesse durch eine algebraische Logik abzubilden. Zu Beginn des letzten Jahrhunderts wurde mit der Perfektionierung der mathematischen Logik, mit Kybernetik, Kontroll- und Computerwissenschaften die Voraussetzungen für eine Umsetzung dieser Vorstellungen kreiert. 

Im folgenden sollen die verschiedenen Entwicklungsperioden der KI beschrieben werden.
(Vgl. [www.ik.fh-hannover.de/person/becher/edvhist/ki/allgemein.htm]  Entwicklungsperioden der KI, 14.4.02) 

Erste Periode: 1957-1963
Der Beginn der Forschung startet mit der  Konferenz in Dartmouth 1956 – die als die Geburtsstunde der KI gilt. Verschiedene Disziplinen (Computerexperten, Informationstheoretiker, Linguisten) diskutierten neue Methoden der Computerprogrammierung, um das gemeinsame Ziel, die Entwicklung von intelligenten Maschinen zu realisieren. 

Marvin M. Minsky zur KI: „Künstliche Intelligenz ist die Wissenschaft, Maschinen zu Leistungen zu befähigen, die beim Menschen Intelligenz erfordern würden.“ (Aus Steve Tarrance, The Mind and the Machine, philosophical aspects of artificial Intelligence) 

Erfolge dieser Periode: 
· Beweis aussagenlogischer Gesetze, Integration der Logik, Entwicklung möglicher Programmiersprachen 
· Spielprogrammierung 
· Englisch syntaktisch analysiert 
· Merken und Lernen sinnloser Silben 
· Erkennen und Lernen von Mustern und Merkmalen mit statistischer Variation 

Sprung in der Methodenentwicklung bei: 
· Problemlösen, Spielprogrammierung: heuristische Suchverfahren 
· Bildverarbeitung: Mustererkennung 
· Sprachverarbeitung: Syntaxanalyse 

Newell und Simon bei RAND beweisen Computer können mehr als nur rechnen und die  Arbeiten am General Problem Solver werden gestartet – siehe Kapitel Konzepte und Techniken. Die Anfänge sind von großem Optimismus geprägt, viele Wissenschaftler der verschiedensten Disziplinen arbeiten zusammen an neu entstehenden Ideen. Zum Beispiel sind die Bemühungen um maschinelle Übersetzung von Texten vorerst einmal erfolgreich, leider jedoch mit umfangreichen und teuren Forschungen verbunden und am Ende ein eindeutiger Fehlschlag. Da für Menschen unzweideutige Sätze für den Computer nicht eindeutig sind. 

Zweite Periode: 1963-1967
Auf Grund der aufgetretenen Schwierigkeiten wegen der Komplexität der Aufgabenstellung kommt es zum Bau spezialisierter Systeme. Die Erkenntnis setzt sich durch, dass erfolgreiche Programme eine Wissensbasis mit Spezialwissen brauchen. 
Beispiele für Programme die entwickelt wurden: 
· Student (übersetzt math. Textaufgaben in Gleichungen) 
· Raphaels SIR 
· Quillians SEMANTIC MEMORY 
· Evans’ ANALOGY PROGRAM 

Dritte Periode: 1967 - 1972
Methoden zur Darstellung von Wissen werden entwickelt. Die Bedeutung natürlich sprachlicher Ausdrücke wird erkannt und spezialisierte Systeme (Expertensysteme) werden gebaut. 
Entwickelte Systeme: 
· MACSYMA (Moses, Bereitstellung von Methoden u Unterstützung math. Arbeiten) 
· SHRDLU: Roboter, der eine Klötzchenwelt erkennt und auf Grund von einfachen Befehlen Klötzchen umstellt (Nimm Pyramide, stell sie auf den größten Quader …): Probleme wie Simulation eines intelligenten Roboters, verstehen natürlicher Sprache, zielgesteuertes Deduzieren und Darstellung von Wissen über eine Miniaturwelt wird hier gebündelt 
· ELIZA: Weizenbaum, Programm, das einen Psychiater simuliert 

Vierte Periode: 1972 – 1977
Organisation und Verarbeitung von Wissen (knowledge engineering) 

Viel mehr Wissenschafter interessieren sich nun für die neue Technik, die Teilgebiete sind bereits sehr spezialisiert. 
KI wird kritisiert von Weizenbaum – ist eine „krasse Ausprägung der menschlichen Vernunft“ (nicht Intelligenz) 

Meilensteine der Expertensystementwicklung 

Systeme, die heute als Expertensysteme apostrophiert sind, stellen zum Teil eigentlich keine Expertensysteme dar, sondern sind eher gut geführte Dialogsysteme (wesentlicher Aspekt des Softwaresystems liegt im Dialog mit dem Anwender) 

KI Plattformen 
Werden großteils unter UNIX betrieben, unter DOS gab es viele Einschränkungen und Probleme mit der Sicherheit. 

Fünfte Periode: 1977-1982
Entwicklung von Werkzeugen 

Forschungsschwerpunkte: 
· Entwicklung von Expertensystem-Schalen 
· Robuste natürlich sprachlicher Systeme, bzgl. Unvollständiger und fehlerhafter Eingaben 
· Fuzzy Logik 
· KI-Methoden in Datenbanken 

Sechste Periode: seit 1982 

Eine zunehmende Kommerzialisierung wird erkennbar. Wird KI Schlüsseltechnologie? 
„KI-Technologie wird heute oft neben der Gentechnologie als Schlüsseltechnologie nicht nur der Datenverarbeitung, sondern der modernen wissensbasierten Industriegesellschaft überhaupt angesehen, die den Markt der Zukunft für ihre Hersteller und Benutzer sichern soll.“ 

Forschungsschwerpunkte kristallisieren sich heraus: (aus Barbara Becker, Künstliche Intelligenz, Konzepte, Systeme, Verheißungen, 1992, Campus Verlag) 

· Suche und Planung (Entwicklung von heuristischen und effizienten Suchstrategien) 
· Wissenspräsentation (fachspezifisches und alltägliches Wissen in Computerprogrammen) 
· Lernen und Wissensaquisition (automatisierte Befragung von Experten) 
· Automatische Programmierung 
· Logische Programmierung (PROLOG, LISP) 
· Beweis-Systeme 
· Natürlich-sprachige Systeme (sprachverstehende und sprachproduzierende Computerprogramme 
· Bildverstehen 
· Expertensysteme (maschinelle Verankerung von Expertenwissen) 
· Kognitive Modellbildung (Simulation kognitiver Fähigkeiten des Menschen in Computersystemen) 
· Roboterkonstruktion und –programmierung 
· Die Erfolge auf diesen Gebieten variieren mit der Komplexität der jeweiligen Aufgabenstellung. 
 

Mustererkennung

In der Mustererkennung werden die Merkmale eines Signals, das von Sensoren übertragen wurde, verarbeitet. Diese Signale können Daten zu 
  • Bildern
  • Sprache
  • Zeichen
liefern.

Zur Erkennung werden verschiedene Verfahren eingesetzt. Dabei kommen ein analytischer und ein konstruktiver Ansatz zur Anwendung. Die analytischen Verfahren wären direkter Mustervergleich, statistische Bayes Klassifikation und Cluster Analyse. Beim Konstruktiven Ansatz werden syntaktische Methoden eingesetzt. Hierbei werden syntaktische Strukturen bestimmt und erkannt. 

Anwendungen der Mustererkennung:

Zeichenerkennung: Maschinenklarschriftleser (OCR-A, OCR-B), Handschriftenleser (Sortieren der Post, hohe Fehlerraten) 
 

Spracherkennung:
die menschliche Sprache soll erkannt und klassifiziert werden. Wert gelegt wird auf:

  • Stimmerkennung
  • Wörter erkennen
  • Erkennen gesprochener Sätze
  • Semantische Analyse von gesprochenen Sätzen


Analyse technischer Messungen
EKG-Analyse (zeitlicher verlauf eines Kurvenzugs), Analyse von Geräsuchspektren (Motoren und Turbinen)

Szenenanalyse

In der Szenenanalyse werden mit Hilfe von Mustererkennungsmethoden Bilder von realen Szenen analysiert. 

Die Grundlagen bilden:

  • Segmentation (Mustererkennung von Bildprimitiven)
  • Repräsentation des realen Bildes
  • Szenenbeschreibung ( ein Vergleich mit idealisierten Modell-Beschreibungen).
Die beschriebenen Szenen können Blocks-World Szenen, ruhende Szenen, bewegte Szenen oder 3D-Szenen sein. 

Anwendungen der Szenenanalyse:

  • Luftbild-Auswertung
  • Auswertung medizinischer Bilder (Tomografien, Blutbild-Analyse)
  • Robotik-Anwendungen
  • Automatische Inspektion
(Vgl. „Bedrohungsmodell in KI Systemen“, U. van Essen, Oldenburg Verlag, 1991, S. 41 – 61)

Wissensrepräsentation

Wissensrepräsentation heißt ein Formalismus dann, wenn in ihm Wissen dargestellt und von einer Maschine verarbeitet werden kann. (Vgl. U. van Essen, S. 18)

Arten des Wissens:

  • Wissen über Sachverhalte (Was …)
  • Handlungswissen (Wie …)
  • Wissen über Planung und Steuerung von Handlungen (Metawissen)
Formen der Wissensrepräsentation:
  • Repräsentation von statischem Wissen (Beschreibung von Sachverhalten)
  • Repräsentation von prozeduralem Wissen (Verfahren zur Konstruktion, Verknüpfung und Anwendung von Wissen)
  • Repräsentation von Kontrollwissen ( Steuerung des Einsatzes von deklarativem und prozeduralem Wissen)
Eingesetzte Wissensrepräsentationstechniken:
  • Prozedurale Wissenrepräsentation
  • Deklarative Wissensrepräsentation
  • Frames und Scripts
  • Semantische Netze
Neben diesen Repräsentationstechniken kommen allgemeine Problemlösungsschemata zum Einsatz (Inferenz- und Suchstrategien): Sie dienen im Wesentlichen zur Auswahl der nächsten Entscheidung. Eingesetzte Algorithmen wären die datengesteuerte Inferenz, zielgerichtete Inferenz, das bidirektionale Verfahren, Bergsteigen, die Strategie „Bester zuerst“, etc. In der Entwicklung der Wissensrepräsentation und den Schlussfolgerungsverfahren kommt es laufend zu Verbesserungen.

Nachfolgend werden verschiedene Systeme aufgezählt, die alle mit einem problembezogenen Ansatz arbeiten.

Wissensrepräsentationssysteme

DENDRAL: An Universität von Stanford entwickelt, erkennt Molekularstrukturen von unbekannten organischen Verbindungen. Besonderheit, es erhält die fachbezogene Heuristik vom Anwender.

MYCIN: Expertensystem zur Behandlung von Blutinfektionen, erstellt 1972 in Zusammenarbeit von der medizinischen und der KI Fakultät der Universität von Stanford.

XCON: ist als Urahn der Konfigurationssysteme zu sehen. Es ist in OPS5 realisiert, das bei seiner Entwicklung entstanden ist. 

CENTAUR: ursprünglich eine Reimplantation von PUFF, einem Konsultationsprogramm für Lungenkrankheiten, das in EMYCIN implementiert war. 

MECHO: in PROLOG geschrieben, löst Probleme der Newton’schen Mechanik. MECHO ist eines der wenigen logik-basierten Expertensysteme, die auch Probleme der Wissensrepräsentation und des Schlussfolgerns behandelt. 

Entwicklungsumgebungen für Expertensysteme

TWAICE: ein klassischer EMYCIN Nachfolger. Auf UNIX-Rechnern verfügbar. In TWAICE wird zwischen der Entwicklungsumgebung und der Laufzeitumgebung differenziert. OPS5: eine Produktionsregelprogrammiersprache. Objekte werden in der Form von Eigenschaftslisten und Regeln in der Form: Wenn Bedingung dann Aktion dargestellt. OPS5 wird für VAX-Maschinen angeboten.

KEE: wie TWAICE eine komplette Expertensystem-Entwicklungsumgebung. Basiert auf dem objektorientierten LISP. KEE bietet wegen der Möglichkeit der LISP-Maschinen eine sehr benutzerfreundliche grafische Bedieneroberfläche. KEE gibt es für SYMBOLIC-LISP Maschinen und UNIX-Workstations. 

Nexpert-Object: Basiert auf Objekten. Es handelt sich aber eher um Frames mit Dämonen. Die Verarbeitung erfolgt durch Inferenzen über Regeln. 

(Vgl. „Bedrohungsmodell in KI Systemen“, U. van Essen, Oldenburg Verlag, 1991, S. 18 – 40)



Umsetzung, Verbreitung und (wirtschaftlicher) Erfolg


Jan Lunze und Wolfgang Schwarz beschreiben in "Künstliche Intelligenz, Einführung und technische Anwendungen" die Entwicklungsetappen der künstlichen Intelligenz und schildern dabei die ersten Erfolge, den KI-Markt und den industriellen Einsatz.

Wie im Abschnitt über Wissensrepräsentation schon angeführt, hat Feigenbaum 1965 das Projekt DENDRAL begonnen, aus dem sich das erste Expertensystem entwickelte. 1980 konnten mit dem Expertensystem R1 zur Konfigurierung von VAX-Rechnern erste wirtschaftliche Erfolge erzielt werden. Bei solchen Systemen wurde eine neue Form der Wissensrepräsentation und -verarbeitung angewandt, bei der das Wissen in einer Wissensbasis abgelegt wird, an Stelle der Verschlüsselung in einem Algorithmus. Eigens entwickelte Programmiersprachen ermöglichten das sogenannte rapid prototyping, bei dem durch Texten und Verändern nach und nach das endgültige System entsteht.

In den Achtziger Jahren des 20. Jahrhunderts entstand bereits ein KI-Markt. Mit Sprachen der künstlichen Intelligenz, Programmierumgebungen, Rahmensystemen für die Erstellung von Expertensystemen sowie mit Spezialhardware wurde ein großer Umsatz gemacht. 1984 wurden 0,15 Milliarden Dollar umgesetzt, die Schätzungen für 1990 wurden 11,8 Milliarden geschätzt, für 2000 dann bereits 113 Milliarden, was schon 26% des Computerumsatzes ausmachen würde.

Um entsprechende Breitenwirksamkeit zu erzielen, wurden bereits in den 80-er Jahren Maschinen entwickelt, die für die Verarbeitung von LISP und PROLOG zugeschnitten waren, für die 90-er Jahre wurden Rechner projektiert, die einen Qualitätssprung der rechentechnischen Mittel der Wissensverarbeitung bringen sollten. So gab es in Japan das Projekt der fünften Generation (schon 1981 begonnen), nämlich Rechner zu entwickeln, die auf Logik basieren, Wissen verarbeiten und außerdem mit dem Nutzer in natürlicher Sprache kommunizieren sollten.

In der Industrie waren wirtschaftliche Erfolge vor allem durch projektorientierte Forschungen zu erzielen. Intelligente Roboter, Bildverarbeitungs- und Bilderkennungssysteme für die visuelle Inspektion, Qualitätskontrolle und Fernerkundung sowie Systeme zur natürlichsprachlichen Verständigung mit Rechnern sind Beispiele von Systemen, die sich tatsächlich durchsetzen konnten. Die Expertensysteme befanden sich bis ca. 1990 noch im Stadium von Prototypen, waren also für den Breiteneinsatz noch nicht ausgereift, wurden aber schon damals als Systeme mit großen Einsatzchancen gewertet.

Anfang der 90-er Jahre betrug die Zahl der kommerziell genutzten Expertensysteme einige hundert. Entwickelt wurden jedoch mehrere tausend. Es bestand also eine große Diskrepanz zwischen den Erwartungen und der Realität bei den Expertensystemen. Als Ursache wurde angesehen, dass die zugrunde liegenden Wissensverarbeitungsmethoden noch zu schwach waren, man sprach von Expertensystemen der ersten Generation, die deduktiv Probleme aufgrund eines umfangreichen Faktenwissens lösten. Das Entwicklungsziel bestand daher darin, eine zweite Generation zu schaffen, die eine hierarchische Wissensbasis besitzt und auf der Ebene einer Fachsprache mit dem Benutzer kommunizieren könne. Formen des induktiven Schließens sollten für Expertensysteme einsetzbar gemacht werden.

Einige Bereiche wurden um 1990 als große Einsatzgebiete der KI vorausgesagt:
  • Produktionsautomatisierung
  • Schaltkreisentwurf
  • Luftfahrt
  • Büroautomatisierung
  • Gesundheitswesen
  • Dienstleistungsbereich
Dabei würde die KI zur Entwicklung von computerintegrierten Systemen beitragen, in der Vorbereitung und Lenkung der Produktion mit CAD und CAM würden wissensbasierte Systeme die Variantenauswahl, den Anpassungsentwurf und Steueraufgaben übernehmen, in flexiblen Fertigungssystemen die Programmierung und Handlungsplanung intelligenter Roboter ermöglichen, schließlich auch Lösungen bei Problemen im Zusammenwirken von Maschine und Roboter anbieten.

Die Entwicklung des industriellen Einsatzes der künstlichen Intelligenz wurde damals so gesehen, dass die KI nicht auf völlig neue Systeme führen werde, sondern die Funktionen bereits existierender Produkte erweitern würden. Beispiele sind die natürlichsprachliche Abfrage von Datenbanken, Beratungssystemen für Diagnose- und Steuerungsaufgaben und Büroautomatisierungssysteme.


 
Weiterführende Informationen

>[www.ik.fh-hannover.de/person/becher/edvhist/ki/allgemein.htm] Entwicklungsperioden der KI, vom 14.4.02 
>[www.aaai.org/AITopics/bbhist.html] Ein kurzer Überblick über die Geschichte der AI 
>[library.thinkquest.org/2705/history.html] Wichtige Ereignisse in der AI Geschichte 

Print:  

>Thomas Eiter: Artificial Intelligence für Lehramt Informatik. Vorlesungsskriptum. Wien 2002.
>Daniel Crevier: Eine schöne neue Welt? ECON Verlag. Düsseldorf, Wien; New York 1994 
>Jörg Papke, Markus Schröder, KI, Geschichte, Grundlagen, Perspektiven, Grenzen 
>Dreyfus u Dreyfus, KI von den Grenzen der Denkmaschine und dem Wert der Intuition 
>U. van Essen; Bedrohungsmodell in KI-Systemen 
>Barbara Becker, Künstliche Intelligenz, Konzepte, Systeme, Verheißungen, 1992, Campus Verlag 
>„Informatik – Fluch oder Segen“, Andrea Sieber, Martin Söns, Werner Dilger; Ergebnisse des Seminars “Informatik, KI und Kritik”, 8. Juli 1999, TU Chemnitz 
>Jan Lunze, Wolfgang Schwarz, Künstliche Intelligenz: Einführung und technische Anwendungen, 1. Auflage, Berlin : Verlag Technik, 1991 
>Jan Lunze, Künstliche Intelligenz für Ingenieure, Band 1: Methodische Grundlagen und Softwaretechnologie, Verlag Oldenbourg München Wien 1994 
>Günther Görz, Claus-Rainer Rollinger, Josef Schneeberger, Handbuch der Künstlichen Intelligenz, 3. Auflage, Verlag Oldenbourg München Wien, 2000

 

Verweise auf Arbeiten anderer Gruppen

>[Bewertung@Wissensaquisition]Von den Anfängen der Wissensakquisition in der Antike bis zu den heute gebräuchlichen Techniken, die in den 60er 70er und 80er Jahren entwickelt wurden.
>[die reale Praxis.deklarative Sprachen@Programmmiersprachentypen] Prolog gilt wegen seiner Abstraktheit neben LISP als Sprache für Anwendungen der künstlichen Intelligenz, ganz allgemein der Symbolverarbeitung.
>[konzeptionelle Entwicklungen und Auswirkungen.deklarative Sprachen@Programmmiersprachentypen] Prolog war von Begin an zur Verarbeitung natürlicher Sprache ausgelegt, die Popularität im Bereich der künstlichen Intelligenz kam erst später hinzu.
>[Bewertung.deklarative Sprachen@Programmiersprachentypen] Die Frage ob Prolog ein Hype oder eine echte Neuerung darstellt kann meiner Meinung nach nicht eindeutig beantworten. Dass Prolog keine Hype darstellt, ist zwar klar, was aufgrund zahlreicher Anwendungen in verschiedensten Gebieten und aktiven Entwicklungen, besonders auf den Gebieten künstliche Intelligenz und Wissensrepräsentation, leicht zeigen lässt.
>Entstehungskontext | Konzepte und Techniken | Entwicklung und Auswirkungen | Praxis | Bewertung