fit 2002 > "intelligente" Maschinen > frühe AI-Vorstellungen > Konzepte und Techniken

Überblick

„We may hope, that machines will eventually compete with man in all purely intellectual fields. But which are the best ones to start with?” Turing (1947)

Bild: Alan Turing (1912-1954)
Bildquelle: Spektrum der Wissenschaft Spezial, Nachdruck 1/2000, S.79

Die Hoffnungen der frühen AI-Forscher bald sensationelle Erfolge der künstlichen Intelligenz vorweisen zu können waren sehr hoch, neben den weit überzogenen Vorstellungen von den Fortschritten der jungen Disziplin, spielte dabei wohl auch die Möglichkeit durch aufsehenerregende Prophezeiungen große Mengen an Forschungsgeldern zu lukrieren. Von Anfang an gab es dabei aber verschiedene Vorstellungen, was "künstliche Intelligenz" leisten soll.

>AI als Nachahmen von menschlichem Verhalten
>AI als Nachahmen von menschlichem Denken/ Konzepte formalisierten Denkens
>Neuronale Netze und Perzeptronen
>AI als Nachahmen von Lernen
 

AI als Nachahmen von menschlichem Verhalten

Eine Schwierigkeit des Forschungsgebiets Künstliche Intelligenz war von Anfang an die Definition des Begriffs Intelligenz. Eine elegante Möglichkeit, diese Definition zu umgehen, legte Alan Turing mit seinem Turingtest 1950 vor. Die Grundidee dahinter ist, die Frage, ob ein System denken kann, dann zu bejahen, wenn das Verhalten des Systems mit dem Verhalten eines Menschen verwechselbar ist.

Turing schlug dabei von folgendem Imitationspiel aus:
Das Spiel wird von drei Leuten gespielt: einem Mann (A), einer Frau (B) und einem Fragensteller (C) beliebigen Geschlechts. Der Fragensteller sitzt getrennt von den anderen Mitspielern in einem eigenen Raum. Der Fragensteller muss herausfinden, wer von den beiden Mitspielern der Mann und wer die Frau ist. Er kennt sie nur durch die Bezeichnungen X und Y. Am Ende des Spiels soll er bekanntgeben, dass entweder X A und Y B ist oder X B und Y A ist. Der Fragensteller kann dabei Fragen sowohl an X als auch an Y stellen. Die angesprochene Person muss antworten. Während der Mann A sich bemühen soll, den Fragensteller in seiner Entscheidung irrezuführen, soll die Frau B bestrebt sein, den Fragensteller zur richtige Entscheidung zu verhelfen.
Der eigentliche Turingtest besteht nun darin, den Spieler A durch einen Computer zu ersetzen. 
Die Frage, ob sich C in diesem Fall in seiner Entscheidung genau so oft irrt wie bei einem Spiel mit Mann und Frau, soll die Frage ersetzen, ob der Computer denken kann.


([Quelle des Bildes])

Turing wagte in diesem Zusammenhang die Prognose:

In about fifty years' time [by the year 2000] it will be possible to program computers ... to make them play the imitation game so well that an average interrogator will have no more than 70 percent chance of making the correct identification after five minutes of questioning. 
(zit. n. Thomas Eiter: Artificial Intelligence für Lehramt Informatik. Vorlesungsskriptum 2002)
Turings Test hat eine breite Diskussion ausgelöst, ob bei erfolgreichem Test wirklich von einer "denkenden" Maschine die Rede sein kann.

Ein sehr bekanntes Programm, das genau darauf abzielt, einen menschlichen Partner zu simulieren ist ELIZA, das Joseph Weizenbaum 1966 am MIT schrieb. Hier soll die Gesprächsführung eines Psychotherapeuten simuliert bzw. parodiert werden, indem in den Fragen oder Statements des menschlichen Patienten nach Schlüsselwörtern gesucht wird, um aufgrund dessen aus einer Liste vorgefertigter Antworten mittels Zufallsgenerator eine auszuwählen. Auch wendet das Programm eine Technik des Zurückgebens einer Aussage ("Wie meinen Sie das?", ...) an. Weizenbaum war erstaunt, wie ernst sich viele Menschen in diesen Dialog vertieften, obwohl sie davon unterrichtet waren, mit einem Computerprogramm zu kommunizieren.

>[Originalwortlaut aus Alan Turings "Understanding Intelligence"]
>[Eliza] Kurzinformation zu Eliza mit einem Dialogauszug
>[Dr. Eliza Weizenbaum Javascriptversion zu Weizenbaums ELIZA
 

AI als Nachahmen von menschlichem Denken/ Konzepte formalisierten Denkens

Aufbauend auf die Untersuchungen zur Logik, versuchte man den Vorgang des Denkens, des logischen Schließens und speziell des Beweisens von Sätzen durch Maschinen zu simulieren. Dabei verfolgte man einen sogenannten symbolischen Ansatz, demzufolge man intelligentes Verhalten eines Systems dadurch bewerkstelligen kann, indem man ein symbolisch repräsentiertes Wissen durch Manipulation ebendieser Symbole bearbeitet.

General Problem Solver (Newell und Simon, 1963)

Der Beginn der Forschung startet mit der  Konferenz in Dartmouth 1956. Computerexperten, Informationstheoretiker, Linguisten diskutierten neue Methoden der Computerprogrammierung, um das gemeinsame Ziel, die Entwicklung von intelligenten Maschinen zu realisieren. Die Programmiersprache LISP (McCarthy) bot die dazu nötige Möglichkeit symbolische Prozesse zu implementieren. 
Ein Intelligenter Problemlöser (GPS: General Problem Solver) – er lag der Erwartung der Wissenschafter zufolge jedem intelligenten Verhalten zugrunde – sollte durch seine Konstruktion zur Geburt der „künstlichen Intelligenz“ führen. Dieser General Problem Solver stützte sich auf den Versuch, allgemeine Regeln zu abstrahieren, die der Intelligenz zugrunde liegen. Versuchspersonen wurden beim Lösen von Problemen beobachtet – ihr heuristisches Lösungsverfahren in ein Programm übertragen. 
In den Anfängen waren alle euphorisch, jedoch kam man bald zur Erkenntnis, dass trotz intensiver Arbeit nur kleine Aufgaben und eine begrenzte Anzahl von Fällen gelöst werden konnten. Die Programme werden durch hierarchische Organisation von heuristischen Suchverfahren nicht immer eine zufrieden stellende Lösung finden. Außerdem traten Probleme mit der „Urteilsfindung“ auf. Der Umfang des Programme und die Größe der recht aufwendigen Datenstruktur führte 1966 zum Beendigen des Projekts.


Bild: Newell und Simon
Bildquelle: >[http://shelf1.library.cmu.edu/IMLS/MindModels/problemsolving.html]

 

4 Punkte für ein System, das menschl. Erkenntnisleistung erbringen soll (Dreyfus)


· Wesentliche von unwesentlichen Merkmalen eines bestimmten Musters unterscheiden
· Hinweise verarbeiten, die am Rande des Bewusstseins bleiben
· Kontext in Betracht ziehen
· Das Individuelle in Bezug auf ein Paradigma zu sehen

Da die Erwartungen an die Forschung in Bezug auf ein Gesamtsystem nicht erfüllt wurde, kam es sehr bald dazu, dass Einzelgebiete erforscht wurden. Die Sprachübersetzung, Problemlösung, Mustererkennung.

(Vgl. „KI, Geschichte Grundlagen, Perspektiven, Grenzen“, Jörg Papke, Markus Schröder, TU Berlin, S. 104)
 
 

Neuronale Netze und Perzeptronen

Einen vollkommen anderen Ansatz, künstliche Denkmaschinen herzustellen, verfolgte man, indem man nicht auf Symbolverarbeitung setzte, sondern versuchte das menschliche Gehirn unmittelbar nachzuahmen. Grundlage dafür war Norbert Wieners Kybernetik und das Studium von Rückkoppelungsmechanismen. Wiener hatte erkannt, dass Rückkoppelungsmechanismen im Prinzip Informationsverarbeitende Einrichtungen seien. Jedes intelligente Verhalten könnte das Resultat von Rückkoppelungsmechanismen sein.
Man versuchte das Funktionieren des menschlichen Gehirns anhand eines Mechanismus zu erklären, in dem Netze miteinander verbundener Zellen logische Operationen durchführen konnten. So bemühten sich McCulloch und Pitts um 1943, die vernetzte Struktur der Neuronen im Gehirn durch sogenannte neuronale Netzwerke nachzubilden. 1949 erläuterte der Physiologe Donald O. Hebb, dass die wiederholte Aktivierung einer Nervenzelle durch eine andere über eine bestimmte Synapse deren Leitfähigkeit steigere und dadurch weitere Aktivierungen wahrscheinlicher mache. Ein Modell des Lernens.
1958 stellte Frank Rosenblatt sein Konzept des Perzeptrons vor, bei dem Sensoreinheiten über gewichtete Verbindungen mit Assoziationseinheiten verbunden. Dabei leitet eine durch ein Eingangssignal aktivierte Sensoreinheit das Signal an die mit ihm verbundene Aktivierungseinheit weiter, und zwar mit einer Intensität die dem Gewicht der Verbindung entspricht. Jede Aktivierungseinheit summiert die von den verschiedenen Sensoreinheiten an sie gesendeten Signal. Überschreitet die Summe einen gewissen Schwellwert, wird wiederum ein Signal an eine Aktivierungseinheit weitergeleitet. 


Ein Perzeptron mit vielen Ein- und Ausgaben
x1, ..., xn: Eingangssignale- wij ...: Gewichte der Verbindungen O1, ..., Om: Ausgangssignale
([Quelle des Bildes])

Die einzelnen Gewichte können zunächst zufällig verteilt sein. Nach Anlegen eines Eingangssignals und Vergleich der dadurch evozierten Ausgangssignale mit den erwünschten Ausgangssignalen können die Gewichte für jede Aktivierungseinheit verändert werden (Verstärkung bei einem fehlenden Ausgangssignal, Verminderung bei einer falschen Aktivierung einer Aktivierungseinheit). So kann das Netz "lernen". 
Ein Problem dabei ist, dass eine Perzeptron weder eine XOR-Operation noch eine einfache Negation durchführen kann und dadurch rechnerisch nicht universell ist. Dennoch war Rosenblatt von der Überlegenheit dieses Konstrukts über symbolverarbeitende Systeme überzeugt. Doch als Rosenblatt nicht lange nach der Veröffentlichung seiner Arbeit bei einem Bootunfall ertrank verschwand das Forschungsgebiet der neuronalen Netze für gut 15 Jahre in die Bedeutungslosigkeit.

AI als Nachahmen von Lernen

Nicht nur bei den neuronalen Netzen wurde "Lernen" als eine wichtige Herausforderung für ein intelligentes System angesehen. Wie kann man einem System beibringen, sein Wissen autonom zu erweitern? Wie kann man einen Rechner dazu bringen, eine neue Information mit bereits bekannten Tatsachen in Beziehung zu setzen und dabei Ergebnisse zu gewinnen, über die man bis dahin nicht verfügte? 
Einen ersten Schritt in diese Richtung ging Robert K. Lindsay mit seinem Programm SAD SAM. Diesem wurden Sätze in natürlichem Englisch eingegeben, die nach Angaben über verwandtschaftliche Verhältnisse analysiert werden. Aufgrund von Sätzen wie "Ernst ist Karls Bruder" und "Ilse ist Ernsts Mutter" stellte das Programm eine Stammbaumstruktur zusammen, aus der hervorging, dass Ilse auch Karls Mutter war. Dadurch gilt der Rechner, auf dem das Programm lief" als die möglicherweise erste Maschine, die ansatzweise "Verstehen" im menschlichen Sinne erkennen ließ. (Vgl. dazu: Crevier, S. 83) 
 
Weiterführende Informationen

>[The Turing Test Page] Informationen und Links zum Turing test
>[Künstliche Intelligenz] u.a. zu Turingtest, maschinelles Beweisen und Anwendungsgebieten der AI
>[Neuronale Netze - eine Einführung] Umfangreiche Einführung in die Funktion neuronaler Netze

Print:

>Daniel Crevier: Eine schöne neue Welt? ECON Verlag. Düsseldorf, Wien; New York 1994
>Jörg Papke, Markus Schröder: KI, Geschichte Grundlagen, Perspektiven, Grenzen. Berlin 1986
>Heinz Zemanek: Künstliche Intelligenz? in: Weltmacht Computer - Weltreich der Information, Bechtle Verlag, Esslingen München 1991

Verweise auf Arbeiten anderer Gruppen

>[wissensdarstellung und wissensmanagement@wissenmanagement] Nobert Wiener erkannte die Bedeutung der Erforschung der Vielschichtigkeit der Sprache.
>[Entstehungskontext.deklarative Sprachen@Programmiersprachentypen] Mit Hilfe der Logik hat man bereits in der Antike versucht, das Denken auf eine gewisse Art zu mechanisieren. Genau dieses Mechanisieren von Denkvorgängen ist ja eigentlich der zentrale Punkt in der Forschung der Künstlichen Intelligenz.
>Entstehungskontext | Konzepte und Techniken | Entwicklung und Auswirkungen | Praxis | Bewertung