fit 2002
> "intelligente" Maschinen
> frühe AI-Vorstellungen > Konzepte und Techniken |
Überblick |
„We may hope, that machines will eventually compete with man in all purely intellectual fields. But which are the best ones to start with?” Turing (1947) Bild: Alan Turing (1912-1954) Bildquelle: Spektrum der Wissenschaft Spezial, Nachdruck 1/2000, S.79 Die Hoffnungen der frühen AI-Forscher bald sensationelle Erfolge der künstlichen Intelligenz vorweisen zu können waren sehr hoch, neben den weit überzogenen Vorstellungen von den Fortschritten der jungen Disziplin, spielte dabei wohl auch die Möglichkeit durch aufsehenerregende Prophezeiungen große Mengen an Forschungsgeldern zu lukrieren. Von Anfang an gab es dabei aber verschiedene Vorstellungen, was "künstliche Intelligenz" leisten soll. >AI als Nachahmen von menschlichem Verhalten
AI als Nachahmen von menschlichem VerhaltenEine Schwierigkeit des Forschungsgebiets Künstliche Intelligenz war von Anfang an die Definition des Begriffs Intelligenz. Eine elegante Möglichkeit, diese Definition zu umgehen, legte Alan Turing mit seinem Turingtest 1950 vor. Die Grundidee dahinter ist, die Frage, ob ein System denken kann, dann zu bejahen, wenn das Verhalten des Systems mit dem Verhalten eines Menschen verwechselbar ist.Turing schlug dabei von folgendem Imitationspiel aus:
([Quelle des Bildes]) Turing wagte in diesem Zusammenhang die Prognose: In about fifty years' time [by the year 2000] it will be possible to program computers ... to make them play the imitation game so well that an average interrogator will have no more than 70 percent chance of making the correct identification after five minutes of questioning.Turings Test hat eine breite Diskussion ausgelöst, ob bei erfolgreichem Test wirklich von einer "denkenden" Maschine die Rede sein kann. Ein sehr bekanntes Programm, das genau darauf abzielt, einen menschlichen Partner zu simulieren ist ELIZA, das Joseph Weizenbaum 1966 am MIT schrieb. Hier soll die Gesprächsführung eines Psychotherapeuten simuliert bzw. parodiert werden, indem in den Fragen oder Statements des menschlichen Patienten nach Schlüsselwörtern gesucht wird, um aufgrund dessen aus einer Liste vorgefertigter Antworten mittels Zufallsgenerator eine auszuwählen. Auch wendet das Programm eine Technik des Zurückgebens einer Aussage ("Wie meinen Sie das?", ...) an. Weizenbaum war erstaunt, wie ernst sich viele Menschen in diesen Dialog vertieften, obwohl sie davon unterrichtet waren, mit einem Computerprogramm zu kommunizieren. >[Originalwortlaut
aus Alan Turings "Understanding Intelligence"]
AI als Nachahmen von menschlichem Denken/ Konzepte formalisierten DenkensAufbauend auf die Untersuchungen zur Logik, versuchte man den Vorgang des Denkens, des logischen Schließens und speziell des Beweisens von Sätzen durch Maschinen zu simulieren. Dabei verfolgte man einen sogenannten symbolischen Ansatz, demzufolge man intelligentes Verhalten eines Systems dadurch bewerkstelligen kann, indem man ein symbolisch repräsentiertes Wissen durch Manipulation ebendieser Symbole bearbeitet.General Problem Solver (Newell und Simon, 1963)Der Beginn der Forschung startet mit der Konferenz in Dartmouth 1956. Computerexperten, Informationstheoretiker, Linguisten diskutierten neue Methoden der Computerprogrammierung, um das gemeinsame Ziel, die Entwicklung von intelligenten Maschinen zu realisieren. Die Programmiersprache LISP (McCarthy) bot die dazu nötige Möglichkeit symbolische Prozesse zu implementieren.Ein Intelligenter Problemlöser (GPS: General Problem Solver) – er lag der Erwartung der Wissenschafter zufolge jedem intelligenten Verhalten zugrunde – sollte durch seine Konstruktion zur Geburt der „künstlichen Intelligenz“ führen. Dieser General Problem Solver stützte sich auf den Versuch, allgemeine Regeln zu abstrahieren, die der Intelligenz zugrunde liegen. Versuchspersonen wurden beim Lösen von Problemen beobachtet – ihr heuristisches Lösungsverfahren in ein Programm übertragen. In den Anfängen waren alle euphorisch, jedoch kam man bald zur Erkenntnis, dass trotz intensiver Arbeit nur kleine Aufgaben und eine begrenzte Anzahl von Fällen gelöst werden konnten. Die Programme werden durch hierarchische Organisation von heuristischen Suchverfahren nicht immer eine zufrieden stellende Lösung finden. Außerdem traten Probleme mit der „Urteilsfindung“ auf. Der Umfang des Programme und die Größe der recht aufwendigen Datenstruktur führte 1966 zum Beendigen des Projekts. Bild: Newell und Simon Bildquelle: >[http://shelf1.library.cmu.edu/IMLS/MindModels/problemsolving.html] 4 Punkte für ein System, das menschl. Erkenntnisleistung erbringen soll (Dreyfus)· Wesentliche von unwesentlichen Merkmalen eines bestimmten Musters unterscheiden · Hinweise verarbeiten, die am Rande des Bewusstseins bleiben · Kontext in Betracht ziehen · Das Individuelle in Bezug auf ein Paradigma zu sehen Da die Erwartungen an die Forschung in Bezug auf ein Gesamtsystem nicht erfüllt wurde, kam es sehr bald dazu, dass Einzelgebiete erforscht wurden. Die Sprachübersetzung, Problemlösung, Mustererkennung. (Vgl. „KI, Geschichte Grundlagen, Perspektiven, Grenzen“, Jörg Papke,
Markus Schröder, TU Berlin, S. 104)
Neuronale Netze und PerzeptronenEinen vollkommen anderen Ansatz, künstliche Denkmaschinen herzustellen, verfolgte man, indem man nicht auf Symbolverarbeitung setzte, sondern versuchte das menschliche Gehirn unmittelbar nachzuahmen. Grundlage dafür war Norbert Wieners Kybernetik und das Studium von Rückkoppelungsmechanismen. Wiener hatte erkannt, dass Rückkoppelungsmechanismen im Prinzip Informationsverarbeitende Einrichtungen seien. Jedes intelligente Verhalten könnte das Resultat von Rückkoppelungsmechanismen sein.Man versuchte das Funktionieren des menschlichen Gehirns anhand eines Mechanismus zu erklären, in dem Netze miteinander verbundener Zellen logische Operationen durchführen konnten. So bemühten sich McCulloch und Pitts um 1943, die vernetzte Struktur der Neuronen im Gehirn durch sogenannte neuronale Netzwerke nachzubilden. 1949 erläuterte der Physiologe Donald O. Hebb, dass die wiederholte Aktivierung einer Nervenzelle durch eine andere über eine bestimmte Synapse deren Leitfähigkeit steigere und dadurch weitere Aktivierungen wahrscheinlicher mache. Ein Modell des Lernens. 1958 stellte Frank Rosenblatt sein Konzept des Perzeptrons vor, bei dem Sensoreinheiten über gewichtete Verbindungen mit Assoziationseinheiten verbunden. Dabei leitet eine durch ein Eingangssignal aktivierte Sensoreinheit das Signal an die mit ihm verbundene Aktivierungseinheit weiter, und zwar mit einer Intensität die dem Gewicht der Verbindung entspricht. Jede Aktivierungseinheit summiert die von den verschiedenen Sensoreinheiten an sie gesendeten Signal. Überschreitet die Summe einen gewissen Schwellwert, wird wiederum ein Signal an eine Aktivierungseinheit weitergeleitet.
Die einzelnen Gewichte können zunächst zufällig verteilt
sein. Nach Anlegen eines Eingangssignals und Vergleich der dadurch evozierten
Ausgangssignale mit den erwünschten Ausgangssignalen können die
Gewichte für jede Aktivierungseinheit verändert werden (Verstärkung
bei einem fehlenden Ausgangssignal, Verminderung bei einer falschen Aktivierung
einer Aktivierungseinheit). So kann das Netz "lernen".
AI als Nachahmen von LernenNicht nur bei den neuronalen Netzen wurde "Lernen" als eine wichtige Herausforderung für ein intelligentes System angesehen. Wie kann man einem System beibringen, sein Wissen autonom zu erweitern? Wie kann man einen Rechner dazu bringen, eine neue Information mit bereits bekannten Tatsachen in Beziehung zu setzen und dabei Ergebnisse zu gewinnen, über die man bis dahin nicht verfügte?Einen ersten Schritt in diese Richtung ging Robert K. Lindsay mit seinem Programm SAD SAM. Diesem wurden Sätze in natürlichem Englisch eingegeben, die nach Angaben über verwandtschaftliche Verhältnisse analysiert werden. Aufgrund von Sätzen wie "Ernst ist Karls Bruder" und "Ilse ist Ernsts Mutter" stellte das Programm eine Stammbaumstruktur zusammen, aus der hervorging, dass Ilse auch Karls Mutter war. Dadurch gilt der Rechner, auf dem das Programm lief" als die möglicherweise erste Maschine, die ansatzweise "Verstehen" im menschlichen Sinne erkennen ließ. (Vgl. dazu: Crevier, S. 83) |
Weiterführende Informationen |
>[The Turing Test Page] Informationen und Links zum Turing test >[Künstliche Intelligenz] u.a. zu Turingtest, maschinelles Beweisen und Anwendungsgebieten der AI >[Neuronale Netze - eine Einführung] Umfangreiche Einführung in die Funktion neuronaler Netze Print: >Daniel Crevier: Eine schöne neue Welt? ECON Verlag. Düsseldorf,
Wien; New York 1994
|
Verweise auf Arbeiten anderer Gruppen |
>[wissensdarstellung und wissensmanagement@wissenmanagement] Nobert Wiener erkannte die Bedeutung der Erforschung der Vielschichtigkeit der Sprache. >[Entstehungskontext.deklarative Sprachen@Programmiersprachentypen] Mit Hilfe der Logik hat man bereits in der Antike versucht, das Denken auf eine gewisse Art zu mechanisieren. Genau dieses Mechanisieren von Denkvorgängen ist ja eigentlich der zentrale Punkt in der Forschung der Künstlichen Intelligenz. |
>Entstehungskontext | Konzepte und Techniken | Entwicklung und Auswirkungen | Praxis | Bewertung |