Geschichte verstehe ich als GeschichteN. Wie eine Geschichte erzählt wird, zeigt viel über den Erzähler, aber auch viel darüber, wie der Gegegenstand der Geschichte beobachtet wird. |
Viele Geschichten, die keinen klaren Gegenstand haben, beginnen mit Vorgeschichten, die statt bei Adam und Eva häufig bei den alten Griechen anfangen und einige Philosophen erwähnen, und so eben Geschichten bleiben. Ich begreife "Künstliche Intelligenz" als ein - etwas schräg bezeichnetes - Teilgebiet der Informatik, wobei ich Informatik als Teilgebiet des Engineerings begreife, das sich mit konstruktivem Abbilden von Artefakten befasst. Informatik befasst sich mit programmierbaren Maschinen. Mathematik und Philosophie spielen hier nicht die geringste Rolle, naives Geschichtenerzählen dagegen schon: ohne solche Geschichten würde es gar keine KI geben.
Viele Geschichten der "Künstliche Intelligenz" beginnen, nachdem sie die alten Philosophen behandelt haben, quasi noch einmal in der vermeintlichen Neuzeit, wobei sie wieder mit einer Vorgeschichte beginnen, nämlich mit A. Turing und W. McCulloch, also mit einem Mathematiker und einem Neurologen, die beide ein starken Hang zum Philosophieren hatten, und keinerlei brauchbaren Maschinen konstruierten.
A. Turing hat den von A. Church als Turing-Maschine bezeichnete Pseudomechanismus erfunden, mit welchem er seine mathematischen Einsichten zum Algorythmus erläuterte. Es ist keine Maschine, sondern ein philosophisches Konstrukt, das sich nicht herstellen lässt. A. Turing hat im Zusammenhang mit denkenden Maschinen geschrieben, dass er sich nicht für Artefakte, sondern nur für Mathematik interessiert. Er hat zwar die Frage, ob eine Maschine denken könne, gestellt, aber sie - weil sie unsinnig sei - sofort durch eine ganz andere Frage ersetzt, die er mit seimen "Intelligenztest" beantwortet hat. A. Turing wird oft als Informatiker bezeichnet, er hat sich aber mit (s)einer operativen Logik befasst. Sein Beitrag zur Entwicklung von Computern ist unerheblich. Sein oft zitierter Turing-Test hat er 1950 vorgeschlagen. Dabei geht es nicht darum, eine intelligente Maschine zu entwickeln, sondern um philosophische Erwägungen darüber, welche Fragen je mit einer Maschine beantwortet werden können. Das Fachgebiet "Künstliche Intelligenz", das sich mit der Entwicklung von Maschinen befasst, wurde erst später begründet.
W. McCulloch verfolgte einen ganz anderen Ansatz, den man später als Bionik bezeichnete. Dabei ging es darum, Maschinen zu bauen, die wie das Gehirn funktionieren und deshalb als neuronale Maschinen bezeichnet wurden. Er war - im Unterschied zu A. Turing - Kybernetiker und von der wienerischen Idee besessen, wonach das Verhalten von Tieren und Maschinen denselben Prinzipien unterworfen sind. W. McCulloch hat offen gelassen, ob seine Maschinen hauptsächlich der Erklärung des Nervensystems dienen sollten, oder ob er wirklich brauchbare Maschinen konstruieren wollte - was ihm und seinen Nachfolgern bisher nicht mal ansatzweise gelungen ist.
Eine Auffassung, die alle KI-Lager teilen, und die auch in der Informatik - vom diesbezüglich halbherzigen Kittler abgesehen - weitgehend dominiert, besteht darin, dass die Hardware ohne Relevanz sei, weil beliebige Hardware verwendet werden könne. Der KI-Erfinder H. Simon war wohl der erste, der das explizit gemacht hat, aber auch Kybernetiker wie W. Ashby betonten, dass sie von Logik, nicht von Maschinen sprechen. Daraus wird gefolgert, dass man von der Hardware ganz absehen kann. Verdrängt wird dabei, dass immer eine Hardware gebraucht wird, auch wenn es beliebig viele Möglichkeiten geben würde, geht es ohne Hardware nicht.
Was immer als Intelligenz bezeichnet wird, der Ausdruck "Künstliche Intelligenz" impliziert hergestellte Maschinen, deren Verhalten - wie intelliegent auch immer - situationsabhängig funktional ist. Ich unterscheide Computer und Roboter.
Als Computer bezeichne ich programmierbare Automaten, deren Zweck darin besteht, Symbole zu generieren, die typischerweise auf einem Bildschirm angezeigt werden, die aber auch ausgedruckt oder als akustische Signale moduliert werden können. Als Roboter bezeichne ich Automaten, die aufgrund von Sensordaten situationsabhängig funktionale Operationen ausführen, bei welchen sich das Gerät oder Teile davon im Raum bewegen. In beiden Fällen sind die Operationen durch einen Steuerungsmechanismus geregelt, der konventionell als Central Processing Unit (CPU) und umgangssprachlich als Prozessor bezeichnet wird. Prozessoren steuern auch Waschmaschine und andere Geräte, die auch Bildschirme haben, die ich umgangssprachlich weder als Computer noch als Roboter bezeichne.
Jenseits aller Philosophie hat sich bei den Computern die Von-Neumann-Architektur, die auch A. Turing vorschwebte, durchgesetzt, während viele andere Ansätze wie eben die neuronalen Netzwerke - bislang - keinen Markt gefunden haben. Viele Erfindungen setzen sich nicht auf Anhieb durch, sondern erweisen sich erst später als disruptive. Bei den ersten Automobilen gab es verschiedene Antriebe, neben den Verbrennungsmotoren gab es Dampfmaschinen und Elektromotoren. Durchgesetzt hat sich aber der Verbrenungsmotor, von welchem sehr verschiedene Varianten entwickelt wurden. Der Elektromotor hat sich jenseits von Autos weiterentwickelt, er wurde im Bahnverkehr wichtig, aber auch in vielen Haushaltsgeräten. Die Dampfmaschine hat auch eine grossen Entwicklung jenseits von Autos durchlaufen. Sie wird heute in AKWs eingesetzt, die Strom für Elektroautos produzieren. Bei den Computern gibt es bislang praktisch nur Von-Neumann-Maschinen. Neuronale Netzwerke funktionieren ganz anders als Von-Neumann-Maschinen, aber bis heute werden keine Neuronale Netzwerke als Maschinen auf dem Markt angeboten.
In der Von-Neumann-Architektur vermittelt ein programmierter Prozessor zwischen Eingabe- und Ausgabegeräten, so dass sie sowohl Computer als auch Roboter beschreibt. Im Computerprogramm wird die Funktionsweise des Prozessors als Algorithmus in Form von Anweisungen beschrieben. Der Prozessor ist immer in einem durch das Programm definierten Zustand. Die technische Entwicklung bei den Computer besteht abgesehen von - Maus und GUI - hauptsächlich in immer leistungsfähigeren Prozessoren - was jenseits der Philosophie kaum je mit Maschinen-Intelligenz verbunden wurde.
Computer hatten nicht als Rechenmaschinen Erfolg, sondern zunächst in grossen Verwaltungen mit viele Daten in Form von Dokumenten, dann als PC für jedermann und als Internetgeräte. Für das Rechnen werden Computern relativ selten verwendet, obwohl sie vor allem auch historisch oft als Rechenmaschinen betrachtet werden, was ja auch ihren Namen begründet. <--Die vielleicht wichtigste Verwendung war die Volkszählmaschine am Anfang der IBM.--> Es gab früh - eigentlich bereits bevor es brauchbare Computer gab - vor allem von Philosophen Vorstellungen dazu, wozu Computer neben dem Rechnen auch verwendet werden könnten. Dabei kam oft eine Art Intelligenz ins Spiel, etwa beim General Problem Solver. Aber im praktischen Leben war zunächst die wohl wichtigste Verwendungen die Dokumenteverwaltungen in grossen Administrationen, die ihren Anfang in der Volkszählmaschine von IBM gehabt hat. =========am Anfang gabe es noch nicht programmierbare elekt??sche Computer https://de.wikipedia.org/wiki/Ferranti ====== war die Ersetzung der Schreibmaschine, die als Textverarbeitung bezeichnet wurde. Die zwei wichtigsten Vorstellungen waren Übersetzung und Spiele. Übersetzung ************* Datenverarbeitung EDV Informatik ... das alles in Englische : computer science + Data processing EDP (Electronic data processing,) Computer science *********** und dem ... Schach ... Spielzeugs ..
Damit liess sich aber nicht mal ansatzweise etwas wie künstliche Intelligenz programmieren. Von ein paar Expertensystemen mit Fuzzylogik und Schachcomputern abgesehen, ist die künstliche Intelligenz in den Dornröschenschlaf gefallen - aus welchem sie erst fünfzig Jahre später - mit neuer Technik - wieder aufgewacht ist.
Die Schach-Computer zeigten, dass regelbasierte Systeme an regelbasierte Kontexte gebunden sind, was H. Dreyfus schon sehr früh als generelle Beschränkung behauptet hat. Er hat dabei offengelassen, ob neuronale Technik diese Beschränkung aufheben könnte.
Die philosophische Frage nach den Bedingungen der Möglichkeit von künstlicher Intelligenz wurde 1956 in Dartmouth durch eine Handvoll pragmatischer Philosophen mit Geldern der Rockefeller-Stiftung ersetzt. Auf einer Konferenz beschloss die damalige Intelligenzia unter dem Vorstand von J. McCarthy sich mit Problemen zu befassen, die man mit Maschinen bewältigen konnte - auch wenn weiterhin von Intelligenz die Rede war. Als Problem gilt seit jener Zeit, was eine maschinelle Lösung hat. Alle anderen Probleme wurden in der Rockefeller-Ideologie zu Scheinproblemen, die sich auflösen würden, wenn man die technischen Probleme gelöst habe. Schon ein paar Jahre davor hatte A. Turing auch einfach eine pragmatische Operationalisierung an die Stelle von philosophischen Fragen gestellt. Er hat praktisches Kriterium für Intelligenz vorgeschlagen, das dem Gewinnen einer Schachpartie sehr ähnlich war - und mit den eigentlich gemeinten Anliegen nichts zu tun hat.
Ein minimales Hauptanliegen - das weit unterhalb von literarischen Vorstellungen wie Frankenstein und den Ropotergesetzen von I. Asimov lag - war die Übersetzung von naturwüchsigen Sprachen. Dieses Anliegen war vielleicht nicht im Zentrum jener, die intelligent Computer herstellen wollten, aber von jenen (Militärs), die das finanzierten. S. Ceccato hat schon während des 2. Weltkrieges von US-Militär dafür Geld bekommen. Auch J. McCarthy hat versprochen, das Problem mit seiner Programmiersprache Lisp in kurzer Zeit zu lösen, allein es blieben kümmerliche Ansätze, was damit erklärt wurde, dass die Semantik im Unterschied zur Syntax, die beispielsweise N. Chomsky behandelt hatte, zu komplex sei.
Man wählte einfachere Probleme, die aber auch für vermeintlich intelligente Menschen doch ziemlich gross waren. Schach wurde zum Standardbeispiel, weil - davon abgesehen, dass es auch keine einleuchtende Lösungen gab - das Spiel algorythmisch begriffen werden kann. Das zeigte bereits der Schachtürke, der 1769 als uhrwerkbetriebener Automat vorgestellt wurde. Vor allem aber klassifizierte J. von Neumann 1944 seiner Spieltheorie das Schachspiel als "endliches Zwei-Personen-Nullsummenspiel mit vollständiger Information".
Das Schachproblem wurde "gelöst". Die Lösung allerdings bestand darin, enorme Copmputerpower einzusetzen und als Kriterium den Sieg über einen Weltmeister zu erreichen. Das Ziel der Computerindustrie (IBM) bestand darin, paralleles Rechnen zu erforschen. IBM erreichte ihr Ziel und hat das Projekt abgebrochen. Wohl auch, weil sie kein Markt für solche Rechner zeigte und sich die Militärs auch keine Anwendung vorstellen konnten. Wir wissen deshalb nicht, wie gut Deep Blue Schach spielt, aber wir wissen, dass dieser Problemtyp der KI nicht wesentlich weiter geholfen hat.
Die Bioniker, die neuronale Netzwerke konstruieren wollten, scheiterten bei Bau von Maschinen, was sie aber nicht hinderte, an ihrer Idee festzuhalten und ihre Ansätze weiter zu entwickeln, vielleicht auch deshalb, weil sie damit nervenphysiologische Erklärungen hervorbringen konnten.
Die Fragen, die sie sich stellten, waren bionisch, das heisst, sie hatten weniger einen konkreten Nutzen von Maschinen im Auge, als konstrutiv zu verstehen, wie das Nervensystem funktioniert. Eine typische Frage war, wie Menschen ... Bilder .. erkennen .. wobe die Bilder als Pixelmuster begriffen wurden.
hier die Geschichte des NN !!