in: KI Künstliche Intelligenz, Heft Nr. 2/94 (Juni), S. 86 ff, Interdata, Katzenelnbogen 1994
Als der Ausdruck "Intelligenz" zur Charakterisierung von Maschinen eingeführt wurde, war er umgangssprachlich bereits besetzt, jedermann kannte das Wort und wusste, was es bedeutet - wenigstens solange er es nicht ausdrücklich sagen musste. Der Begriff "Künstliche Intelligenz" wird allgemein dem LISP-Entwickler J. McCarty zugeschrieben, aber natürlich musste die Fachgemeinde den Begriff akzeptieren, also mit den im Begriff implizierten Assoziationen mindestens oberflächlich einverstanden sein. Weshalb aber bezeichnen Informatiker bestimmte Automaten als intelligent? Und wenn dieser Namensgebung eine Ahnung davon zugrunde liegt, was wir mit "Intelligenz" eigentlich meinen, lautet die Frage nach der Intelligenz(-definition): "Welche Maschinen sind überhaupt intelligent?"
Im naivsten Falle verlangen die Ingenieure von intelligenten Maschinen einfach, dass sie Aufgaben lösen (können), von welchen man gemeinhin annimmt, dass man sie nur mit Intelligenz lösen kann. M. Minsky drückte dies viele Jahre, nachdem A. Turing seinen immerhin operationalen Test für Intelligenz in Maschinen vorgestellt hatte, in seiner nach wie vor beliebten Formulierung aus: Maschinen sind intelligent, wenn sie Aufgaben lösen, "zu deren Lösung Intelligenz notwendig ist, wenn sie vom Menschen durchgeführt werden". Im etwas weniger naiven Turing-Test wird leider nicht die Leistung der Maschine, sondern ein Eindruck, den diese Leistung auf durchschnittliche Menschen macht, gemessen. A. Turing sagte willentlich nicht, was wir unter Intelligenz verstehen (sollen), sondern nur, wie man sie bei einem Automaten feststellen könnte. Er unterstellte dabei im Sinne von M. Minsky, dass Menschen, die seinen Test mitspielen und quasi gegen Maschinen verlieren können, intelligent sind - denn würden die Computer Menschen bei etwas imitieren, wovon wir gar nicht wissen, ob es Intelligenz verlangt, könnten wir diesen Computern wohl nur sehr bedingt Intelligenz zusprechen.
Die Formulierungen von Minsky und Turing suggerieren, dass Automaten mehr oder weniger gute Ersatzmenschen sind, die anstelle von Menschen arbeiten, und deshalb auch das können müssen, was die kopierten oder imitierten und schliesslich ersetzten Menschen können. Es scheint, dass wir überhaupt erst anhand von zu ersetzenden, halbwegs intelligenten Arbeitskräften wissen, was ein Automat leisten sollte, und dass wir deshalb die Automaten an den - leider nicht genau bekannten - Fähigkeiten von Menschen messen müssten.
Wenn die Ingenieure die Buchstabenkette "Intelligenz" im Zusammenhang mit Maschinen nicht ganz zufällig einführten, interpretierten sie "Intelligenz" als Metapher. Metaphern sind unei- gentliche Wortverwendungen, mit welchen etwas ganz bestimmtes ausgedrückt werden soll, ohne dass man dafür eigentliche Worte hat. So kann ich in unserer Sprache etwa zu einem Menschen sagen, er sei ein Esel, und wenn er kein Esel ist, versteht er mich ohne weiteres, obwohl oder gerade weil er weiss, was "Esel" eigentlich heisst. Zunächst haben Metaphern einen kommunikativ wichtigen Effekt, indem sie die Sprache sehr ausdrucksstark machen. Metaphern sind aber auch erkenntnisleitend, weil sie immer bestimmte Zusam- menhänge aufdecken. Auch wenn viele KI-Ingenieure mehrfach darauf verwiesen haben, dass ihre Verwendung des Wortes "Intelligenz" mit dem alltäglichen Sprachgebrauch nicht übereinstimmt, so wollten sie für ihre Automaten offenbar trotzdem kein anderes Wort verwenden. Vielleicht, weil sie intuitiv merkten, was mit dem Ausdruck "Intelligenz" eigentlich bezeichnet wird.
Metaphern sind gerichtete Relationen. Mit "Esel" scheinen wir eine Eigenschaft von einem Tier auf einen Menschen zu übertragen, mit "Intelligenz" eine Eigenschaft von Menschen auf Maschinen. Die Metaphern funktionieren aber unabhängig davon, welche Verwendung die eigentliche und welche die metaphorische ist. Deshalb sollten wir die Übertragungsrichtung der Intelligenzmetapher untersuchen. Wenn nämlich die KI-Ingenieure mit ihrer Verwendung des Ausdrucks die Basis der Metapher aufdeckten, ist "Intelligenz" eine nicht-metaphorische Charakterisierung bestimmter Automaten. "Intelligenz" steht dann primär - wenn auch erst später gefunden - als Charakterisierung einer Sache, über die man begrifflich sprechen kann - nämlich als Eigenschaft von Maschinen.
Eine sehr einfache Lösung des Dilemmas der KI-Ingenieure, die sich die Intelligenz der Automaten, die sie erforschen, nicht explizit vorstellen können, äussert sich in einer häufig vorgeschlagenen, aber meistens ironisch gemeinten Selbstverneinung der KI-Forschung: "Künstliche Intelligenz ist alles, was noch nicht programmiert wurde". Frei nach N. Nilsson: "Künstliche-Intelligenz-Forschung ist, wenn es der Computer zustande bringt, dann gehört es nicht mehr zur KI-Forschung!" Der KI-Prophet D.R. Hofstadter schreibt die Formulierung einem L. Tessler zu: "AI ist alles, was noch nicht getan wurde". Ironisch sind solche Formulierungen, wenn sie ausschliesslich bedeuten sollen, was Humanisten intuitiv ohnehin klar ist, dass sich nämlich Intelligenz und das, was eine Maschine macht, ohnehin ausschliessen.
Natürlich sind auch in der ironischen Formulierung nicht alle noch nicht geschriebenen Programme gemeint. Die in der "Selbstverneinung der KI-Forschung" gemeinte Unterscheidung ist die zwischen herstellbaren und (noch) nicht herstellbaren Automaten. Als (noch) nicht herstellbare Automaten betrachten wir ohne jede Ironie wirkliche Dinge, die, wenn wir sie hätten, Automaten wären, weil sie die Kriterien des Automatenseins erfüllten. Wirkliche Automaten sind keine Konzepte, Modelle oder Beschreibungen, sondern gesteuerte Maschinen. Sie unterliegen physikalischen Bedingungen, was Phantasiegebilde wie etwa das Perpetuum mobile aus dem Bereich der (noch) nichtherstellbaren Automaten ausschliesst, obwohl sie nicht herstellbar sind. Dann gibt es natürlich neben offensichtlich unsinnigen Programmen, die wir gar nicht schreiben wollen, auch viele praktische Programme, die nur aus Zeit- oder Geldmangel noch nicht geschrieben wurden und insofern die Automaten auch nicht intelligent machen würden. Umgekehrt schliesslich sprechen wir auch jenen noch nicht herstellbaren Maschinen keinerlei Intelligenz zu, die wir nur noch nicht bauen können, weil wir etwa die nötigen Fertigungstoleranzen oder Materialeigenschaften noch nicht realisieren können.
Intelligente Automaten sind solche, die eine Werkzeugfunktion wahrnehmen würden, deren Realisierung aber an unserem konstruktiven Verständnis scheitert (1). Die wesentliche Einschränkung, die nötig ist, damit man die ironisch gemeinte Redeweise "alles, was noch nicht programmiert wurde" ernst nehmen kann, besteht also darin, dass man den implizierten Begriff "Automat" inhaltlich konkret auffasst. Genau die Werkzeuge, deren Funktion wir kennen, die wir aber (noch) nicht herstellen können, weil wir ihre Funktionsweise noch nicht durchschauen, sind intelligent. Ein intelligenter Automat ist also beispielsweise ein Automat, der die menschliche Sprache so "versteht", dass man ihm Texte, die man geschrieben haben möchte, so diktieren könnte, wie man sie einer Datatypistin diktieren kann. Dieser Automat würde ein Diktaphon, eine Schreibmaschine und die spezifische Tätigkeit einer Datatypistin (2) ersetzen. Natürlich ist die Formulierung, "ein KI-Automat müsste die Sprache so verstehen wie eine tippende Schreibkraft", obwohl sie den Werkzeugcharakter des Automaten zeigt, immer noch anthropomorph, weil die zu realisierende Funktion des Automaten unausgesprochen bleibt, indem wie bei A. Turing nur gesagt wird, wer diese Funktion bereits erfüllt.
Wir können aber die Automatenfunktion von Datatypistinnen unabhängig beschreiben. Der postulierte Automat zeigt seine Intelligenz beispielsweise darin, dass er richtige und falsche Sätze unterscheidet. Eine Möglichkeit richtige und falsche Sätze zu unterscheiden, besteht in der Verwendung einer Grammatik (3). Unser Automat müsste, falls er diese Möglichkeit realisieren sollte, unter anderem eine annähernd vollständige Grammatik der jeweiligen Sprache repräsentieren, wobei auch "annähernd vollständig" nicht an einer durchschnittlichen Sekretärin gemessen werden muss, sondern als von menschlichen Vorbildern unabhängige, zulässige Fehlerrate festgelegt werden kann.
Einen Automaten, der die gestellte Aufgabe mit einer vertretbaren Fehlerrate löst, können wir (noch) nicht bauen, obwohl wir wissen, was er leisten sollte, weil wir - und das ist das entscheidende Kriterium - diese Grammatik für zwischenmenschliche Sprachen (noch) nicht explizit zur Verfügung haben. Noch mehr vermissen wir die Grammatik in Übersetzungsmaschinen. Die Übersetzungen der zur Zeit besten Übersetzungsautomaten verlangen eine Nachbearbeitung durch einen Übersetzer, die etwa halb so viel Zeit in Anspruch nimmt, wie die Übersetzung ohne den Automaten. Das ist in bezug auf eingesparte Arbeitszeit sehr viel, wir hätten aber gerne Automaten, die besser übersetzen als "intelligente" Menschen.
Der "automatische" Schach-Türke, eine Pseudomaschine, in welcher ein schachspielender Mensch sitzt, ist ein Sinnbild dafür, dass wir nicht nur mittels Menschen Maschinenfunktionen vorwegnehmen, sondern auch Problemstellungen für Maschinen, die wir noch nicht konstruieren können. Wir stellen (uns) Maschinenaufgaben, lange bevor wir uns die Maschinen vorstellen können, die diese Aufgaben lösen. Das Schachspiel, ein Lieblingskind der KI-Ingenieure, ist eine dafür typische Problemstellung. Die Schachautomaten sind sicher keine Werkzeuge, aber sie stellen insofern gleiche Probleme wie andere intelligente Automaten, als sie ebenfalls Verkörperungen eines Algorithmus oder einer geschickten Balance mehrerer Algorithmen sind und eine Funktion haben, die man sachlich, also ohne Bezug auf schachspielende Sekretärinnen oder Türken beschreiben kann. Die Menge von Daten und Relationen, die im SchachSpiel memoriert und strategisch bewertet werden müssen, antizipieren eine vorzügliche Datenverarbeitungsanlage, von der man meinen könnte, dass sie in der Erfindungszeit des königlichen Spieles noch nicht einmal geträumt werden konnte. Das Schachspiel ist aber genau die Form, in welcher schon damals von algorithmisch gesteuerten Robotern geträumt wurde. Und was unterscheidet schon den arbeitenden vom schachspielenden Roboter - ausser dass wir lieber Schach spielen als arbeiten?
Dass Schach ein Maschinenproblem ist, zeigt sich auch in den Spielzeitlimits, die zum Schach gehören. Sie sind für ungeduldige Menschen praktisch, aber dafür, dass Schach ein Maschinenproblem bleibt, sind sie absolut nötig, weil die Turingmaschine ohne diese Limits natürlich jedes Schachproblem löst. Dass Menschen, wenigstens die intelligente(ste)n, mit Schachfiguren vorderhand noch besser umgehen können als Automaten, zeigt lediglich, dass Menschen, wo es um nichts (produktives) geht, Automaten noch ersetzen können. Dass es Menschen gibt, die Freude daran haben, dass sie besser schachspielen können als Maschinen, lässt sich motivationstheoretisch als spielerischen Umgang mit einer (produktiv) ernsten Sache verstehen, so wie wir etwa das spielerische Verhalten von jungen Katzen als Vorwegnahme des Beutefangens deuten.
Wenn man intelligent ist, versteht man, inwiefern ein Mensch überhaupt intelligent ist. Menschen - auch intelligente Menschen -sind nicht eigentlich, sondern nur in einem übertragenen Sinne intelligent. A. Einstein, der oft als Beispiel für einen intelligenten Menschen herhalten muss, war so wenig intelligent, wie irgendein anderer Mensch, von welchem man begründet sagen kann, dass er ein Esel sei, ein wirklicher Esel ist. Menschen sind intelligent, wenn sie die Fähigkeit haben, Automatenprobleme zu lösen. So gilt uns das Bewältigen der sicher anspruchsvollen Aufgabe, ein Kind zur Welt zu bringen und aufzuziehen, keineswegs als Indiz für vorhandene Intelligenz, und zwar nicht deshalb nicht, weil diese Aufgabe offensichtlich unabhängig von Intelligenz gelöst werden könnte, sondern deshalb nicht, weil undenkbar ist, dass diese Aufgabe je einer Maschine, wie intelligent sie auch immer sein mag, gestellt wird. Auch die Fähigkeit zu lieben oder Kunst zu geniessen, stellen wir üblicherweise nicht unter die Bedingung der Intelligenz. Wenn wir uns fragen, wie intelligent ein bestimmter Mensch sei, fragen wir nach seinen Fähigkeiten, ganz bestimmte Aufgaben zu lösen. Wir messen unsere Intelligenz an Problemen, die in (un)bewusster Antizipation für Maschinen formuliert wurden. Die sogenannten Intelligenzquotienten-Tests, die die menschliche Intelligenz messen sollen, lesen sich dementsprechend wie Arbeitsprogramme der KI-Ingenieure.
Eine Maschine ist - im primären Sinn - intelligent oder nicht intelligent, wir können sie herstellen oder nicht. Dass wir die menschliche Intelligenz nicht binär quantifizieren, zeigt, dass Menschen im Unterschied zu Maschinen mehr oder weniger intelligent sein können. Metaphern lassen im Unterschied zur eigentlichen Wortverwendung häufig Abstufungen zu. Ein Mensch kann ziemlich intelligent oder ein ziemlicher Esel sein. Ein wirklicher Esel ist ein Esel, obwohl die Metapher ohne weiteres auch zulässt, dass man von einem Esel sagt, er sei ein ziemlicher Esel. Und selbstverständlich kann man auch von einer intelligenten Maschine sagen, dass sie ziemlich intelligent sei. Das macht man aber - bewusst - nur, wenn man die Metapher 2. Ordnung, also die Anwendung der Metapher auf den eigentlichen Referenten des Ausdruckes begriffen hat.
Intelligenz im primären Sinn kann logischerweise nicht gemessen werden. Die metaphorische Intelligenz dagegen wurde im praktischen Leben immer schon anhand der Frage, wieviel Arbeit sparen wir durch die getesteten Fähigkeiten, bewertet. Diese intelligente Frage stellen wir sinnigerweise unabhängig davon, ob wir die Intelligenz einer Maschine oder eines Menschen quantifizieren. Und selbstverständlich ziehen wir in beiden Fällen theoretisch nur jene Fähigkeiten in Betracht, die wir konstruktiv (noch) nicht verstanden haben.
Praktisch gestehen wir Menschen und Maschinen allerdings auch etwas Intelligenz zu, wenn sie Leistungen zeigen, deren konstruktive Voraussetzungen wir erst seit kurzer Zeit beherrschen. Die Metapher lässt eben auch zu, dass wir auch dann noch intelligent scheinen, wenn die Automaten längstens können, was wir ihnen einmal voraus hatten. Deshalb können wir zur Beurteilung der Intelligenz des individuellen Menschen Spiele verwenden, die von der Gattung längstens durchschaut, das heisst konstruiert, sind. Auch wer nur mittelmässig schachspielen kann, also von herkömmlichen Programmen geschlagen wird, ist intelligent - wenn er keine Maschine ist.
1 Zur Entscheidung etwa, ob eine "zweibeinigen Maschine" intelligent sei, müsste man sich (innerhalb der vorliegenden Argumentation) fragen, ob man sie nicht bauen kann, weil man das Prinzip noch nicht verstanden hat. Man sieht anhand von Spielzeugrobotern leicht, das einfache "Zweibeinigkeit", nämlich mit grossfüssigen Auflageflächen, auch leicht zu konstruieren ist. Inwiefern man daraus ableitet, das Prinzip der Zweibeinigkeit verstanden zu haben, ist eben eine Frage der Problemformulierung. Wenn man die kümmerlichen Balanceexeperimente, die in der KI (besonders NN und Fuzzy) sehr verbreitet sind, im Auge hat, dann muss man einer Maschine, die es schafft sich auf zwei Beinen zu halten, wohl Intelligenz zugestehen. zurück
2 Ich schreibe Datatypistin, nicht weil ich gut finde, dass meistens Frauen tippen, sondern weil fast ausschliesslich Frauen tippen. Überdies geht es in dieser Ersetzung nicht um die Sekretärin insgesamt, sondern nur um einen spezifischen Aspekt der Sekretärin. A. Turing schreibt in der Erläuterung seiner Testanordnung: "Wir wollen die Maschine nicht dafür bestrafen, dass sie in Schönheitswettbewerben (für Sekretärinnen, RT) nicht glänzen kann, und auch den Menschen (die Sekretärin, die im Wettbewerb gegen Maschinen kämpft, RT) nicht dafür, dass er (sie) den Wettlauf mit einem Flugzeug verliert. Die Konditionen unseres Spieles machen diese Beschränkungen (die nichts mit Intelligenz zu tun haben), irrelevant". zurück
3 Hier steht "Grammatik", weil in der Linguistik zunehmend mehr zwischen Grammatik und Pragmatik so unterschieden wird, dass die Semantik eine innersprachliche Teilmaschine der Grammatik ist (etwa: Brandt, 1992). In der generativen Grammatik-(Maschine) heissen dann die "produktiven" Regeln Syntax und die "bedeutungsmässig eingrenzenden" Regeln, die mit Lexika arbeiten, Semantik. Gerade von Uebersetzungsautomaten werden wir nicht verlangen, dass sie Sätze in einem aussersprachlichen, pragmatischen Sinne verstehen (Todesco, 1992, 174ff). zurück
Hofstadter, D.: Gödel, Escher, Bach, Stuttgart 1985
Brandt, M., u.a. (Hg): Satz, Satzmodus und Illokution, Linguistische Arbeiten 278, Tübingen 1992.
Todesco, R.: Technische Intelligenz, Stuttgart 1992
Turing, A.: Computing Machinery and Intelligence in: Anderson, R.(Hg), Minds and Machines, Prentice-Hall,
Englewood 1964