Computerdenken
1. Algorithmisch nicht lösbare Probleme (Penrose)
1.1. Ein Computer kann (zukünftig) eine beliebig hohe künstliche Intelligenz besitzen, wenn man unter Intelligenz die Fähigkeit zur Lösung von komplizierten, aber algorithmisch berechenbaren Problemen versteht. Nicht alle Probleme, auch nicht alle mathematischen Probleme, sind aber algorithmisch berechenbar. Ob das Gehirn ausschließlich algorithmisch arbeitet, ist nicht erwiesen, eher unwahrscheinlich. Wenn Bewußtsein eine Begleiterscheinung oder Eigenschaft eines extrem komplizierten, aktiven Algorithmuses ist, so könnte auch ein Computer Bewußtsein besitzen. Bewußtsein müßte dann verstanden werden als eine emergente Eigenschaft eines komplizierten, komplexen Systems von aktiven Algorithmen.
Penrose unterscheidet 4 Standpunkte zum Wesen des Bewußtseins mit unterschiedlichen Konsequenzen bezüglich der Bewertung von Computern:
A) Bewußtsein ist nichts weiter als die Ausführung komplizierter Berechnungen im Gehirn. Demnach kann ein Computer Bewußtsein haben. Das ist im Grunde ein mechanisch - reduktioneller Standpunkt.
B) Bewußtsein ist eine Eigenschaft physikalischer Vorgänge im Gehirn. Jeder tatsächliche Prozeß läßt sich zwar rechnerisch simulieren, aber eine Computersimulation allein schafft noch kein Bewußtsein. Ein Computer kann sich deshalb nur so verhalten, als ob er Bewußtsein hätte. Bewußtsein ist damit per Definition eine Eigenschaft, die nur Lebewesen zukommt.
C) Es gibt im Gehirn physikalische Prozesse, die zu Bewußtsein führen, aber diese lassen sich nicht rechnerisch angemessen simulieren. Die Simulierung dieser Vorgänge erfordert eine Weiterentwicklung der Physik. Hieraus folgt, daß wir nach Erkenntnis der entsprechenden Gesetze Apparate mit Bewußtsein bauen könnten, aber das wären dann keine Computer.
D) Bewußtsein läßt sich überhaupt nicht wissenschaftlich erklären. Diesen Standpunkt lehnt auch Penrose als mystisch - religiös ab.
Penrose versucht den Standpunkt C zu begründen. Das wäre letzten Endes aber auch Reduktionismus. Ich würde deshalb Bewußtsein lieber als emergente Eigenschaft eines aktiven Systems komplexer Algorithmen definieren, weil alle Systeme emergente Eigenschaften haben können, auch wenn wir (noch ? ) nicht so richtig verstehen, wodurch Emergenz letzen Endes zustande kommt. Das würde bedeuten, daß wir auch in Zukunft keine Computer mit Bewußtsein bauen könnten, aber es könnten sich die Computer in einer Art Evolutionsprozeß dahin entwickeln. Mit dem Bewußtsein hätten sie aber dann auch Verantwortungsbewußtsein und Rechte und Pflichten.
Im Unterschied zu Vollmer versteht Penrose unter Bewußtsein etwas anderes als "menschliches Denken", nämlich "echtes Verstehen" als passives und den freien Willen als aktives Bewußtsein, wobei er aber eine klare Definition vermeidet. Echtes Verstehen ist meines Erachtens aber nichts weiter als die Einordnung neuer Erkenntnisse in das innere Abbild und der freie Wille ist das Abfragen des inneren Simulationsmodells angesichts neuer Wahrnehmungen und Erkenntnisse, das heißt es gibt im Bewußtsein nichts außer Gedächtnis, Abbild und Simulation. Meines Erachten liegt der Unterschied im Verhalten des Menschen und des Computers nur darin, daß heutige Computerprogramme nicht die gesamte Rechenerfahrung des Computers speichern, auch nicht bei sog. Aufwärtsrechnungen. Wenn sie das tun würden, dann könnte auch ein Computer z. B. beim Schachspiel die Situation "einschätzen", ohne das er alle Varianten durchrechnen muß. In anderen Situationen, z. B. bei Kunstschöpfungen, fehlt dem Computer jedoch die genetische Erfahrung des Menschen, aber auch das ist nichts prinzipiell anderes als die Rechenerfahrung der anderen Computer.
In allen Varianten außer D werden die Computer (oder entsprechend C andere "Apparate") dem Menschen in Bezug auf seine geistigen Leistungen in absehbarer Zeit überlegen sein. Dabei steht der Mensch im Falle B einer geistlosen, ihm überlegenen Computerwelt gegenüber, während er in allen anderen Fällen die Chance hätte, sein individuelles Bewußtsein auf die Maschine zu übertragen und somit in ihr fortzuleben.
1.2. Eine universelle Turingmaschine wählt mit Hilfe eines endlichen Algorithmuses aus einer abzählbar unendlichen Folge von vorgegebenen Algorithmen den Algorithmus aus, der aus beliebig vorgegebenen Eingabedaten eine Lösung berechnet. Wenn die Lösung eines Problems existiert, dann ist eine universelle Turingmaschine in der Lage, diese Lösung in einer endlichen Zeit zu finden. Es gibt jedoch keinen universellen Algorithmus, mit dem festgestellt werden kann, ob eine Lösung existiert oder nicht, wenn sie nicht existiert, d. h. es kann nicht bestimmt werden, ob eine Turingmaschine jemals anhält oder nicht, d. h. es gibt Probleme, die nicht algorithmisch lösbar, die nicht berechenbar sind.
1.3. Die Objekte der Mathematik sind nicht materieller Art und existieren trotzdem objektiv, d. h. unabhängig vom menschlichen Bewußtsein. Viele Objekte der Mathematik sind sogar nicht exakt berechenbar, obwohl sie objektiv existieren (z. B. die Mandelbrot-Menge). Wenn die Unberechenbarkeit aber nur aus einer Ungenauigkeit der Anfangsbedingungen resultiert, gehört das Problem dennoch zur Klasse der algorithmisch lösbaren Probleme.
1.4. In jedem formalen mathematischen System gibt es wahre Aussagen, die innerhalb und mit den Mitteln des betrachteten Systems weder bewiesen noch widerlegt werden können (Gödelscher Satz). Wahrheit ist deshalb eine Kategorie, die über der Beweisbarkeit steht. Erkenntnis von Wahrheit kann somit ein nicht-algorithmischer Prozeß sein und Wahrheit nicht beweisbar.
Man kann den Gödelschen Satz aber auch so verstehen, daß in jedem formalen System mit hinreichender Komplexität Aussagen formuliert und Eigenschaften gefunden werden können, die nicht Elemente des Systems sind, die also über die Summe der Elemente hinausreichen. Das wäre dann ein Beweis für das Existieren emergenter Eigenschaften in jedem ausreichend komplexen System. Solche emergenten Eigenschaften bezeichnet Penrose offenbar als algorithmisch nicht berechenbar.
Weiterhin gibt es Probleme, die zwar im Prinzip exakt berechenbar sind, die aber praktisch nicht berechenbar sind, weil sich beweisen läßt, daß die Komplexität der Berechnung stärker als jede Potenz mit der Anzahl der Elemente zunimmt.
Penrose sucht eine neue, nicht-algorithmische Physik. Ich kann nur sehen, daß er beweisen will, daß die Physik nicht reduktionistisch ist. Das dürfte aber klar sein, da weder die Maxwellsche Theorie noch die Quantentheorie aus der klassischen Mechanik hergeleitet werden kann. Die Theorie für alles (GUT) gibt es aber (noch) nicht.
2.1. Die GROSSARTIGKEIT einer physikalischen Theorie wird durch die Weite und Exaktheit ihrer Geltung bestimmt. Zu der Kategorie GROSSARTIG gehören die Euklidische Geometrie, die Newtonsche Dynamik, die Maxwellsche Theorie der Elektrodynamik, die Spezielle und die Allgemeine Relativitätstheorie und die Quantentheorie, sowie mit Einschränkungen die Quantenelektrodynamik.
NÜTZLICHE Theorien sind dadurch charakterisiert, daß sie auf bestimmten Teilgebieten der Physik eine sehr gute Übereinstimmung mit Experimenten aufweisen, ohne aber die Allgemeinheit der GROSSARTIGEN Theorien zu erreichen. Zu dieser Kategorie gehören die Thermodynamik, die Quantenchromodynamik und das Standardmodell der Theorie der schwachen Wechselwirkungen sowie die Theorie des Urknalls.
Zu den VORLÄUFIGEN Theorien zählen die Stringtheorien, die GUT - Theorien und das daraus abgeleitete Inflationsmodell. Ihnen fehlt eine nennenswerte experimentelle Abstützung.
Die Einordnung in die Kategorie GROSSARTIG bedeutet nicht, das eine solche Theorie nicht irgend wann einmal korrigiert oder weiterentwickelt werden müßte.
2.2. Die klassische Physik wird durch die Euklidische Geometrie, die Newtonsche Mechanik, die Maxwellsche Elektrodynamik und die Spezielle Relativitätstheorie bestimmt. In der klassischen Physik herrscht strenger Determinismus, d. h. die zukünftigen Zustände sind eindeutig durch vergangene Zustände bestimmt, d.h. aber nicht, daß letzere aus ersteren berechenbar sein müssen. Diese Unberechenbarkeit resultiert aus einer nicht exakten Kenntnis der Vergangenheit und dokumentiert sich besonders in den Aussagen der Chaostheorie.
Die Spezielle Relativitätstheorie verstärkt den Determinismus noch in der Richtung, daß vergangene Ereignisse zukünftige Ereignisse nur dann beeinflussen können, wenn sie innerhalb des Lichtkegels liegen.
Die Allgemeine Relativitätstheorie wird zwar auch noch zu den klassischen Theorien gezählt, jedoch ist Gleichzeitigkeit und Vergangenheit infolge der Raumkrümmungen nicht exakt definierbar und das Problem des Determinismus noch nicht exakt geklärt. (Versagen des Determinismus bei extrem starken Gravitationsfeldern in Schwarzen Löchern). Des weiteren sind Masse und Energie keine Erhaltungsgrößen mehr, sondern Erhaltungsgröße ist der Vierervektor des Energie - Impulses. Daraus resultiert, daß das Einsteinsche Gravitationsfeld keine lokalisierbare Energiedichte besitzt. Materie ist dann nur noch als Energie Impuls - Vektor definierbar, da beim Übergang in ein anderes Bezugssystem weder die Masse noch die Energie erhalten bleibt. (Diese Problematik wird offenbar durch die Logunowsche Gravitationstheorie behoben)
2.3. Während in der klassischen Physik der Zustand eines Systems durch Angabe von Ort und Impuls jedes Teilchens eindeutig für Gegenwart und Zukunft im Prinzip beliebig genau bestimmt ist, wird der Zustand eines Teilchens auf der Quantenebene durch eine komplexe Funktion des Ortes festgelegt, die gleichzeitig die möglichen Impulse in sich enthält. Auf der klassischen Ebene wird die Ungenauigkeit der Zustände durch eine additive Überlagerung von positiv definiten Wahrscheinlichkeiten repräsentiert. Auf der Quantenebene bestimmt die komplexe Funktion als Wahrscheinlichkeitsamplitude die möglichen Orte und Impulse des Teilchens. Die zeitliche Entwicklung der Wahrscheinlichkeitsamplitude ist durch die Schrödingergleichung genauso exakt determiniert wie in der klassischen Physik.
In der klassischen Physik beschreibt ein Punkt im (3N-dimensionalen) Phasenraum den Zustand eines Systems von N Teilchen. Auf der Quantenebene repräsentiert eine Richtung im komplexen Hilbert-Raum einen Quantenzustand des betrachteten physikalischen Systems, wobei ein einzelnes freies Teilchen bereits einen unendlich - dimensionalen Hilbert - Raum zu seiner Beschreibung erfordert. Alle Ortszustände sind zueinander orthogonal, aber Impulszustände sind nicht zu den Ortszuständen orthogonal.
Auf der klassischen Ebene bewegt sich der Zustandsvektor eines Systems auf einer Kurve durch den Phasenraum (als Funktion der Zeit). Auf der Quantenebene wandern die Richtungen der Zustandsvektoren (die Wahrscheinlichkeitsamplituden) auf einer Kurve auf der Oberfläche der Einheitskugel im Hilbert-Raum, determiniert durch die Schrödingergleichung. (Unitärer Prozeß U ).
2.4. Durch eine Messung wird der Quantenzustand auf die Klassische Ebene gehoben. Dabei wird der Zustandsvektor im Hilbert-Raum in die durch die Art der Messung bestimmten orthogonalen Basisvektoren zerlegt und der Zustandsvektor springt mit den durch die Quadrate der Projektionen festgelegten Wahrscheinlichkeiten in eine der zueinander orthogonalen Richtungen. (Reduktionsprozeß R ). Die zufällig so festgelegte neue Richtung bestimmt den Ausgangszustand für den anschließenden zeitlichen Entwicklungsprozeß U . Untersucht man die aus diesem Reduktionsprozeß resultierenden Effekte, so stellt sich heraus, daß diese im Widerspruch zur Speziellen Relativitätstheorie stehen, da Vorgänge außerhalb des Lichtkegels miteinander korreliert sind. Das kann auch so interpretiert werden, daß der durch die Messung ausgelöste Reduktionsprozeß vom Bewegungszustand des Beobachters abhängt, da erst durch ihn entschieden wird, welche von zwei räumlich entfernten Messungen zuerst stattgefunden und den Reduktionsprozeß ausgelöst hat. Damit wäre aber das Prinzip der Kausalität in Frage gestellt. Die Reduktion kann also nicht durch die Messung ausgelöst werden und müßte andere Ursachen haben. Verborgene Parameter können aber nur dann dafür in Anspruch genommen werden, wenn sie nichtlokalen Charakter haben und ebenfalls Orte außerhalb des Lichtkegels gleichzeitig beeinflussen.
2.5. Die Quantenelektrodynamik ist zwar eine relativistische Quantentheorie der Elektronen, bezieht sich aber nur auf die unitären Prozesse und löst nicht das in 2.4. dargestellte Problem der Reduktion. Nach Auffassung von Penrose ist eine radikale Erweiterung oder Neugestaltung der Quantentheorie erforderlich, die die Gesetzmäßigkeiten genauer beschreibt, die an der Grenze zwischen Quantenebene und makroskopischer Beschreibungsebene zur Reduktion der Wahrscheinlichkeitsamplituden auf beobachtbare Wahrscheinlichkeiten führen, was zeitlich asymmetrische Prozesse sind.
2.6. Die Vorstellung, daß die Zeit aus der festgelegten Vergangenheit in eine unbestimmte, offene Zukunft fließt, also asymmetrisch ist, steht im Widerspruch zu den meisten physikalischen Grundgleichungen, die eine Zeitumkehr ohne weiteres zulassen. So ist in der Relativitätstheorie der Fluß der Zeit aufgehoben in der Vorstellung einer 4-dimensionalen Raumzeit, die sowohl in der Vergangenheit wie auch in der Zukunft statisch in ihrer Gesamtheit existiert. Damit sind vergangene und zukünftige Ereignisse vollständig determiniert. Am klarsten kommt dies darin zum Ausdruck, daß die außerhalb des Lichtkegels liegenden Ereignisse je nach dem gewählten Koordinatensystem ihre Reihenfolge umkehren können, die dadurch in der Realität keine Aufeinanderfolge besitzen können. Die Gegenwart ist damit kein Zeitpunkt, sondern durch das gesamte Gebiet außerhalb des Lichtkegels definiert. In diesem Gebiet muß damit die Reduktion der Wahrscheinlichkeitsamplituden der Quantentheorie durch nichtlokale Prozesse ausgelöst werden. Durch diese Prozesse wird somit die Asymmetrie der Zeit ständig wiedererzeugt.
Auf der anderen Seite ist der durch die ständige Zunahme der Entropie charakterisierte Prozeß der kosmischen Evolution ein eindeutig asymmetrischer, irreversibler gerichteter Prozeß. Der Urknall war infolge der außerordentlichen Homogenität des zusammengeballten Universums ein Zustand minimaler Entropie. Dieser Zustand kann dadurch charakterisiert werden, daß das Gravitationsfeld außerhalb der Quellen verschwindet. (WEYL=0 als Anfangsbedingung, Weylsche Krümmungshypothese). Durch die Bildung von Teilchen und Strahlung, durch die Ausdehnung der diffusen Gaswolken, durch deren gravitationsbedingte Zusammenballung zu Sternen und Galaxien, durch die Umwandlung von Masse in Strahlung bei den Fusionsprozessen in den Sternen, durch die Absorption von Strahlung niedriger Entropie und die Emission von Strahlung hoher Entropie durch die Planeten, durch die Zusammenballung von Materie in den Schwarzen Löchern ist ein ununterbrochener Zuwachs an Entropie möglich, durch den die Evolution des Kosmos bedingt ist und der wahrscheinlich endet mit der Vereinigung sämtlicher Materie des Kosmos in einem einzigen Schwarzen Loch mit ungeheuer großer Entropie. An den Singularitäten der Raumzeit aber ist die heutige Physik am Ende und die Spekulation beginnt.
2.7. Penrose konstruiert einen Zusammenhang der Informationsvernichtung in Schwarzen Löchern mit dem asymmetrischen Reduktionsprozeß der Quantentheorie, der eine Gesetzmäßigkeit der Korrekten Quantengravitation (KQG) sein müßte: Beim Prozeß der Quantenreduktion findet eine zeitlich asymmetrische Aufspaltung der Zustandstrajektorien eines Systems statt, die nur bei der Informationsvernichtung durch Vereinigung getrennter Trajektorien in Schwarzen Löchern ebenfalls zeitlich asymmetrisch wieder verschwindet. Nur dadurch bleibt die Gesamtanzahl der möglichen Trajektorien im Universum konstant. Die Reduktion des quantenmechanischen Zustandsvektors wäre damit ein Effekt der Quantengravitation. Um diesen Zusammenhang herzustellen, postuliert Penrose, daß der quantentheoretische Zustand in Form der zeitlichen Entwicklung der Wahrscheinlichkeitsamplituden U solange bestehen bleibt, bis die daraus resultierenden Alternativen sich im lokalen Gravitationsfeld um mehr als ein Graviton (== 10^(-5) Gramm) unterscheiden, wenn diese Alternativen sich manifestieren würden. Sobald dieser Punkt erreicht ist, findet die Reduktion R statt und wird Ausgangspunkt eines neuen unitären quantenmechanischen Prozesses U. Damit wird die Reduktion völlig unabhängig von einer Messung oder Beobachtung und nur durch die internen Wechselwirkungen des Systems bestimmt.
Diese Hypothese wird durch die Entdeckung nichtperiodischer Quasikristalle unterstützt, deren Bildung eine nichtlokale Wechselwirkung bei der Anlagerung der Atome an einen wachsenden Kristall voraussetzt. Nach dieser Vorstellung bilden sich beim Kristallwachstum gemäß dem unitären Prozeß U zunächst alle möglichen Gitterzustände virtuell und fixieren sich nach dem Anwachsen auf eine durch ein Graviton bestimmte Größe durch einen Reduktionsprozeß R in dem dann energetisch günstigsten Zustand.
In seinem Buch "Schatten des Geistes" modifiziert Penrose diese Vorstellung dahingehend, daß die Reduktion R ein Zerfallsprozeß mit einer Zeitkonstante ist, die durch die Energiedifferenz als Unschärfe in der Gravitationsenergie der verschiedenen Zustandsvektoren bestimmt wird, dergestalt, daß bei anwachsender Energiedifferenz die Zerfallskonstante immer größer und damit die Zerfallswahrscheinlichkeit, also die Wahrscheinlichkeit einer Reduktion R immer größer wird. Auch hierbei ist die zunehmende Unschärfe des Energieniveaus durch Wechselwirkungen mit der Umgebung bestimmt, wodurch die Reduktion ausgelöst wird. Diese Reduktion ist nichtlokal und findet gleichzeitig im gesamten Raum auch außerhalb des Lichtkegels statt.
In dieser Vorstellung kann ich aber kein nicht-algorithmisches Element sehen.
3.1. Die Einheit der Welt entsteht aus einer Verschränkung dreier Welten, die auseinander hervorgehen: der physikalisch realen Welt, der Welt der bewußten Wahrnehmungen und der platonischen Welt der mathematischen Ideen. Penroses Verständnis dieser Drei Welten ist aber anders als das Verständnis Poppers.
3.2. Penrose folgt der Betrachtungsweise Platons, nach der die Welt der mathematischen (und anderen) Ideen das Primat besitzt und die physikalische Welt die Realisierung eines Teils der Ideenwelt darstellt. Die Naturgesetze als Teil der Ideenwelt liegen dann der Entwicklung der physikalischen Welt zugrunde.
3.3. Die Welt der bewußten Wahrnehmungen ist eine Widerspiegelung eines Teils der physikalisch realen Welt und aus ihr hervorgegangen. Die Übereinstimmung der bewußten Wahrnehmungen mit der physikalischen Realität ist nach Platon und Penrose eine Folge des gemeinsamen Ursprunges in der Welt der Ideen. Damit ist das Bewußtsein auch eine Widerspiegelung eines Teils der Welt der Ideen. Das steht in gewissem Widerspruch zu der bildlichen Darstellung Penroses, nach der die Welt der (mathematischen) Ideen nur einem sehr kleinen Teil unserer bewußten geistigen Tätigkeit entspricht, die vorwiegend der Auseinandersetzung mit der realen physikalischen Welt gewidmet ist. Eine direkte Einflußnahme der Welt der Ideen auf die Welt der bewußten Wahrnehmung scheint wenn überhaupt, dann nur auf dem Gebiet der Mathematik vorzukommen. (oder durch Mystik und Meditation)
3.4. Die Beziehungen zwischen der Welt der Ideen und der Welt der bewußten Wahrnehmungen sind genauso rätselhaft, wie die Beziehungen zwischen der Welt der Ideen und der physikalischen Welt und die Beziehungen zwischen letzterer und der Welt der bewußten Wahrnehmung. Offenbar besteht eine (emergente) Verflechtung höherer Ordnung, die sich nicht durch linear zweiseitige Beziehungen darstellen läßt und die möglicherweise unmittelbar mit der Evolution korrespondiert. (siehe Hegels Selbstverwirklichung des Geistes)