ChatGPT und Konsortenbild(Blog-Beitrag)
als Gesprächssimulation
       zurück ]      [ Stichworte ]      [ Die Hyper-Bibliothek ]      [ Systemtheorie ]         [ Meine Bücher ]         [ Meine Blogs ]
 
bild

Large Language Model oder der linguistische Backturn
 

bild

  KI   
  LLM  
  ChatGPT  
  Copilot  

bild

bildA. Turing hat für seine Unterscheidung von intelligenten und nicht intelligenten Computern ein Gesellschaftsspiel verwendet, in welchem die Versuchsperson erraten muss, ob seine Fragen von einen Computer oder von einem Menschen beantwortet werden. J. Weizenbaum hat das Spiel für seinen Computer - weil er ihn im Unterschied zu A. Turing wirklich programmierte - ein wenig modifiziert. Mit seiner Software Eliza simulierte er nur bestimmte Gespräche, beispielsweise ein Gespräch mit einem Gesprächstherapeuten, mit einem entsprechend begrenzten Gesprächsbereich. J. Weizenbaum sagte, dass er sehr überrascht war, als er erkannte, dass seine Versuchspersonen die Simulation nicht erkannten, sondern für echte Gespräche mit einem Menschen hielten.

Seit Ende der 1960er-Jahren gibt es Computer mit Bildschirmen und Tastatur. Etwa 1975 wurde der Ausdruck Dialog-Computer erfunden, weil man die Eingaben und die Ausgaben am Bildschirm als eine Art Austausch von Informationen auffasste. Im einfachsten Fall "antwortete" der Dialog-Computer mit einem Promt für die nächste Eingabe. In komplizierteren Fällen "antwortete" der Computer beispielsweise mit einem Fehlertext wie "ILLEGAL COMMAND”, oder “FILE NOT FOUND”, die der Benutzer als Anweisungen interpretieren konnte, als Befehle, die der Computer ihm gab. Ich gehe davon aus, dass der Ausdruck Dialog-Computer als Marketinggag zur Kennzeichnung von Bildschirmcomputern eingeführt wurde, und dass dabei niemand ernsthaft an einen menschlichen Dialog dachte.

Die Eliza von J. Weizenbaum gibt etwas längere Texte auf den Bildschirm, die im gegebenen Kontext eher an Gesprächsbeiträge erinnern können. Eine junge Frau produzierte zusammen mit Eliza beispielsweise folgende Textsequenz: "Die Männer sind alle gleich. IN WELCHER WEISE? Sie machen uns immer wegen irgendwas verrückt. KÖNNEN SIE EIN BEISPIEL NENNEN? Na ja, die Idee zu diesem Gespräch stammt von meinem Freund." Diese Sequenz zeigt, warum der vom Computer ausgegebene Text als Antwort aufgefasst werden kann, zumal, wenn man nicht weiss, dass hinter dem Bidschirm kein Mensch sitzt. Wenn man aber anders als die von J. Weizenbaum vorgeführten, naiven Sekretärinnen weiss, dass Eliza eine Software ist, die dafür hergestellt wurde, mit solchen Gesprächssequenzen Menschen - in einem blöden Turingspiel - zu täuschen, kann man nachvollziehen, warum das teilweise gelungen war.

Der Copilot simuliert Gespräche viel besser als Eliza. Vor allem aber wird Copilot nicht für Turingtestspiele verwendet, sondern explizit unter dem Marketinggag KI (intelligente Maschinen) als Werkzeug für Textherstellng zur Verfügung gestellt. Es geht dabei also gerade nicht darum zu erkennen, ob Copilot ein Computer ist oder nicht, sondern darum, mittels Copilot Gespräche zu simulieren. Dass solche Maschinen im Internet allen zugänglich gratis zur Verfügung gestellt werden, ist ein eigenes Phänomen, das ich hier nicht betrachten will. Wozu aber sollen Menschen Gespräche simulieren? Simulieren heisst hier nicht eine Krankheit vortäuschen, sondern mit einem Modell verschiedene Möglichkeiten durchzuspielen, um dabei allfällige Probleme und Lösungen zu erkennen. Typische Simulationen sind etwa Crashtests mit Autos oder Feuerwehr-Übungen, bei welchen mit materiellen Modellen gearbeitet wird. Eine spezielle Form des Simulierens verwendet Computer. Bei Computersimulationen ist das Modell programmiert, also nicht nachgebaut. Ich sehe die Resultate der Simulationen am Bildschirm, nicht am Modell. In beiden Fällen muss das Modell, an welchem ich Verfahren teste, dem modellierten Gegenstand hinreichend ähnlich sein, dieses also quasi - wie ein Simulant - als Wirlklichkeit vortäuschen.

Im Gespräch mit Menschen höre ich, wie andere die Welt verstehen. Das hilft mir meiner je eigenen Sichtweise klarer zu werden. Beim Reden wird mir bewusst, mittels welcher Kategorien oder Theorien ich die Welt beobachte. Es geht dabei in diesem Sinne um die allmähliche Verfertigung dereigenen Anschauungen. In der Simulation von Gesprächen erkenne ich, wo andere Menschen Einwände machen könnten. Im sogenannten Kommunikationstraining werden dabei auch teuflische Advokaten verwendet. Sehr oft werden Einwände mit irgendwelchen Logiken begründet. Hier interessiert aber nur, dass die Simulation von Gesprächen einen bestimmten Sinn hat. Der Copilot ersetzt in Gesprächssimulationen andere Menschen. Wenig erstaunlich wiederholt sich oft, was J. Weizenbaum noch überraschte, dass nämlich viele Benutzer von ChatGPT-Konsorten die Simulationen nicht erkennen, sondern vermeintlich echte Gespräche führen, obwohl sie eigentlich wissen, dass sie mit einer Maschine "sprechen" - und dass man mit Maschinen nicht sprechen kann.

Natürlich kann ich als aussenstehender Beobachter nicht erkennen, ob ein Benutzer von ChatGPT sich in einem echten Gespräch vermeint oder nicht. Was ich dagegen leicht beobachten kann, ist, wie Benutzer die Texte, die sie mittels ChatGPT hervorbringen, verwenden und kommentieren. Es gibt Benutzer, die solchen Texten einen Autor zurechnen. Das tun sie beispielsweise, indem sie ChatGPT wie Autoren zitieren. Goethe sagte dies, ChatGPT sagte das. Dabei übersehen sie, dass nicht ChatGPT den Text geschrieben hat, sondern sie selbst, indem oder wobei sie ChatGPT wie einen Bleistift oder eine Schreibaschine als Werkzeug verwendet haben. ChatGPT sagt nichts, eine Maschine hat keinerlei Gründe irgendetwas zu sagen.

N. Wiener hat diesen Zusammenhang ganz am Anfang seiner kybernetische Lehre als Teleologie behandelt. Er hat den Maschinen ein Ziel zugeschrieben. Teleologie ist dafür genau das richtige Wort, auch wenn N. Wiener damit die Zweckursache von Aristeles etwas relativieren wollte. Es bleibt blanker Unsinn einer thermostatengeregelten Heizung ein Ziel zuzurechen. Die Heizung hat nichts davon, wenn es warm ist - und ChatGPT hat nichts davon, wenn damit Texte hervorgebracht werden. Die Eigentümer von solchen Maschinen mögen einen Gewinn haben, das interesiert hier aber nicht.

Wer ChatGPT eine Autorenschaft zurechnet, lügt. Er verdrängt, dass er eine Maschine zitiert, die er dazu zitiert, seine eigene Meinung einer anderen Instanz zuzurechnen, um sich so aus der Verantwortung zu ziehen. Nebenbei bemerkt dient auch das Zitieren von Menschen sehr häufig genau diesem Zweck. Ich verwende den Copiloten täglich dazu, besser zu formulieren, was ich sagen will. Nie interessiert mich dabei, wie ChatGPT funktioniert, wie es programmiert wurde und mit welchen Daten es trainiert wird. Ich benutze das Werkzeug zur Optimierung meiner Formulierungen. Dabei sind ausschliessliche meine Intentionen relevant. Ich verantworte, was ich sage.

PS: Ich lese auch sehr viel Unsinn von Leuten, die - wie dannzumal J. Weizenbaum - sich über die Dummheit anderer Menschen äussern, wobei sie fast immer auch ihre eigen Dummheit darin zeigen, dass sie auch ChatGPT Dummheit vorwerfen.


 
[ cop ]
[ wp ] [ 29. 4.26 ]