ChatGPTs „Gedanken“ über die physikalische Zeit Künstlich erzeugte Fundstücke

Jeder kann es ausprobieren, ein Gespräch („Chat“) mit der künstlichen Intelligenz ChatGPT des Entwicklers OpenAI zu führen. Das ist auch so gewollt, lernt doch die KI mit jedem Gespräch dazu. Die Erfahrung sei mehr als nur „Na ja…“, ganz erstaunlich sei die Fähigkeit Fragen und Gemeintes aufzunehmen und in flüssigem Text gut auf den Punkt zu antworten. Berichte und Beispiele in der Presse machen deutlich: Das ist nicht mehr nur ein Strichmännchen, das viel Fantasie braucht um es als Abbildung eines Menschen zu erkennen. Das wollte ich dann doch selber ausprobieren. Was fängt ChatGPT mit weitreichenden philosophisch-theologisch-naturwissenschaftlichen Fragestellungen an, wie sie uns in diesem Arbeitskreis beschäftigen?

Nachdem es im letzten Blogbeitrag um menschliche Gedanken über die physikalische Zeit ging, interessierte mich, was denn ChatGPT über die Zeit „denkt“ – besser: schreibt. (Der Gesprächsverlauf kann hier nachgelesen werden.) Wir klären erst mal, ob es Zeit überhaupt gibt: Für ChatGPT gibt es Zeit deshalb nicht, „weil es keine objektive und unabhängige Definition der Zeit, die für alle Kulturen, Philosophien und Wissenschaften gültig ist“ gibt. ChatGPT ist ungeheuer belesen und kann aus der Belesenheit Texte zu gegebenen Fragen erzeugen. Eine Welt jenseits der Zeichenfolgen gibt es für das Programm nicht.

Dann wenden wir uns der Frage nach einer offenen Zukunft zu: Determinismus oder Indeterminismus? Diese Frage „ist eine umstrittene und kontroverse Debatte in Philosophie, Physik und anderen Wissenschaften.“ Davon ist ChatGPT auch nicht abzubringen, schließlich sagen die einen so und andere anders. Ich habe es versucht, wollte die KI vom Indeterminismus überzeugen: Wir behandeln den Zufall, die Bell’sche Ungleichung und das quantenphysikalische Messproblem. Die Bell’sche Ungleichung kann ChatGPT recht ordentlich erklären, auch, dass sie „experimentell dazu verwendet [wurde], zwischen zwei Arten von Theorien in der Quantenphysik zu unterscheiden: den deterministischen Theorien und den nicht-deterministischen Theorien.“ Nur: Eine Frage vorher hieß es noch: „Es ist jedoch wichtig zu beachten, dass die Bell’sche Ungleichung ein experimentelles Ergebnis ist und nicht direkt die Theorie beurteilt.“ Auftretende Widersprüche rühren das Programm nicht – urteilen kann die KI nicht. Das ist schade, denn welcher Mensch hat schon so umfassende Kenntnisse der diskutierten Argumente? Für ChatGPT ist dann „weitere Forschung erforderlich“. Da die Maschine nicht urteilen kann, kann sie auch nicht sagen, welche Art Forschung eine Antwort erlauben würde.

Es klingt, als würde ChatGPT verstehen, was es da schreibt, aber das tut es nicht. Dass es so verständig wirkt, liegt daran, dass all die Menschen, die die Texte geschrieben haben, die die KI verarbeitet hat, etwas verstanden haben und ich durch meine Fragen fokussierten Zugang zu solch Verstandenem bekomme. Es ist wie durch ein sehr spezielles Mikroskop geschaut: Auch ein Mikroskop versteht nicht, was es meinen Augen zeigt. Aber es ist sehr nützlich, wenn man bestimmte, sehr kleine Strukturen erkennen will. Die Strukturen, auf die man mit ChatGPT schauen kann, sind sprachlich gefasste Muster menschlichen Denkens zum Thema der gestellten Frage. Es bleibt uns weiterhin überlassen zu prüfen, was wir davon nachvollziehen können und womit wir einverstanden sind. Wenn wir aber nicht einverstanden sind, brauchen wir das nicht ChatGPT zu sagen, sondern müssen es in den dazugehörigen menschlichen Diskurs einbringen, von dem wir vielleicht gar nichts wüssten, hätte uns der Chat nicht darauf aufmerksam gemacht.

So sieht also heute die Orientierung im Wissens- und Meinungsdschungel aus: Originalpublikationen -> zusammenfassende Monografien aus verschiedenen Perspektiven -> ausführliche Artikel in Fachlexika -> Einträge in Enzyklopädien -> und nun auch noch: KI-Antworten auf spezifische Fragen. Wären Menschen nicht so leicht zu täuschen und zu manipulieren und ließe sich KI dafür nicht so gut einsetzen, wäre diese neue Etappe der Informationsverarbeitung ziemlich großartig.

W.D.

 

Hier geht es zum vorangegangenen Beitrag.

Hier geht es zur Webseite des Arbeitskreises Glaube und Naturwissenschaft.

2 Gedanken zu „<span class="entry-title-primary">ChatGPTs „Gedanken“ über die physikalische Zeit</span> <span class="entry-subtitle">Künstlich erzeugte Fundstücke</span>“

  1. Danke, sehr interessanter Text. Meine Prognose: Die KI wird uns erst wieder bewusst werden lassen, wie einzigartig der Mensch ist. Aber blöd ist sie wirklich nicht, das ist schon extrem faszinierend.
    Ein Bekannter (katholisch) hat die KI eine Geschichte erfinden lassen mit dem Titel: der Papst der nicht an Gott glaubte:
    Zitat
    Es war eine Sensation, als bekannt wurde, dass der neue Papst, der gerade gewählt worden war, nicht an Gott glaubte. Die katholische Kirche und die Gläubigen auf der ganzen Welt waren schockiert und verwirrt. Wie konnte jemand, der das Oberhaupt der Kirche sein würde, selbst nicht an den Grundlagen des Glaubens glauben?
    Der neue Papst, der seinen Namen nicht preisgab, erklärte in seiner ersten öffentlichen Ansprache, dass er sich zwar der Bedeutung der Kirche und ihrer Rolle in der Welt bewusst sei, aber trotzdem nicht an einen persönlichen Gott glaube. Stattdessen glaube er an die Kraft der Natur und die menschliche Vernunft.
    Diese Offenbarung sorgte für eine Welle von Protesten und Kritik aus der katholischen Gemeinschaft. Viele argumentierten, dass ein Papst, der nicht an Gott glaubt, nicht akzeptabel sei und dass er zurücktreten müsse. Andere argumentierten, dass es an der Zeit sei, dass die Kirche eine neue Richtung einschlagen müsse und dass der neue Papst genau der richtige Mann dafür sei.
    In den folgenden Wochen fanden intensive Debatten statt, die die katholische Kirche zutiefst erschütterten. Der neue Papst gab keine Interviews und vermied es, öffentliche Auftritte zu absolvieren. Schließlich trat er nach nur vier Monaten zurück, und die Kirche wählte einen neuen Papst, der den Glauben an Gott fest verankert hatte.
    Die Geschichte des Papstes, der nicht an Gott glaubte, bleibt ein faszinierendes Kapitel in der Geschichte der katholischen Kirche. Es zeigt, wie ein einziger Mann das Schicksal einer ganzen Institution beeinflussen kann und wie wichtig es ist, dass die Führungspersönlichkeiten einer Organisation mit ihren Kernwerten übereinstimmen.

    Antworten
  2. Vielen Dank für diesen interessanten Artikel. Das Thema der KI wird uns wohl noch eine Weile beschäftigen.

    Am Ende eines Vortrags an der Kunsthochschule für Medien Köln im Jahr 2005 sagte Joseph Weizenbaum sinngemäß:
    Es ist schön, wenn ein Flugzeug von alleine landen kann, oder wir sonst mit KI etwas machen können. Aber das, was wir wirklich brauchen ist, dass, wenn wir uns mit unserem Nachbarn zerstritten haben, wir dann wieder zueinander kommen und in Frieden leben können. Wie wahr, denke ich heute, wenn ich die Konflikte mit unseren Nachbarn im Osten anschaue. Was hilft da eine KI oder die Befragung von ChatGPT?

    Joseph Weizenbaum gehört zu den Pionieren der künstlichen Intelligenz und hat viele Jahre am MIT in den USA geforscht und gelehrt. Unter anderem hat er das Buch „Die Macht der Computer und die Ohnmacht der Vernunft“ Im Jahre 1978 verfasst und das Computerprogramm Eliza (1966) entwickelt, was den NutzerInnen vorgaukelte, mit einem Psychotherapeuten zu chatten. Viele Versuchspersonen, die mit Eliza chatteten, waren davon überzeugt, dass das Computerprogramm ein tatsächliches Verständnis für ihre Probleme aufbrachte. Mehr dazu hier: https://de.wikipedia.org/wiki/ELIZA

    Weizenbaum kam durch die Erfahrungen mit Eliza zu einem kritischen Verständnis der künstlichen Intelligenz, und trat ab etwa Mitte der 70er als Kritiker der KI auf, zu deren Begründern er selbst gehörte.

    Einer seiner Gegenparts am MIT war damals Marvin Minsky. https://de.wikipedia.org/wiki/Marvin_Minsky und vor allem auch John McCarthy: https://en.wikipedia.org/wiki/John_McCarthy_(computer_scientist)

    Heute finden wir vermehrt die Sichtweise der Gegner von Weizenbaum im KI-Diskurs bestätigt. KI ist hipp, Förderungsgelder zur KI Entwicklung sind in Hülle und Fülle vorhanden, die HighTech-Agenda in Bayern setzt vor allem auf KI, viele passen sich an. Und wer will sich schon den Vorwurf des „ewig gestrigen“ oder eines Kulturpessimisten gefallen lassen?

    Dennoch besteht der Gegenpol Weizenbaum weiter, z.B. in diesem Institut: https://www.weizenbaum-institut.de/

    Hier ein schöner Vortrag, in dem das Leben von Weizenbaum (und damit auch ein wichtiges Stück KI-Geschichte) skizziert wird incl. einer Inhaltsübersicht über sein Buch „Die Macht der Computer und die Ohnmacht der Vernunft“ (wobei es sich hier eigentlich um einen Übersetzungsfehler im Titel handelt, denn Weizenbaum glaubte nicht, dass die Vernunft ohnmächtig ist, sondern nur dass sie begrenzt ist. Der Originaltitel des Buches war: „Computer Power and Human Reason – From Judgement to Calculation“. Und Weizenbaum war mit der deutschen Übersetzung nicht glücklich):
    https://www.youtube.com/watch?v=t0hUJQLUPgo&t=1s

    Auch ein schöner Film zu seiner Sichtweise auf KI und im weiteren die Digitalisierung:
    „Plug an Pray“, http://www.plugandpray-film.de/

    Dass die Basis der heutigen digitalen Computer Technologie nicht zuletzt auf den Mathematiker Alan Turing zurückgeht, ist bekannt (https://de.wikipedia.org/wiki/Alan_Turing). Die Turingmaschine bildet eine essenzielle Basis für Aufbau und Funktion heutiger CPUs. Alan Turing beschäftigte sich damals (ab 40er Jahre) schon mit der Frage der künstlichen Intelligenz, und es wurde das Thema aufgeworfen, ob Maschinen wirklich einmal denken können im Sinne eines Menschen.

    Mit den Grundlagen, die hier geschaffen sind, muss man sich aus meiner Sicht beschäftigen (z.B. der Frage, was Turing-kompatibel formalisierbar ist und was nicht) wenn man fundiert den KI-Bereich oder auch die Digitalisierung diskutieren will.

    Wer Alan Turing kennenlernen möchte: es gibt viele Bücher über ihn und auch einen spannenden Film. Er hatte im zweiten Weltkrieg das deutsche Verschlüsselungssystem (Enigma) für Funknachrichten geknackt. Dieses Thema ist verfilmt unter dem Titel: The Imitation Game – Ein streng geheimes Leben.
    https://www.youtube.com/watch?v=U_xE807vc6g

    Wir sind heute technisch schon an einer ganz anderen Stelle als zu Weizebaums Zeiten. Ich gehe davon aus, dass ein größerer Diskurs zu KI auf uns zukommen wird, insbesondere auch auf die KünstlerInnen und GestalterInnen, ja die ganze Branche der kreativen Industrien. Dann kann es hilfreich sein, gut verstehen und argumentieren zu können, um die jeweilige Position verständlich zu machen.

    Auch in Kreisen der DozentInnen an Hochschulen werden die Auswirkungen, die etwa ChatGPT u.a. auf künftig zu erwartende Prüfungsleistungen haben, diskutiert. Eine aktuelle Pressemitteilung des Hochschullehrerbundes (erhalten heute per Emailverteiler):

    “PRESSEMITTEILUNG

    Wissenschaftsbasierte Lehre und generative KI-Systeme

    hlb legt Positionspapier zum Umgang mit ChatGPT und anderen System vor

    Bonn, 12. Juni 2023. Der Hochschullehrerbund hlb als Vertretung der Professorinnen und Professoren an den Hochschulen für angewandte Wissenschaften fordert einen offenen Umgang mit den Möglichkeiten generativer KI-System wie ChatGPT, Dall-E und Co-Pilot in Forschung und Lehre. Diese Systeme werden die Arbeitswelt prägen, daher fordert der hlb, dass Studierende den kritischen Umgang damit erlernen können; dazu müssen sie die Möglichkeiten dieser Systeme kennenlernen und deren Anwendung einüben. Die Lehrenden müssen über den Einsatz dieser Systeme eigenverantwortlich entscheiden. Der Zugriff auf entsprechende Tools muss an allen Hochschulen schnell eingerichtet werden, damit Deutschland und Europa bei der Erstellung und Anwendung von KI-Lösungen den Anschluss nicht noch weiter verlieren. Die Potenziale dieser neuen Anwendungen sollten für die wirtschaftliche Praxis erschlossen werden, um unseren Wohlstand nachhaltig zu sichern.

    Das Positionspapier wurde von der Arbeitsgruppe „Digitalisierung der Lehre“ des Hochschullehrerbunds hlb unter Leitung von Prof. Dr.-Ing Jörn Schlingensiepen, hlb-Vizepräsident, Technische Hochschule Ingolstadt erarbeitet und vom Bundespräsidium des Hochschullehrerbunds am 12. Juni 2023 beschlossen.

    Zum Positionspapier:
    https://www.hlb.de/fileadmin/hlb-global/downloads/Positionen/2023-06-12_hlb-Positionspapier_Wissenschaftsbasierte_Lehre_und_generative_KI-Systeme.pdf

    Für die, die sich für die rechtliche Seite des Einsatzes von ChtGPT interessieren:
    https://newsletterversand.zeit.de/ov?mailing=5AUSW756-7FR71D&m2u=5AZB5ETJ-5AUSW756-81YHKH&wt_zmc=nl.int.zonaudev.112331552451_415451160618.nl_ref.

    Soweit meine Impulse zu diesem Thema.

    Antworten

Schreiben Sie einen Kommentar