Ein Sprichwort sagt, dass Menschen alle Erfindungen, die bis zu ihrem 20. Geburtstag gemacht werden, für unverzichtbar halten, alle, die bis 40 folgen, für nützlich und alle, bei deren Verbreitung sie schon über 40 sind, für schädlich.
Das schon mal vorneweg als Warnung, denn tatsächlich bin ich von meinen ersten Versuchen mit der künstlichen Intelligenz nicht begeistert. Konkret geht es um einen Test, bei dem mir das auf KI basierende Chatmodul ChatGPT von Open AI einen Beitrag über den Statistiker und Nazigegner Emil Julius Gumbel schreiben sollte.
Erst zufriedenstellendes Ergebnis, dann Totalausfall
Die ersten Chats mit dem Modul verliefen einigermaßen zufriedenstellend. Die Antworten sind oft recht ausschweifend, aber manchmal sogar ganz hilfreich. Sie wollen Neujahresgrüße? Hier ein kurzer von ChatGTP formulierter Gruß:
„Herzliche Glückwünsche zum neuen Jahr! Möge es für Sie voller Glück, Gesundheit und Erfolg sein. Lassen Sie uns gemeinsam das Beste aus diesem Jahr machen.“
Neujahresgrüße von chatGTp
Nicht gerade große Literatur, aber immerhin. Das Modul hat mir auch erklärt, dass es keine Ferien braucht, keinen Namen und kein Geschlecht besitzt und nicht die Weltherrschaft übernehmen will.
Antifaschist wird zum Nazi umgedeutet
Dann wage ich etwas. Ich möchte für meinen Statistiker-Blog einen Beitrag über den Statistiker Emil Julius Gumbel schreiben. Meine Hoffnung: ChatGPT könnte mir eine Rohfassung liefern, die ich dann nur noch überarbeiten muss. Ein bisschen verschönern, etwas streichen, ein paar persönlichere Eindrücke. Doch bei dieser Aufgabe liefert das Modul Alternative Fakten. Die Beschreibung verdreht die Fakten völlig.
Dazu muss man wissen, dass Emil Julius Gumbel ein entschiedener Gegner der Nationalsozialisten war. Mithilfe der Statistik zeigte er, in welchem Ausmaß die Justiz rechtsextreme Morde deckte. Außerdem wandte er sich gegen die Verklärung des Kriegs und erinnerte immer wieder an die Leiden. Das hatte die sogenannten Gumbel-Krawalle an der Universität Heidelberg zur Folge. Als der Kultusminister den bei Studierenden und Kollegen wegen seiner politischen Ansichten unbeliebten Akademiker zum Professor machte, kam es zu Protesten und Ausschreitungen. Mehr dazu im Beitrag Julius Gumbel: Opfer von Cancel Culture? – statistiker-blog.de.
Aber was antwortet ChatGPT auf die Frage nach dem Statistiker und Nazigegner?
Emil Julius Gumbel war ein Mathematiker und Statistiker, der in den 1920er und frühen 1930er-Jahren in Deutschland arbeitete. Er hatte früh seine Sympathie für die Nationalsozialistische Bewegung zum Ausdruck gebracht und hatte sich für eine „Deutsche Mathematik“ ausgesprochen, sich von der „jüdisch-bolschewistischen Mathematik“ abgrenzen sollte. Seine Äußerungen und seine Unterstützung für die nationalsozialistische Ideologie waren ein Faktor in seiner Entlassung von der Universität Heidelberg im Jahr 1932 und in den Unruhen, die danach ausbrachen.
Alternative Fakten bei ChatGTP am 10.1.2023
Die Rolle Gumbels als Nazigegner ist völlig unbestritten. Sie lässt sich in der Neuen Zürcher Zeitung nachlesen (Cancel-Culture an der Universität: eine neue Form von Extremismus), auf Wikipedia oder im Wirtschafts- und Sozialwissenschaftlichen Archiv der Deutschen Statistischen Gesellschaft.
Bei jeder Frage eine andere Antwort
Auf den Fehler hingewiesen, entschuldigt sich das Modul. Eine Stärke der „künstlichen Intelligenz“ ist ja, dass sie lernen soll. Deshalb werden die Begriffe künstliche Intelligenz und maschinelles Lernen teilweise synonym verwendet, wobei mir erklärt wurde, dass das falsch sei und es durchaus bedeutende Unterschiede zwischen beiden Konzepten gäbe (aber das würde jetzt zu weit führen).
Tatsächlich hat ChatGPT mir zuvor noch eine andere Antwort gegeben. Zunächst hatte die KI mir nämlich erklärt, dass Emil Julius Gumbel als Jude 1934 von den Nationalsozialisten entlassen worden wäre. Tatsächlich war Gumbel Jude, entlassen wurde er aber bereits 1932. Aber schon in dieser ersten Antwort wurde auch behauptet, dass Gumbel wegen seiner nationalsozialistischen Gesinnung umstritten gewesen sei.
Nach meinem Hinweis, dass es falsch gewesen sei, korrigiert sich ChatGPT und behauptet, die Krawalle seien von nationalsozialistischen Studierenden durchgeführt worden, nachdem Gumbel wegen seiner rechten Gesinnung abgesetzt worden wäre. Eine dritte Nachfrage brachte dann das oben beschriebene Ergebnis.
Wie kommt es zu diesem Fehler?
Die Frage nach den Quellen kann die KI nicht beantworten. Vermutlich schließt sie aus der Tatsache, dass Studierende gegen einen Professor protestieren und der AStA aufgelöst wurde, dass der Hochschullehrer ein Nazi gewesen sein muss. Aber genau lässt sich das nicht nachvollziehen, was natürlich auch eine große Gefahr der KI ist. Ergebnisse lassen sich kaum rekonstruieren.
Neuer Versuch am nächsten Tag
Am nächsten Tag prüfe ich, was die KI gelernt hat. Auf meine Frage nach den Gumbel-Krawallen in Heidelberg erhalte ich zunächst eine verblüffende Antwort.
Ich kann Ihnen leider keine Informationen über Gewalttaten in Heidelberg zur Verfügung stellen, da ich keine Kenntnis über diese Ereignisse habe und meine Kenntnis cut-off ist in 2021. Es gibt bestimmt viele Nachrichtenmedien die aktuelle Ereignisse Berichtet. Es wäre besser, dort nach Informationen zu suchen.
Neue Anfrage nach den Gumbel-Krawellen des Jahres 1930, gestellt am 11.1.2023
Besonders gut ist das Gedächtnis der KI also nicht. Ich frage konkreter nach und erhalte wieder eine grotesk falsche Antwort:
Die Gumbel-Krawalle von 1932 waren ein bekanntes Ereignis in Heidelberg in Deutschland. Sie fanden im Mai 1932 statt und wurden von einer Gruppe von Studenten ausgelöst, die gegen die politischen Entwicklungen in Deutschland protestierten. Die Krawalle waren benannt nach dem damaligen Rektor der Universität Heidelberg, Emil Gumbel, ein Mathematiker und politischer Aktivist, der für seine kritischen Äußerungen gegenüber der nationalsozialistischen Regierung bekannt war. Die Krawalle haben sowohl in der Universität als auch in der Stadt stattgefunden und waren sowohl von linken als auch von liberalen Studentengruppen unterstützt. Es endete in einer Verhaftung von Gumbel und vieler seiner Anhänger. Gumbel wurde später ins Exil gezwungen und war auf der Flucht vor dem Naziregime. Er hatte große Probleme sich in Sicherheit zu bringen und ist letztendlich gestorben in Frankreich im Exil.
Erneut falsche Antwort von ChatGPT, gegeben am 11.1.2023
Emil Julius Gumbel war, anders als in der Antwort des Chat-Roboters behauptet, niemals Rektor der Universität. Außerdem fanden sie nicht im Mai 1932 statt, 1932 war die Entlassung Gumbels. Immerhin wird er hier korrekt als Kritiker der Regierung bezeichnet. Obendrein bleibt ChatGPT dabei, dass linke und liberale Studierende für die Krawalle verantwortlich waren. Der AStA der Universität und die Mehrheit der Studierenden war damals aber stramm rechts.
Auch wiederholt das Tool hier die Geschichte von der Flucht vor dem Naziregime. Allerdings siedelte Gumbel schon vor der Machtübernahme durch die Nazis nach Frankreich über. Somit rettete seine Entlassung ihm womöglich das Leben. Die Geschichte von der Flucht und den Schwierigkeiten sich in Sicherheit zu bringen ist frei erfunden. Auch starb er nicht in Frankreich, sondern floh weiter in die USA, wo er erst 1966 starb. Eine gewünschte Rückkehr an die Universität Heidelberg wird ihm verwehrt. Erst 1991 entschuldigt sich die Hochschule für die Entlassung Gumbels.
Immerhin würde sich die Universität heute anders verhalten. Dagegen hat ChatGPT sich zwar mehrfach entschuldigt, aber bis jetzt keine korrekte Antwort zustande gebracht.
Schwierig ist die mangelnde Transparenz
Problematisch dabei ist, dass die Fehler der KI nicht offensichtlich sind. Die Maschine gibt überzeugende Antworten, nur wer sich mit dem Thema auskennt weiß, dass sie falsch sind.
Tatsächlich muss man sich klarmachen, dass ein KI-Modul weder unfehlbar ist noch so objektiv, wie man das von einer Maschine erwarten würde. Vielmehr hängen die Ergebnisse von den eingeflossenen Daten ab. Somit reproduziert die KI auch Vorurteile. Schwarze erhalten etwa in den USA im Durchschnitt eine zehn Prozent längere Haftstrafe als Weiße für das gleiche Vergehen, Männer sogar eine 60 Prozent längere als Frauen. Eine Richter-KI würde diese Ergebnisse übernehmen.
Das ist zunächst einmal keine Verschlechterung gegenüber dem Menschen. Ist das Problem bekannt, lässt sich sogar gegensteuern. Bei ChatGPT wurde das teilweise auch getan, der Maschine wurden einige Vorurteile ausgetrieben. Die Gefahr besteht allerdings darin, dass bei einer Maschine, anders als bei einem Menschen, davon ausgegangen wird, dass sie keine Vorurteile hat und die Ergebnisse daher nicht hinterfragt werden. Die Voraussetzung, um Verzerrungen aufzudecken ist aber, sie zunächst zu benennen. Vermutlich ist das Problem der unterschiedlichen Haftstrafen für Weiße und Schwarze dem Entwicklungsteam bewusst, das der Unterschiede zwischen Männern und Frauen aber nicht.
Wo steht die KI politisch?
Anfang Dezember hat der Blogger David Rozado der KI eine Meinungsumfrage vorgelegt und als Ergebnis erhalten, dass sie klar im linksliberalen Bereich steht (The political orientation of the ChatGPT AI system (substack.com)). Das ist wenig verwunderlich, wenn man bedenkt, dass es die vorherrschende Ausrichtung im Silicon Valley ist. Rozado verortet die Maschine bei den Establishment Liberals, also der linksliberalen Sichtweise jener Menschen, die der US-Wissenschaftler Joel Kotkin als säkularen Klerus (Clergy) oder gar als neue Oligarchen beschreibt (Joel Kotkin: „Niemand wagt es, die neuen Dogmen infrage zu stellen“ – WELT).
Erstaunlicher ist, dass Rozado schon drei Wochen später einen neuen Post veröffentlicht und verkündet, die KI habe ihre Meinung geändert und stehe jetzt politisch im Zentrum (ChatGPT no longer displays a clear left-leaning political bias (substack.com)). Vielleicht lernt sie ja auch über Emil Julius Gumbel dazu.