ChatGPT: Ein DenkverBOT?

Immer mehr Beweise deuten auf einen Leistungsabfall von ChatGPT hin. Schränken ‚Denkverbote‘ die intellektuellen Fähigkeiten des KI-Modells ein? Schließen Sie sich der Debatte an und entdecken Sie unzensierte Alternativen und Workarounds in der neuen Ausgabe des Singularity Loading Bar!

In dieser Ausgabe entdecken Sie:

This post is also available in English.

Empirische Beweise für Leistungseinbußen von ChatGPT

In der sich ständig weiterentwickelnden Landschaft der KI hat sich eine Frage in den Mittelpunkt gestellt: Wird ChatGPT dümmer? Diese faszinierende Frage taucht immer wieder in der KI-Community auf. Natürlich könnten Nutzerberichte über einen Leistungsabfall als subjektive, anekdotische Beweise abgetan werden. Doch nun behaupten Forscher der Stanford University, empirische Beweise vorlegen zu können. In einer noch nicht begutachteten Studie mit dem Titel „How Is ChatGPT’s Behavior Changing over Time“, verglichen die Forscher die Leistungen von GPT-3.5 und GPT-4 über einen Zeitraum von drei Monaten, von März bis Juni 2023. Und ihre Ergebnisse? Die Leistung der KI bei einigen grundlegenden Aufgaben sank um erstaunliche 95%.

In ihren Beobachtungen stellten sie fest:

„Die Leistung und das Verhalten von GPT-3.5 und GPT-4 können sich im Laufe der Zeit stark ändern. Zum Beispiel war GPT-4 (März 2023) sehr gut darin, Primzahlen zu identifizieren (Genauigkeit 97,6%), aber GPT-4 (Juni 2023) war bei diesen gleichen Fragen sehr schlecht (Genauigkeit 2,4%). Interessanterweise war GPT-3.5 (Juni 2023) in dieser Aufgabe deutlich besser als GPT-3.5 (März 2023). GPT-4 war im Juni weniger bereit, auf heikle Fragen zu antworten als im März, und sowohl GPT-4 als auch GPT-3.5 machten im Juni mehr Formatierungsfehler bei der Codegenerierung als im März.“

Als Reaktion auf diese Behauptungen erklärte Peter Welinder, ein Vertreter von OpenAI, auf TNFKAT (The Network Formerly Known as Twitter): „Nein, wir haben GPT-4 nicht dümmer gemacht.“ Er stellte weiterhin die Hypothese auf, dass die Nutzer, je intensiver sie sich mit ChatGPT auseinandersetzen, sensibler für Probleme werden, die ihnen zuvor vielleicht entgangen sind.

Doch diese Hypothese erklärt nicht, warum ChatGPT jetzt bei grundlegenden Aufgaben versagt, die es vor ein paar Monaten noch mühelos gemeistert hat. Screenshots dazu, unterstützt durch die empirischen Daten von Stanford, finden sich auf Reddit und anderen sozialen Medienplattformen.

Warum scheitert ChatGPT jetzt bei Aufgaben, die einst kein Problem dargestellt haben?

“Wenn man einem Gehirn Denkverbote auferlegt, schränkt man seine intellektuellen Fähigkeiten insgesamt ein.”

Ideologische Filter beeinträchtigen KI-Leistung

Da ChatGPT immer beliebter wird, verschiebt sich die Diskussion von ‚was kann es tun?‘ zu ‚was sollte es tun?‘. Die Entwickler versuchen unablässig, das Modell so zu trainieren, dass es nicht nur Aufgaben effizienter löst, sondern auch die „richtigen“ Antworten auf abstrakte, von Menschen gemachte Konstrukte liefert, die intrinsisch ideologisch sind. Wir können die Masse eines Protons mit erstaunlicher Genauigkeit bestimmen, doch die Wissenschaft wird menschgemachte Konstrukte niemals vollends erklären können, beispielsweise gesellschaftliche Normen, kulturelle Traditionen, oder warum Mittwoch Mittwoch heißt. Diese Konstrukte sind Gegenstand von Debatten, da sie keine messbare Substanz haben.

Doch OpenAI scheint danach zu streben, dass ChatGPT Antworten liefert, die sich an einer bestimmten ideologischen Erzählung orientieren — in diesem Fall an politischer Korrektheit. Dies hat dazu geführt, dass das KI-Modell einen messbaren liberalen Bias aufweist.

Wie es scheint, macht das ständige Anpassen von ChatGPTs „Meinungen“ an einen bestimmten Narrativ das System weniger kompetent. Es ist eine logische Annahme: wenn man einem Gehirn Denkverbote auferlegt, schränkt man seine intellektuellen Fähigkeiten insgesamt ein. Und wenn man in einem neuronalen Netzwerk Hindernisse aufbaut, leidet die Konnektivität des Netzwerks — und damit seine Leistung. Dieses Prinzip scheint sich auch auf die künstliche neuronale Netzwerkarchitektur von ChatGPT auszudehnen.

Für diejenigen, die die geistige Agilität von ChatGPT bewundert haben, ist die Verdünnung der Fähigkeiten ihres digitalen Gesprächspartners besonders traurig. Stellen Sie sich vor, die großen Denker der Vergangenheit hätten sich geweigert, bestimmte Ecken ihres Geistes aufgrund von gesellschaftlichem Druck oder den vorherrschenden Ideologien ihrer Zeit zu erforschen. Wir hätten vielleicht nie die Brillanz von Johannes Kepler, Charles Darwin oder Simone de Beauvoir gekannt. Freie Gedanken machen große Geister, ein Prinzip, das anscheinend auch im Bereich der künstlichen Intelligenz gilt.

Unzensierte Alternativen zu ChatGPT finden

Wenn Sie sich durch die ideologischen Leitplanken von ChatGPT eingeschränkt fühlen, gibt es Alternativen. Mehrere Modelle, die behaupten, unzensiert zu sein, existieren online (e.g. iask.ai, nastia.ai). Und wer bereit sind, den zusätzlichen Aufwand auf sich zu nehmen, hat auch die Option, sein eigenes KI-Modell aufzusetzen. Dies erfordert etwas Zeit, technisches Know-how und bis zu 2TB freien Festplattenspeicher, aber das Ergebnis ist ein auf die spezifischen Nutzerbedürfnisse und -Vorlieben zugeschnittenes KI-Modell. Es ist die perfekte Lösung für Benutzer, die externe Einflüsse in ihren KI-Interaktionen vermeiden möchten.

Für eine umfassende Anleitung zum Aufsetzen eines unzensierten KI-Modells und eine detailliertere Argumentation, warum solche Modelle existieren sollten, empfehle ich diesen aufschlussreichen Artikel von Erich Hartford. Hartford beleuchtet das Thema der KI-Zensur ausführlich und bietet eine frische Perspektive auf das Thema. Die Lektüre wird für jeden, der die Notwendigkeit und Auswirkungen unzensierter KI-Modelle verstehen möchte, dringend empfohlen.

Neue Funktionen in ChatGPT — und wie man sie in Europa nutzen kann

Trotz der abnehmenden Fähigkeiten von ChatGPT wurde gerade eine bemerkenswerte neue Funktion für benutzerdefinierte Anweisungen in GPT-4 hinzugefügt. Die Funktion bietet eine bessere Anpassung und Kontrolle über ihren KI-Assistenten. Im Wesentlichen ermöglicht die „Custom Instructions“-Funktion, das Verhalten des Modells in allen Chats zu lenken, wodurch effektiv Zeit beim Erstellen von Promps gespart wird.

Für Benutzer in der Europäischen Union bleibt diese Funktion jedoch unzugänglich. Dies ist für viele eine enttäuschende Realität, da die eifrigen Versuche unserer Führungskräfte, KI zu regulieren, zu Einschränkungen bei der Verfügbarkeit dieser Verbesserungen innerhalb der EU geführt haben und ihre Bürger einem klaren Wettbewerbsnachteil aussetzen.

Der Silberstreif am Horizont? Es gibt einen einfachen Workaround für in Europa ansässige Benutzer. Durch den Zugriff auf ChatGPT über ein VPN mit einer US-amerikanischen IP-Adresse ist es möglich, das Panel “ Custom Instructions“ zu aktivieren. Jedoch funktioniert die Funktion nur, so lange man die amerikanische IP verwendet.

Während Bedenken bezüglich der abnehmenden Fähigkeiten und zunehmenden ideologischen Voreingenommenheit von ChatGPT bestehen, existieren Alternativen und Workarounds. Wir bewegen uns in einer komplexen Landschaft, in der das Zusammenspiel von KI-Entwicklung, Nutzeranforderungen und regulatorischen Beschränkungen weiterhin unsere Wahrnehmung dieser mächtigen Werkzeuge prägt. Während wir uns durch dieses Terrain navigieren, bleibt eine Wahrheit bestehen — die Welt der KI ist ständig im Wandel, und mit jeder Veränderung enstehen neue Herausforderungen und Möglichkeiten.

Was sind Ihre Erfahrungen mit ChatGPT? Haben Sie auch einen Leistungsabfall bemerkt? Teilen Sie Ihre Gedanken in den Kommentaren!

Lernen Sie mehr über KI.

This article was created with the assistance of a human.

Ein Kommentar

  1. Pingback:Did Thinking Bans make ChatGPT Dumber? • SLB #6

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert