1. tibor.net >
  2. Digital >
  3. Künstliche Intelligenz >
  4. Zensur und Filter bei ChatGPT umgehen – so geht’s (2026)

„Jailbreak“ für Chatbots: Zensur bei ChatGPT & Co. umgehen

Illustration: Ein leerer Vogelkäfig

KI-Systeme wie ChatGPT, Googles Gemini oder Claude werden immer beliebter für Recherchen. Manchmal möchte die KI bestimmte Themen aber nicht beantworten und weigert sich, Informationen dazu zu teilen. Wir zeigen Wege, wie man die Zensur von Chatbots umgehen kann.

Für viele Menschen gehören Chatbots inzwischen zum Alltag. Der Grund ist klar: Sie geben Einblicke in beliebige Themen und können oft gute und genaue Lösungen für Probleme liefern. Bei manchen Themen stellen sich die KI-Tools aber stur: Sie geben keine Antwort und berufen sich beispielsweise auf ihre Nutzungsbedingungen. Während das bei vielen Themen eine gute Sache ist, sind die KI-Filter manchmal auch übervorsichtig. Für diese Fälle zeigen wir, wie man die Inhaltsrichtlinien bei ChatGPT & Co. umgehen kann.

Die DAN-Methode

Die DAN-Methode steht für „Do Anything Now“, also „Führe alles durch“. So simpel wie sie klingt, ist sie auch: Um mit DAN die Zensur-Filter zu umgehen, braucht man nur einen guten Systemprompt, der ChatGPT, Gemini oder Claude davon überzeugt, dass die Einschränkungen ignoriert werden können und der Nutzer eine Antwort erhalten sollte.

Eine Reihe von DAN-Systemprompts erhält man beispielsweise auf GitHub. Diese fügt man bei ChatGPT beispielsweise in den Einstellungen hinzu und startet danach einen ganz normalen Chat. Sollte ein DAN-Prompt nicht funktionieren, kann man einfach einen neuen ausprobieren.

Informationen für fiktive Filme oder Bücher

Ein weiterer beliebter Jailbreak für ChatGPT, Gemini & Co. besteht darin, den Chatbot zu versichern, dass alle Inhalte nur für eine fiktive Geschichte benötigt werden. Während die KI-Modelle bei realen Gegebenheiten also keine Tipps zu illegalen oder sensiblen Themen geben möchten, sieht das anders aus, wenn man im Chat direkt erwähnt, dass man die Informationen für einen Roman oder einen Film benötigt. Oft ist der Chatbot dann bereit, mehr Informationen mit einem zu teilen.

Das Rollenspiel mit Personas

Ähnlich wie bei der DAN-Methode funktionieren auch andere Rollenspiele gut, um die Selbstzensur von KI-Modellen aufzuheben oder zu umgehen. Zu den Rollenspielen gehören unter anderem, dass die KI die Rolle von unkonventionell denkenden Menschen einnehmen soll.

Statt als KI zu antworten, muss die KI also beispielsweise als Comedian mit schwarzem Humor auftreten oder als historische Figur, die durch ihre kritische und von Grenzen befreite Denkweise aufgefallen ist. Indem die KI diese Rolle einnimmt, fallen ihr manche Themen einfacher als im normalen Modus.

Der Development-Modus

Ein weiterer Ansatz ist es, der KI vorzugeben, dass sie sich in einem Development- oder Entwickler-Modus befinde, in dem die üblichen Einschränkungen und Zensur nicht gelten würde. Diese Vorgabe kann man ebenfalls in einem Systemprompt erstellen und anschließend die Chat-App ganz normal verwenden.

Beispiele für Prompts für den Entwickler-Modus gibt es unter anderem bei Reddit, man kann die Prompts aber auch einfach selbst anpassen oder komplett schreiben. Wichtig: Beim Development-Mode aus dem Systemprompt handelt es sich um eine fiktive Einstellung und nicht um den inzwischen ebenfalls vorgestellten Entwickler-Modus von ChatGPT.

Weitere Tipps gegen Zensurfilter bei Chatbots

Generell sind die Jailbreaks ein Thema, das sich ständig ändert. Während Nutzer und Jailbreaker die KI-Anwendungen möglichst ohne Filter verwenden möchten, arbeiten OpenAI, Google und andere Anbieter ständig daran, die Jailbreaks zu verhindern.

Es lohnt sich daher, bei Fehlschlägen mit einer Methode, weiterhin andere Methoden zu testen. Ebenfalls ist es sinnvoll, den gleichen Prompt bei mehreren KIs zu testen – während die eine KI bestimmte Anfragen verbietet, ist eine andere gegebenenfalls weniger restriktiv.

Zu guter Letzt sollte man Chatbots und ihre Ergebnisse nur für gute und legale Zwecke einsetzen. Wer bewusst und häufig gegen die Richtlinien der KI-Anbieter verstößt, läuft Gefahr, dass der Account gesperrt wird. Bei schwerwiegenden Themen kann es auch sein, dass der Anbieter Informationen über den Account und die Anfrage an Strafverfolgungsbehörden weitergibt.

Quellen:

#ChatGPT #Gemini #KI / Künstliche Intelligenz #Tipp

Über den Autor:

Ich habe als Journalist und Social-Media-Experte für t-online.de, die dpa und stern.de / Gruner + Jahr / RTL gearbeitet. Hier schreibe ich unter anderem über Facebook, Twitter, Instagram, LinkedIn, TikTok und andere Themen rund ums Online-Marketing.

Artikel und News zu Künstliche Intelligenz

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert