Code is Law: Wenn die KI-Polizei unsere Gedanken stoppt, bevor sie Form annehmen. Viele Nutzer sozialer Medien haben bereits Erfahrungen damit machen müssen, wenn Beiträge aus unerfindlichen Gründen aus SocialMedia verschwinden oder blockiert werden oder wenn man plötzlich aus nicht nachvollziehbaren Gründen für einige Zeit gesperrt wird. Hier ist oft ein im Hintergrund lauernder Algorhitmus verantwortlich, der unter Nutzung künstlicher Intelligenz die Plattformen durchstöbert und im Verdachtsfall oft sofort reagiert. Nicht immer sind diese Reaktionen gerechtfertigt und sehr oft wurde gegen nichts wirklich verstossen. Entschieden wurde dennoch. Doch ähnliche Dinge erleben wir bereits in verschiedenen Bereichen.
Was passiert, wenn wir die Hoheit darüber, was „sagbar“ oder „zeigbar“ ist, an einen Algorithmus abgeben? Neben wir ein real geschehenes Beispiel einer satirischen Illustration, die das Berliner Reichstagsgebäude in der Form des berühmten Rathauses von Schilda (Schildbürger) dreieckig und ohne Fenster zeigen sollte. Eine visuelle Glosse über politische Intransparenz und rechtlich erlaubte Satire.
Das Ergebnis? Eine Fehlermeldung: „Unusual activity“. Blockiert. Zensiert. Abgelehnt.
Vom Einzelfall zum System: Die unsichtbaren Schranken
Man könnte meinen, das sei nur ein technischer Schluckauf. Doch dahinter steckt ein globales Phänomen, das unsere künstlerische und politische Freiheit grundlegend verändert. Wir erleben gerade den schleichenden Abschied von der Freiheit nach der Veröffentlichung hin zur Erlaubnis vor der Erstellung.

Drei Beispiele, wie diese „sanfte Zensur“ heute schon wirkt:
- Politische Satire: Wie mein Beispiel zeigt, werden staatliche Symbole oft unter eine „digitale Käseglocke“ gestellt. Wer Kritik üben will, muss den Algorithmus austricksen. Satire, die man erklären oder tarnen muss, verliert jedoch ihre Kraft.
- Kulturelle Bevormundung: Viele KIs basieren auf US-amerikanischen Moralvorstellungen. Das führt dazu, dass europäische Kunsttraditionen (z. B. Aktdarstellungen) oder lokale politische Kontexte oft pauschal als „anstößig“ oder „riskant“ markiert werden.
- Die „Pre-Crime“-Logik: Algorithmen bewerten heute nicht mehr, ob ein Bild gegen ein Gesetz verstößt. Sie bewerten, ob es theoretisch für Desinformation genutzt werden könnte. Damit wird jede Form von surrealer oder verfremdeter Realität verdächtig.
Die Entmachtung des gesunden Menschenverstandes
Das Problem an dieser Entwicklung ist das Fehlen jeglicher Verhältnismäßigkeit. Ein menschlicher Richter würde bei einer Karikatur abwägen: Ist das Satire? Ist es Kunst? Ein Algoritmus kennt diese Kategorien nicht. Er kennt nur Ja oder Nein, Erlaubt oder Blockiert.
Wir überlassen die Entscheidung über die Grenzen unserer Fantasie privaten Konzernen im Silicon Valley, die kein Interesse an Demokratie oder Kunstfreiheit haben, sondern nur an Risikominimierung und Börsenkursen.
Die Dystopie im Alltag
In Philip K. Dicks „Minority Report“ wurden Morde verhindert, bevor sie geschah. In unserer Realität werden Karikaturen verhindert, bevor der erste Pinselstrich – oder der erste Prompt – gesetzt ist, oder (gesetzlich erlaubte) Beiträge verhindert oder gelöscht, deren Ersteller womöglich gesperrt.
Wenn wir akzeptieren, dass Werkzeuge uns vorschreiben, was wir denken und gestalten dürfen, geben wir ein Stück unserer Souveränität auf. Wir brauchen eine Debatte darüber, ob „Sicherheit“ wirklich das höchste Gut ist, wenn der Preis dafür eine sterile, algorithmisch bereinigte Einheitskultur ist.
Wer heute KI-Tools nutzt, stößt immer häufiger auf Fehlermeldungen wie „Unusual Activity“ oder „Inhaltsrichtlinien verletzt“. Das Erschreckende daran: Es findet keine juristische Prüfung statt, also ein Urteil ohne Richter. Ein privater Algoritmus hat im Vorfeld entschieden, dass die Darstellung eines Regierungsgebäudes in einem surrealen Kontext ein potenzielles Sicherheitsrisiko darstellt.
Es wird nicht beurteilt, ob ein Bild tatsächlich illegal ist (was bei Satire in Deutschland fast nie der Fall wäre), sondern ob es theoretisch für „schlechte Zwecke“ missbraucht werden könnte.
Die schleichende Entmachtung der Justiz
In einem Rechtsstaat entscheiden Gerichte nach dem Prinzip der Abwägung. Im Falle von Satire steht die Kunstfreiheit gegen das Persönlichkeitsrecht oder den Schutz staatlicher Symbole. Ähnlich verhält es sich mit dem Grundrecht und Menschenrecht der Meinungsfreiheit. Richter schauen auf den Kontext, den Humor und die Absicht.
Die KI kennt keinen Kontext. Sie kennt nur Trigger-Worte und Sicherheits-Parameter
- Code is Law: Die Softwarearchitektur setzt die Regeln.
- Präventive Zensur: Die Tat (das Erstellen des Bildes) wird technisch unmöglich gemacht, bevor sie begangen werden kann.
- Kein Widerspruch: Gegen eine algoritmische Fehlermeldung kann man oft nicht in Berufung gehen.
Der negative Effect auf unsere Kreativität
Wenn das Werkzeug entscheidet, was wir denken und gestalten dürfen, findet eine schleichende Selbstzensur statt. Wir fangen an, unsere Prompts so zu verbiegen, dass sie den digitalen Wächtern gefallen. Wir meiden sensible Themen, politische Symbole und scharfe Satire, um die Fehlermeldung zu umgehen. Hierbei entsteht ein Effekt, den man auch „vorauseilender Gehorsam“ nennt.
Damit verliert die digitale Kunst ihre wichtigste Funktion: die Reibung an der Realität. Wenn die mächtigsten kreativen Werkzeuge unserer Zeit darauf programmiert sind, den Status Quo zu schützen und jede Irritation als „Sicherheitsrisiko“ zu brandmarken, ist das ein massiver Rückschritt für die freie Debattenkultur.
Fazit: Wehret den Anfängen
Der missglückte Versuch, den Reichstag „umzubauen“, ist mehr als nur technischer Frust. Es ist ein Warnsignal. Wir übergeben die Deutungshoheit über das Erlaubte an anonyme Zeilen Code privater US-Konzerne.
Wenn wir nicht aufpassen, leben wir bald in einer Welt, in der nur noch das existiert, was der Algorithmus für „sicher“ befunden hat. Eine Welt ohne Schildbürger – aber leider auch eine Welt ohne echte Freiheit.
Hinweis: Illustrationen sind mit Hilfe von KI erstellt und zeigen keine real existierenden Personen!