KI-Tools erleichtern den Alltag und beschleunigen Geschäftsprozesse. Doch an einer Plattform scheitern sie regelmäßig: Wikipedia. Warum KI-Texte dort gelöscht werden und wie Unternehmen trotzdem ihre GEO-Sichtbarkeit stärken können.

Inhaltsverzeichnis

Ganz Deutschland ist im Jahr 2026 von Künstlicher Intelligenz überzeugt… Ganz Deutschland? Nein! Eine von unbeugsamen Nutzer:innen bevölkerte Online-Plattform namens Wikipedia hört nicht auf, der Technologie Widerstand zu leisten. Und das macht das Leben nicht leicht für unerfahrene Neulinge, die oftmals in bester Absicht versuchen, ihre ersten Beiträge mit generativer KI zu erstellen.

Am 15. Januar 2001 startete die englischsprachige Wikipedia, ziemlich genau zwei Monate später – am 16. März 2001 – folgte die deutschsprachige Ausgabe. Was als Experiment begann, ist heute ein globales Wissenssystem, getragen von Ehrenamtlichen, organisiert durch klare Regeln und seit langem wesentlicher Teil der digitalen Infrastruktur.

Diese Infrastruktur ist nicht nur für die Wikipedia selbst relevant, sondern längst auch für Suchmaschinen, digitale Assistenten und KI-Systeme, die auf strukturierte und verlässliche Wissensquellen angewiesen sind.

 

Der Wiki-Kosmos: Datenbasis für das KI-Zeitalter

Wichtig dabei: Wikipedia ist nur ein Teil des Wiki-Kosmos. Von großer Bedeutung im Hintergrund ist Wikidata. Die Datenbank bildet strukturierte, maschinenlesbare Fakten ab – eine zentrale Grundlage für Knowledge Panels, Assistenten und viele KI-Systeme. Zudem vernetzt sie alle Sprachversionen und die weiteren Wiki-Projekte. Der dritte große Planet ist Wikimedia Commons als Medienspeicher, der Millionen frei nutzbarer Medien bereithält.

Gerade im Zeitalter generativer KI ist dieses Ökosystem relevanter denn je. Und zugleich steht es unter Druck. Denn während KI-Systeme stark von dieser Wissensbasis profitieren, erzeugen dieselben Technologien gleichzeitig eine neue Welle von Inhalten, die mit den Qualitätsstandards der Enzyklopädie kollidieren.

 

KI-Artikel in der Praxis: Schnell erstellt, schnell gelöscht

Generative KI hat den Arbeitsalltag verändert. Texte entstehen in Sekunden und auf den ersten Blick sehen sie sauber strukturiert, sprachlich glatt und vollständig aus. Es liegt nahe, dass Kommunikationsprofis auch Wikipedia-Einträge über Unternehmensmarken mit Hilfe von KI-Tools umarbeiten wollen. Neu erstellte oder angepasste Artikel sollen das Unternehmen in bestem Licht erscheinen lassen, Kritik übertünchen oder Marketingbotschaften verstärken. In der Wikipedia führen diese Versuche regelmäßig zu Konflikten.

Zum einen lässt sich schnell erkennen, wenn ChatGPT, Gemini und Kollegen getextet haben: Häufige Fettungen, listenartige Absätze oder auffällig generische Formulierungen sind eindeutige Marker für den Einsatz eines Chatbots. Kurz darauf folgt ein Löschantrag.

In Löschdiskussionen heißt es dann etwa:

  • „Der Artikel riecht förmlich nach KI.“
  • „Auch der Artikel ist nur KI-generierte Werbung.“

Ein weiteres typisches Problem ist die sogenannte KI-halluzinierte Belegfiktion. Die angegebene Literatur ist dann zwar formal richtig dargestellt, aber manchmal sind die Namen der Autor:innen falsch angegeben, manchmal ist die ISBN fantasiert oder der Titel existiert so nicht. 

Solche Artikel werden mittlerweile ohne Diskussion gelöscht. Für Außenstehende wirkt das vielleicht wie reflexhafte Technikabwehr. Tatsächlich folgt dies jedoch einer klaren Systemlogik.

 

Warum KI-Texte systematisch scheitern

Wikipedia basiert auf einem einfachen Prinzip: Jede Aussage muss überprüfbar sein. Jede:r Autor:in übernimmt Verantwortung für die Inhalte.

Verantwortung und Urheberschaft

Ein vollständig generierter Text, der ohne eigene redaktionelle Durchdringung eingestellt wird, widerspricht sowohl dem Prinzip als auch dem rechtlichen Aspekt. Die Community reagiert daher nicht primär auf das Werkzeug, sondern vor allem auf das Fehlen persönlicher Prüfung und Quellenkritik.

Menschen statt Maschinen

Das vergleichsweise rigorose Vorgehen gilt aber nicht nur für Artikel, sondern auch für die sogenannten Meta-Seiten. Das betrifft beispielsweise den „Relevanzcheck“, bei dem Nutzer:innen vorab anfragen können, ob ihr Artikelwunsch enzyklopädiefähig ist. Oder es betrifft die „Löschprüfung“, um einen früher gelöschten Artikel wieder in den Bestand zurückzuholen.

Wird in einer Diskussion offenkundig mit einem Chatbot gearbeitet, endet die Debatte im Regelfall schnell. Auch das ist kein Affront gegen Technologie, sondern ein Schutzmechanismus gegen ungeprüfte Massenproduktion. Die Community steht auf persönliche Beziehungen und will entsprechend mit Menschen reden statt mit Maschinen. Außerdem lautet die Grundannahme, dass auf einen KI-generierten Auftakt weitere automatisierte Beiträge folgen.

 

Weitgehendes Verbot für KI-Texte per Meinungsbild

Mitte Februar unterlegte die deutschsprachige Community ihre gelebte Haltung mit einer formalen Basis. In einem Meinungsbild stimmten ungefähr zwei Drittel der Teilnehmenden für die Einführung der Richtlinie „Künstliche Intelligenz“.

Die neue Richtlinie „Künstliche Intelligenz“

In den ersten beiden Sätzen ist die Stoßrichtung klar kommuniziert:

Die Wikipedia ist ein Projekt mit von Menschen für Menschen recherchierten und geschriebenen Inhalten. Der Einsatz von generativer künstlicher Intelligenz (im Folgenden kurz: KI) im Zusammenhang mit der Erarbeitung von Inhalten für die Wikipedia ist daher grundsätzlich unerwünscht.

GenAI ist damit ein absolutes No-Go, egal, wo in der Wikipedia Texte veröffentlicht werden. Erlaubt ist der Einsatz in eng umgrenzten anderen Bereichen, zum Beispiel zur Recherche und der Fehlerkontrolle.

Qualität trumpft Masse

Das hat nichts mit Technikfeindlichkeit zu tun, sondern mit strukturellem Druck und einem hohen Qualitätsanspruch. Eine Flut mangelhafter Texte aufgrund von KI-Tools ist mit den begrenzten Ressourcen der freiwillig engagierten Community nicht zu beherrschen. Unter diesen Bedingungen stabilisiert eine harte Linie gegen maschinell erstellte Texte die Qualität.

 

Die restriktive Haltung ist sinnvoll

Auf den ersten Blick wirkt es dabei vielleicht paradox, dass diese Haltung positiv auf das einwirkt, was die Community ablehnt. Aber Wikipedia ist eben ein wichtiges Trainingsmaterial für viele Large Language Models. Sie wird für Live-Abfragen genutzt, dient als Referenz für Knowledge Panels und strukturierte Datenbanken. Sinkt ihre Qualität, sinkt auch die Qualität nachgelagerter Systeme.

Indem die Community ungeprüfte KI-Texte konsequent entfernt, schützt sie nicht nur die eigene Integrität, sondern stabilisiert eine zentrale Wissensbasis des KI-Zeitalters. Mit diesem Hintergrundwissen ist die weitgehende Ablehnung von KI keine Fortschrittsverweigerung, sondern Qualitätsmanagement zum Wohle aller.

 

Generative Engine Optimization: mehr als nur Sichtbarkeit

Für Unternehmen und Agenturen ergibt sich daraus eine neue strategische Perspektive. Wenn sie Generative Engine Optimization (GEO) betreiben wollen, müssen sie die zugrundeliegende Logik bedienen, denn journalistische Relevanz, saubere PR-Arbeit und enzyklopädische Standards hängen eng zusammen:

  1. Am Anfang stehen unabhängige, reputationsstarke Quellen – in der Regel Zeitungsartikel oder Fachpublikationen. Wenn sie schon bestehen: perfekt! Wenn sie noch nicht bestehen: aufbauen!
  2. Diese Inhalte müssen dann in enzyklopädischer Sprache ihren Weg in die Wikipedia finden – entweder in bereits bestehende Artikel (das ist der leichte Weg) oder in neue Artikel (dieser Weg steht nicht jedem offen). Was Sie beim Anlegen neuer Beiträge beachten sollten und warum gerade Start-Ups bei der Onlineenzyklopädie Geduld haben sollten, lesen Sie hier
  3. Danach werden diese Inhalte wiederum von KI-Systemen ausgewertet und verarbeitet.

 

Fazit: Handarbeit bleibt der Qualitätsstandard

KI-generierte Texte gelten im Wikipedia-Kontext grundsätzlich als unerwünscht.

Schwierig sind beispielsweise Strukturierungshilfen im Entwurfsstadium, weil es ein profundes Maß an Expertise braucht, um die dabei entstehenden Schwächen zu beseitigen und einen guten enzyklopädischen Text zu schreiben.

Sinnvoll und erlaubt ist es unter anderem, auf KI-gestützten Tools zur Fehlererkennung zu setzen.

Entscheidend bleibt aber immer, dass die letztliche Verantwortung beim Menschen liegt. Der Stil muss enzyklopädisch sein, jede Aussage muss belegt sein und jede Quelle muss existieren.

KI ist in diesem Sinn das Werkzeug, die Autorenschaft bleibt Handarbeit. Wer das versteht, kann KI produktiv einsetzen. Wer es ignoriert, läuft sehenden Auges in Konflikte mit der Community.

Im 25. Jahr ihres Bestehens wirkt die Wikipedia weniger wie ein gallisches Dorf als vielmehr wie ein Stabilitätsanker. Sie ist ein Ort, an dem Geschwindigkeit durch Prüfung, Automatisierung durch Verantwortung und Sichtbarkeit durch Nachweise ergänzt wird. Gerade im KI-Zeitalter ist das eine Stärke.

Autor: Torsten Paßmann

Torsten Passmann ist Journalist und Kommunikationsberater. Seine Expertise hat er unter anderem als PR- und IR-Manager der Berentzen-Gruppe aufgebaut. Unter paid-editing.de führt er einen Blog, der sich mit Unternehmen, Agenturen und Selbstdarstellern in Wikipedia beschäftigt.

 

Nadine Nicolas, Head of Digital Marketing

Neugierig geworden?
Lassen Sie uns sprechen – wir zeigen Ihnen, wie Sichtbarkeit heute funktioniert.
Unsere Head of Digital Marketing, Nadine Nicolas, freut sich über Ihre Mail. Sie möchten uns erstmal kennenlernen? Auch eine unverbindliche Erstberatung ist jederzeit möglich.

Website-Button "Termin vereinbaren"