Manchmal fühlt es sich an, als säße man in einem Stadion und schaute einem Quarterback zu, der in der letzten Sekunde des Spiels völlig verzweifelt einen »Hail-Mary-Pass« in die Endzone wirft. Man weiß, dass die Chance auf einen Fang gegen Null geht, aber die Geste allein soll wohl Handlungsfähigkeit suggerieren. Genau diesen Eindruck hinterlässt Google momentan mit seinen »AI Overviews«. Es ist der verzweifelte Versuch einer einstigen Weltmacht, Relevanz vorzugaukeln, während das Fundament, auf dem sie steht, längst von SEO-Termiten und Marketing-Parasiten zerfressen wurde.
Wir befinden uns mitten in der Ära der »Enshittification«, jenem von Cory Doctorow so treffend beschriebenen Prozess der Plattform-Degradation. Wer heute eine Suchmaschine nutzt, betritt keine Bibliothek mehr; er betritt einen Jahrmarkt, auf dem man von Staubsaugervertretern und selbsternannten Experten angeschrien wird, während die eigentliche Information – die leise, komplexe, wissenschaftlich fundierte Wahrheit – hinter einem Vorhang aus »Sponsored Links« und algorithmisch optimiertem Müll versteckt wird.
Dieser Beitrag als Podcast
Wenn die Suche zur Überlebensfrage wird: Ein persönliches Desaster
Lassen Sie uns konkret werden. Ich leide an einer sehr seltenen Stoffwechselstörung namens »Vitamin-D-resistente Rachitis« (auch bekannt als X-linked Hypophosphatemia, XLH). Es ist eine Erkrankung, bei der es weltweit nur eine Handvoll Institutionen gibt, die wirklich wissen, was sie tun. Wenn ich heute versuche, aktuelle Forschungsergebnisse oder spezialisierte Kliniken zu finden, gleicht das einer Odyssee durch ein digitales Endzeitszenario.
Ganz oben präsentiert mir Google eine »leidlich korrekte« KI-Zusammenfassung, die so oberflächlich ist, dass sie fast schon wieder gefährlich wirkt. Darunter folgt eine Phalanx aus »Sponsored Links« von kommerziellen Anbietern, die mir Nahrungsergänzungsmittel verkaufen wollen, die bei meiner genetischen Störung etwa so effektiv sind wie ein Gebet gegen einen Beinbruch. Dann kommen die SEO-Zombies: Portale wie WebMD oder Healthline, die den Algorithmus so perfekt bedienen, dass sie immer auf Platz 1 stehen, obwohl ihre Texte klinisch so nuanciert sind wie ein Malbuch für Dreijährige.
Die drei weltweit führenden Fachinstitutionen für XLH? Die tauchen frühestens auf Seite 3 auf. Warum? Weil diese Institute sich mit Heilung beschäftigen und nicht mit »Schema-Markup« oder »Keyword-Stuffing«. Sie investieren ihr Budget in Forscher, nicht in SEO-Agenturen. Das ist kein technischer Fehler; es ist ein systemischer Kollaps. Laut einer Studie über die Auffindbarkeit seltener Krankheiten erscheinen Dokumente, die zur korrekten Diagnose führen könnten, nur in etwa einem Drittel der Fälle unter den ersten 20 Ergebnissen.
Die Anatomie des Verfalls: Willkommen in der Enshittification
Cory Doctorow hat es uns erklärt: Zuerst sind Plattformen gut zu ihren Nutzern, um sie abhängig zu machen. Dann werden sie gut zu ihren Geschäftskunden (Werbetreibenden), um Geld zu verdienen. Und am Ende werden sie scheiße zu allen, um den Aktionärswert zu maximieren. Diese Definition von Enshittification beschreibt exakt den Zustand unserer Informationsökonomie.
Im Suchsektor manifestiert sich das als »SEO-Spam-Wettrüsten«. Eine einjährige Studie deutscher Universitäten (Leipzig, Weimar und das ScaDS.AI) hat das Unvermeidliche belegt: Die Suchergebnisse werden messbar schlechter. Die Forscher fanden heraus, dass die Mehrheit hochrangiger Produktbewertungen schlichter »Affiliate-Spam« ist, wie die Leipziger Studie zu SEO-Spam eindrucksvoll untermauert. Wir leben in einer Welt, in der die Quantität der Optimierung über die Qualität des Inhalts triumphiert.
Die Suchmaschine ist zum Opfer ihrer eigenen Metriken geworden. Marketer haben den Begriff »Relevanz« gekapert und ihn in »Search Intent« umgedeutet. Es geht nicht mehr darum, ob eine Information wahr ist, sondern ob sie so mundgerecht serviert wird, dass der Nutzer nicht sofort wieder wegklickt (»Bounce Rate«). Das führt zu einer »Proletarisierung des Wissens«: Komplexe wissenschaftliche Nuancen werden auf ein Leseniveau für Grundschüler reduziert, damit der Algorithmus ein Häkchen bei »Nutzerfreundlichkeit« setzen kann.
Die dunkle Seite des Marketings: Wenn »Experten« nur noch Statisten sind
In der modernen Marketing-Industrie herrscht eine pathologische Sucht nach quantifizierbaren Kennzahlen. Agenturen behandeln medizinische Informationen wie Werkzeuge zur Patientenakquise. Besonders im Gesundheitssektor (YMYL – »Your Money or Your Life«) ist das fatal. Wenn eine Content-Farm täglich hunderte KI-generierte Artikel ausspuckt, die zwar perfekt strukturiert sind, aber keine klinische Tiefe besitzen, dann ist das KI-Slop im medizinischen Marketing in seiner reinsten Form.
Das Problem ist, dass diese Inhalte »tastfähig« für den Algorithmus sind. Sie haben die richtigen Überschriften, die richtigen Metadaten und die richtige Ladegeschwindigkeit. Echte Expertenarbeit hingegen ist oft sperrig, komplex und – Gott bewahre – vielleicht sogar langsam zu lesen. Im digitalen Darwinismus der Gegenwart stirbt die Expertise zugunsten der Exzellenz in der Manipulation.
GEO: Die nächste Eskalationsstufe der synthetischen Lüge
Wer glaubt, dass die Integration von Large Language Models (LLMs) wie ChatGPT oder Claude in die Suche das Problem löst, der glaubt auch, dass man ein Feuer mit Benzin löschen kann. Wir erleben gerade die Geburtsstunde von GEO: »Generative Engine Optimization«.
GEO ist der Versuch, Inhalte so zu erhalten, dass sie von einer KI bevorzugt als »die eine Wahrheit« extrahiert werden. Aktuelle Forschung zu Generative Engine Optimization zeigt, dass man die Sichtbarkeit in KI-Antworten um bis zu 40 % steigern kann, wenn man bestimmte »Trigger« einbaut. Das Problem hierbei ist das »Single-Answer-Paradoxon«. Während uns die traditionelle Suche zumindest theoretisch die Chance gab, auf Seite 3 die Wahrheit zu finden, präsentiert uns die generative Suche oft nur eine einzige, autoritativ klingende Antwort.
Das ist brandgefährlich. LLMs arbeiten nicht auf Basis von Fakten, sondern auf Basis statistischer Wahrscheinlichkeiten. Sie sind »stochastische Papageien«. Wenn der Input-Raum durch GEO-manipulierte Inhalte geflutet wird, produziert die KI eine »optimierte Unwahrheit«. Diese ist weitaus gefährlicher als eine offensichtliche Halluzination, weil sie den rhetorischen Stil eines Experten perfekt imitiert – der sogenannte Deceptive Style bei KI-Desinformation.
Das Orakel ohne Weltwissen
Stellen Sie sich vor, Sie fragen eine KI nach der Behandlung meiner Rachitis. Die KI durchsucht das Web, findet 500 SEO-optimierte Artikel von Supplement-Herstellern und zwei wissenschaftliche Paper. Was wird sie Ihnen präsentieren? Eine synthetisierte Antwort, die auf der Masse der optimierten Inhalte basiert.
LLMs besitzen kein »Weltwissen«. Sie verstehen nicht, dass ein biologischer Prozess nicht durch eine »High-Intent«-Landingpage außer Kraft gesetzt werden kann. Sie wählen die Antwort, die am wahrscheinlichsten klingt. Wenn das Marketing die Wahrscheinlichkeit durch schiere Masse und GEO-Tricks verschiebt, dann wird die Lüge zur statistischen Wahrheit.
Die Anbieter versuchen zwar gegenzusteuern. Techniken wie RAG (»Retrieval-Augmented Generation«) sollen die KI zwingen, ihre Antworten auf externe Quellen zu stützen, wie diese Untersuchung zu RAG im Gesundheitswesen zeigt. Doch RAG ist nur so gut wie die Quellen, die es abruft. Wenn das Internet bereits mit »AI-Slop« und SEO-Müll kontaminiert ist, dann wird die KI lediglich eine besonders gut formulierte Zusammenfassung von Unsinn liefern. Es ist das klassische »Garbage In, Garbage Out«-Prinzip, nur eben im schicken KI-Gewand.
Die verzweifelten Rettungsanker: Knowledge Graphs und Publisher-Deals
Google und Microsoft wissen natürlich, dass ihr Haus brennt. Deshalb setzen sie verstärkt auf »Knowledge Graphs« – strukturierte Datenbanken, die Fakten als explizite Beziehungen speichern, statt sich nur auf Wortwahrscheinlichkeiten zu verlassen. Die Unterschiede zwischen Knowledge Graphs und LLMs sind entscheidend: Erstere sind faktisch, letztere statistisch. Doch Knowledge Graphs sind teuer und decken bei weitem nicht alle Nischen ab. Für meine seltene Stoffwechselstörung ist der Graph oft so lückenhaft wie mein Zahnschmelz ohne Phosphat.
Ein weiterer Trend sind exklusive Publisher-Partnerschaften mit KI-Anbietern. Man hofft, durch den Zugriff auf »Premium-Daten« den Spam-Einfluss zu minimieren. Doch das schafft ein neues Problem: Das Informations-Oligopol. Wenn nur noch zitiert wird, wer einen Multi-Millionen-Dollar-Vertrag mit OpenAI oder Google hat, wo bleibt dann die unabhängige Wissenschaft? Wo bleibt die Nischen-Expertise, die keinem Großverlag angehört?
Eine positive Vision: Die Rückkehr der menschlichen Kuration
Wir stehen am Scheideweg. Entweder wir akzeptieren, dass unsere Informationslandschaft zu einer algorithmischen Einöde verkommt, in der wir nur noch das finden, was Marketer uns vor die Füße werfen. Oder wir fordern eine radikale Rückbesinnung.
Wie könnte eine positive Vision aussehen?
- Transparenz der Herkunft: KI-Antworten dürfen niemals als »Single Answer« ohne Quellenangabe stehen. Wir brauchen eine explizite Offenlegung der Synthese. Nutzer müssen sehen, welche Quellen widersprüchlich sind.
- Reputation statt SEO: Wir müssen Metriken entwickeln, die fachliche Autorität nicht an der Anzahl der Backlinks messen, sondern an der Reputation in Fachkreisen. Ein Paper in der »Nature« muss algorithmisch mehr wiegen als 10.000 Blogposts auf »Gesundheits-Tipps24.de«.
- Die Renaissance der Kuration: Vielleicht ist die Zeit der »Universalsuchmaschine« vorbei. Wir brauchen spezialisierte, kuratierte Hubs für sensible Themen wie Gesundheit, Recht und Wissenschaft. Menschliche Experten müssen wieder die Gatekeeper sein, nicht Software-Ingenieure aus Mountain View.
- Digitale Mündigkeit: Wir müssen lernen, das »KI-Orakel« zu hinterfragen. Urteilskraft ist die wichtigste Ressource im Zeitalter der Generation. Wir müssen verstehen, dass »flüssig formuliert« nicht »wahr« bedeutet.
Das Internet und die KI sind fantastische Werkzeuge. Aber sie sind gerade dabei, stumpf und unbrauchbar zu werden, weil wir zugelassen haben, dass Profitmaximierung und Marketing-Gier die Integrität der Information zerstören. Die »Enshittification« ist kein Naturgesetz. Sie ist das Ergebnis von Entscheidungen. Und wir können uns entscheiden, wieder nach der Nadel zu suchen – und den Heuhaufen aus SEO-Schrott einfach zu verbrennen.
Wir brauchen ein Netz, das leise Wahrheiten wieder hörbar macht. Denn für jemanden wie mich ist die richtige Information keine Frage des »Search Intents« – sie ist eine Frage des Überlebens.
Weiterführende Links & Quellen
- Cory Doctorow über die Enshittification von Plattformen
- ArXiv: Generative Engine Optimization: How to Dominate AI Search
- ScaDS.AI: Studie zur Verschlechterung der Suchqualität durch SEO-Spam
- PMC: Herausforderungen bei der Suche nach Diagnosen seltener Krankheiten
- InfluxMD: Die Krise des KI-Slops im Gesundheitsmarketing
