PageRank verbessern:
Was aus Googles erster großer Idee geworden ist

Vier Epochen der Online-Sichtbarkeit. Von gekauften Links über Content-Flut bis zur KI. Und was heute wirklich zählt.

Der Begriff „PageRank" stammt aus einer Zeit, in der Google noch ein Forschungsprojekt an der Stanford University war. Larry Page und Sergey Brin hatten 1998 eine einfach klingende Idee: Eine Webseite ist umso wichtiger, je mehr andere Seiten auf sie verlinken. Wer viele Links bekommt, steht oben. Wer wenige bekommt, steht unten. Das Prinzip funktionierte ähnlich wie Zitationen in der Wissenschaft, und es veränderte das Internet grundlegend.

Wer heute nach „PageRank verbessern" sucht, meint im Grunde etwas anderes: online besser gefunden werden. Die Motivation ist geblieben, aber die Spielregeln haben sich seit 1998 mehrfach komplett gedreht. Dieser Text zeichnet die vier großen Epochen der Online-Sichtbarkeit nach und räumt dabei mit einigen hartnäckigen Mythen auf. Denn jede Ära hatte ihre eigenen Irrtümer, und manche davon halten sich bis heute.

Die Link-Ära: Wer die meisten Links hat, gewinnt (1998–2010)

In den Anfangsjahren von Google war die Rechnung einfach. Jeder Link auf eine Website zählte wie eine Empfehlung, und je mehr Empfehlungen eine Seite sammelte, desto höher kletterte sie in den Suchergebnissen. Das funktionierte anfangs erstaunlich gut, weil Links tatsächlich ein verlässliches Signal waren. Wer gute Inhalte hatte, wurde verlinkt. Wer verlinkt wurde, wurde gefunden.

Dann entdeckte eine ganze Branche das System. Agenturen verkauften Linkpakete, Webseitenbetreiber tauschten Links wie Sammelkarten, und sogenannte Linkfarmen entstanden: Seiten, die nur existierten, um andere Seiten nach oben zu schieben. Google hatte ein Problem, denn das Signal, auf dem der gesamte Algorithmus aufbaute, wurde systematisch verfälscht.

Der verbreitete Mythos dieser Ära lautete: Mehr Links bedeuten automatisch bessere Platzierungen. In Wahrheit stimmte das nur, solange niemand die Mechanik ausnutzte. Sobald Links zur Handelsware wurden, verloren sie ihren Wert als ehrliches Signal. Google reagierte ab 2012 mit dem Penguin-Update und strafte Websites ab, die auf manipulierte Verlinkungen gesetzt hatten. Ganze Geschäftsmodelle brachen über Nacht zusammen.

Wenn Sie in dieser Zeit eine Website betrieben und auf organische Verlinkungen durch gute Inhalte gesetzt haben, sind Sie mit großer Wahrscheinlichkeit unbeschadet durch das Penguin-Update gekommen. Wer dagegen auf gekaufte Links vertraute, musste von vorn anfangen.

Die Content-Ära: Wer am meisten schreibt, gewinnt (2010–2020)

Google lernte in dieser Phase, Texte tatsächlich zu lesen und einzuordnen. Der Algorithmus verstand zunehmend, worum es auf einer Seite ging, welche Fragen sie beantwortete und ob der Inhalt zur Suchanfrage passte. Das verschob den Fokus: Plötzlich zählte, was auf der Seite stand, und Unternehmen begannen, Blogbeiträge, Ratgeber und Erklärseiten in großen Mengen zu produzieren.

„Content is King" wurde zum Leitspruch einer ganzen Dekade, und er enthielt einen wahren Kern. Gute Inhalte halfen tatsächlich bei der Sichtbarkeit. Allerdings führte der Spruch zu einem Missverständnis, das sich hartnäckig hielt: Je mehr man veröffentlicht, desto besser wird man gefunden. Unternehmen produzierten drei Blogposts pro Woche, oft ohne echten Mehrwert und häufig zu Themen, zu denen es bereits hunderte identische Texte gab.

Der Mythos dieser Ära war, dass Masse Sichtbarkeit erzeugt. In der Praxis führte diese Strategie dazu, dass das Internet mit austauschbaren Texten überflutet wurde. Google stellte nach und nach auf Qualitätssignale um. Dünne Inhalte, die nichts Neues beitrugen, wurden abgewertet. Wer hingegen einen einzelnen wirklich guten Artikel zu einem Thema geschrieben hatte, konnte damit über Jahre hinweg auf Seite eins stehen.

Für Ihr Unternehmen bedeutet das noch heute: Zehn mittelmäßige Blogposts bringen weniger als ein einziger Artikel, der ein konkretes Problem so gut erklärt, dass Leser ihn speichern und weiterleiten. Qualität hat in dieser Phase angefangen, Quantität zu schlagen, und dieser Trend hat sich seitdem nur verstärkt.

Die Vertrauens-Ära: Wer tatsächlich Ahnung hat, gewinnt (2020–2025)

Ab 2020 fügte Google seinem Bewertungssystem eine neue Dimension hinzu: die Person oder Organisation hinter dem Inhalt. Das Kürzel dafür heißt E-E-A-T und steht für Experience, Expertise, Authoritativeness und Trust, also Erfahrung, Fachwissen, Autorität und Vertrauenswürdigkeit. Im Deutschen klingt das sperrig, die Idee dahinter ist aber einleuchtend: Ein Artikel über Bandscheibenprobleme sollte von jemandem stammen, der sich damit auskennt, und nicht von einem SEO-Texter, der das Thema am selben Morgen recherchiert hat.

Diese Verschiebung traf vor allem eine Gruppe hart: Websites, die zu allem und jedem geschrieben hatten, ohne erkennbare Fachkompetenz. Anonyme Texte auf Seiten ohne Impressum, ohne Autorenprofile und ohne nachvollziehbaren Hintergrund verloren massiv an Sichtbarkeit. Google bewertete nun, ob eine Quelle vertrauenswürdig ist, bevor es sie empfahl.

Der zentrale Mythos dieser Ära hält sich bis heute: SEO sei vor allem eine technische Disziplin, bei der es um Meta-Tags, Ladezeiten und Keyword-Dichten geht. Technische Grundlagen sind wichtig, daran hat sich nichts geändert. Aber sie allein reichen nicht mehr. Eine perfekt optimierte Seite ohne erkennbare Expertise hinter dem Inhalt wird mittlerweile von einer handwerklich durchschnittlichen Seite mit echtem Fachwissen überholt.

Wenn Sie sich fragen, was das für Ihre Website bedeutet: Zeigen Sie, wer Sie sind und warum Sie zu Ihrem Thema etwas zu sagen haben. Autorenprofile, Referenzen, Fallbeispiele aus der eigenen Praxis – all das sind Signale, die Google und auch Ihre Besucher als Vertrauensbeweis werten.

Die KI-Ära: Wer als Quelle zitiert wird, gewinnt (ab jetzt)

Seit 2023 verändert sich das Spielfeld erneut, und diesmal ist der Umbruch grundlegender als alles, was vorher kam. KI-Systeme wie ChatGPT, Perplexity und Googles eigene AI Overviews beantworten Fragen direkt, ohne dass der Nutzer auf ein Suchergebnis klicken muss. Die KI liest hunderte Quellen, fasst die Antwort zusammen und nennt bestenfalls die Seiten, aus denen sie die Information bezogen hat.

Das hat weitreichende Folgen. Bei rein informationellen Suchanfragen – „Was ist PageRank?", „Wie funktioniert E-Mail-Marketing?" – sinken die Klickraten auf klassische Suchergebnisse bereits spürbar. Der Nutzer bekommt seine Antwort direkt in der Suchmaschine oder im Chat-Fenster. Wer weiterhin Besucher auf die eigene Website bekommen will, muss entweder so spezialisiert sein, dass die KI-Antwort nicht ausreicht, oder als Quelle zitiert werden.

Der Mythos, der sich gerade bildet: KI macht SEO überflüssig. Das Gegenteil ist der Fall. Die Anforderungen an Inhalte steigen, weil KI-Systeme bevorzugt Quellen zitieren, die klar strukturiert sind, nachweisbare Expertise zeigen und einzigartige Informationen bieten. Generische Texte, die nur wiederholen, was überall steht, werden weder von Google noch von KI-Systemen als zitierwürdig eingestuft.

Für Sie als Unternehmen heißt das: Inhalte, die aus eigener Erfahrung, eigenen Daten oder eigener Fachkenntnis entstehen, haben einen Vorteil gegenüber reinen Zusammenfassungen. Ein Maschinenbauer, der beschreibt, welches technische Problem er in der Praxis tatsächlich gelöst hat, liefert Information, die eine KI nirgendwo anders findet. Das macht ihn zur Quelle.

Das Muster hinter allen vier Epochen

Echte Substanz war in jeder Phase belastbar, Abkürzungen hatten ein Verfallsdatum.

Obwohl sich die Regeln mit jeder Ära verändert haben, zieht sich ein roter Faden durch alle vier: Echte Substanz war in jeder Phase belastbar, Abkürzungen hatten ein Verfallsdatum. Wer Links gekauft hat, wurde abgestraft. Wer massenhaft dünne Texte produziert hat, wurde herabgestuft. Wer ohne erkennbare Expertise geschrieben hat, wurde aussortiert. Und wer heute nur das wiederholt, was überall steht, wird von KI-Systemen ignoriert.

Das klingt nach einer strengen Entwicklung, aber es enthält auch eine gute Nachricht: Wer sich die Mühe macht, wirklich hilfreiche Inhalte mit eigenem Wissen zu erstellen, muss bei der nächsten großen Umstellung nicht von vorn anfangen. Diese Investition hat sich in jeder bisherigen Ära ausgezahlt und wird es mit hoher Wahrscheinlichkeit auch weiterhin tun.

Wenn Sie heute Ihre Online-Sichtbarkeit verbessern wollen, vergessen Sie den PageRank. Fragen Sie sich stattdessen: Finden Menschen auf meiner Website Antworten, die sie woanders nicht bekommen? Ist erkennbar, warum gerade wir zu diesem Thema etwas zu sagen haben? Und würde eine KI unsere Seite als Quelle empfehlen?

Wenn Sie diese drei Fragen mit Ja beantworten können, stehen Sie besser da als mit jedem Link-Paket, das man Ihnen verkaufen könnte.

Über dieses Thema

Hinter diesem Artikel steht Ralf Skirr. Er hat die vier Epochen der Online-Sichtbarkeit nicht nur beobachtet, sondern in über 25 Jahren selbst durchlaufen. Von den ersten SEO-Projekten in den späten Neunzigern bis zur heutigen Arbeit mit KI-gestützter Auffindbarkeit. Suchmaschinenoptimierung, Conversion-Optimierung und die Frage, wie Unternehmen auch in KI-Systemen als Quelle auftauchen, bilden den Kern seiner Arbeit.

Ralf ist Inhaber der DigiStage GmbH, einer Agentur für Online Marketing. Die Agentur macht B2B-Unternehmen dort sichtbar, wo ihre Kunden suchen. Ob bei Google, in ChatGPT oder in anderen KI-Systemen.

Die Agentur beschreibt ihren Ansatz auf internet-online-marketing.de.

Ralf Skirr

Ralf Skirr

Marketing Experte seit 1987. Seit 2001 Geschäftsführer der Online-Marketing-Agentur DigiStage GmbH.