Die wichtigen Updates von Google

Wenn das gesuchte Thema eines Users zum angebotenen Inhalt passt, ergeben sich automatisch bessere Verweildauern, es springen weniger User ab, backlinken oder teilen den Artikel und senden somit positive Relevanz-Signale an die Suchmaschine zurück. Bildnachweis: flickr.

Solche Texte, wie auf der vorangegangenen Seite beschrieben, sind künftig ganz sicher obsolet. Eine Frage, die sich jeder Autor selber stellen kann: Würde ich meinen Text lesen? Die Geschmäcker sind natürlich verschieden. Inhalte müssen nicht allen, gleichwohl aber der Zielgruppe gefallen. Inhalte dürfen ruhig kontrovers sein. Manchmal hilft Eigenartigkeit. Entwickeln Sie eine eigene Tonalität. Ihren Stil und Ihre Art, Dinge zu beschreiben.

Eine gewisse Zahl von Abspringern berechnet der Algorithmus von Google in Relation zum Verhalten aller anderen User, die länger oder sogar sehr lange verweilen. Google stehen insgesamt viel mehr Daten zur Verifizierung der tatsächlichen Beliebtheit von Inhalten zur Verfügung, als wir uns vorstellen können. z. B.:

  • Wonach haben Suchende vorher gesucht?
  • Wie verläuft die weitere Suche der User?
  • Wie verhalten Suchende sich auf diversen anderen Landingpages von Suchergebnissen?
  • Im Verhältnis zu welchen Themen (Keyword-Sets)?
  • Bei welchen Inhalten (Keyword-Mix) halten sich User mit welcher Datenhistorie besonders lange auf?

The Soul of Content: Gefühl und Seele ist gefordert – darum haben wir diese Wortkreation erfunden. Guten SEO-Agenturen gelingt das auch, jedoch niemals zum Discount-Preis.

So agieren, als gäbe es die Suchmaschine gar nicht

Google selber empfiehlt schon in seinen Richtlinien für Webmaster, dass Verfasser so agieren sollen, als gäbe es die Suchmaschine gar nicht. Das klingt nach einem fairen Angebot. Was? Keine Regeln? Das scheint einigen noch schleierhaft, ist doch die Welt von heute so schön logisch reglementiert. Jetzt sind Fantasie und Geist gefragt. Die technische Arbeit kommt häufig erst an zweiter Stelle. Zunächst soll der Inhalt denen gefallen, die ihn konsumieren sollen.

Das wird auch an den Updates von Google deutlich, die allesamt darauf fokussiert sind, gute von schlechten Website-Inhalten zu trennen.

Google arbeitet an der Perfektionierung seines Algorithmus. Das Ziel ist, Webspam und exzessive Onsite-Optimierungen zu entdecken. Wer nicht aufpasst, wird früher oder später weniger präsent eingeblendet (abgestraft).

Data-Refresh

Matt Cutts, der Chef von Googles Webspam-Team, hat berichtet, dass Google alleine 2012 sagenhafte 665 Updates an seinem Ranking-Algorithmus durchgeführt hat – teils marginale Änderungen, die nicht jeweils bekannt gemacht wurden (Phantom-Updates). Teils aber auch fundamental wichtige.

Ein Update bezeichnet tatsächliche Änderung des Google-Algorithmus in größerem Umfang, denken wir an die Panda- oder Penguin-Updates. Meist geht es um einen bestimmten Faktor des Algorithmus, der aus Tausenden Rankingfaktoren besteht. Die meisten Faktoren basieren auf einer Datenbasis. Wenn Google einen Rankingfaktor neu gewichten möchte, genügt meistens die Änderung der Datenbasis. Dieser Vorgang wird als Data Refresh bezeichnet. Soweit gänzlich neue Aspekte in den Algorithmus aufgenommen werden, handelt es sich um ein Update.

Phantom-Update

Bedeutet in diesem Zusammenhang, dass Google Änderungen selbst am Kern seiner Suchmaschine vornimmt, ohne Stellungnahmen zu solchen Änderungen abzugeben. Im Wesentlichen gab es 2013 ein solches Update, so vermuten SEO-Experten. Gleichwohl wird das erste Phantom-Update in den meisten Bewertungen auf Mai 2015 datiert. Das demnach zweite Phantom-Update fand im September 2015 statt. Beide Updates haben die Suchergebnisse merklich durcheinandergewirbelt.

Search Intent

Dieser Begriff steht für das Ziel aller Suchenden bei Google, nämlich das zu finden, wonach gesucht wurde.

Für Inhalte in Textform gilt einzig der Grundsatz: Ganz oder gar nicht! Um zu verstehen, warum die vorgenannten Regeln so wichtig sind, hilft schon ein kurzer Blick auf besonders wichtige Google-Algorithmus-Updates.

Googles Phantom-Update 2

Bei diesem Update haben erneut die Websites gewonnen, die beliebten Inhalt anbieten, der entweder informativ, unterhaltsam, inspirativ, lehrreich oder aus anderen Gründen viral ist. Google bewertet das Verhalten der User und wertet Websites dynamisch ab, bei denen eine bestimmte Quote von Usern sofort wieder abspringt. Gewollt ist, dass der User sich sofort und ohne großes Scrollen zurechtfindet und einen Inhalt geboten bekommt, den er gesucht hat.

Dass heute immer noch Texte ans Seitenende gestellt werden, was bei SEO-Aktivitäten noch vor wenigen Jahren üblich war, da Inhalte nur für den Suchmaschinen-Algorithmus verfasst wurden, belegt recht anschaulich, wie katastrophal falsch hier Website-Betreiber immer noch beraten werden.

Die künstliche Intelligenz lernt quasi bei jeder Suchabfrage dazu. Sowohl bezogen auf eine bestimmte Landingpage, die weiteren Seiten eines bestimmten Publishers in Summe sowie auch Ergebnisse von Websites mit ähnlichen Inhalten, stets in Relation zu den jeweiligen Linkstrukturen, Textumfängen sowie User-Verhalten.

Unmöglich, gutes SEO technisch zu lösen, so gerne SEO-Experten auch mit Charts und Tabellen arbeiten.

Google Panda (2011)

Im Februar 2011 hat Google seinen Algorithmus bedeutend geupdatet. Der Inhalt sollte Websites mit geringem oder minderwertigem Content finden und weniger präsent als bis dahin in den Suchergebnissen einblenden. Schon dieses Update hat Webseiten mit hochwertigem Content deutlich aufgewertet. Seinerzeit waren circa 12 bis 14 Prozent aller Suchergebnisse betroffen. Negativ besonders solche Seiten, die minderwertigen Content anboten, der von Seiten der User mit erhöhten Absprungraten quittiert wurde.

Besonders ging es Content-Farmen an den Kragen.

Das sind Anbieter von Websites, die Content massenhaft durch freie und leider oft schlecht bezahlte Mitarbeiter erstellen lassen, um die Suchergebnisse direkt zu forcieren. Der Traffic wird sodann über Werbeeinblendungen vermarktet.

Im Ergebnis ist klar, dass dieses Update goldrichtig war und ein Plädoyer gegen Content-Discounter, die billigen und meist wenig werthaltigen Content für kleines Geld anbieten. Häufig nur zu dem Zweck, der Suchmaschine vorzugaukeln, relevante Website-Inhalte zu liefern, die tatsächlich aber häufig nur SEO-Nebel waren.

Nachfolgend gab es zahlreiche weitere Änderungen. So im September 2012 und im Januar 2013. Die 4.0-Version wurde im Mai 2014 aktiviert und die 4.1-Version im Juli 2015.

Google Penguin (2012)

Einer weiteren üblichen und nicht verbotenen Vorgehensweise von SEO-Experten und Website-Manipulatoren sollte schon ein Jahr später begegnet werden. Immer wieder wurden Formatierungen, Quellcodes, Metatags oder andere Elemente „onsite“ massiv manipulativ optimiert, um dem Google-Bot mehr Relevanz zu bestimmten Themen vorzutäuschen. Seinerzeit ist tatsächlich sehr viel toter Content entstanden, der nur noch entsorgt werden kann, um schlimmeren Schaden von den Websites abzuwenden, die sich von der Last durch Spam-Texte (so wie Google reine SEO-Texte bezeichnet) befreien.

Wie erwähnt: Schlechte Inhalte werden sich künftig vermutlich sogar schädlich auf eine gesamte Internetpräsenz auswirken.

Warum, erklären wir im dritten Teil dieses Artikels.

Nur ein Jahr später, 2012, legte Google also mit dem Penguin-Update nach, um einmal mehr die Spreu vom Weizen zu trennen. Abermals wurde der Algorithmus recht massiv geändert. Auch das war ein wichtiger Schritt zugunsten von real gutem und meist mühevoll erstelltem Content.

Schließlich wurde Penguin 1.0 im selben Jahr noch zweimal optimiert und soll immerhin drei bis vier Prozent aller Websites betroffen haben. Nach dem 1.3-Update erfolgte im Mai 2013 die 2.0-Version. 

Das Gute ist, dass seit einigen Jahren kein SEO-Experte weiß, was genau geändert wird, um den üblichen Manipulationen im technischen SEO vorzubeugen.

Google Hummingbird (2013)

Wer hätte das gedacht: Google entwickelt sich, wenn auch nicht ganz uneigennützig, zur Suchmaschine, die zunehmend performante, also beliebte Texte präferiert. Täglich viele Tausend Schummel-SEO-Texte, die nur für die Suchmaschine konzipiert wurden, will der Konzern künftig finden und zugunsten beliebter Exzellenz-Inhalte im Interesse seiner Nutzer aussortieren. Im schlimmsten Falle können reine SEO-Texte und damit ganze Domains sogar abgestraft werden.

Diese sehr bedeutsame Algorithmus-Änderung hat es tatsächlich in sich. Die Suchmaschine versteht seither den Sinn nicht nur einzelner Wörter, sondern ganzer Sätze. Damit will Google den Sinn hinter Suchphrasen verstehen, die aus mehreren Wörtern oder sogar ganzen Sätzen gebildet werden. Google selber soll dieses Update als das wichtigste seit dem Jahr 2000 bezeichnet haben. Immerhin waren 80 bis 90 Prozent aller Suchanfragen davon betroffen.

Bis dato konnte Google nur einzelne Begriffe analysieren. Jetzt war es möglich, die Suche auch nach semantischen Kriterien zu analysieren. Stärker als je zuvor fokussiert das Hummingbird-Update weit tiefgreifender auf die tatsächliche Bedeutung von Suchabfragen. Der Prozess wird auch als semantische Suche bezeichnet.

Das Thema umfassend zu erklären, würde diesen Artikel sprengen. Kurz formuliert geht es u. a. um die Einbeziehung von Synonymen, die zu bestimmten Begriffen hinterlegt sind und verglichen werden. So kann das System bei der Sucheingabe von „Grafikdesigner“ auch jene Websites und Inhalte finden, die hierfür eine inhaltlich ähnliche Begrifflichkeit, z. B. „Mediengestalter“, verwenden, soweit der inhaltliche Kontext sich tatsächlich auf Grafikdienstleistungen bezieht.

Bei sogenannten Homonymen, die jedoch im Inhaltskontext von Webseiten mit ganz unterschiedlichen Themen verbunden sind, kann die Suchmaschine aufgrund des jeweils analysierten Webseiteninhaltes häufig die richtigen Schlüsse ziehen. Wenn z. B. nach „die Katze“ gesucht wird und eigentlich die prominente Blondine Daniela Katzenberger gemeint ist, werden durch den Kontextvergleich zwischen weiteren Begriffen der Suchphrase und den tatsächlichen Textinhalten die richtigen Suchergebnisse zunehmend perfekt angezeigt.

Schließlich hilft Data- oder Textmining und weiteres gesammeltes Hintergrundwissen dabei, auch „artverwandte“ Begriffe auf Webseiten zu finden, soweit die Kontexte zwischen der Suchphrase und dem Inhalt auf einer Website korrelieren.

Google Pigeon (2014):

Das Pigeon-Update 2014 hat der Suche auf lokaler Ebene mehr Gewicht verliehen. Die Sichtbarkeit lokaler Verzeichnisse ist deutlich verbessert worden. Damit wuchs die Bedeutung von lokalen SEO-Maßnahmen. Die User erhalten seither bessere Ergebnisse aus der geografischen Umgebung. Auch das ist eine faire und praktische Lösung und befördert den Einzelhandel, würde er sich denn mit diesem Thema auseinandersetzen, was immer noch eher die Ausnahme ist.

Zahlreiche weitere Google-Updates

Neben diesen sehr wichtigen Updates gab es zahlreiche weitere Updates, so das Google-Panda-Update 4.2 (2015), das Google-Core-Algorithmus-Update (Phantom-Update) und so weiter. Dass bestimmte Änderungen vom Suchmaschinenbetreiber selber nicht erklärt werden, ist gut so, selbst wenn wie z. B. beim „Core-Update“ zwischen 20 und 60 Prozent aller Domains an Sichtbarkeit im Suchergebnis verloren haben.

SEM = SEO + SEA

Google stelle heute höchste Ansprüche an Content, besser: Die User tun dies und hinterlassen beim Besuch, wie erwähnt, klare Spuren von Interesse – oder Desinteresse. SEM (Search Engine Marketing) ist der Oberbegriff für SEO (Search Engine Optimization, Optimierung der echten, „organischen“ Suchergebnisse) und SEA (Search Engine Advertising, Anzeigenschaltung in dem Umfeld). Soweit zu den Begrifflichkeiten. 

Backlinks

Backlinks von gewichtigen Websites sind bisher wichtigste Treiber für gute Rankingfaktoren bei Suchmaschinen gewesen. Wie schon beschrieben sind SEO-Manipulationen, in diesem Falle in Form von massenweise gekauften Backlinks, ein wichtiges strategisches Ziel bei der Suchmaschinenoptimierung. Skurril, denn das kostet richtig viel Geld. Mittel, die besser in gute Inhalte investiert werden sollten. Beliebte Inhalte fördern nicht nur direkten Traffic durch möglicherweise kurzfristig gute Sichtbarkeiten, sondern auch die Treue von Bestandskunden.

Beliebtheit schlägt Backlink

Dass Backlinks zunehmend an Bedeutung verlieren, gilt als sicher, angesichts der Manipulationsmöglichkeiten (schon der Kauf von Backlinks ist Manipulation), der sich SEO-Experten beim Linkbuilding bedienen. Diskutiert wird noch, ob denen, die allzu exzessiv verlinkt haben, gerade dieser gegenwärtige Vorteil irgendwann nicht zu Nachteil gereicht.

Wenig aktive Backlinks
können schaden

Im Februar 2014 hat Matt Cutts, damaliger Leiter vom Googles Web-Spam-Team, die Szene ganz schön in Aufruhr versetzt. Durch eine nebulöse Aussage, dass Backlinks wenigstens „bis jetzt“ noch ein wichtiger Faktor für die Bestimmung der Relevanz von Inhalten wären. Google wird die Backlink-Activity, also Quantität und Qualität des Backlink-Traffics realistischer bewerten. Wenn ein Backlink thematisch nicht passt (vgl. untenstehende Google-Updates) oder verdächtig wenig Traffic verglichen mit der gesamten Traffic-Relation der linkenden Website entsteht, werden Backlinks abgewertet. Im extremen Fall leidet die gesamte gelinkte Website darunter, wenn eine exzessive oder gekaufte Backlinkarchitektur erkennbar wird.

Hochwertiger Premium-Content braucht Zeit und hat seinen Preis. Das Dilemma: Discount-Text-Vermittler erwecken den Eindruck, schon für weniger als zehn Cent pro Wort sehr performanten Content zu liefern. SEO-Agenturen stehen zusätzlich im Wettbewerb untereinander. Keiner mag den ersten Schritt im Sinne aufrichtiger Beratung tun. Bildnachweis: flickr.

Wie verfasse ich performante Inhalte?

Zusammenfassend formuliert:

  1. Informative oder unterhaltsame oder lehrreiche Inhalte anbieten.
  2. Orientierung an den jeweiligen Interessen der Bedürfnisgruppen, nach vorheriger Analyse der sog. Personas.
  3. Möglichst einen Kontext zu anderen Inhalten auf derselben Website anstreben (Soul of Content).
  4. Fachbeiträge untereinander verlinken (interne Linkarchitektur).
  5. Orientierung an den eigenen Kernkompetenzen und Leidenschaften.
  6. Atypische Themenwelten erschließen.
  7. Eigene Tonalität (Schreibstil, Duktus) finden.
  8. Zeit lassen: Lieber zwei hochwertige als viele weniger interessante Inhalte publizieren.
  9. Viele weitere, auch technische Parameter, wie Ankertextstruktur, Bildbearbeitung, H-Überschriften, Keyword-Dichte und so weiter. Weitere Informationen finden Sie auf soulofcontent.de.

Beim Content sparen ist teuer

Ganz deutlich wird, dass jetzt besonders Eigenschaften gefragt sind, die Informatiker oder rein analytisch denkende oder technisch spezialisierte SEO-Dienstleister bis dato kaum benötigten: Fantasie, Leidenschaft für Text, Expertise im Themengebiet. Emotionsfähigkeit und Bauchgefühl. Den Autoren von Inhalten müssen die jeweiligen Materien, Branchen, Wettbewerbssituationen etc. bekannt sein

Content Seeding

Content braucht mehr Zeit als bezahlter Traffic. Ein Grund, warum viele Onlinehändler zögern, denn Zeit, um auf Erfolge zu warten, haben die meisten Händler nicht. Es empfiehlt sich eine exponentielle Investitionskurve, eine sukzessiv teilweise Umschichtung von Budgets weg von allzu nebligen SEO-Aktivitäten und bezahlter Werbung, hin zu einer nachhaltigen Kommunikationsstrategie mit den Kunden und Interessenten.

Einzelne Texte erreichen im Verbund mit einem thematischen Textkörper selber mehr Traffic, so sie gut mit passendem Content vernetzt sind. Je klarer und umfangreicher die Themenwelt entwickelt wird, desto besser für jeden einzelnen Inhalt.

Linkless Ranking

Google erkennt den roten Faden verschiedener Themen innerhalb einer Domain bzw. zu bestimmten Hauptthemen. Das Säen von Inhalten (Content Seeding) ist immer noch viel Handarbeit. Dann jedoch ist es nicht ausgeschlossen, dass z. B. eine inhaltlich holistische Ausrichtung und gute Inhalte auch ganz ohne große Backlink-Arien optimal und sogar unter den Top 10 im Suchergebnis performen. Es gibt diverse bekannte „Linkless Ranking“-Sites.

Fazit

Fragen wir uns bei jedem Text, ob wir ihn in unserem Namen bedenkenlos an unsere Topkunden aushändigen würden. Falls nicht, war der Inhalt wahrscheinlich niemals für Ihre Bedürfnisgruppen gedacht, sondern nur für die Suchmaschine.

Die Richtung, die Google hier mit künstlich intelligenten Maschinen einschlägt, ist ziemlich spannend. Diese Entwicklung bewirkt bereits annähernd Chancengleichheit zwischen Groß und Klein und zwischen Automation und echtem Gehirnschmalz. Die Tendenz geht in Richtung Authentizität, die sich so gut wie gar nicht automatisieren lässt.

Weiterlesen im
zweiten Teil der Serie Soul of Content:

  1. Wilder Aktionismus bringt keine Vorteile.
  2. Strukturiertes Vorgehen und gründliche Themenplanung.
  3. Eigene Werbung im Content?
  4. Erprobte CMS-Systeme verwenden.
  5. Gut Ding braucht Weile. Content-Seeding: Säen und ernten.
  6. Tendenz zu umfangreichen Texten.
  7. Format und Stil.
  8. Interne und externe Links.
  9. Webdesign.
  10. Wer soll die Inhalte verfassen?