contify SEO Rückblick - Januar 2020

contify Titelbild mit Maskotchen contify SEO Rückblick Januar 2020
contify SEO Rückblick Januar 2020

Favicons in den Suchergebnissen

Mitte Januar gab es sie noch. Die Ausspielung von Webseiten Favicons in den SERPS bewirkten bei uns recht unterschiedliche Reaktionen - von erstaunt, erheitert bis verwirrt war alles vertreten. So sah die Suchergebnisseite z.B. bei einer unserer Site Abfragen aus:

Webseiten-Favicons in den SERPS
Screenshot von Webseiten-Favicons in den SERPS

Google hat das eher umstrittene Favicon-Design auf der Suchergebnisse aber schon wieder abgestellt. Wie früher schon öfters geschehen, wird Google vermutlich auch zukünftig gelegentlich an der Ausspielung der SERPs mit "Favicons" herumdoktern. Aber ehrlich gesprochen: Mir persönlich haben die bunten Logos neulich ganz gut gefallen.

Die Verlinkung mit Webseiten hoher Autoritäten verhilft nicht zu besseren Rankings

Googles Johannes Müller (auch als John Mueller) bestätigte erneut auf Twitter, dass die Verlinkung zu Webseiten mit hoher Autorität nicht dazu beiträgt, dass man bei Google besser ranken wird.

Verhelfen Links zu authoritativen Webseiten auch zu guten Rankings?
Schaubild zeigt Studio über die Wirkung ausgehender Links

John sagte "nein", als er gefragt wurde, ob dies auf der Grundlage der Aussage dieser Grafik zutrifft, die lautet: "Mehrere SEO-Experimente und Studien zeigen, dass die Verlinkung zu qualitativ hochwertigen Ressourcen mit höheren Rankings korreliert".

Tweet über die Auswirkung von hochwertigen Links
Screenhot von Twitter über die Auswirkung von hochwertigen Links

Bei vielen Lesern kam Verwirrung auf, denn einerseits gelobt Google den EAT – Der SEO-Rankingfaktor E-A-T: Expertise, Autorität, Vertrauenswürdigkeit und andererseits wird dann veröffentlicht, dass die Verlinkung von Seiten hoher Autoritäten keine Rolle spielen würde.

Macht das Sinn? Woher will Google wissen, wann gewisser Content vertrauenswürdig ist, solange er nicht inhaltlich durch qualitative Verlinkungen auf Autoritäts-Webseiten untermauert wurde?

Im Zusammenhang mit guter Contenterstellung bleibt es weiterhin wichtig, auf Primärquellen und Referenzen zu verweisen. Das Zitieren von Quellen ist Teil der professionellen journalistischen Standards. Der Leitfaden für Qualitätsbewerter (Hier geht es zum Download der aktuellen Version) leitet die Evaluatoren darin an, dass das Zitieren ein wichtiger Teil einer qualitativ hochwertigen Inhaltsseite sei.

Obwohl die Quality Raters Guideline explizit kein Ranking Leitfaden darstellt, werden bei qualitativ hochwertigen Artikeln ebenso hochwertige Primärquellen erwartet. Google prüft das mit Sicherheit nach - auch wenn man nicht erwartet werden kann, dass jeder Artikel, der geschrieben wird, durch einen Link zum MIT, Harvard oder dem Dalai Lama untermauert wird.

Primärquellen und andere Originalberichte, auf die während des Prozesses der Contenterstellung verwiesen werden, müssen korrekt sein und sollten professionellen journalistischen Standards entsprechen.

Google: Textinhalte auf der Seite sind essentiell

Nehmen wir an, jemand betreibt eine Webseite, die nur Audio- oder Videodaten, Bilder oder andere Formen von Multimedia anbietet - wird Google die Inhalte ohne textuellen Kontext wirklich richtig verstehen können? John Mueller von Google äußerte sich dazu über Reddit:

Sie brauchen immer Textinhalte auf der Seite, unabhängig davon, welche anderen Arten von Inhalten Sie haben.“

Kurz gesagt, Google braucht Text, um besser zu verstehen, worum es sich inhaltlich bei einer Audiodatei oder einer Videodatei dreht. Anders ist der Algorithmus letztlich nicht in der Lage, alle Informationen in diesen Dateien vollständig zu verstehen und sinnvolle Korrelationen herzustellen.

Google Search Console startet neues Entfernungs-Tool

Google hat ein neues Entfernungs-Tool in der Google-Suchkonsole eingeführt. Dieses blockiert vorübergehend die Anzeige von URLs in Google, zeigt veraltete Inhalte und von SafeSearch gefilterte Inhalte an.

Mit diesem Tool kann man drei Funktionen nutzen:

  1. URLs vorübergehend ausblenden, damit sie nicht in der Google-Suche angezeigt werden,
  2. anzeigen, welche Inhalte nicht in Google vorhanden sind, weil es sich um "veraltete Inhalte" handelt, und
  3. anzeigen, welche Ihrer URLs durch den Erwachsenenfilter SafeSearch von Google gefiltert wurden.

Das Tool, das als „Entfernungen“ bezeichnet wird, liegt in der Google-Search-Console unter dem Menüpunkt "Index". Über diesen Link kann direkt auf das Tool zugegriffen werden, um dann eine Funktion auszuwählen.

Google ermöglicht es nun, bestimmte URLs über die Suchkonsole schnell von der Darstellung in der Google-Suche zu entfernen. Diese Funktion gab es bereits in der alten Suchkonsole, steht aber jetzt in einer neuen Version zur Verfügung. Bei der vorübergehenden Entfernung wird die eingereichte URL nicht wirklich aus dem Google-Index gelöscht, sondern nur für etwa sechs Monate in der Anzeige der Suchergebnisse verborgen. Eine betroffene URL muss auch in Zukunft dauerhaft blockiert werden, z. B. mit einer 404, robots.txt oder einer anderen Methode.

Google bietet hierbei zwei Arten von Entfernungen an:

  1. Die „vorübergehende Entfernung“ blendet die URL für ca. ein halbes Jahr aus den Google-Suchergebnissen aus. Die im Cache gespeicherte Kopie wird gelöscht.
  2. „Cache-URL löschen“ tut genau das, was der Name des Features vermuten lässt. Zusätzlich wird auch der Seitenbeschreibungsausschnitt aus den Suchergebnissen getilgt, bis die Seite das nächste Mal gecrawlt wird.
Linkentfernungstool in der Google Search Console
Screenshot von Linkentfernungstool in der Google Search Console

So sieht der Antrag für die Entfernung der URL in der neuen Schnittstelle aus:

Neuer Antrag zur Linkentfernung in der Google Search Console
Screenshot vom neuen Antrag zur Linkentfernung in der Google Search Console

Der Abschnitt für veraltete Inhalte enthält Informationen über gestellte Entfernungsanträge. Dieses Tool kann laut Google genutzt werden, um Suchergebnisse zu aktualisieren, die Informationen anzeigen, die nicht mehr auf einer Seite vorhanden sind. Es kann einen Verlauf aller Anfragen zur Aktualisierung oder Entfernung veralteter Google-Suchergebnisse für eine Webseite anzeigen, die in den letzten 6 Monaten über das Tool gestellt wurden.

Dieser Abschnitt zeigt dem Webmaster, welche seiner Inhalte als nicht jugendfreie Inhalte gemeldet wurden. Google-Nutzer können bestimmte URLs mit dem SafeSearch-Vorschlagstool als ausschließlich für Erwachsene bestimmte URLs an Google melden. Die so eingereichten URLs werden überprüft, und wenn Google der Ansicht ist, dass dieser Inhalt aus den SafeSearch-Ergebnissen gefiltert werden sollte, werden diese URLs als nicht jugendfreier Inhalt getaggt.

Oft ist es für SEOs und Webmaster schwierig zu wissen, welcher ihrer Inhalte aufgrund von SafeSearch entfernt wurde. Dieses Tool sollte also helfen, dies zu kommunizieren.

Zudem können SEOs, Webmaster, Webseiten-Eigentümer und andere Personen nicht nur schnell Inhalte aus der Google-Suche entfernen, sondern auch sehen, warum einige Inhalte aufgrund von Anfragen Dritter entfernt wurden. Entsprechend können Maßnahmen ergriffen werden, um nicht nur gezielte Anfragen zur Entfernung von Inhalten freizugeben, sondern auch Anfragen von Drittanbietern, die aufgrund von veraltetem Inhalt oder SafeSearch-Filterung gestellt wurden.

Es kann sich also durchaus lohnen, sich mit den Entfernungs-Feature zu beschäftigen und zu überprüfen, ob sich nicht doch noch irgendwelche „Leichen im Keller“ befinden, die lieber aus dem Google-Index ausgeblendet werden sollten.

Deduplication- Featured Snippet Update

Google hat ein bedeutendes Update der ersten Seite der Suchergebnisse veröffentlicht. Webseiten, die ein Featured Snippet erhalten, tauchen in den organischen Suchergebnissen jetzt nicht mehr zusätzlich auf. Google hebt also die Deduplizierung der organischen URL auf, was bedeutet, dass die URL nur noch in dem Featured Snippet selbst angezeigt wird.

SEOs und Webseiten-Eigentümer können aber beruhigt sein, da sie jetzt wissen, dass es keine signifikanten Veränderungen im organischen Suchtraffic nach Googles vorgestelltem Snippet-Update gibt.

Mark Traphagen von seoClarity, berichtet darüber im Search Engine Journal:

"Es gab keinen statistisch signifikanten Unterschied im organischen Google-Traffic, der an diese Seiten gesendet wurde, nachdem sie die doppelte Auflistung auf Seite eins verloren hatten, basierend auf einer Analyse realer Rankings für die Featured-Snippet-Listen über mehrere Branchen hinweg.“

Es kam zwar vor, dass in bestimmten Branchen einige kleinere Traffic-Fluktuationen festgestellt wurden. Aber die Veränderungen werden aufgrund der vorzeitigen Daten eher als unbedeutend angesehen. Dies ist ein gutes Zeichen für Webseitenbetreiber, und es bleibt abzuwarten, ob die Traffic-Veränderungen in den kommenden Monaten weiterhin nicht signifikant bleiben werden.

Hreflang bei vorhandenen Länder-Domains

 

Ist es möglich, eine Internationalisierung auch unterhalb einer .de Domain durchzuführen? In den meisten Dokumentationen zum Thema Internationalisierung und hreflang wird die Nutzung unterschiedlicher Länder-Top-Level-Domains (de, fr, es) oder generischer Top-Level-Domains (.com) mit Subdomains und Unterverzeichnissen empfohlen.

Wie führt man jedoch die Internationalisierung einer bereits unter einer .de-Domain gut etablierten Webseite durch? Auch wenn man in der GSC (Google Search Console) kein Geo-Targeting für länderspezifische Top-Level Domains einrichten kann, können dennoch hreflang-Verweise für Seiten unterhalb einer .de-Domain verwendet werden:

  • www.beispielseite.de/pfad/en/
  • www.beispielseite.de/pfad/fr/
  • www.beispielseite.de/pfad/es/

Johannes Müller bestätigte auf Twitter, dass die hreflang Anbindung funktioniert. Das sollte die Entscheidung erleichtern, als Alternative zur Neuanschaffung einer Domain eine bestehende ccTLD (länderspezifischen Top-Level-Domain) mit hreflang zu verwenden.

Tweet zu Hreflang bei länderspezifischen Webseiten
Screenshot vom Tweet zu Hreflang bei länderspezifischen Webseiten

Für WordPress gibt es z.B. das hilfreiche Premium Plugin WPML, das bei der Internationalisierung einer bestehenden Webseite sehr behilflich sein kann. Berücksichtigt werden hier auch mehrere Möglichkeiten der Übersetzung ausgewählter Inhalte und Verteilung von Übersetzungsaufgaben für verschiedene Übersetzer.

Die neuesten Daten zum Google Core Update vom Januar 2020

Nachdem das Google Core Update vom Januar 2020 nun größtenteils eingeführt ist, sind sich viele Experten darüber einig, dass die Auswirkungen vor allem auf Nischen-Websites enorm sind.

Was wir von Google wissen, ist, dass das Core Update vom Januar 2020 gegen 12:00 Uhr ET am Montag, dem 13. Januar, begann. Die Einführung war am Donnerstagmorgen, dem 16. Januar, "größtenteils abgeschlossen". Wir wissen auch, dass es sich um eine globale Aktualisierung handelte, die sich nicht auf eine bestimmte Region, eine Sprache oder eine Kategorie von Webseiten beschränkte. Es handelte sich um eine klassische "umfassende Kernaktualisierung".

Mordy Oberstein von RankRanger bemerkte: "Die YMYL-Nischen (Your Money, Your Life) wurden sehr hart getroffen". "Dies ist ein riesiges Update", fügte er hinzu. "An der Spitze des SERP gibt es eine massive Bewegung für die Nischen Gesundheit und Finanzen und unglaubliche Steigerungen für alle Nischen, wenn man sich die Top-10-Ergebnisse insgesamt ansieht.“

Johannes Beus von Sistrix hat seine Analyse dieses Updates veröffentlicht. Er stellte hierbei fest, dass Domains mit YMYL (Your Money, Your Life)-Bezug neu bewertet werden. Dies hat schlussendlich Auswirkungen auf die Sichtbarkeit – entweder im positiven oder negativen Sinn.

Domains, die zuvor von solchen Aktualisierungen betroffen waren, werden mit größerer Wahrscheinlichkeit wieder betroffen sein. Beus weiter:

„Die absoluten Schwankungen werden mit jedem Update offenbar geringer. Google ist sich seiner Einschätzung mittlerweile häufig sicher und weicht nicht mehr so stark von der letzten Einschätzung ab.“

Hier ist ein aktuelles Sistrix-Diagramm, das die Veränderung zeigt:

Sistrix Ranking-Veränderung nach Core-Update
Screenshot von Sistrix von der Ranking-Veränderung nach dem Core-Update

Laut Sistrix waren die großen Gewinner goal.com, onhealth.com, CarGurus, verywellhealth.com, Fandango, Times Of Israel, Royal.uk und WestField. Die großen Verlierer waren CarMagazine.co.uk, Box Office Mojo, SkySports, ArnoldClark.com, CarBuyer.co.uk, History Extra, Evan Shalshaw und NHS Inform.

Marcus Tober, der Gründer von SearchMetrics, berichtete:

"Das Januar-Kern-Update scheint einige Änderungen zum Besseren oder Schlechteren rückgängig zu machen, je nachdem, wer Sie sind. Es ist ein weiteres Core-Update, bei dem dünne Inhalte bestraft wurden und bei dem Google einen Schwerpunkt in YMYL setzte. Das Update scheint nicht so viele Seiten zu betreffen wie das März oder September-Update 2019. Hat aber ähnliche Eigenschaften".

Die großen Gewinner laut SearchMetrics waren esty.com, cargurus.com, verywellhealth.com, overstock.com, addictinggames.com, onhealth.com, bigfishgames.com und health.com. Die großen Verlierer waren tmz.com, academy.com, kbhgames.com, orbitz.com, silvergames.com, autolist.com, etonline.com, trovit.com und pampers.com.

Von Google hat es in der Vergangenheit immer wieder Ratschläge gegeben, was zu beachten sei, wenn man von einem Kern-Update negativ betroffen war. Es gäbe aber keine spezifischen Maßnahmen zur Wiederherstellung eines erlittenen Rankingverlustes. Und es wurde wiederholt von Google betont, dass eine negative Auswirkung auf das Ranking nicht immer signalisiert, dass mit der betroffenen Webseiten etwas nicht in Ordnung sei. Google hat hierzu einen Fragebogen angeboten, der Webseitenbetreibern helfen sollte, falls ihre Webseite von einem Kern-Update betroffen war.

„Es ist oft schwierig zu spezifizieren, was man tun müsste, um einen algorithmischen Auslöser, den Ihre Webseite möglicherweise betroffen hat, rückgängig zu machen. Wenn es um Google-Kern-Updates geht, ist es sogar noch schwieriger, dies zu tun.“

Wenn uns diese Aussage und die bisherigen Erfahrungen und Ratschläge gezeigt haben, dass solche Kern-Updates sehr breit gefächert sind und viele allgemeine Qualitätsprobleme abdecken, dann ist eine bestimmte Handlungsempfehlung in der Tat sehr schwierig. Wenn eine Webseite also von einer Kernaktualisierung betroffen ist, wird dem Betreiber empfohlen, ein wenig Abstand zu nehmen und einen breiteren Blick auf die gesamte Webseite zu werfen, um zu identifizieren, was getan werden kann, um die Webseite insgesamt zu verbessern.

Fazit:

Updates sind immer ein zweischneidiges Schwert. Sie bringen stets Verbesserungen mit sich, aber teilweise auch Verschlechterungen, die es dann zu analysieren gilt – das gilt für beide Seiten. Denn man sollte nie den neuen Status Quo einfach hinnehmen und sich in sein Schicksal ergeben. Gewinner/Verlierer-Denken kann aus verschiedenen Gründen gefährlich sein:

  1. Die Analyse-Ergebnisse hängen stets von speziellen Datensätzen ab.
  2. Menschen haben ein Talent dafür, Muster zu erkennen, die nicht vorhanden sind. Es ist einfach, ein paar Datenpunkte zu nehmen und zu verallgemeinern.
  3. Es gibt viele Möglichkeiten, Veränderungen im Laufe der Zeit zu messen.

Google beschreibt die Kern-Updates als:

"signifikante, umfassende Änderungen an unseren Suchalgorithmen und Systemen, die sicherstellen sollen, dass wir insgesamt unsere Mission erfüllen, den Suchern relevante und maßgebliche Inhalte zu präsentieren".

Google betont oft, dass eine Kern-Aktualisierung keine Strafe sei und dass "nichts gegen Seiten einzuwenden ist, die möglicherweise weniger gut funktionieren". Aber das ist natürlich ein schwacher Trost, wenn eine Webseite negativ betroffen wurde.

Es ist offensichtlich, dass die inhaltliche Qualität einer Webseite eine große Rolle spielt, aber das ist auch ein sehr vages und schwierig zu bestimmendes Konzept. Wenn jemand bei einem Kern-Update Verluste hinnehmen musste, lohnt es sich, zu prüfen, ob der Inhalt tatsächlich gut auf die Bedürfnisse des Users abgestimmt ist. Dies schließt die Frage ein, ob Content korrekt und aktuell ist und im Allgemeinen so geschrieben wurde, dass er Fachkenntnisse erkennen lässt.

Letztendlich geben uns die Auswirkungen der Core Updates Hinweise auf die umfassendere Absicht von Google und darauf, wie wir diese Absicht am besten umsetzen können. Man tut also gut daran, sich diejenigen Webseiten genauer anzuschauen, die gute Ergebnisse erzielt haben und zu verstehen, wie gut ihre User inhaltlich bedient wurden. Auch wenn Platzierungen verloren gingen, stellt sich die Frage, ob der Content wirklich der Absicht dieser Sucher entsprochen hatte.

Bild zeigt Romain Hill
Romain Hill hat E-Commerce an der Hochschule für angewandte Wissenschaften in Würzburg studiert. Seit 2017 ergänzt Romain als SEO Manager das contify-Team. Dabei betreut er die Kunden bei SEO-Projekten und trägt mit seinen langjährigen Kenntnissen in der redaktionellen Arbeit und seiner Erfahrung aus der Webentwicklung zur Optimierung und Analyse von WEB-Content bei.
© 2020 Contify - die Textagentur