Posts

Recap zum OMT 2020 – Konferenz virtuell erleben

Bildercollage der OMT mit dem Schriftzug „OMT Wiesbaden 2020“

contify auf dem OMT 2020

Wie bereits in den Jahren zuvor waren wir auch in diesem Jahr gespannt auf den heißbegehrten OMT 2020 und haben uns natürlich gleich ein Ticket gesichert. Das Veranstaltungsteam setzte in diesem Jahr auf ein völlig neues, hybrides Konzept: ModeratorInnen waren teilweise vor Ort und die SpeakerInnen und TeilnehmerInnen konnten sich über eine digitale, browserbasierte Plattform live dazuschalten.

 

Die gesamte Organisation hat von Anfang bis Ende hervorragend funktioniert, die Qualität der SpeakerInnen war auch in diesem Jahr wieder extrem hoch und das ModeratorInnen-Team hat trotz der widrigen Umstände ganze Arbeit geleistet.

 

Man hatte tatsächlich das Gefühl vor Ort zu sein – denn die Vorträge liefen in mehreren Räumen parallel ab. Das hatte zwar den kleinen Nachteil, dass man nicht den gesamten Input mitnehmen konnte, aber wie auch bei den Live-Veranstaltungen konnte man sich seine Lieblinge rauspicken und ein auf sich zugeschnittenes Programm zusammenstellen.

 

Die Plattform EventSight als digitales Medium

Bei der Wahl der Plattform haben sich die VeranstalterInnen zwischen einer ganzen Reihe an möglichen Optionen für den niederländischen Anbieter EventInsight  entschieden. Eindeutig die richtige Wahl, denn die Plattform hat mit einem reibungslosen Ablauf und zahlreichen Features zu einem erfolgreichen OMT 2020 beigetragen.

 

Angefangen bei der „Lobby“, in der die Moderatoren Mario Jung vom OMT und Robin Heintze von morefire für Unterhaltung zwischen den Vorträgen gesorgt haben, über die Möglichkeit zum „Speed-Dating“ (hier konnte fleißig genetworkt werden), bis zu den drei Veranstaltungsräumen hat die Plattform alles geboten, was zu einer Online-Marketing-Konferenz gehört.

 

Im allgemeinen Chat konnten sich die Teilnehmer den ganzen Tag austauschen oder in den separaten Chats der Speakerräume zu den jeweiligen Themen unterhalten und Fragen stellen, für die nach jedem Vortrag 10 Minuten Zeit eingeräumt wurde. Und dieser Slot wurde in jedem Fall ausgenutzt.

 

 Spannende Vorträge & hochkarätige Speaker

1. Bessere Usability – schlechtere Conversions? – Angelika Lenzen

Das Herz des OMT sind natürlich die Inhalte. Und davon gab es auch dieses Jahr reichlich und in hoher Qualität. Angefangen hat der Tag für mich mit einem Vortrag von Angelika Lenzen zum Thema Usability und Conversion.

 

Der Kern des Vortrags: Was passiert, wenn sich nach Anpassungen oder bei einem Test der Website keine Fortschritte erzielen lassen oder bei verbesserter Usability sogar schlechtere Conversions erzielt werden?

 

Der Tipp von Angelika Lenzen: Es bringt meist nichts, nur auf die Conversion-Rate zu schauen. Vor allem im Bereich Usability müssen weitere Metriken miteinbezogen werden.

 

Letztlich ist die relevante Botschaft, dass eine offene Sicht entscheidend ist und dass man sich darauf vorbereiten muss, dass selbst scheinbar eindeutige Tests nicht zwangsläufig zu den Ergebnissen führen, die erwartet wurden. Wenn die Daten also gegen einen sprechen, dann heißt es: weiter testen.

 

2. 11 frische Social Media Hacks – Felix Beilharz

Weiter ging es für mich mit den Social Media Hacks von Felix Beilharz. Anders als die meisten „Social Media Profis“ bombadierte der OMT-Veteran einen nicht mit irgendwelchen Theorien, sondern mit tatsächlich umsetzbaren und praxisnahen Tipps. Vor allem im Bereich Engagement Steigerung brachte er mit Vorschlägen zur Selbstironie und originellen Charity-Aktionen kreative Denkanstöße mit.

 

Auch die Themen Trust und Social Proof spielen natürlich eine wichtige Rolle. Gerade im Bereich von Facebook-Gruppen ist viel Potenzial für mehr Reichweite vorhanden, wenn man sich als Experte in seiner Branche positionieren kann.

 

Der für mich beeindruckendste Hack war die Erstellung dynamischer Blogbeiträge. So erreichst du deutlich personalisiertere Inhalte. Stelle deinen Usern den Inhalt am besten auf unterschiedliche Weise dar, je nachdem von wo er auf deinen Blog gekommen ist.

 

3. Die perfekte Facebook & Instagram Ad: Kreativität schlägt Automation – Julia Leutloff

Da uns in der Agentur aktuell das Thema Social Media beschäftigt, war ich vor allem auf dieses Thema gespannt, auch wenn ich bislang noch keine Erfahrungen mit Facebook & Instagram Ads habe.

 

Julia Leutloff hat es jedoch geschafft, eine so unfassbar anschauliche Präsentation und einen spannenden Vortrag abzuliefern, dass das Thema für mich viel greifbarer wurde. Sie erläuterte die Bedeutung von dynamischen Ads, Kampagnen-Budget-Optimierung und automatischer Platzierung.

 

Wie bereits von Angelika Lenzen empfohlen, hat auch Julia uns mit auf den Weg gegeben: Testen, Testen und noch mehr Testen!

Am meisten ist bei mir jedoch im Gedächtnis geblieben, wie wichtig die Erstellung unterschiedlicher Ad-Typen ist. Mit konkreten Posting-Beispielen hat sie das ganze noch besser veranschaulicht und auch mir als Anfänger in diesem Bereich einen tollen Einblick verschafft.

 

4. Was dir sonst keiner über SEO sagt – Hebel, Lösungen und Probleme – Marco Janck

Vier Fakten über SEO als Chipkarte dargestellt

 

Der Vortrag von Marco Janck war wie immer erfrischend anders als die üblichen Vorträge zum Thema SEO. Gewohnt kritisch beleuchtete er die aktuelle Situation der Branche und zeigte im selben Atemzug neue Perspektiven auf. Der Irrglaube SEO sei günstig, wurde gleich zu Beginn vom Tisch gefegt. Die Disziplin verlangt vielleicht mehr denn je nach Aufmerksamkeit und leidenschaftlichem Personal.

 

Seine geheime Zutatenliste für erfolgreiches SEO, sowohl für Freelancer, Agenturen als auch inhouse, setzt sich wie folgt zusammen:

 

  • Kreativität
  • Empathie
  • Diplomatie
  • Mut
  • Geld
  • Motivation
  • Entitäten

 

Dass SEO Geld und Ressourcen kostet, sollte allen Beteiligten von Anfang an klar sein. Den entsprechenden Umfang von Budget und Personal gilt es daher zu Beginn eines Projekts genau zu definieren. Eine Extraportion Mut, Empathie und Diplomatie gehört natürlich auch dazu, um mit allen involvierten Abteilungen geschickt zu kommunizieren und das Projekt zum Erfolg zu führen.

 

Technische Gesichtspunkte wie Sitespeed, die von Google häufig als relevant eingestuft wird, sind in seinen Augen wohl eher überbewertete Faktoren.

 

Als Fazit ist bei mir vor allem der Spruch: „SEO stirbt von Innen“ hängengeblieben. Damit ist unter anderem die kaum adäquate Ausbildung in der Branche gemeint, was es immer schwerer macht, qualifizierte Mitarbeiter zu finden.

 

Der Ausblick für das Agenturen-Business war somit kein sehr rosiger. Wichtige Faktoren für die nächsten Jahre sind nach Marcos Meinung jedoch die Zusammenarbeit mit Influencern, Video-Inhalte, Entitäten, und strukturierte Daten.

 

1. Digital Storytelling: 10 Trigger für mehr Interaktion auf Social Media – Tomas Herzberger

 

Das große Highlight des Tages war für mich der letzte Vortrag von Tomas Herzberger. Der Co-Founder von Hello Growth hat auf gekonnt spielerische Art durch den Vortrag geführt und es wirklich geschafft, mit seinen Worten Bilder zu malen.

 

Der Leitsatz des Vortrags: Jeder mag Geschichten. Und die kann laut Tomas jeder erzählen. Dafür braucht es nur das richtige Muster.

 

Anhand dreier Basic-Plots ist es jedem möglich, Geschichten so zu erzählen, dass sie im Gedächtnis bleiben. Dafür nimmt er die drei bekannten Plots der großen Geschichtenerzähler Hollywoods zur Hand:

 

  1. Besiege das Monster (z.B. der gruselige Imperator aus Star Wars)
  2. Vom Tellerwäscher zum Millionär (z.B. der Aufstieg im Film Slumdog Milloniar)
  3. Die Mission: (z.B. der Film Armageddon)

Füllt man dieses grobe Skelett mit wichtigen Engagement-Triggern, entsteht im Handumdrehen eine Geschichte, die deine Leser zum Interagieren animiert.

Als potenzielle Trigger nennt er folgende: Riddle, Vote, Me, Learn, Create, Provoke, Trend, Discuss.

Kombiniert man am besten zwei dieser Trigger, besteht die größte Chance für Social-Engagement.

 

Mein persönliches Fazit

Zwar fand der OMT in diesem Jahr in etwas ungewohnter Form statt, doch den großartigen Inhalten hat das aus meiner Sicht keinen Abbruch getan. Die SpeakerInnen und ModeratorInnen waren voller Leidenschaft dabei und haben alles gegeben, um die Veranstaltung so nah wie möglich zu gestalten. Das ist natürlich auch der reibungslos funktionierenden Technik der Plattform und dem gesamten VeranstalterInnen-Team geschuldet.

 

Dass die alljährliche Aftershow-Party diesmal durch ein digitales Bingo ersetzt wurde, hat mich zwar etwas enttäuscht, doch ich bin sicher, den VeranstalterInnen um Mario Jung und allen anderen TeilnehmerInnen ging es ganz genauso.

 

Alles in allem war der OMT in meinen Augen ein voller Erfolg und ich bin gespannt ob es im nächsten Jahr wieder mit voller Wucht und vor Ort weitergeht.

 

Falls du wissen willst, bei welchen Veranstaltungen wir sonst noch unterwegs sind oder du weiteren Input zum Thema SEO und Content suchst, schau doch mal in unserem Blog vorbei.

 

 

Weitere Recaps zum OMT 2020 findest du hier:

 

Corona ist, was Du draus machst.

Jugendliches Mädchen mit diversen Putz-Utensilien Seit man nicht mehr auf dem Spielplatz saufen darf, gehören Reinigungsarbeiten zu den beliebtesten Freizeitbeschäftigungen in der Altersklasse der 14-18-Jährigen.

Seit man nicht mehr auf dem Spielplatz saufen darf, gehören Reinigungsarbeiten zu den beliebtesten Freizeitbeschäftigungen in der Altersklasse der 14-18-Jährigen.

Neulich habe ich mich dabei erwischt, wie ich den Gehsteig vor dem Haus gekehrte habe. Gerade saß ich noch vor dem Laptop und habe wichtige Kundenbelange akribisch und sorgfältig bearbeitet und plötzlich stehe ich unverhofft unten auf der Straße mit einem Besen in der Hand. Wie ich da wohl hingekommen bin? Dabei gehört „den Gehsteig fegen“ gar nicht zu meinen üblichen Schlafwandel-Aktivitäten. Wir entwickeln seltsame Strategien, um mal raus zu kommen…

Zuerst hatte ich mich ein wenig erschrocken. Ein schneller, prüfender Blick verifizierte dann aber doch die Existenz einer Hose an meinem Unterleib. Glück gehabt – andererseits wäre das vielleicht auch egal gewesen. Zumindest sagt mir mein Bildschirm bei Skype-Konferenzen mit Familie, Freunden, Kollegen und Leuten, mit denen ich seit Ewigkeiten nichts mehr zu tun habe, dass sich der eine oder andere allgemein ganz schön gehen lässt. Ich behaupte mal, dass sei der Corona-Chic und verlottert sowie unrasiert vor dem Bildschirm rumzulungern ist im Juni 2020 einfach immer noch en vogue.

Warum sind wir nur so faul, Mami?

Dabei gäbe es schon die Möglichkeit, seinen Alltag so zu gestalten, dass nicht alle Welt unscharfe Fotos von einem macht. Muss einen ja nicht jeder für den Yeti halten. Was dabei aber besonders interessant ist, ist, dass mittlerweile ja auch schon vieles wieder möglich ist, wir es aber trotzdem oft nicht nutzen. Viele meiner Freunde haben sich monatelang wegen des Friseurs gegrämt. Sie haben gezetert, immer wieder genervt Strähnen aus dem Gesicht gestrichen und auf dem zwischenmenschlichen Rücksitz gequengelt, als sei man bereits seit unendlich langen fünf Minuten mit dem Auto auf dem Weg zu einem fünf Stunden entfernten Ziel.

Und jetzt? Der krisengebeutelte Friseur braucht Umsatz und meine Freunde sehen immer noch aus wie Chewbacca, obwohl das ja schon gar nicht mehr sein müsste. Diese unsolidarischen Wookiees. Kritische Denker könnten natürlich auch Vorsicht unterstellen. Strände, Parks und Supermarktparkplätze trüben diese Einschätzung aber vielleicht auch ein wenig. Es ist wie so oft doch eher Faulheit. Der Mensch ist eben ein Gewohnheitstier und wenn Routinen erstmal entwickelt sind, dann kriegt man das auch so schnell nicht wieder raus. Und die paar Euro für den Friseur spart man sich dann unter dem Vorwand des selbstbetrügerischen „eigentlich-gar-nicht-so-schlecht-Paradigmas“ auch gleich noch: Klassische Win-Win-Situation.

Körperpflege, wie damals mit 15

Schönheitsideale sind auch irgendwie Routinen. Die sind immer aus Gewohnheit gewachsen und nicht einfach so da. Man gewöhnt sich durchaus an einen gewissen Look und wird dann betriebsblind. Vor ein paar Tagen hab ich mir zum Beispiel meinen Corona-Bart abrasiert und war irgendwo zwischen erschrocken und angewidert, was für ein milchgesichtiger Halbstarker da drunter gesteckt hatte.

Über das glatte Kinn zu streichen, bot da zwar ein wenig Befriedigung, konnte aber nicht ganz über das tiefe Gefühl von Reue und mein Bedürfnis hinwegtäuschen, einen plastischen Chirurg aufzusuchen. Immerhin gibt es von mir jetzt ein paar amüsante Lichtbilder mit halb-rasierten Bartvariationen von Konföderierten-General bis hin zu Hillbilly-Moonshiner und 50er Jahre Nachrichtensprecher. Außerdem juckt die Maske nicht mehr so. Ist ja nicht alles schlecht.

Die Postmoderne lehrt uns: Sport ist zu teuer, um gesund zu sein.

Wer sich früher schon nicht für Ausdauersport begeistern konnte, dessen Cardio hat jetzt noch schlechtere Karten. Weil man halt Zeit hatte, hat man zwar schon irgendwie Sport gemacht. Zumindest bei mir war das aber ausschließlich Krafttraining. Dadurch bin ich jetzt zwar muskulöser, aber auch fetter, weil sich an den Ernährungsgewohnheiten natürlich trotzdem nichts geändert hat.

  • Zwischendrin mal ein paar Bulletpoints
  • Das gehört hier zum Style-Sheet
  • Sieht auch Klasse aus
  • Und wäre sogar SEO-relevant, wenn was Relevantes drinstünde
  • Zurück zu meiner Fitness:

Dabei hätte es so gut laufen können. Dumm nur, dass sich nach der obligatorischen Fitnessstudio-Anmeldung nach der Weihnachts- und Übergangszeit die Dinge so schnell verschlechtert haben. Im Studio hätte ich vielleicht jeden zweiten/neunten Legday gemacht und zumindest einmal die Woche eine halbe Stunde Cardio.

Jetzt muss ich wieder einen Teil meiner Seele verpfänden und auf dem Blocksberg Jungfrauen opfern, um aus meinem Vertrag heraus zu kommen. Man könnte fast meinen, Fitnessstudios seien Mobilfunkanbieter. Dabei schreit mein Körper nach Bewegung, wie das eingangs dargestellte Straßenfeger-Beispiel zeigt. Um Joggen zu gehen bin ich dann aber doch noch nicht verzweifelt genug. Zumindest bin ich selbstreflektiert. Naja…

Alkohol macht schlau

Der stille Suff ist so eine Sache. Saufen hat ja immer was von Geselligkeit und Klasse, auch wenn sonst keiner da ist – zumindest sagt mir das die Bourbon-Werbung. Allerdings lassen Kopfschmerzen und Kubikmeter leerer Flaschen in meiner Wohnung Zweifel an dieser Sichtweise reifen: Hat die Werbung etwa am Ende doch nicht immer Recht?

Blockquotes lockern den Text etwas auf und gehören ebenfalls zum Style-Sheet. Hier könnte etwas Wichtiges stehen.

Eigentlich trinkt man ja hauptsächlich, damit langweilige Gespräche interessanter werden und zunehmend unansehnlicher werdende Home-Officler einem ein halb ernst gemeintes wie gleichermaßen resigniertes und von Selbstbetrug durchtränktes „Naja, so schlimm is auch wieder nich“ abringen. Auch wenn angeblich laut sicher recht aussagekräftiger Statistiken einer von 37.852 Menschen für den Geschmack trinkt, brauchen die meisten von uns schon Gesellschaft. Die Lösung ist schlauerweise ein Spiegel.

Soziale Interaktion ist reich an wertvollen Omega-3-Fettsäuren

Ein Positives hat das Ganze dann doch. Man kommt wieder häufiger mit Menschen ins Gespräch, die einem nicht räumlich nahe sind. Zyniker könnten jetzt sagen: „Hat schon einen Grund, warum man die Leute sonst nicht anruft“, das stimmt aber nur in wenigen Fällen.

Traurig ist nur, dass man diese Kontakte am Ende wahrscheinlich doch wieder nicht pflegen wird, wenn der Spuk vorbei ist. Und das ist ja schon bald, sagt zumindest der Donald – nicht Duck, auch wenn es Parallelen gibt. Spätestens im Herbst gibt’s einen Impfstoff. Den brauch ich dann aber schon gar nicht mehr. Einfach bisschen Desinfektionsmittel ins Herz injizieren und schon ist das Problem gelöst. Ich weiß gar nicht, was die Leute alle haben.

Was lernen wir da draus? Wie so häufig: wahrscheinlich nix.

Der Lotus weist Schmutz ab und ist deshalb ein Symbol der Reinheit. Sollte uns das Mut machen? 5/5 Buddha-Reinkarnationen würden das bejahen.
Lotusblüte auf stillem Wasser

Naja, ganz so schwarz sehen muss man natürlich nicht. Zwar bringt die Krise nicht nur das Gute, sondern auch das Schlechte im Menschen an die Oberfläche. Aktuell bin ich aber zumindest nicht nur pessimistisch. Bei meinem Glauben an die Menschheit helfen mir auch diverse, globale Indizes abbildende Finanzprodukte, die ich am Tiefpunkt der Krise erworben hatte. Man muss halt immer das Positive sehen. Und wie sagt der Volksmund über den in sumpfigem Brackwasser gedeihenden Lotus? Aus der stinkendsten Scheiße wachsen manchmal die schönsten Blumen (freie Interpretation). Mal sehen.

Dir hat dieser Text gefallen? Bestell doch einfach mehr davon unter kontakt(at)contify.de. Wir haben so viele, dass wir sie sogar verkaufen. Bei Abnahme von 110 Texten gibt es beim 111. eine exklusive Überraschung in Zeile 4 Wort 17.

Quo Vadis EAT? – Perspektiven auf den Megatrend Digitalisierung (Teil 3 von 3)

Zwei entgegengesetzte Wegweiser mit den Aufschriften „Himmel“ und „Hölle“. Mit der Digitalisierung bricht ein neues Zeitalter an – EAT könnte einen gewaltigen Einfluss darauf haben – im Positiven, wie im Negativen.

Mit der Digitalisierung bricht ein neues Zeitalter an – EAT könnte einen gewaltigen Einfluss darauf haben – im Positiven, wie im Negativen.

Willkommen zum letzten Teil unserer EAT-Reihe. Nachdem wir uns mit den Grundlagen und konkreten Handlungsempfehlungen beschäftigt hatten, lassen wir nun den Blick ein wenig schweifen und wenden uns weiter entfernten Horizonten zu. Horizonte, die auch abseits von Online-Marketing, Content-Management und SEO liegen. Leinen los.

Was heute als wahr gilt

Ich möchte Teil 3 unserer Reihe mit einem Zitat einleiten. Diese Worte sagte eine Studentin zu mir, als ich im Hinblick auf ihre Ausführungen im Seminar besonders zweifelnd schaute:

„Stimmt wirklich – das können Sie auch googeln.“

Dass im Uni-Kontext eine Aussage ala „Trust me bro“ zur argumentativen Untermauerung einer These verwendet wird, spricht Bände: Das Vertrauen in die Suchmaschine ist gewaltig. Als Tor zu völlig entgrenztem Informationspotenzial hat sich das „Googeln“ in unseren Alltags-Routinen verselbständigt und untrennbar eingebrannt.

Fehlendes Wissen wird durch eine schnelle Eingabe per Hand oder Sprache ins mobile Endgerät ergänzt. Unser Wissen wird dabei aber nicht nur erweitert. Wir verifizieren Halbwissen und Aussagen anderer über die Suchmaschine. Das birgt ein gewaltiges Potenzial, aber auch Gefahren.

Was ist eigentlich alles verhandelbar?

Grundsätzlich zu begrüßen ist natürlich, dass wir Dinge durchaus hinterfragen und dies auch die Suchmaschine tut. Dabei werden uns Hardfacts relativ schnell ausgegeben. Es wartet eine Vielzahl von Daten und Datenarten, die relativ unstrittig sind. Alles, was verhandelbar ist, stellt die Suchmaschine allerdings vor eine große Herausforderung – und genauso geht es uns selbst im Alltag.

Was verschwimmt, ist die Frage danach, was denn überhaupt verhandelbar sei. Diskussionskultur war schon immer ein leidgeprüftes Kind – die Suchmaschine gibt dem grundsätzlichen Unwillen Dinge argumentativ ausdiskutieren zu wollen aber eine neue Qualität.

Denn der User geht bei Informationen, die Google ihm direkt präsentiert, immer häufiger und immer fester davon aus, dass es sich in diesem Fall durchaus um einen Hardfact handle. In den meisten Fällen sind das vor allem konkret messbare und einfach verifizierbare Dinge. Niemand stellt in Frage, dass Donald Trump der Präsident der Vereinigten Staaten ist. Ob er allerdings ein guter Präsident ist, ist schon weit verhandelbarer. Was aber, wenn das nicht mehr diskutierbar wäre?

Man könnte das nun auch ganz konkret googlen:

  • „Ist Donald Trump ein Präsident?“
  • „ist Donald Trump ein guter Präsident?“
  • „Ist Donald Trump ein schlechter Präsident?“

Die Ergebnisse sind bemerkenswert: Anfrage Nummer 1 spielt gleich das Knowledge Panel zu Donald Trump, zusammen mit seinem Wikipedia-Eintrag als hervorgehobenes Snippet aus.

Anfragen 2 und 3 unterscheiden sich davon deutlich. Sie liefern fast dieselben Ergebnisse – und zwar vornehmlich aus dem journalistischen Bereich. Was hieran besonders interessant ist: Bei diesen beiden Anfragen findet sich kein Knowledge Panel und keine Featured Snippets. Außerdem wird das politische Spektrum mit den SERPs zumindest bis zu einem gewissen Grad abgebildet. Es erscheinen beispielsweise Artikel von NZZ, Cicero, Spiegel und Tagespiegel. Artikel der politisch äußeren Ränder finden sich erst sehr weit hinten.

Auch verschiedenste politisch sehr strittige Anfragen wie beispielsweise „Flüchtlingskrise“ liefern ein ebenso „differenziertes“ Ergebnis. Eine logische Reduktion daraus wäre, eine Regel abzuleiten und zu unterstellen, Google wolle aktiv den politischen Diskurs abbilden. Wenn dem so ist, wäre das nur eine sekundäre und indirekte Folge. Die Suchmaschine möchte vielmehr den User möglichst umfassend befriedigen. Das bedeutet, er bekommt, was er sucht und das sind eben (quantitiv gesehen) weniger die Spartenblätter.

Hier kommt also EAT zum Tragen, denn die Reputation reichweitenstärkerer Medien basiert vor allen Dingen auf dem Vertrauen, dass ihnen viele User und andere Medien bereits entgegenbringen. Insofern wird in den Suchergebnissen tendenziell ein mehrheitsdominierter Diskurs abgebildet.

Schwere Zeiten für Mindermeinungen

Eine Suchmaschine, deren qualitativ hochwertigen Informationen Vertrauen geschenkt wird, muss nichts Schlechtes sein. Problempotenzial gibt es aber, wenn anderen Quellen, als denen die Google favorisiert, kein Vertrauen mehr geschenkt wird. Das führt zwangsläufig dazu, dass Google nicht nur die Hoheit über Informationen erhält, sondern auch die über Meinungen.

Hier liegt relativ viel Gefahrenpotenzial, denn Mindermeinungen haben es dadurch deutlich schwieriger. Das muss nicht kategorisch schlecht sein, da dies auch Fake-News und Verschwörungstheorien ausbremsen könnte. Auf der anderen Seite könnte es auch zu einer Unterdrückung von Minderheiten führen, wenn deren Positionen dadurch aus den analogen Diskursen verschwinden würden.

Auch die Mehrheit ist misstrauisch

Auf der anderen Seite sorgt Googles Macht für Misstrauen bei der politischen Majorität. Insofern ist es grundsätzlich vorstellbar, dass man es sich hier nicht mit der Polit-Elite verscherzen möchte. Immerhin ist staatliche Macht die einzige tatsächliche Konkurrenz für Alphabet. Besonderes Aufsehen erregte beispielsweise, dass bei der Google Bildersuche nach dem Wort „idiot“ zahlreiche Bilder von Donald Trump auftauchten, was 2018 sogar in einer Kongressanhörung thematisiert wurde.

Es ist der Inbegriff von Ironie, dass gerade diese Thematisierung, zusammen mit der entsprechenden Berichterstattung dazu führte, dass heute noch mehr Trump-Bilder bei der Suche „idiot“ gezeigt werden. Viele davon beziehen sich auf die Frage: „Warum zeigt Google bei der Suche nach Idiot Bilder von Donald Trump?“

Anwärter für die SEO-Comedy-Awards.
Google-Bildersuche nach dem Wort „idiot“ mit Bildergebnissen, die Donald Trump zeigen.

Auch wenn viele das amüsant finden dürften, stellt sich schon die Frage, wie mit vermeintlichen Fehlinformationen umgegangen wird. Wir neigen dazu, Probleme zu übersehen, wenn Sie Menschen betreffen, die wir nicht mögen. Was wenn hier das eigene Gesicht auftaucht?

Ausmerzen von vermeintlichen „Fehlinformationen“

Hierzu gleich ein Beispiel: Im Wiki-Data-Artikel zu Donald Trump finden sich im Rahmen seiner Funktionen zahlreiche Dinge wie: Business Magnat, Investor, Politiker, Film Schauspieler oder Game Show Moderator. So weit so gut. Der Mann hat ja auch schon viel gemacht in seinem Leben. Allerdings findet sich hier auch folgender Wert:

Auch Referenzen werden angeführt und machen Daten nachvollziehbarer.
Auszug aus dem Wikidata-Artikel zu „Donald Trump“. Ihm wird das Attribut Verschwörungstheoretiker zugeordnet.

Ohne den Inhalt in Bezug auf seine Person vom Grundsatz her bestreiten zu wollen, ist eine solche Klassifizierung nicht ganz unproblematisch. Es stellen sich nämlich folgende Fragen:

  • Worauf basiert die Klassifizierung?
  • Wie verschwindet eine Information wieder?
  • Welchen Einfluss haben Urheber und Referenzen auf die Bewertung bei Google

Zu beachten ist dabei zunächst, dass der Datensatz von Wikidata nicht automatisch sichere Aussagen über den Umgang der Suchmaschine mit dem Thema ermöglicht. Doch es bietet zumindest Hinweise.

Es stellt sich grundsätzlich die Frage, ob schlechte Reputationen überhaupt reparierbar sind. Schließlich vergisst das Internet nichts. Wenn nicht nur Einzelinformationen, sondern auch die Wertigkeit einer Entität stark zementiert ist, lassen sich Fehler schwerer ausgleichen und man hätte kaum eine Chance auf Rehabilitierung, sobald der Makel einmal da ist. Jedoch besteht zumindest bei Wikidata eine Userdiskussion, denn der Wert wurde immer wieder gelöscht und neu hinzugefügt, was folgender Auszug beispielhaft verdeutlichen soll:

Änderungen am Datensatz lassen sich gut nachverfolgen, weshalb dieser als Grundlage für die Anwendung von EAT-Grundsätzen gut geeignet wäre.
Auszug aus dem Bearbeitungsverlauf des Wikidata-Eintrags zu Donald Trump.

Ein Problem stellt sich: Besonders kritisch wäre der Wert, wenn es sich um eine Fehlinformation handeln würde, die unter Umständen vielleicht sogar bewusst gestreut wurde – und das ungeachtet der Tatsache, ob eine Korrektur stattfindet. Selbst wenn die am Ende des Prozesses resultierenden Suchergebnisse ausschließlich Richtigstellungen wären, bliebe der Makel bestehen, weil die Thematisierung an sich nicht verschwindet. Das Beispiel mit der Bildersuche „idiot“ zeigt das ganz eindrücklich.

EAT kann in diesem Kontext Problem und Lösung zugleich sein. Zum einen bietet das Modell ein Plus an Quellenkritik, denn die zugehörigen Referenzen dürften kaum ins Gewicht fallen, sofern Ihre Reputation schlecht ist. Auf der anderen Seite könnte es auch Oppositionen unterbinden, wenn nur noch der Mehrheitskonsens abgebildet wird. Hier wird es vor allem gefährlich, wenn autoritäre staatliche Gewalt Ihre Finger im Spiel hat, während demokratisch legitimierte staatliche Macht auch als Kontrollinstanz funktionieren könnte.

Ich persönlich stelle mir zwei Extrem-Szenarien vor, die zwar nicht zwangsläufig sehr wahrscheinlich sein müssen, allerdings die Problematiken und Chancen von EAT zuspitzen und verdeutlichen sollen:

Szenario 1: Age of Reason – Das goldenes Zeitalter der Vernunft

Die Menschheit weiß heute so viel nie zuvor. Das kollektive Wissen und die Strukturen, die dieses Vermehren und Konservieren ermöglichen, haben einen hohen Stellenwert. Durch die zunehmende Verifizierbarkeit von Informationen beginnen User Content immer mehr zu hinterfragen und eigenständig quellenkritisch zu überprüfen. Die Suchmaschine trägt ihren Teil dazu bei, das besonders unkompliziert zu gestalten.

Fake News sind praktisch ausgestorben und gesellschaftlich obsiegt die Vernunft. Das Internet fungiert als fünften Gewalt und die Suchmaschine ist ihr Register. Dieses ist durch eine stark Community-gestützte Informationspolitik einem freiheitlich-demokratischen Legitimationsprozess und weitreichender Kontrolle durch den globalisierten Volkssouverän unterworfen. Im kollektiven Bewusstsein von Gemeinwohl blickt die Menschheit einer glorreichen Zukunft entgegen.

Szenario 2: Age of Corruption – Das dunkle Zeitalter der Idiotie

Google führt Informationsbeschaffung in eine Qualität völliger Automatisierung. Die Menschen denken immer weniger mit und hinterfragen die gelieferten Informationen in keiner Weise. Als Herde unselbständiger Lemminge übernehmen Sie Positionen und Meinungen komplett unreflektiert. Kritisches Denken ist zwar nicht ausgestorben, allerdings so selten, dass es sich zu 100 % um das größte Kapital gruppiert.

Mega-Konzerne wie Google werden zu supranationalen Machtpositionen, die in einem ultrakapitalistischen System selbst staatlich Strukturen überlagern und völlige Kontrolle über Güter und Informationen haben. Der Einzelne ist in diesem Szenario nicht mehr Mensch, sondern nur noch Kunde. Irgendwann werden die Felder mit BRAWNDO bewässert und im Fernsehen läuft zwischen Werbung gerahmt die neue Folge von „Aua, meine Eier!“.

Fazit – New Age of Truth

Vielleicht finden wir tatsächlich irgendwann den Weg aus unserer eigenen Unmündigkeit.
Die Sonne geht hinter der Weltkugel auf.

EAT bedeutet die Bündelung aller Informationen bei Google mit dem Potenzial völliger Hoheit darüber was wahr und richtig ist. Die Entitäten-basierte Suchmaschine birgt zwar Missbrauchspotenzial, allerdings muss man nicht immer schwarzsehen.

Die Digitalisierung lief und läuft so rapide, dass viele Menschen sich nicht mit den neuen Kommunikationsformen vertraut machen und Medienkompetenzen aufbauen konnten, was die Bewertung von digitalen Inhalten in der breiten Masse stark erschwerte. Heute korrigiert sich das immer mehr und User emanzipieren sich stärker in der Digitalität. EAT könnte insofern dazu beitragen, unsere Welt ein großes Stück besser zu machen, die fünfte Macht zu einer ultimativen plebiszitären Kontrollinstanz zu entwickeln und uns mehr Vernunft zu lehren.

Ich tendiere also deutlich mehr zu Szenario 1, wenngleich Szenario 2 immer wie ein Damokles-Schwert darüber hängen mag und uns daran erinnern sollte, wie fragil wir eigentlich sind – eine Erkenntnis, die gerade heute in vielen von uns verstärkt reifen dürfte.

Abschlusswort zur Reihe

Wir hoffen du hattest Vergnügen beim Lesen unserer Reihe. Wir wollten möglichst vielseitige Perspektiven auf Googles EAT-Paradigma aufzeigen und hoffen, dass du für dich Mehrwert aus der Zeit ziehen konntest. Mir bleibt zum Abschluss nur zu sagen: Danke für die Aufmerksamkeit und stay positive.

Wer das Ganze weiterführend noch etwas technischer betrachten möchte, der schaut am besten bei Olaf vorbei.

Quo vadis EAT? – Handlungsempfehlungen am Beispiel netdoktor.de (Teil 2 von 3)

Kamillentee in einer goldverzierten Porzellan-Tasse mit Kamillenblüten. Kamillentee tut immer gut. Ranking-Abstürze benötigen aber deutlich wirksamere Medizin.

Kamillentee tut immer gut. Ranking-Abstürze benötigen aber deutlich wirksamere Medizin.

Moin, Servus und Hallo. Nachdem wir beim letzten Mal das Thema Entitäten und EAT relativ abstrakt eingeführt hatten, wollen wir diese Woche etwas mehr ins Detail und in die Praxis eintauchen. Anschauungsbeispiel wird dabei der Medizinsektor sein und hierbei die Ratgeber-Website netdoktor.de. Aktuell dürften dort die Klicks durch die Decke schießen. Der Bereich ist aber auch ohne Corona ein gutes Anschauungsbeispiel und deshalb steigen wir direkt ein.

Ein Beispiel zum Einstieg

Ein User hat eine mittelschwere, unspezifische Erkältung. Er muss also nicht gerade ins Krankenhaus, wird aber durchaus eine Woche flachliegen; hat Husten, Schnupfen und Fieber. Mögliche Google-Anfragen dieses Users könnten beispielsweise sein:

  • Erkältung schnell bekämpfen
  • Schnupfen Hausmittel
  • Erkältungstee
  • Richtig Inhalieren
  • Tipps bei Schnupfen
  • Coronavirus Symptome

Er entscheidet sich dafür Kamillentee zu trinken und damit zu inhalieren. In seiner Firma geht „was rum“ – wie man so schön sagt – und deshalb sind auch vier weitere Angestellte krank. Diese entscheiden sich für andere Vorgehensweisen, nämlich: Antibiotika, Globuli, Hustensaft oder alles gleichzeitig. Ihre Entscheidungen speisen sich aus dem was Mama sagt, eigener Erfahrung und natürlich auch den Google-Suchergebnissen. Folgendes kommt dabei raus:

  • Kamillentee – Die Kamille ist wohltuend, lindert die Symptomatik der verstopften Nebenhöhlen und bringt User 1 nach einer Woche wieder auf die Beine.
  • Antibiotika – Besonders wohltuend sind Antibiotika dem Namen nach nicht, wirken aber. Eine Woche dauert die Genesung trotzdem. Außerdem wird User 2 ein paar Wochen später schon wieder krank, da er nur die halbe empfohlene Dosierung genommen hat.
  • Globuli – Da User 3 daran glaubt, sind die Globuli äußerst wohltuend. Eine Woche später ist die Heilung gelungen.
  • Hustensaft – Schmeckt nicht so gut, soll aber helfen… Eine Woche Genesungszeit.
  • Alles gleichzeitig – Nach fünf Wochen erkundigt sich die Chefin, ob User 5 noch am Leben ist.

Es ist klar, dass hier noch deutlich mehr Aspekte über Gesundheit und Krankheit entscheiden, als die Art der Behandlung, aber für unser Thema genügt die Simplifizierung fürs Erste. 

Was lernt die Suchmaschine jetzt da draus?

Die Antwort ist erstmal eher ernüchternd: Eigentlich nichts – zumindest nicht automatisch. Der Grund ist, dass meist keiner der User am Ende nochmal wiederkommt und sagt: „Wow Euer Tipp hat mir richtig gut geholfen“ oder im Fall von User 5: „Das nächste Mal schau ich woanders.“ Es gibt zwar Seiten, die via usergenerated Content über „Best Practice“ berichten und auf denen unsere User 1 bis 5 ihre Meinung kund tun könnten. Dass aber User nach der Genesung eine Woche später nochmal die Search-History durchstöbern und die Ergebnisse evaluieren, kommt aus unserer Sicht eher selten vor. Zum anderen lässt sich aus „mir hat Folgendes geholfen“ wenig Allgemeingültiges ableiten. Und falls doch, denken wir an Bewertungen von Hotels oder Restaurants: Unmut und Schelte schaffen es häufig schneller ins Netz, als Lob und Zustimmung.

Wie könnte man jetzt also sicherstellen, dass User 5 beim nächsten Mal trotzdem auf Ergebnisse stößt, die ihm besser helfen? Man könnte darauf warten, dass er erneut krank wird und schauen, ob er nochmal auf dieselben Seiten klickt oder anderswo nachsieht. Das ist allerdings unpraktisch, da dazwischen ein zu großer Zeitraum liegen dürfte.

Bietet EAT die Lösung?

Zunächst: Es stellt sich die Frage, wie stark der indirekte Einfluss von EAT bereits wirkt, denn: Die dreifaltige Begrifflichkeit stammt aus den Quality Rater Guidelines. Google beschäftigt Leute, die aus menschlicher User-Perspektive empirisch Daten generieren sollen. Sie bewerten auf der Grundlage eines umfassenden Guides Websites nach einer Vielzahl an Kriterien. Google möchte aus diesen Daten weniger einzelne Websites bewerten, sondern eher Schlussfolgerungen daraus ziehen, wie der Algorithmus noch mehr User-Zufriedenheit generieren kann. Welche genau das sind, lässt sich aber leider nur mutmaßen.

Wie bereits in unserem Februar-SEO-Rückblick von Romain Hill erörtert worden ist, widerspricht Google z.B. in Person von John Müller der Behauptung, die Verlinkung zu seriösen Quellen verbessere das Ranking. Hier nochmal einer der entsprechenden Screenshots:

Twitter-Austausch zwischen BlogLikePru.com und John Müller (Google)
Screenshot eines Twitter-Austausch zwischen BlogLikePru.com und John Müller.

„That´s not how you make high quality content“. Das ist der eigentliche Knackpunkt. Google hat verständlicherweise kein Interesse daran, dass man aus SEO-Sicht einfach auf High-Quality Content verlinkt und auf einmal selbst besser rankt, obwohl der Content Schrott ist. Gleichzeitig will Google quellenkritisch arbeiten. Das bedeutet, dass man die Aspekte EAT aus den Guidelines für Quality Raters natürlich in der Praxis umsetzen möchte, sonst würden sie dort keine so dominante Rolle spielen.

In der Schlussfolgerung heißt das: Hilfreicher Content muss erstmal da sein. Nur durch ihn kann man in der Gesamtschau Autorität und dadurch auch Sichtbarkeit generieren. Die Einbindung in ein Netzwerk maßgeblicher Entitäten hilft dann im Nachgang. Insofern widerspricht das der Aussage von John Müller nicht. Autorität wird schließlich nicht einfach festgeschrieben, sondern unterliegt einem diskursiven Aushandlungsprozess, den Google nachvollziehen will.

Your Money Your Life

Besonders interessant wird es im Bereich YMYL. Das liegt aber nicht vordergründig an der Tatsache, dass es hier um Geld oder Gesundheit geht und das besonders wichtig sei. Es geht mehr darum, dass Inhalte in diesen Bereichen im Rahmen ihrer Wichtigkeit besonders streitbar sind.

Hier gut zu ranken ist in der Folge besonders aufwendig. Das gilt im Übrigen ganz besonders für kleinere Mitbewerber oder Vertreter von Mindermeinungen. Durch die hohe Hürde in einem YMYL-Bereich Autorität zu gewinnen, dürfte es auch sehr schwer sein mit Innovation zu punkten, da der Status Quo fester zementiert ist als bei anderen Themenwelten.

Viel wichtiger ist ein hilfreiches und vor allem auch besonders umfangreiches Content-Angebot, bei dem Urheber besonders gut nachvollziehbar sind, bzw. zumindest die Arbeitsweise nachweislich besonders hochwertig ist, also:

  • multidimensional
  • holistisch
  • quellenkritisch
  • unabhängig
  • innovativ (in Bezug auf die Vermittlung der Inhalte)

Diese Kriterien bilden die Ansprüche Expertise, Authoritativeness und Trustworthiness gut ab und orientieren sich interessanterweise stark an Grundsätzen der Wissenschaftlichkeit. Dass der Content diese Qualitäten aufweist, reicht aber noch nicht ganz aus. Der Suchmaschine, wie auch dem User sollte das Auslesen dieser Kriterien möglichst leicht gemacht werden. Ein Paradebeispiel ist netdoktor.de, was für nahezu alle Gesundheitsthemen gut rankt. Sehen wir uns das einmal näher an:

Wertvolle Zertifikate können sehr helfen. Sie müssen aber auch tatsächlich etwas aussagen.
afgis-Zertifizierung für Geprüfte Informationsqualität und Transparenz für die Seite netdoktor.de

Die afgis wurde ursprünglich vom Bundesgesundheitsministerium initiiert und ist heute ein eingetragener Verein, dessen Mitglieder aus privaten und staatlichen Akteuren bestehen. Dazu gehören beispielsweise das statistische Bundesamt, verschiedene gemeinnützige Vereine aus dem Bereich Gesundheit und Pflege, sowie Körperschaften des öffentlichen Rechts, wie etwa ärztliche Berufsverbände und Krankenkassen. Seriöse Siegel und Zertifikate sind in jedem Fall hilfreich, sofern Sie auch offen kommuniziert werden. Was als seriös gilt, mag nun auch wieder verhandelbar sein. Sich einfach ein eigenes Güte-Siegel zu erfinden dürfte aber nicht ausreichen.

Transparente Aussagen über die Autoren und Arbeitsweisen sind hilfreich
Screenshot: Kurzzusammenfassung der Arbeitsweise von netdoktor.de mit Verweis auf hohe medizinische Qualität und unabhängige sowie neutrale Berichterstattung.

Über den Link kommt man zu einer weiteren Seite, auf der Arbeitsethos und Ideale beschrieben werden. Außerdem sind Autoren mit Namen und Portraits aufgelistet. Dort finden sich auch Kurzbeschreibung ihrer jeweiligen Tätigkeiten und Hintergründe. Ihnen zugeordnet sind teils auch ihre Beiträge. So können Google und der User nachvollziehen, wer Beiträge verfasst, welche Menschen und Gesichter dahinterstecken und welche Kompetenzen diese haben.

Namen, Gesichter und Funktionen helfen User und Suchmaschine gleichermaßen.
Screenshot der Vorstellung der Netdoktor Redaktion mit Namen, Portrait und Funktion.

Weiter optimieren könnte man das, indem tatsächlich alle Autoren mit Bild verfügbar gemacht und mit einer eigenen Kurzbeschreibung ausgestattet würden, z.B. mit einem aufklappbaren Text. Das existiert aktuell nur für die Führungsriege, nicht aber für alle Autoren.

Sehr positiv: Es wird auch kommuniziert, wer hinter der in München ansässigen Firma NetDoktor.de GmbH steht – diese ist nämlich seit August 2019 Teil des Hubert Burda Media Konzerns.   

Netdoktor als Entität

„Netdoktor“ ist auch eine Entität. Das lässt sich relativ sicher aus der Tatsache schlussfolgern, dass bereits seit 2012 ein Wikidata-Eintrag besteht. Interessanterweise wurde der Eintrag ursprünglich von einem Bot angelegt und erst später von realen Usern bearbeitet. Dabei ist auffällig, dass der Datensatz gar nicht aktuell ist. Die Übernahme durch Hubert Burda Media ist hier zum Zeitpunkt der Erstellung dieses Beitrags noch nicht aktualisiert. Auch hier könnte händisch nachgebessert werden, da Wikidata theoretisch für jedermann bearbeitbar ist.

In Wikidata findet sich ein Eintrag für die Plattform
Screenshot des Datensatzes zu Netdoktor auf Wikidata.

Trotzdem rankt netdoktor.de sehr gut, da der Content hochwertig und umfangreich ist. Expertise wird insofern gleichzeitig aktiv propagiert und unter Beweis gestellt. Außerdem bietet die Plattform für nahezu jedes Gesundheitsthema Inhalte oder mit den Worten eines unserer SEOs auf meine Bitte mal kurz den Umfang der Domain zu crawlen: „Die Seite ist brutal groß, dauert eine Weile.“

Die Domain verfügt über 5540 Subdomains mit einem Textumfang von über 10 Millionen Worten!

Die Entität wird außerdem durch viele interaktive Tools (besonders wichtig) und sonstige Medien, sowie eine weitreichende Vernetzung auf Social Media unterfüttert. Das semantische Netzwerk, dass hier über die Zeit aufgespannt und gut gepflegt wurde ist gewaltig und auch extrem vielseitig. Durch die starke Vernetzung und Interaktion mit der Entität „Netdoktor“ zusammen mit der hohen Urheber-Transparenz, dürfte die Seite auch zukünftig stark ranken, auch wenn die Bedeutung von Keyword-basierter Optimierung sinken sollte. Kein Wunder also, dass netdoktor.de zu den großen Gewinnern der letzten Core-Updates gehört, obwohl der Themencluster Gesundheit es ja besonders schwer hat. Allerdings liegt das auch an verschiedenen strukturellen Anpassungen der Seite. Genauer nachlesen kannst du das z.B. im searchmetrics Blog bei Jan Grundmann.

Was lernen wir daraus?

Hinter dem Namen Burda steht gewaltiges Kapital – in diesem Fall ein Jahresumsatz des Medienkonzerns von über 2,6 Milliarden Euro. Außerdem steht hinter netdoktor.de viel Zeit und damit Erfahrung sowie ein Vorsprung in Gesamtarbeitszeit. Diese mag zwar nicht 1 zu 1 umrechenbar sein, da Content auch einem raschen Alterungsprozess unterliegt, aber auf dem langjährigen Grundgerüst lässt es sich gut aufbauen.

Zum Aufbau einer starken Entität wird also vor allem Geduld und Kapital benötigt. Kleinere Mitbewerber haben nur dann eine Chance, wenn sie besonders spezialisiert sind, sie also fehlende Masse mit einem hohen Grad an Expertise und idealerweise auch Vertrauenswürdigkeit kompensieren können. Insofern ist Masse nicht zwangsläufig positiv. Wenn man also viel low budget Content einkauft, spart man sich nicht einen einzigen Cent. Das Geld wäre dann als gemeinnützige Spende wohl besser aufgehoben. Viel Content vom Fließband zu kaufen bedeutet heute, das eigene Kapital schlicht zu verbrennen.

Unsere Handlungsempfehlungen

Keywords, User-Intent, Meta-Daten, Pagespeed, usw. sind weiterhin wichtig und werden es auch in Zukunft bleiben. Unseres Erachtens nach werden Entitäten und damit verbunden EAT auch langfristig bestehende Strukturen eher quellenkritisch verifizieren und erweitern, statt sie komplett zu ersetzen.

Um sich für die Zukunft fit zu machen, sollten Unternehmer folgendes beachten:

  • Anlage und Pflege von Datensätzen in verschiedenen Datenbanken, bei denen sich Google bedient, z.B. Wikidata
  • Breite Vernetzung in einem Multichannel-System unter Einbezug von Social Media
  • Nutzung verschiedener Medienformate aus Wort, Bild, Video, u.U. Audio (z.B. Podcast)
  • Entwicklung interaktiver Tools, die direkte User-Interaktion (und evtl. sogar Feedback) generieren
  • Durchsichtige Urheber-Kommunikation mit aussagekräftiger Aufklärung über Hintergründe und Expertise
  • Einbindung in ein „trustworthy Network“, z.B. als Mitglied in Berufsverbänden oder durch unabhängige Zertifizierungsportale

In der jetzigen Phase ist es vernünftig, klassisches Keyword-basiertes SEO mit dem Aufbau der eigenen Entität zu verbinden und diese möglichst transparent, multidimensional vernetzt und interaktiv aufzubauen.

Der Content der Zukunft muss immer hochwertiger werden.

Dazu kommt noch die Aktualität. Die Nennung des Datums der letzten Änderung ist unter Umständen sinnvoll, wenn der Content auch regelmäßig gepflegt und aktualisiert wird. Auch das sollte leicht auslesbar sein. Die Stolperfalle liegt jedoch nahe: Kümmere ich mich monate- oder jahrelang nicht um meine Inhalte, wirkt ein Artikel aus Mai 2015 auf den User gegebenenfalls weniger relevant.

Fazit

Entitäten und deren Reputation in Form von EAT werden die Suchmaschine in Zukunft immer stärker prägen. Wer erst heute damit beginnt, sich selbst als Entität aufzubauen, hat bereits Potenzial verschenkt. Gerade Unternehmen aus den Bereichen YMYL, insbesondere mit Medizin- und Finanzprodukten, sollten ihre Suchmaschinen-Reputation pflegen, sonst drohen auch in Zukunft teils empfindliche Abstürze.

Hier können im Rahmen einer durchdachten SEO-Strategie nachhaltig Stabilität und zukunftsfähige Rankings gesichert werden, bzw. diese auch erst aufgebaut werden. Gerade der Absturz mancher Mitbewerber bietet immerhin auch Chancen. Das gilt aber auch für Seiten, die bis jetzt stabil ranken, denn der Paradigmenwechsel bei Google ist noch nicht abgeschlossen. Hier wird sich auch in den kommenden Jahren viel ändern, weshalb wie so oft Vorsicht besser ist als Nachsicht.

Ausblick

In Teil drei werden wir den Blick wieder etwas mehr auf das große Ganze lenken und uns mit makro-ökonomischen und politisch-gesellschaftlichen Blickwinkeln auseinandersetzen. EAT hat durchaus auch einen Einfluss auf den Mega-Trend Digitalisierung insgesamt. Insofern betrifft uns die Entwicklung nicht nur als Unternehmen, sondern auch als Privatpersonen und User, sowie als Teilnehmer an politischen und sozio-kulturellen Prozessen – und dadurch in der Folge auch wieder als Unternehmen, da diese Komponenten sich stets gegenseitig beeinflussen und im strategischen Rahmen keineswegs isoliert betrachtet werden sollten.

Quo vadis EAT? – Die Basics (Teil 1 von 3)

Stilisierter Donald Trump This Content ist SOOO yesterday!!! 100 % won´t work – I guarantee it. You are FIRED!!!!!

This Content ist SOOO yesterday!!! 100 % won´t work – I guarantee it. You are FIRED!!!!!

Fall du dir gerade gedacht hast, das Thema EAT sei von vorgestern und bereits ausreichend durchgekaut: Weit gefehlt. Wir stehen gerade erst am Anfang: Expertise, Authoritativeness und Trustworthiness werden die Suchergebnisse in Zukunft immer mehr dominieren. Darüber hinaus sind die meisten Beiträge zum Thema eher technischer Natur. Nun liegt unser Schwerpunkt bei contify auf Content-Marketing. Deshalb geben wir dir einen ganz individuellen Einblick, welche Schlüsse wir als Agentur aus den Entwicklungen ziehen, wie wir uns in Zukunft positionieren und welche Auswirkungen all das auf dich als Unternehmer und auch als User hat.

Was dich in unserem Dreiteiler erwartet

Da das Thema aber nicht nur zukunftsträchtig, sondern auch komplex und umfangreich ist, werden wir es in drei Teilen behandeln, um uns aus verschiedenen Perspektiven anzunähern. Dabei steht der Aufbau der eigenen Marke als vertrauenswürdige Experten-Entität im Mittelpunkt:

  1. 12. März:
    Einführung in das Konzept der Entitäten, deren Beziehungen unter- und zwischeneinander, sowie deren Verhältnis zu den drei Kategorien Expertise, Authoritativeness und Trustworthiness
  2. 18. März:
    Schlussfolgerungen aus Sicht des Content-Marketings: Gefahren und Chancen am Anschauungsbeispiel
  3. 25. März:
    Ausblick und Rundumschlag: Branchenperspektiven, Gesellschaftsperspektiven, deine Perspektive?

Falls du es eher technisch wünscht, dann empfehlen wir dir übrigens begleitend die Artikelreihe zum Thema von Olaf Kopp (Aufgesang).

Falls du schon genau weißt, wie du dir Entitäten vorstellen kannst, kannst du diesen Teil einfach überspringen und hier weiterlesen.

Und los geht’s.

Was sind Entitäten?

Entitäten sind äußerst komplexe und abstrakte Strukturen. Zunächst hilft es, sich diese als natürliche und juristische Personen vorzustellen. Laienhaft ausgedrückt: Leute und Zusammenschlüsse von Leuten, im Sinne von Unternehmen, Vereinen und dergleichen. Dazu kommen Orte, Dinge und Konzepte – also all das, was irgendwie als Bedeutungseinheit klar abgrenzbar definiert werden kann. Grundsätzlich könnte man auch sagen Substantive. Das müsste aber noch etwas verengt werden.

Beispiele für Entitäten sind:

  • Donald Trump, Mozart und der OB von Würzburg Christian Schuchardt
  • Deutschland, die UN und die Gemeinde Rottendorf
  • Katholische Kirche, Buddha und die Erleuchtung
  • Frieden, der Schwippschwager und die Steuerklärung
  • FC Bayern, Würzburger Kickers und der FC Wiesla Hof
  • Influenza, COVID 19 und der Schwarze Tod
  • Suchmaschinenoptimierung

Potentiell kann fast alles eine Entität sein. Kriterium ist aber ein Mindestmaß an Relevanz – und damit ist sowohl gesellschaftliche, wirtschaftliche, politische, als auch Suchmaschinenrelevanz gemeint. Wie die Grenze genau gezogen werden kann, ist indessen nicht ganz klar. Man kann aber davon ausgehen, dass hier tatsächliche Menschen und nicht nur der Algorithmus am Prozess beteiligt sind – bzw. waren.

Dazu kommt das Verhältnis zu anderen Entitäten. Was keine Anknüpfungspunkte bietet, kann nicht existieren – so zumindest die Eigenlogik. Das bedeutet, dass Entitäten durch ihre Bezugspunkte und Qualifizierungsmerkmale überhaupt erst zu einer Entität werden.

Entscheidend sind also drei Kriterien: (1) Relevanz und (2) Eingrenzbarkeit einer Bedeutungseinheit bei gleichzeitiger (3) Einbettung in ein semantisches Netzwerk.

Wie Entitäten funktionieren

Als Basis dienen verschiedene Datenquellen, wie beispielsweise Wikidata, was wir uns als Anschauungsbeispiel herausnehmen. Entitäten werden hier mit Attributen versehen, sog. „Aussagen“, die ihrerseits einen Wert zugeordnet bekommen. Das sind letztlich Eigenschaften, die sich aber je nach Entitäten-Typ unterscheiden. Für Donald Trump ein Geschlecht auszugeben, macht Sinn, während das Empire State Building über kein solches Attribut verfügt und selbst die Information „Geschlecht: Keines“ redundant und damit User-unfreundlich wäre, also unerwünscht.

Die Ausschnitte aus Wikidata verdeutlichen die Art und Weise der Datenstrukturierung.
Screenshots aus Wikidata in Tabellenform zu den Suchbegriffen Empire State Building und Donald Trump.

Entitäten werden daher in Typen kategorisiert. Die Attributierung funktioniert dann innerhalb des Typus gleichförmig, was aber nicht heißen muss, dass jedes Attribut immer vergeben sein muss. Außerdem kann eine Entität verschiedene Typen gleichzeitig haben. So ist das Empire State Building Bürogebäude, Wolkenkratzer und Touristenattraktion. Ähnlichen Entitäten – wie beispielsweise dem One World Trade Center – lassen sich ähnlichen Typen zuordnen, allerdings mit anderen Attribut-Werten. Die Typen selbst sind hierarchisch geordnet. So ist im Beispiel Donald Trump „Milliardär“ ein Subtypus zu „Person“.

Das Gesamtnetzwerk ist aber nicht nur vertikal strukturiert. Durch die vielen Querverweise und Vernetzungen in alle Richtungen, die dazu noch variabel sind, müssen wir das Entitäten-Geflecht mindestens dreidimensional denken. Das bedeutet in der Folge auch, dass eine Visualisierung auf dem Bildschirm nicht ausreichend sein kann. Als Vorstellungshilfe kann aber zunächst ein organisches System dienen.

Beziehungen untereinander

Wichtig sind dabei vor allem die Querverbindungen zwischen den Entitäten. Zum einen bestehen Unterentitäten, bzw. Attribute usw. und außerdem besteht eine komplexe Matrix, die die Entitäten, Typen und Attribute zueinander in Beziehung setzt.

Eine organisch-flexible Vorstellung hilft, das System zu verstehen.
Grafische Darstellung einer organischen Struktur.

Wir denken das Ganze einmal als Sammlung von Molekülen in einem flexiblen Raum. Die Verbindungen innerhalb und zwischen den Molekülen sollten daher weniger als lineare Verbindungen, sondern eher als Wirkachsen verschiedener Kräfte interpretiert werden, die sich auch jederzeit ändern können, sobald eine neue Kraft beginnt, im Netzwerk zu wirken.

Für eine detaillierte Beschreibung von Typen, Klassen und Attributen und deren Zusammenspiel empfehlen wir ergänzend die Lektüre bei Olaf Kopp.

Die Daten sind in einem System verflochten und auch der Zustrom von Informationen ist zielgerichtet und geordnet. Auf Googles Odyssee zur ultimativen Informationshoheit fehlt jedoch ein ganz essentieller Schritt, der noch viel komplexer ist als die Datensammlung und -strukturierung: Die Infos müssen „richtig“ sein. Aber was ist schon wahr oder richtig?

Quellenkritik 2.0 – Das Prinzip Wahrheit auf dem Prüfstand

Ein gewaltiges Problem für Google ist die Verifizierung von Daten und damit einhergehend auch die grundsätzliche Verifizierbarkeit dieser, da viele Aussagen komplexen diskursiven Aushandlungen unterliegen und deshalb oft nicht mit 0 oder 1 zufriedenstellend bewertet werden können.

Google arbeitet durchaus quellenkritisch. Hier kommen wir zum Thema EAT: Bei der Frage was im Einzelfall überhaupt wahr und richtig ist, lässt sich die Antwort in der analogen Welt in den meisten Fällen bereits relativ schwer beantworten. Das System kann das nicht besser. Es kann aber versuchen, den Aushandlungsprozess nachzuzeichnen und abzubilden.

Man muss also einen Weg finden, Daten so zu verifizieren, dass Sie am Ende einer möglichst tiefgreifenden Kontrolle standhalten. Da Google ein kommerzielles Unternehmen ist, kann es sich natürlich nicht vollständig auf eine bemühte Community stützen, wie beispielsweise Wikipedia, wo in endlosen Diskussionen in einer Kombination aus Mehrheits- und Expertenentscheid halbwegs verlässliche Ergebnisse produziert werden. Die offene Ressource wird aber natürlich trotzdem weitreichend genutzt, vor allem auch indem eine solche diskursive Aushandlung imitiert wird. Der erste Schritt, um das zu erreichen, ist aber eine Klassifizierung der Informationsquellen selbst und damit letztlich der Entitäten.

Das Ergebnis ist EAT, was sich folgendermaßen auflöst:

  • E = Expertise = Fachkenntnis
  • A = Authoritativeness = Maßgeblichkeit (nicht: authority = Autorität!)
  • T = Trustworthiness = Vertrauenswürdigkeit

Dabei ist zu beachten, dass diese drei Komponenten zwar inhaltlich durchaus voneinander abgrenzbar sind, sie aber grundsätzlich immer zusammenwirken. Sie können deshalb gemeinsam gedacht werden. Die einzelnen Definitionen erleichtern aber das Verständnis.

Expertise

Der Experten-Begriff ist heute völlig verwässert und sinnentleert. Insofern bringt es nur wenig nur zu behaupten man habe Expertise. Es geht hier vor allen Dingen darum, als Experte wahrgenommen zu werden und hierfür ist die Behauptung nicht ausreichend. Vielmehr müssen Indikatoren diesen Status untermauern. Es geht vor allem um Content, der für viele User auf vielen Kanälen sehr hilfreich ist.

Authoritativeness

Autorität ist in der deutschen Entsprechung nicht ganz präzise. Es geht hierbei nicht darum, welches Ansehen oder gar Befehlsgewalt eine Quelle ganz allgemein genießt. Es geht eher darum, ob sie innerhalb des konkreten Themas meinungsführend ist – und dazu muss Sie vor allen Dingen oft zitiert werden und das von Quellen, die ihrerseits hohe „EAT-Werte“ haben. Die Verlinkung von externem hochwertigem Content ist also wenig hilfreich. Die eigenen Inhalte müssen von anderen als hochwertig wahrgenommen werden.

Trustworthiness

Vertrauenswürdigkeit ist schwer zu messen. Denn es ist nämlich vorstellbar, dass eine Quelle in der Thematik besonders präsent ist, ihr aber fast ausschließlich widersprochen wird. Gerade im politischen Kontext kann eine Mindermeinung extrem provokant sein, bzw. für viel Aufregung sorgen. Sie wird in der Folge häufig rezipiert. Auch die Fachkenntnis muss deswegen nicht ausgeschlossen werden.

Unsere umgangssprachliche Mutmaßung sieht so aus:

  • Expertise = Hält die Allgemeinheit mich für eine zuverlässige Quelle?
  • Authoritativeness = Habe ich ein Netzwerk von anderen Entitäten, die allgemein als zuverlässige Quellen gelten und mich ebenfalls rezipieren, mich also in deren erlauchten Kreis aufnehmen?
  • Trustworthiness = Glauben Allgemeinheit und bereits von dieser mit Vertrauen ausgestatte Entitäten, dass ich sie und andere übers Ohr hauen möchte?

Oder noch einfacher:

  • Halten Leute mich für einen Experten?
  • Halten Experten mich für einen Experten?
  • Nutze ich mein Expertentum gewissenhaft?

Die Gesamtschau dieser Aspekte muss als Einheit gedacht werden. Insofern ist Autorität das was am Ende gesammelt herauskommt. Ein besserer Begriff wäre aber Informationshoheit.

Die Rolle von Quellenangaben

Zum Abschluss noch ein letzter Punkt: Um Content verifizieren zu können und ihn auf Ebene von EAT bewerten zu können, muss der Urheber identifizierbar sein. Es ist also wichtig, dass die Entität, die gepusht werden soll, als Urheber auf den verschiedenen Kanälen für Google gut nachvollziehbar ist.

Im Trump-Beispiel ist es klar, dass mit seiner Person auf Social-Media meist eine Abwandlung von „realdonaldtrump“ verbunden ist. Die Quell-Entität ist damit vergleichsweise eindeutig nachvollziehbar. Für ein Unternehmen gilt das gleichermaßen. Die Beziehung zwischen den Channels sollte leicht erkennbar sein.

Außerdem muss der Urheber (sowohl die Website, als auch der Autor) gewissermaßen referenzierbar sein. Beispielsweise: ist der Autor ein wissenschaftlich renommierter Experte oder ein Fachjournalist? Dabei können beispielsweise kleine Vorstellungstexte zum Autor helfen.

Zusammenfassend

Es wird deutlich, dass ein EAT-Wert nicht nur vom eigenen Auftritt abhängt, sondern auch von der quellenkritischen Nachvollziehbarkeit der Inhalte, der Rezeption durch Dritte und der Vernetzung mit anderen Experten-Entitäten. Sozialwissenschaftlich könnte man davon sprechen, dass die eigene Entität den Diskurs prägen müsste. Und: die eigene Marke muss natürlich überhaupt erst eine Entität sein.

Genauso wie das multidimensionale Netzwerk innerhalb verschiedener Wissens-Datenbanken, wie Wikidata funktioniert, wird auch ein Marketing-Konzept folglich nur dann den höchsten Grad an Wirksamkeit erreichen, wenn es gelingt ein eigenes stabiles Netzwerk innerhalb der Matrix künstlich aufzuspannen.

Wie so etwas perspektivisch erreichbar sein könnte, wollen wir in Teil Zwei im Rahmen eines beispielhaften Gedankenexperiments erarbeiten.

Bis dahin freuen wir uns über Feedback und Gedanken zum Thema. Bis nächste Woche.

contify SEO Rückblick – Februar 2020

contify Maskottchen mit Lupe: SEO Rückblick contify SEO Blog Rückblick für Februar 2020 contify SEO Blog Rückblick für Februar 2020

contify SEO Blog Rückblick für Februar 2020

 

Indexiert Google schlechte Inhalte nicht mehr? 

Webmaster beschweren sich oft darüber, dass die über die Google Search Console übertragenen Inhalte nicht oder zumindest mit einer gewissen Verzögerung indexiert werden. Vielleicht haben einige Kommentare von John Mueller und Gary Illyes die Besorgnis geweckt, dass Google Inhalte von unzureichender Qualität nicht mehr indexieren würde.

Zunächst hatte man vermutet, es könnte sich um Probleme bei Google selbst handeln. Jedoch scheinen die Inhalte bezüglich ihrer unzureichenden Qualität gar nicht indexiert zu werden.

Wenn Google die einzelnen URLs von Websites nicht indiziert, bedeutet dies nicht unbedingt, dass es die Qualität der Website als schlecht beurteilt.

Für die meisten Websites sollte ein Auge  auf die Indexabdeckung in der Google Search Console geworfen werden, um die meisten nicht indizierten URLs zu erkennen. Der Bericht enthält mehrere Statusmeldungen, wie zum Beispiel 

  • Gefunden, aber nicht indiziert
  • Gecrawlt, aber nicht indiziert
  • Keine Seite gefunden (404)
  • Crawling-Anomalie

Selbst wenn Google angibt, dass mehrere URLs oder Unterseiten nicht indiziert sind, bedeutet dies nicht unbedingt, dass die Gesamtqualität der Website als schlecht beurteilt wird.

Es stellt sich die Frage, wie soll Google die Qualität der Inhalte bereits beim Crawlen messen? Dabei müsste ja relativ schnell eine Entscheidung getroffen werden, wie die Relevanz der Inhalte oder die Backlinks bewertet werden.

Google: „rel=sponsored“ für Affiliate-Links

John Mueller von Google berichtete, dass es am besten sei, nach Möglichkeit das Attribut rel=sponsored auf Partnerlinks zu verwenden. Man kann zwar immer noch „nofollow“ verwenden oder kombinieren, aber es würden die verlinkten Inhalte für Google klarer verständlicher werden, wenn „rel=sponsored“ verwendet wird.

Diese Behauptung wurde Anfang Feburar von John Mueller in einem Tweet bestätigt:

Sponsored Link Attribut für Werbelinks
Screenshot von Twitter zu Link Attributen für Werbelinks

Nochmal zur Erinnerung:

Google hat bereits im September Änderungen am Attribut nofollow link angekündigt.

Verwende auf jeden Fall „rel=sponsored“ für Affiliate-Links!

Nachfolgend werden die Änderungen nochmal zusammenfasst:

Wie Googles Nofollow, Sponsored & UGC Link-Attribute Auswirkungen auf SEO haben

Vorher:

  • rel=“nofollow“- Für alle bezahlten, gesponserten, UGC- und nicht vertrauenswürdigen Links
  • nicht zum Crawling oder zur Indexierung verwendet
  • nicht für das Ranking verwendet

bis März 2020:

  • rel=“sponsored“- für bezahlte und gesponserte Links
  • rel=“ugc“ – für benutzergenerierte Inhalte
  • rel=“nofollow“ – catch – all für alle nicht vertrauenswürdigen Links
  • nicht zum Crawling oder zur Indexierung verwendet
  • kann als „Hinweis“ für das Ranking verwendet werden

ab März 2020:

  • rel=“sponsored“ – für bezahlte und gesponserte Links
  • rel=“ugc“ – für benutzergenerierte Inhalte
  • rel=“nofollow“ – catch all für alle nicht vertrauenswürdigen Links
  • kann als „Hinweis“ für das Crawling oder die Indexierung verwendet werden
  • kann als „Hinweis“ für die Ranking verwendet werden

Allgemein gesagt, können die neuen Attribute auch in Kombination mit jedem anderen verwenden werden. Zum Beispiel ist rel=“nofollow sponsored“ ebenso gültig.

Bezahlte Links müssen entweder das Attribut „nofollow“ oder „sponsored“ verwenden (entweder allein oder in Kombination), um das Risiko von Strafen zu vermeiden.

Die Publisher sind nicht verpflichtet, Änderungen vorzunehmen. Google bietet keinen Anreiz für eine Änderung oder sieht bisher eine Strafe für die Nicht-Änderung vor.

Code Beispiele:

Regulärer Link: <a href=“https://beispielseite.de“>vertrauenswürdige Seite</a>

Bezahlter/gesponserter Link: <a href=“https://beispielseite.de“ rel=“sponsored“>jetzt kaufen</a>

UGC Link: <a href=“https://beispielseite.de“ rel=“ugc“>Meine Webseite</a>

Nofollow Link: <a href=“https://beispielseite.de“ rel=“nofollow“>unseriöse Webseite</a>

Die neuen Link-Attribute sollen Google helfen, müssen aber nicht unbedingt verwendet werden. 

Wenn es technisch gesehen einfach ist, Affiliate-Links von „nofollow“ in „gesponsert“ zu ändern, dann kann diese Vorgehensweise empfohlen werden. Wenn der Aufwand jedoch sehr hoch wird, wird es die Mühe wahrscheinlich weniger Wert sein.

Tipps zur Verwendung von „hreflang“

John Mueller von Google hat eine aufmerksame und nützliche Antwort zu Reddit gepostet, die sich hauptsächlich darum dreht, wo man mit „hreflang“ anfangen soll. Er sagte: „Es ist einfach, mit „hreflang“ in endlose Gruben der Komplexität zu graben.“ Meine Empfehlung wäre es, die Anzahl der Seiten, die Sie erstellen, zunächst auf die absolut kritischen und wertvollen Seiten zu beschränken“, fügte er hinzu.

Nachdem man diesen Denkprozess durchlaufen hat, empfehle er:

Konzentrieren Sie sich zuerst auf Seiten, auf denen Sie Traffic in falscher Sprache sehen. 

Es macht also nicht immer Sinn, „hreflang“ einfach überall einzusetzen, weil es einfacher sein könnte, nicht darüber nachzudenken. „Manchmal ist die Balance zwischen „Anstrengung durch Nachdenken sparen“ und „es einfach überall tun“ nicht so einfach zu bestimmen“, sagte John Mueller.

Hier ist seine vollständige Antwort in Reddit:

Empfehlungen zu hreflang
Reddit Post von John Müller zu hreflang

Verwendung strukturierter Daten

Laut Google könne man mit Strukturierten Daten sicherstellen, dass Webseiten besser auf relevante Suchanfragen abgestimmt worden sind.

Strukturierte Daten sind für di Suchmaschine besonders nützlich, wenn es noch nicht möglich ist, den Inhalt der Webseite eindeutig zuzuordnen. In diesem Fall kann die Verwendung von strukturierten Daten helfen, die Ergebnisse relevanter Suchanfragen besser zu steuern.

Google nutzt nicht nur strukturierte Daten, um „Rich Results“ anzuzeigen, sondern kann diese Daten auch nutzen, um den Inhalt der Webseite besser zu verstehen.

John Mueller erklärte kürzlich in einem aktuellen Webmaster-Hangout, das strukturierte Daten besonders nützlich seien, wenn Google den Inhalt der Webseite noch nicht ausreichend verstanden hat. Um zu überprüfen, wie Google die Webseite gereiht hat und welche Art von strukturierten Daten verwendet werden sollten, empfahl er, die entsprechenden Suchergebnisse zu untersuchen und zu prüfen, ob sie dem Zielvorhaben entsprechen. Auch wenn Google strukturierte Daten zur Interpretation der Inhalte verwendet, dürfe man davon nicht zu viel erwarten, so Mueller.

In jedem Fall ist es interessant zu wissen, dass strukturierte Daten auch dann nützlich sein können, wenn sie nicht oder nicht nur „Rich Results“ anzeigen sollen. Strukturierte Daten können auch in anderer Hinsicht nützlich sein und dazu beitragen, dass Webseiten für relevante Suchen besser gefunden werden können.

Google My Business räumt ordentlich auf

Google Maps hat 4 Millionen gefälschte Unternehmen und 75 Millionen lokale Bewertungen entfernt.

Google My Business entrümpelt Fake Einträge
Grafik zu Google My Business

Google gab im Februar bekannt, dass es im Jahr 2019 gegen Spam und Verstöße bei Google Maps vorgegangen ist. Google hat demnach im Jahr 2019 etwa 4 Millionen gefälschte Unternehmensprofile aus Google My Business entfernt. Außerdem wurden 75 Millionen Bewertungen, die gegen die Richtlinien verstoßen, aus lokalen Profilen entfernt.

Nachfolgend werden einige der Kennzahlen detaillierter aufgeführt:

  • 4 Millionen Unternehmensprofile entfernt
  • 75 Millionen Rezensionen entfernt
  • 258.000 der entfernten Geschäftsprofile wurden aufgrund von Berichten von Teilnehmern entfernt
  • 580.000 der gestrichenen Überprüfungen waren auf Berichte von Referenten zurückzuführen
  • 10 Millionen Fotos und 3 Millionen Videos wurden entfernt
  • 475.000 Benutzerkonten wurden deaktiviert und entfernt

Die Bereinigungsarbeit und Bewertung der Profile wurde sowohl von automatisierten Technologien als auch von den Mitarbeitern bei Google geleistet.

Neue Bildlizenz-Metadaten für lizenzierbare Bildbeschriftungen

Google testet im Februar eine neue Methode für Websites zur Anzeige von Lizenzinformationen über Inhalte, die in Google-Bildern angezeigt werden.

Google hat ein neues strukturiertes Datenelement für Bildlizenz-Metadaten eingeführt, das es Google Images ermöglicht, ein lizenzierbares Bildlabel in den Suchergebnissen anzuzeigen.

Die europäische Bildagentur CEPIC schrieb dazu in ihrem Blog:

„Wir freuen uns, dass Google Images jetzt ein Metadaten-Framework für lizenzierbare Bilder über Schema.org veröffentlicht. Google wird auch den IPTC-Metadatenstandard unterstützen. Autoren und Vertreiber von Inhalten können die Lizenzinformationen für Bilder auf ihrer Website angeben, und diese werden bei der Google Bildersuche dargestellt.

Laut Google ist die neu geplante Auszeichnung der Lizenzinformationen von Bildern noch nicht live, aber Webmaster können jetzt schon damit beginnen, ihre Inhalte darauf vorzubereiten. Wer also schon frühzeitig seine Bilder entsprechend taggt, wird mit seinen Lizenzinformationen bei der Bildersuche auch ausgespielt, sobald die Änderungen live gehen.

Das Markup

Google hat die technischen Details zu den neuen Metadaten hier veröffentlicht. Demnach bietet Google zwei Möglichkeiten zum Hinzufügen der Metadaten. Dabei muss der Suchmaschine nur jeweils eine Form von Metadaten zur Verfügung gestellt werden, um für das Lizenz Badge in Frage zu kommen:

  • Strukturierte Daten: Strukturierte Daten sind eine Assoziation zwischen dem Bild und der Seite, auf der es mit der Markierung erscheint. Strukturierte Daten müssen für jedes Mal, wenn ein Bild verwendet wird, hinzugefügt werden, auch wenn es sich um das gleiche Bild handelt.
  • IPTC-Foto-Metadaten: IPTC-Fotometadaten werden in das Bild selbst eingebettet, wobei das Bild und die Metadaten von Seite zu Seite bewegt werden können, ohne dass die Daten verloren gehen. Man muss die IPTC-Fotometadaten nur einmal pro Bild einbetten.

Laut CEPIC wird erwartet, dass Google im Zuge der Weiterentwicklung der Technologie Funktionen einführt, die es den Nutzern ermöglichen, Bilder mit diesen neuen Lizenz-Metadaten zu filtern. Darüber hinaus könnte das Markup auch von den Kunden, die Ihre Bilder gekauft haben, angewandt werden, um die Nutzer auf eine bislang nicht mögliche Art und Weise auf Ihre Website zurückzuleiten.

Fazit:

Wenn es sich um Webseiten mit lizenzierbaren Bildern handelt, kann dieser Tag dabei helfen, die Lizenzdetails an potenzielle Kunden zu kommunizieren, versehentlichen Bilddiebstahl zu reduzieren und die Einnahmen für Ihre Bilder zu erhöhen.

User Intent und wie du deinen Content danach optimieren kannst

Eine Kugel mit vielen Profilbildern von verschiedenen Personen User im Mittelpunkt der Content-Optimierung

User im Mittelpunkt der Content-Optimierung

Was will der Nutzer eigentlich?

Der Begriff User Intent wird häufig mit vielen Synonymen belegt. Im Online Marketing sind Begriffe wie Search Intent oder im deutschen Sprachraum Suchintention und Nutzerbedürfnis gängige Praxis. Sie alle beschreiben das Ziel, das ein Nutzer bei seiner Suchanfrage in Google oder anderen Suchmaschinen verfolgt. Mögliche Ziele sind der Kauf eines Produkts, die Sichtung von Unternehmen und Personen oder das Erhalten von Informationen über ein bestimmtes Thema. Der User Intent ist daher ein relevanter Faktor der Suchmaschinenoptimierung (SEO) sowie der Conversion Rate Optimierung (CRO).

Bedürfnisse erkennen und erfüllen

Eine bestimmte Suchanfrage, die von mehreren Nutzern gestellt wird, kann dennoch immer eine andere Intention verfolgen. Googles Anspruch und auch der anderer Suchmaschinen ist es, genau diese Intention zu befriedigen und die optimalen Inhalte für den jeweiligen Nutzer zu liefern. Diese Kunst, ein bestimmtes Bedürfnis zu erkennen und auch zu erfüllen, perfektioniert Google immer weiter und so verändern sich die Rankingfaktoren konstant.

Für einen Webmaster reicht es heute daher nicht mehr, den Inhalt der eigenen Seite nur auf ein einzelnes Keyword zu optimieren. Die Absicht und das Bedürfnis hinter einer Suchanfrage muss erkannt, verstanden und in den Fokus der Content-Strategie gestellt werden.

Zielgruppengerechte Inhalte zu präsentieren ist der Schlüssel.

Suchintention rückt weiter in den Fokus von Google

John Mueller hat es in einem Reddit-Thread betont: Der Fokus der Suchmaschine rückt immer mehr in Richtung Search Intent. Hohe Wortanzahlen oder optimale Backlink-Profile nützen rein gar nichts, wenn der User auf der Seite nicht das findet, was er eigentlich sucht.

Die Suchanfragen sollen also mit den entsprechenden Keywords (Short- oder Longtail) möglichst gut bedient werden. Bevor du dich schließlich ans Werk machst und anfängst, deine Seite mit Content zu befüllen, stell dir am besten folgende Fragen:

  • Was sucht der Nutzer?
  • Erfüllt mein Content die Bedürfnisse des Nutzers?
  • Ist der Inhalt auf das Keyword abgestimmt, das mit dem User Intent übereinstimmt?
  • Ist die technische Optimierung mit dem Content verbunden?

Erst wenn du dir der Bedürfnisse deiner Zielgruppe bewusst bist, bzw. das Nutzerbedürfnis erkannt hast, kannst du mit deinen Inhalten darauf eingehen und deine Content-Strategien danach ausrichten.

Unterteilung von Suchbegriffen zur Ermittlung des User Intents

Das Konzept des User Intents ist an sich nichts Neues und wird bereits seit vielen Jahren beachtet. Aus der Vielzahl an Suchbegriffen können drei bzw. neuerdings vier Kategorien gebildet werden, die dabei helfen, den User Intent zu ermitteln:

  • Website (früher: navigational)
  • Know (früher: informational)
  • Do (früher: transaktional)
  • Visit in Person (Neu)

Während navigationale, informationale und transaktionale Queries in so gut wie allen Lehrbüchern zu finden sind, hat Google die Klassifizierung von Suchbegriffen inzwischen um einen neuen Punkt erweitert: Visit in Person soll dem Status Quo der unzähligen Suchbegriffe gerecht werden.

Webiste (Navigational)

Suchanfragen, die das Ziel haben, eine konkrete Ziel-Website zu erreichen, werden als navigational bezeichnet.

SERPs einer „Website“-Anfrage
Google-Suchergebnisseite für den Suchbegriff „Xovi“

Nach den Google Ads ist der erste organische Treffer zum Keyword in der Regel die entsprechende Ziel-Website. Alle weiteren Treffer werden vom User selten geklickt, da der User Intent in diesem Fall bereits erfüllt wurde.

Know (Informational)

Eine weitere Nutzerabsicht ist die Suche nach Informationen und wird von Google als „Know“ oder abgewandelt als „Know Simple“ bezeichnet. Typische Know-Suchen sind meist umfangreicher und können in Form von Fragen oder longtailigen-Keywords auftreten. Know-Simple-Anfragen sind, wie der Name schon vorwegnimmt, simpler formuliert und bestehen meist nur aus einzelnen Schlagworten. Das Ziel dahinter ist jedoch ebenfalls der Informationsgewinn.

Der Suchmaschinenriese weiß diesen Unterschied zu bedienen und spielt dem User entsprechend unterschiedliche Suchergebnisse aus.

SERPs einer „Know“-Anfrage
Google-Suchergebnisseite für den Suchbegriff „E-Bike richtig laden“

Abgesehen von den Google-Video-Ergebnissen wird der User bei einer komplexeren Know-Anfrage direkt auf diverse Webseiten geführt, die seine konkrete Anfrage bedienen.

SERPs einer „Know-Simple“-Anfrage
Google-Suchergebnisseite für den Suchbegriff „Cola zucker“

Bei einfachen Wissensanfragen (Know-Simple) werden die Antworten hingegen direkt in den SERPs geliefert.

Do (Transaktional)

Als dritte Kategorie definiert Google transaktionale Suchanfragen. Hierbei hat der User die Intention, selbst etwas zu tun. Das kann eine Handlung wie Kaufen, Bestellen, Abonnieren, Beantragen, Downloaden oder Buchen sein.

SERPs einer „Do“-Anfrage
Google-Suchergebnisseite für den Suchbegriff „E-Bike kaufen“

Hier werden dem User im oberen Bereich fast ausschließlich Ads ausgespielt, die den Search Intent bedienen sollen.

Neu: Visit in Person

Neben den drei bislang bekannten Kategorien hat Google nun „Visit in Person“ als Suchintention eingeführt. Vorwiegend geht es hier jedoch um den Mobile-Bereich, da es sich meist um Suchanfragen handelt, bei denen der Nutzer unterwegs mit dem Smartphone ein lokales Geschäft sucht. Das können Restaurants, Hotels oder bestimmte Dienstleister sein.

SERPs für eine Visit in Person-Anfrage
Google-Suchergebnisseite für den Suchbegriff „Restaurant“

Mittels Google-Maps-Integrationen befriedigt die Suchmaschine direkt in den SERPs das Nutzerbedürfnis, indem sie verschiedene Restaurant-Möglichkeiten in der Nähe anzeigt. Während im Desktop-Bereich gleich danach organische Treffer zu sehen sind, ist im Mobile-Bereich auf den ersten Blick fast nur Google Maps zu erkennen.

Für welchen User Intent ist mein Content relevant?

Für deine Website solltest du dir daher die Frage stellen, ob Google deine Seite überhaupt braucht, um den jeweiligen User Intent zu bedienen. In den Bereichen „Visit in Person“ sowie „Do“ wirst du vermutlich keinen großen Erfolg haben, deine Seite zu den organischen Top-Rankings zu führen, da Google hier selbst zu dominant ist. Im Know-Simple-Bereich werden von Google jedoch häufig Fragen mit Answer-Boxen oder ähnlichem beantwortet. Schaffst du es mit deinem Content, den User Intent richtig zu treffen, landest du vielleicht sogar selbst mit deinen Inhalten in der Answer-Box und holst dir somit wichtigen Traffic auf die Website.

In den Bereichen „Know“ und „Website“ kannst du das Nutzerbedürfnis der komplexeren Fragen mit entsprechend zielgruppengerichtetem Content noch besser befriedigen und so weit oben in den SERPs landen.

Fülle deine Texte mit Tiefe, die in den Featured-Snippets nicht so einfach dargestellt werden kann.

Guter Content bedient die Suchintention

Als SEO solltest du unbedingt prüfen, ob dein Content die Suchintention bedient. Dies ist mitunter eine der größten Herausforderungen für die Suchmaschinenoptimierung, denn meist ist diese Aufgabe händisch zu erledigen.

Hat man die Priorisierung des Nutzerbedürfnisses verstanden, können Inhalte mit einigen Tipps und Tricks wieder relevant werden. Mach es Google daher so einfach wie es geht, seine eigenen Ziele zu erreichen und dem User schon auf den ersten Blick die Antworten auf seine Fragen zu liefern:

  • Optimiere Content mit Blick auf die Featured Snippets (z.B. die Answer-Box)
  • Formuliere (Zwischen-) Überschriften nach potenziellen Suchanfragen (Know-Simple)
  • Konzeptioniere deine Website so, dass der User Intent im Vordergrund steht
  • Organisiere deine Content-Planung stärker nach Nutzerbedürfnis
  • Achte beim Erstellen der Metadaten auf den User Intent

Einige Tools unterstützen dich dabei und du kommst dem Optimierungsziel mit ihnen schon einen großen Schritt näher. So liefert die Sistrix Toolbox beispielsweise eine tolle Möglichkeit, den User Intent einer Domain zu überprüfen. Hier wird der Intent in die verschiedenen Kategorien unterteilt. Zusätzlich zu Know, Visit, Website und Do kommt hier noch die Kategorie Know Simple vor.

Bekommt man beispielsweise nach der Analyse das Ergebnis angezeigt, dass der User Intent hauptsächlich in die informationale Richtung geht, also im Know-Bereich liegt, kann man die Keyword-Analyse entsprechend anpassen und dem Content einen entscheidenden Wegweiser setzen.

WDF*IDF-Analysen nach User Intent filtern

SEOs lieben Tools und Tools helfen im Alltag ein ganzes Stück weiter. Doch ab einem gewissen Punkt kommen sie an ihre Grenzen und du bist selbst gefragt. Möchtest du deinen Content beispielsweise mittels WDF*IDF-Analyse holistisch aufbereiten, wirst du schnell merken, dass in den angezeigten Begriffen nicht alle auf dein eigentliches Thema passen.

Anstatt hier blind dem Tool zu vertrauen und alle Begriffe aufzunehmen, solltest du dir Gedanken machen, welche Themen überhaupt für den User Intent relevant sind. Du kannst jetzt entweder händisch Begriffe aussortieren oder am besten gleich ganze URLs herausfiltern, die die Richtung deines geplanten Contents nicht wirklich treffen.

Gute Karten mit gutem Content

Mit dem vermehrten Auftreten von Google selbst in den Suchergebnissen, wird die Herausforderung für Webmaster, ihre Seite weit oben in den SERPs zu platzieren und Traffic zu generieren, immer größer. Berücksichtigt man bei seiner Strategie allerdings den Search Intent der User, hat man gute Karten, seinen Content für die Suchmaschine relevant zu gestalten.

Künstliche Intelligenz & das liebe Texten, oder: In ein paar Jahren bin ich arbeitslos?

Eine Frau, von vorne gesehen, hält einen Stift in der Hand. Gesicht und Hand sind mit Computerchipoberflächen bedeckt. KIs sind die Zukunft – auch, wenn es um das Schreiben geht?

KIs sind die Zukunft – auch, wenn es um das Schreiben geht?

Terminator, Ex Machina, Blade Runner und und und – es gibt zahllose Filme, in denen Künstliche Intelligenzen den Menschen von seinem Thron an der Spitze der Nahrungskette verstoßen haben. Sie zeichnen dystopische Bilder vom Menschen als Gejagten und Unterdrückten. Im Angesicht von Industrie 4.0 und immer innovativeren Digitallösungen scheint der Sprung zu solchen Vorstellungen nicht mehr so weit entfernt. Als Onlineredaktion stellen wir uns deshalb die Frage, ob unsere Haupttätigkeit – das Texten – von künstlichen Intelligenzen übernommen wird.

KI: Was ist das überhaupt? 

Der Begriff „Künstliche Intelligenz“ ist an sich einfach zu verstehen, weist aber eine gewisse Schwammigkeit auf. Das liegt an der Ungenauigkeit der Definition von „Intelligenz“.  Grundsätzlich ist eine KI der Versuch, etwas zu entwickeln, das sich in seiner Entscheidungsfindung menschlich verhält. Diesem Idealbild entsprechen sogenannte starke KIs. Sie sind Maschinen, die wie Menschen denken. Starke KIs sind allerdings auch eine Vision, ein Wunsch. Denn es ist noch keinem Entwickler gelungen, eine solche Intelligenz zu erschaffen.

Das Erschaffen einer starken KI scheitert an der grundsätzlichen, philosophischen Fragestellung. Bewusstsein zu entwickeln ist maschinell nicht möglich.

Ganz anders sieht es dafür im Bereich schwacher KIs aus. Sie sind Simulationen, die intelligentes Verhalten nachahmen, indem auf Prozesse aus Informatik und Mathematik gesetzt wird. Die Basis dafür sind zwei Hauptkriterien:

  1. Eigene Lernfähigkeit
  2. Umgang mit zu erwartenden Informationen und Unsicherheiten

Die Kombination der beiden Kriterien ergibt KIs, die auf einem gewissen Gebiet absolute Experten sind. Sie können Menschen in ihrer Nische übertreffen. Entnimmt man sie aus ihrer Komfortzone, werden sie aber schnell nutzlos. Angewendet werden schwache KIs in den unterschiedlichsten Bereichen, sie begegnen Dir ganz unauffällig in deinem Alltag:

  • Navigationssysteme
  • Übersetzungsprogramme
  • Musikfinder-Algorithmen
  • Produktempfehlungen

Ohne schwache KIs könnte Spotify Dir nicht deinen nächsten Lieblingstrack vorschlagen oder Deine Sucheingabe bei Google vervollständigen.

NLP, BERT und Kontexte

Das Stichwort „Google“ ist ein äußerst wichtiges. Der Suchmaschinengigant und -marktführer ist eine treibende Kraft bei der Entwicklung künstlicher Intelligenzen. Sie haben allerdings den Spieß umgedreht: Eine künstliche Intelligenz zu entwickeln, die perfekte Suchergebnisse eigenständig produziert, ist Wunschdenken. Stattdessen werden die Rollen getauscht. Googles KI will die Suchanfragen so verstehen wie die Person, die sie eingibt.

Neuro-linguale Programmierung war gestern, Natural Language Processing ist heute

Bei Google, ebenso wie bei anderen Entwicklern, setzt man auf Natural Language Processing, kurz NLP. Dabei handelt es sich um maschinelle Prozesse, die natürliche Sprache erkennen, erfassen und verarbeiten.

Inhalt, Struktur und Sinnzusammenhänge gleichzeitig zu erkennen waren Herausforderungen für Googles Suchalgorithmus, die seit dem Update BERT gemeistert werden.

NLP ist, einfach gesagt, der Prozess einer KI das Beizubringen, was Kinder ab dem Grundschulalter vermittelt bekommen: die vielgerühmte Lesekompetenz. Es geht darum Texte zu analysieren, die Verknüpfungen zwischen den einzelnen Wörtern zu verstehen und Bedeutungen zu erkennen. Im besten Fall wird neues Wissen angesammelt oder es werden sogar neue Texte generiert. NLP hilft bei dem Erlernen verschiedenster Aufgaben, zum Beispiel:

  • Erkennen von Funktionswörtern (Subjekt, Objekt, Verb, …)
  • Spracherkennung
  • Aufteilung von Sprache in Einzelteile (Wörter, Sätze)
  • Bedeutungen erkennen (Nominalphrasen, Adjektivphrasen, …)

Durch die Lernprozesse können künstliche Intelligenzen besser übersetzen, als Sprachassistenten arbeiten oder eben Deine Eingaben in Suchmaschinen genauer nachvollziehen.

BERT ist der neue Standard

Zuallererst: BERT ist eines der wichtigsten Updates der vergangenen Jahre von Google. BERT ist außerdem ein künstliches neuronales Netz (KNN), also eine Spielart schwacher KIs. KNNs sind biologischen neuronalen Netzen nachempfunden. Sie optimieren Informationsverarbeitungsprozesse.

Um zu verstehen, wie KNNs zu ihren Ergebnissen kommen, ist eine eigene Wissenschaft entstanden. Der Name dieser Wissenschaftssparte ist passenderweise: BERTologie.

Der Name BERT ist kein Zufall, sondern ist die Abkürzung für Bidirectional Encoder Representations from Transformers. Das Netz setzt beim Lernen auf zwei Modelle, die Vorgängernetze nicht gleichzeitig einsetzen konnten. Es lernt autoregressiv, was bedeutet, dass jedes Wort der Sucheingabe mit dem Vorherigen in Bezug gesetzt wird. Dadurch wird gelernt präzise Vorhersagen für aufeinanderfolgende Wörter machen zu können.

Beispielhafte Darstellung des Autoregressiven Lernmodels. Credit: Kai Spriestersbach & search-one.de.
Verbildlichung des Autoregressiven Models: Der Satz „ Alaska ist zwölf mal so groß wie New York“ ist neunmal untereinander geschrieben. Pro Variante ist ein Wort mehr geschrieben, das letzte Wort ist gefettet und blau hinterlegt.

Klassisches Word-Embedding wird ebenso verwendet, wodurch Wörter sinnvoll als Zahlenstruktur in eindimensionalen Vektormodellen dargestellt werden. Die Verknüpfung beider Modelle lässt BERT den gesamten Kontext der Sucheingabe besser verstehen.

So funktioniert das Masked Language Model, dank dem KIs Wortzusammenhänge erlernen. Credit: Kai Spriestersbach & search-one.de.
Der Satz „Alaska ist zwölf mal so groß wie New York“ steht neunmal untereinander geschrieben. In jedem Satz ist ein anderes Wort geschwärzt.

Über Satzgrenzen hinweg kann BERT dadurch lernen Kontexte vollumfänglich zu verstehen. Es stellt damit zurecht einen Meilenstein in der Entwicklung von KNNs und damit KIs dar. Aber was hat das mit unserer Tätigkeit, dem Schreiben von guten Texten, zu tun? Wer erfolgreichen, qualitativ hochwertigen Content produzieren will, muss diese eine Seite der KI-Entwicklung im Hinterkopf behalten.

Kreatives Schreiben – was können schwache KIs schon?

Die andere Seite der KI-Entwicklung, die sich als Ziel gesetzt hat, eigenständig verschiedenste Texte maschinell schreiben zu lassen, hat auch schon einige Erfolge verzeichnen können. Verschiedene Agenturen bieten vollautomatisierte Produktbeschreibungen an. Der Vorteil ist offensichtlich: Nach Schema F zu schreibende Produkttexte zum Beispiel können in kürzester Zeit angefertigt werden. Dein Online-Shop kann also mir nichts, dir nichts mit Unique Content bestückt werden. Auch in anderen Bereichen wird auf solche schwachen KIs gesetzt:

  • Wetterberichte
  • Sportberichterstattung
  • Newsticker

Die Überschneidungen bei diesen Bereichen sind auf den ersten Blick offensichtlich. Es geht darum Texte schnell und mit dichtem Informationsgehalt für den Leser aufzubereiten. Fakt an Fakt gereiht, in kurzen, einfachen Sätzen werden Nachrichtentexte verfasst. Ein Beispiel: Am anderen Ende der Welt zerstört ein Erdbeben eine ganze Region. Schneller als jeder Journalist kann eine KI die bereitgestellten Informationen über Opferzahlen, Stärke, Dauer und betroffene Gebiete in einfachen Worten aufbereiten und auf Newsportalen veröffentlichen.

Das bedient vor allem die im Metier Onlinetexte oft zitierten Schlagworte „schnell“ und „viel“. Dass es aber auch in eine andere Richtung gehen kann, zeigen Projekte wie Talk to Transformer. Adam King entwickelte die einfache Anwendung für das Maschinenlernmodel von OpenAI. In englischer Sprache kann man einer KI kurze Inspirationstexte vorgeben. Die KI verwendet diese als Basis für ein paar eigenständig verfasste Textparagraphen.

Talk to Transformer verfasst eigenständig Texte, wenn man der KI eine kurze Textinspiration vorgibt.
Zu sehen ist ein Textfeld, in dem „I got married today. I am so happy.“ steht. Darunter stehen einige Sätze, die die KI Talk to Transformer auf Basis der beiden Vorgabesätze verfasst hat.

Talk to Transformer lernt autoregressiv. Dadurch hat die KI – zur Überraschung ihrer Entwickler – selbstständig einfaches Übersetzen oder das Beantworten von Fragen gelernt. So beeindruckend die KI im ersten Moment ist, so schnell wird aber auch klar, dass es eine Spielerei ist. Die erstellten Texte reichen bei weitem nicht an von Menschen geschriebene Textbeiträge heran. Sie sind kleine Schnipsel, die kurz unterhalten aber keine Kriterien an einen wirklich guten Text erfüllen.

Einfach gute Texte

Sinnzusammenhänge vermitteln, Emotionen entfachen, mit Sprache Bilder malen – das alles macht einen guten Text aus. In unserem Fachbereich Online-Content gehört aber noch viel mehr dazu:

  • Zielgruppenorientierung
  • Mehrwert, Relevanz & Nutzen
  • Formatierung
  • Tonalität
  • Textfluss
  • (Zwischen)Überschriften

User kommen mit einer Absicht auf eine Website. Dabei ist ganz egal, ob sie sich informieren, shoppen oder einfach ein wenig schmökern wollen, denn entscheidend ist: Nur wenn die Inhalte für den Leser relevant sind, bleibt er auch gerne länger auf der Seite und liest.

Auf den Nutzer zugeschnittener Content, der charmant verpackte, nützliche Informationen enthält, ist das A und O eines guten Textes.

Neben dem Inhalt sind aber auch andere Faktoren wichtig. Niemand kämpft sich gerne durch eine undurchsichtige Wall of Text. Deshalb ist eine schöne Strukturierung mit sinnvollen Zwischenabschnitten und aussagekräftigen Zwischenüberschriften so essenziell. Einen ansprechenden Textfluss bedingen außerdem Faktoren wie informative Zitate und nützliche Bullet Point Listen.

Auch die Ansprache entscheidet darüber, wie gut ein Text ist. User mit Business-Hintergrund wollen auf einer anderen Ebene angesprochen und abgeholt werden als Privatpersonen.

Einen guten Text macht also sehr viel mehr aus als eine sinnvolle Aneinanderreihung von Wörtern und Sätzen. Nuanciertes, qualitativ hochwertiges Schreiben will gelernt sein und ein toller Text ist nichts, was man sich einfach so aus dem Ärmel schüttelt.

KI vs. Textagentur: So sehen Sieger aus

Künstliche Intelligenzen sind fester Bestandteil unserer Zukunft. Sie bereichern schon jetzt verschiedenste, alltägliche Aufgaben. Geht es aber darum Texte zu verfassen, die mehr bieten als reine Informationen und den Leser auch auf emotionaler Ebene abholen sollen, können KIs dem Menschen nicht das Wasser reichen.

Von den Alpträumen aus den eingangs erwähnten Filmen sind wir Texter, Autoren und beseelte Stiftschwinger also zum Glück Lichtjahre entfernt. Gutes, qualitativ hochwertiges Texten ist und bleibt uns Menschen vorbehalten. Wenn du professionelle, stilsichere und zielgruppenspezifische Texte für deine Website brauchst, melde dich unkompliziert und schnell bei uns unter kontakt@contify.de oder unserem Kontaktformular mit einer Anfrage.

Das Paradox of Choice oder: Die wirkmächtige Angst vor Fehlentscheidungen

Drei verschiedene Biere in unterschiedlichen Gläsern nebeneinander angerichtet. Die „Qual der Wahl“ kommt nicht von ungefähr.

Die „Qual der Wahl“ kommt nicht von ungefähr.

Der User braucht Sicherheit. Reizüberflutung und Überangebote steigern aus Sicht potentieller Käufer die Chance eines Fehlkaufs. Entscheiden wir uns trotz „Qual der Wahl“ aus dem Bauch für ein Produkt, schwingt stets die Frage mit, ob nicht etwas anderes besser gewesen wäre. Die gleichförmige und tausendfach wiederholte Vermittlung von Verkaufsargumenten oder Produktversprechen stumpft uns einerseits ab und überfordert uns auf der anderen Seite.

Du könntest an dieser Stelle einmal dein eigenes Verhalten beobachten. Hast du dich dabei schon einmal mit konkreter Kaufabsicht umgesehen und am Ende nichts gekauft, weil die Auswahl zu groß war? Klingt paradox, ist aber eigentlich ganz logisch.

Was ist das Paradox of Choice?

Während der Begriff erst später vom Psychologen Barry Schwartz geprägt wurde, geht das Konzept auf eine psychologische Studie von Sheena Iyengar und Mark Lepper aus dem Jahr 2000 zurück. Diese beruht im weitesten Sinne auf Iyengars 1997 in Stanford angenommener Dissertation „Choice and its Discontents“.

Auf den Punkt: Der User hat durch ein Überangebot zu viel Angst einen Fehlkauf zu tätigen und kauft deshalb gar nicht.

Ihre Arbeit ist zwar auch auf den wirtschaftlichen Bereich ausgerichtet, lässt sich aber genauso sozio-kulturell übertragen. Aktuell forscht Iyengar an der Columbia Universtität zum Paradox of Choice am konkreten Beispiel privater Altersvorsorge. Die Arbeit selbst differenziert zwischen verschiedenen sozialen Entitäten und sogar Kulturen im globalen Kontext.

Wir widmen uns jetzt aber einem etwas simpleren Produkt.

Die Handyhülle als Anschauungsbeispiel

Relevant ist das Paradox of Choice hauptsächlich bei Produkten im unteren zweistelligen Euro-Bereich. Das sind Dinge, die zu teuer dafür sind, dass einem ein Fehlkauf egal wäre und andererseits auch nicht teuer genug sind, dass Produktvarianzen einen tatsächlichen Unterschied machen würden.

Wie viele Anläufe hat es gebraucht, bis du ein Smartphone-Case gekauft hast?
Ein Smartphone in einer Lederhülle auf einem Holztisch.

Wir nehmen also mal eine Handyhülle. Hier gibt es derartig viele Angebote, dass zumindest das Merkmal der Produktschwemme schon einmal zweifelsfrei erfüllt ist. Im genannten Preissegment befinden wir uns ebenfalls in etwa – sagen wir knapp 10 bis etwa 30 Euro. Natürlich gibt es auch teurere Varianten, aber die konkurrieren nicht zwangsläufig mit den billigeren, da sie eher eine andere Zielgruppe bedienen.

Jetzt gibt es verschiedene Kriterien, die für den User relevant sein können. Dazu gehören beispielsweise:

  • Gefällt mir das Design und wird es das auch langfristig?
  • Wie gut ist das Produkt verarbeitet?
  • Wie lange wird die Hülle halten?
  • Wie gut passt sie auf mein Smartphone?
  • Wie gut schützt sie vor Schäden?

All diese Fragen werden im Produktspektrum in etwa gleich beantwortet. Der User hat in der Folge kaum eine Möglichkeit zu entscheiden. Nun könnte man einwenden, dass es dann ja eigentlich egal wäre – man könnte ja auch einfach irgendetwas kaufen. Zufällig auszuwählen fällt uns aber extrem schwer. Obwohl es Menschen gibt, die einfach aus dem Bauch heraus entscheiden können, ohne weiter darüber nachzudenken – dieses Verhalten ist eher selten.

Da die Angst eine Fehlentscheidung zu treffen zu hoch ist, möchte man in der Folge gar keine Entscheidung treffen und kauft erstmal keines der Produkte.

Überwiegt nicht trotzdem das Bedürfnis sein Handy zu schützen?

Genau. Das ist auch der Knackpunkt. Das Paradox of Choice wirkt zwar, allerdings verhindert es den Kauf nicht in Gänze, sondern zögert ihn nur heraus. So groß die Befürchtung auch sein mag, einen Fehlkauf zu tätigen, die Angst vor einem beschädigten Handy ist viel höher. Dieses ist nämlich in den meisten Fällen mindestens um das zehnfache teurer als die Hülle.

Dazu kommt noch, dass die Konkurrenz so zahlreich ist, dass die Wirkung des selbst beeinflussbaren Hebels stark reduziert wird. Die eigene Auswahl einzuschränken, ändert kaum etwas am Gesamtangebot. Und dieses wird meist nicht über die firmeninternen Wege vertrieben, sondern über eine Marktplattform, wo die Konkurrenz ebenfalls sichtbar ist. 

Bei der Handyhülle handelt es sich also um ein Produkt, bei dem der Effekt zwar abbildbar, aber nicht optimierbar ist, was uns zu einem essentiellen Punkt dieses Beitrags führt:

Kritik am Paradox of Choice

Grundsätzlich lässt sich an dem Konzept ein Problem verdeutlichen, das für die Anwendung aller psychologischen Konzepte als betriebswirtschaftliches Instrument analog zum Tragen kommt. Es reduziert die Komplexität menschlicher Entscheidung auf wenige Komponenten. Dabei bedient es ein Desiderat, das sowohl wirtschaftlich als auch politisch gewünscht ist. Man möchte einfache Erklärungen für menschliches Handeln, um auf dieser Basis einfache – gemeint sind eigentlich günstige – Lösungen zu erhalten. Das ist auch die regelmäßige Erwartungshaltung gegenüber einer Agentur, wie uns.

„Na klar, da nutzen wir einfach mal das Paradox of Choice!“ – So einfach ist es leider nicht.

Dabei wäre es natürlich schön, wenn wir einfache Lösungen verkaufen würden. Das bringt dich aber nur bedingt weiter. Es muss immer differenziert werden:

  • Lässt sich der Effekt im konkreten Fall tatsächlich nutzen?
  • Wird er vielleicht sogar durch andere Mechanismen überlagert oder zumindest ausgebremst?
  • Wie sieht die Konkurrenz aus und sind deren Produkte zusammen mit den eigenen sichtbar (z.B. auf Amazon)?

Allzu oft lässt man sich von fancy Psycho-Konzepten blenden, während man beispielsweise komplett an der Zielgruppe vorbeischießt und sich am Ende wundert, warum keiner oder sogar ein entgegengesetzter Effekt eintritt. Barry Schwartz hat beispielsweise mit seiner Arbeit zum Paradox of Choice die ursprüngliche Studie aus dem Jahr 2000 stark verallgemeinert und ist deshalb im wissenschaftlichen Diskurs nicht unumstritten.

Schlussfolgerung – Ein bisschen schwammig, oder?

Stimmt.

Welchen nehm ich jetzt? Hm, lieber gar keinen.
Naturschwämme in einem Korb

Alles andere wäre aber auch unseriös, denn es geht auch darum zu sensibilisieren, dass solche Mechanismen, wie das Paradox of Choice immer nur in der Kombination mit anderen Maßnahmen den gewünschten Effekt erzielen können – und dass es sich bei solchen Konzepten auch meist um empirische Beobachtungen handelt, die nicht mit Gesetzmäßigkeiten verwechselt werden sollten.

Das heißt nicht, dass das „Marmeladen Paradoxon“ – wie es auch genannt wird – nicht nutzbar wäre. Im Gegenteil: Richtig ausdifferenziert und auf die individuellen Bedürfnisse von…

  • Marke
  • Produkt
  • Zielgruppe
  • Konkurrenz  
  • und Distributionswegen

…zugeschnitten, kann durch das Paradox of Choice die Conversion Rate optimiert werden.

Doch dafür benötigst du zuerst einen handfesten und belastbaren Audit der bestehenden Verhältnisse. Auf dieser Basis basteln wir dir im Anschluss ein passendes Gesamtkonzept, das auch das Paradox of Choice mit einbezieht – aber nur wenn es auch tatsächlich einen Sinn hat.

contify SEO Rückblick – Januar 2020

contify Titelbild mit Maskotchen contify SEO Rückblick Januar 2020

contify SEO Rückblick Januar 2020

Favicons in den Suchergebnissen

Mitte Januar gab es sie noch. Die Ausspielung von Webseiten Favicons in den SERPS bewirkten bei uns recht unterschiedliche Reaktionen – von erstaunt, erheitert bis verwirrt war alles vertreten. So sah die Suchergebnisseite z.B. bei einer unserer Site Abfragen aus:

Webseiten-Favicons in den SERPS
Screenshot von Webseiten-Favicons in den SERPS

Google hat das eher umstrittene Favicon-Design auf der Suchergebnisse aber schon wieder abgestellt. Wie früher schon öfters geschehen, wird Google vermutlich auch zukünftig gelegentlich an der Ausspielung der SERPs mit „Favicons“ herumdoktern. Aber ehrlich gesprochen: Mir persönlich haben die bunten Logos neulich ganz gut gefallen.

Die Verlinkung mit Webseiten hoher Autoritäten verhilft nicht zu besseren Rankings

Googles Johannes Müller (auch als John Mueller) bestätigte erneut auf Twitter, dass die Verlinkung zu Webseiten mit hoher Autorität nicht dazu beiträgt, dass man bei Google besser ranken wird.

Verhelfen Links zu authoritativen Webseiten auch zu guten Rankings?
Schaubild zeigt Studio über die Wirkung ausgehender Links

John sagte „nein“, als er gefragt wurde, ob dies auf der Grundlage der Aussage dieser Grafik zutrifft, die lautet: „Mehrere SEO-Experimente und Studien zeigen, dass die Verlinkung zu qualitativ hochwertigen Ressourcen mit höheren Rankings korreliert“.

Tweet über die Auswirkung von hochwertigen Links
Screenhot von Twitter über die Auswirkung von hochwertigen Links

Bei vielen Lesern kam Verwirrung auf, denn einerseits gelobt Google den EAT – Der SEO-Rankingfaktor E-A-T: Expertise, Autorität, Vertrauenswürdigkeit und andererseits wird dann veröffentlicht, dass die Verlinkung von Seiten hoher Autoritäten keine Rolle spielen würde.

Macht das Sinn? Woher will Google wissen, wann gewisser Content vertrauenswürdig ist, solange er nicht inhaltlich durch qualitative Verlinkungen auf Autoritäts-Webseiten untermauert wurde?

Im Zusammenhang mit guter Contenterstellung bleibt es weiterhin wichtig, auf Primärquellen und Referenzen zu verweisen. Das Zitieren von Quellen ist Teil der professionellen journalistischen Standards. Der Leitfaden für Qualitätsbewerter (Hier geht es zum Download der aktuellen Version) leitet die Evaluatoren darin an, dass das Zitieren ein wichtiger Teil einer qualitativ hochwertigen Inhaltsseite sei.

Obwohl die Quality Raters Guideline explizit kein Ranking Leitfaden darstellt, werden bei qualitativ hochwertigen Artikeln ebenso hochwertige Primärquellen erwartet. Google prüft das mit Sicherheit nach – auch wenn man nicht erwartet werden kann, dass jeder Artikel, der geschrieben wird, durch einen Link zum MIT, Harvard oder dem Dalai Lama untermauert wird.

Primärquellen und andere Originalberichte, auf die während des Prozesses der Contenterstellung verwiesen werden, müssen korrekt sein und sollten professionellen journalistischen Standards entsprechen.

Google: Textinhalte auf der Seite sind essentiell

Nehmen wir an, jemand betreibt eine Webseite, die nur Audio- oder Videodaten, Bilder oder andere Formen von Multimedia anbietet – wird Google die Inhalte ohne textuellen Kontext wirklich richtig verstehen können? John Mueller von Google äußerte sich dazu über Reddit:

Sie brauchen immer Textinhalte auf der Seite, unabhängig davon, welche anderen Arten von Inhalten Sie haben.“

Kurz gesagt, Google braucht Text, um besser zu verstehen, worum es sich inhaltlich bei einer Audiodatei oder einer Videodatei dreht. Anders ist der Algorithmus letztlich nicht in der Lage, alle Informationen in diesen Dateien vollständig zu verstehen und sinnvolle Korrelationen herzustellen.

Google Search Console startet neues Entfernungs-Tool

Google hat ein neues Entfernungs-Tool in der Google-Suchkonsole eingeführt. Dieses blockiert vorübergehend die Anzeige von URLs in Google, zeigt veraltete Inhalte und von SafeSearch gefilterte Inhalte an.

Mit diesem Tool kann man drei Funktionen nutzen:

  1. URLs vorübergehend ausblenden, damit sie nicht in der Google-Suche angezeigt werden,
  2. anzeigen, welche Inhalte nicht in Google vorhanden sind, weil es sich um „veraltete Inhalte“ handelt, und
  3. anzeigen, welche Ihrer URLs durch den Erwachsenenfilter SafeSearch von Google gefiltert wurden.

Das Tool, das als „Entfernungen“ bezeichnet wird, liegt in der Google-Search-Console unter dem Menüpunkt „Index“. Über diesen Link kann direkt auf das Tool zugegriffen werden, um dann eine Funktion auszuwählen.

Google ermöglicht es nun, bestimmte URLs über die Suchkonsole schnell von der Darstellung in der Google-Suche zu entfernen. Diese Funktion gab es bereits in der alten Suchkonsole, steht aber jetzt in einer neuen Version zur Verfügung. Bei der vorübergehenden Entfernung wird die eingereichte URL nicht wirklich aus dem Google-Index gelöscht, sondern nur für etwa sechs Monate in der Anzeige der Suchergebnisse verborgen. Eine betroffene URL muss auch in Zukunft dauerhaft blockiert werden, z. B. mit einer 404, robots.txt oder einer anderen Methode.

Google bietet hierbei zwei Arten von Entfernungen an:

  1. Die „vorübergehende Entfernung“ blendet die URL für ca. ein halbes Jahr aus den Google-Suchergebnissen aus. Die im Cache gespeicherte Kopie wird gelöscht.
  2. „Cache-URL löschen“ tut genau das, was der Name des Features vermuten lässt. Zusätzlich wird auch der Seitenbeschreibungsausschnitt aus den Suchergebnissen getilgt, bis die Seite das nächste Mal gecrawlt wird.
Linkentfernungstool in der Google Search Console
Screenshot von Linkentfernungstool in der Google Search Console

So sieht der Antrag für die Entfernung der URL in der neuen Schnittstelle aus:

Neuer Antrag zur Linkentfernung in der Google Search Console
Screenshot vom neuen Antrag zur Linkentfernung in der Google Search Console

Der Abschnitt für veraltete Inhalte enthält Informationen über gestellte Entfernungsanträge. Dieses Tool kann laut Google genutzt werden, um Suchergebnisse zu aktualisieren, die Informationen anzeigen, die nicht mehr auf einer Seite vorhanden sind. Es kann einen Verlauf aller Anfragen zur Aktualisierung oder Entfernung veralteter Google-Suchergebnisse für eine Webseite anzeigen, die in den letzten 6 Monaten über das Tool gestellt wurden.

Dieser Abschnitt zeigt dem Webmaster, welche seiner Inhalte als nicht jugendfreie Inhalte gemeldet wurden. Google-Nutzer können bestimmte URLs mit dem SafeSearch-Vorschlagstool als ausschließlich für Erwachsene bestimmte URLs an Google melden. Die so eingereichten URLs werden überprüft, und wenn Google der Ansicht ist, dass dieser Inhalt aus den SafeSearch-Ergebnissen gefiltert werden sollte, werden diese URLs als nicht jugendfreier Inhalt getaggt.

Oft ist es für SEOs und Webmaster schwierig zu wissen, welcher ihrer Inhalte aufgrund von SafeSearch entfernt wurde. Dieses Tool sollte also helfen, dies zu kommunizieren.

Zudem können SEOs, Webmaster, Webseiten-Eigentümer und andere Personen nicht nur schnell Inhalte aus der Google-Suche entfernen, sondern auch sehen, warum einige Inhalte aufgrund von Anfragen Dritter entfernt wurden. Entsprechend können Maßnahmen ergriffen werden, um nicht nur gezielte Anfragen zur Entfernung von Inhalten freizugeben, sondern auch Anfragen von Drittanbietern, die aufgrund von veraltetem Inhalt oder SafeSearch-Filterung gestellt wurden.

Es kann sich also durchaus lohnen, sich mit den Entfernungs-Feature zu beschäftigen und zu überprüfen, ob sich nicht doch noch irgendwelche „Leichen im Keller“ befinden, die lieber aus dem Google-Index ausgeblendet werden sollten.

Deduplication- Featured Snippet Update

Google hat ein bedeutendes Update der ersten Seite der Suchergebnisse veröffentlicht. Webseiten, die ein Featured Snippet erhalten, tauchen in den organischen Suchergebnissen jetzt nicht mehr zusätzlich auf. Google hebt also die Deduplizierung der organischen URL auf, was bedeutet, dass die URL nur noch in dem Featured Snippet selbst angezeigt wird.

SEOs und Webseiten-Eigentümer können aber beruhigt sein, da sie jetzt wissen, dass es keine signifikanten Veränderungen im organischen Suchtraffic nach Googles vorgestelltem Snippet-Update gibt.

Mark Traphagen von seoClarity, berichtet darüber im Search Engine Journal:

„Es gab keinen statistisch signifikanten Unterschied im organischen Google-Traffic, der an diese Seiten gesendet wurde, nachdem sie die doppelte Auflistung auf Seite eins verloren hatten, basierend auf einer Analyse realer Rankings für die Featured-Snippet-Listen über mehrere Branchen hinweg.“

Es kam zwar vor, dass in bestimmten Branchen einige kleinere Traffic-Fluktuationen festgestellt wurden. Aber die Veränderungen werden aufgrund der vorzeitigen Daten eher als unbedeutend angesehen. Dies ist ein gutes Zeichen für Webseitenbetreiber, und es bleibt abzuwarten, ob die Traffic-Veränderungen in den kommenden Monaten weiterhin nicht signifikant bleiben werden.

Hreflang bei vorhandenen Länder-Domains

Ist es möglich, eine Internationalisierung auch unterhalb einer .de Domain durchzuführen? In den meisten Dokumentationen zum Thema Internationalisierung und hreflang wird die Nutzung unterschiedlicher Länder-Top-Level-Domains (de, fr, es) oder generischer Top-Level-Domains (.com) mit Subdomains und Unterverzeichnissen empfohlen.

Wie führt man jedoch die Internationalisierung einer bereits unter einer .de-Domain gut etablierten Webseite durch? Auch wenn man in der GSC (Google Search Console) kein Geo-Targeting für länderspezifische Top-Level Domains einrichten kann, können dennoch hreflang-Verweise für Seiten unterhalb einer .de-Domain verwendet werden:

  • www.beispielseite.de/pfad/en/
  • www.beispielseite.de/pfad/fr/
  • www.beispielseite.de/pfad/es/

Johannes Müller bestätigte auf Twitter, dass die hreflang Anbindung funktioniert. Das sollte die Entscheidung erleichtern, als Alternative zur Neuanschaffung einer Domain eine bestehende ccTLD (länderspezifischen Top-Level-Domain) mit hreflang zu verwenden.

Tweet zu Hreflang bei länderspezifischen Webseiten
Screenshot vom Tweet zu Hreflang bei länderspezifischen Webseiten

Für WordPress gibt es z.B. das hilfreiche Premium Plugin WPML, das bei der Internationalisierung einer bestehenden Webseite sehr behilflich sein kann. Berücksichtigt werden hier auch mehrere Möglichkeiten der Übersetzung ausgewählter Inhalte und Verteilung von Übersetzungsaufgaben für verschiedene Übersetzer.

Die neuesten Daten zum Google Core Update vom Januar 2020

Nachdem das Google Core Update vom Januar 2020 nun größtenteils eingeführt ist, sind sich viele Experten darüber einig, dass die Auswirkungen vor allem auf Nischen-Websites enorm sind.

Was wir von Google wissen, ist, dass das Core Update vom Januar 2020 gegen 12:00 Uhr ET am Montag, dem 13. Januar, begann. Die Einführung war am Donnerstagmorgen, dem 16. Januar, „größtenteils abgeschlossen“. Wir wissen auch, dass es sich um eine globale Aktualisierung handelte, die sich nicht auf eine bestimmte Region, eine Sprache oder eine Kategorie von Webseiten beschränkte. Es handelte sich um eine klassische „umfassende Kernaktualisierung“.

Mordy Oberstein von RankRanger bemerkte: „Die YMYL-Nischen (Your Money, Your Life) wurden sehr hart getroffen“. „Dies ist ein riesiges Update“, fügte er hinzu. „An der Spitze des SERP gibt es eine massive Bewegung für die Nischen Gesundheit und Finanzen und unglaubliche Steigerungen für alle Nischen, wenn man sich die Top-10-Ergebnisse insgesamt ansieht.“

Johannes Beus von Sistrix hat seine Analyse dieses Updates veröffentlicht. Er stellte hierbei fest, dass Domains mit YMYL (Your Money, Your Life)-Bezug neu bewertet werden. Dies hat schlussendlich Auswirkungen auf die Sichtbarkeit – entweder im positiven oder negativen Sinn.

Domains, die zuvor von solchen Aktualisierungen betroffen waren, werden mit größerer Wahrscheinlichkeit wieder betroffen sein. Beus weiter:

„Die absoluten Schwankungen werden mit jedem Update offenbar geringer. Google ist sich seiner Einschätzung mittlerweile häufig sicher und weicht nicht mehr so stark von der letzten Einschätzung ab.“

Hier ist ein aktuelles Sistrix-Diagramm, das die Veränderung zeigt:

Sistrix Ranking-Veränderung nach Core-Update
Screenshot von Sistrix von der Ranking-Veränderung nach dem Core-Update

Laut Sistrix waren die großen Gewinner goal.com, onhealth.com, CarGurus, verywellhealth.com, Fandango, Times Of Israel, Royal.uk und WestField. Die großen Verlierer waren CarMagazine.co.uk, Box Office Mojo, SkySports, ArnoldClark.com, CarBuyer.co.uk, History Extra, Evan Shalshaw und NHS Inform.

Marcus Tober, der Gründer von SearchMetrics, berichtete:

„Das Januar-Kern-Update scheint einige Änderungen zum Besseren oder Schlechteren rückgängig zu machen, je nachdem, wer Sie sind. Es ist ein weiteres Core-Update, bei dem dünne Inhalte bestraft wurden und bei dem Google einen Schwerpunkt in YMYL setzte. Das Update scheint nicht so viele Seiten zu betreffen wie das März oder September-Update 2019. Hat aber ähnliche Eigenschaften“.

Die großen Gewinner laut SearchMetrics waren esty.com, cargurus.com, verywellhealth.com, overstock.com, addictinggames.com, onhealth.com, bigfishgames.com und health.com. Die großen Verlierer waren tmz.com, academy.com, kbhgames.com, orbitz.com, silvergames.com, autolist.com, etonline.com, trovit.com und pampers.com.

Von Google hat es in der Vergangenheit immer wieder Ratschläge gegeben, was zu beachten sei, wenn man von einem Kern-Update negativ betroffen war. Es gäbe aber keine spezifischen Maßnahmen zur Wiederherstellung eines erlittenen Rankingverlustes. Und es wurde wiederholt von Google betont, dass eine negative Auswirkung auf das Ranking nicht immer signalisiert, dass mit der betroffenen Webseiten etwas nicht in Ordnung sei. Google hat hierzu einen Fragebogen angeboten, der Webseitenbetreibern helfen sollte, falls ihre Webseite von einem Kern-Update betroffen war.

„Es ist oft schwierig zu spezifizieren, was man tun müsste, um einen algorithmischen Auslöser, den Ihre Webseite möglicherweise betroffen hat, rückgängig zu machen. Wenn es um Google-Kern-Updates geht, ist es sogar noch schwieriger, dies zu tun.“

Wenn uns diese Aussage und die bisherigen Erfahrungen und Ratschläge gezeigt haben, dass solche Kern-Updates sehr breit gefächert sind und viele allgemeine Qualitätsprobleme abdecken, dann ist eine bestimmte Handlungsempfehlung in der Tat sehr schwierig. Wenn eine Webseite also von einer Kernaktualisierung betroffen ist, wird dem Betreiber empfohlen, ein wenig Abstand zu nehmen und einen breiteren Blick auf die gesamte Webseite zu werfen, um zu identifizieren, was getan werden kann, um die Webseite insgesamt zu verbessern.

Fazit:

Updates sind immer ein zweischneidiges Schwert. Sie bringen stets Verbesserungen mit sich, aber teilweise auch Verschlechterungen, die es dann zu analysieren gilt – das gilt für beide Seiten. Denn man sollte nie den neuen Status Quo einfach hinnehmen und sich in sein Schicksal ergeben. Gewinner/Verlierer-Denken kann aus verschiedenen Gründen gefährlich sein:

  1. Die Analyse-Ergebnisse hängen stets von speziellen Datensätzen ab.
  2. Menschen haben ein Talent dafür, Muster zu erkennen, die nicht vorhanden sind. Es ist einfach, ein paar Datenpunkte zu nehmen und zu verallgemeinern.
  3. Es gibt viele Möglichkeiten, Veränderungen im Laufe der Zeit zu messen.

Google beschreibt die Kern-Updates als:

„signifikante, umfassende Änderungen an unseren Suchalgorithmen und Systemen, die sicherstellen sollen, dass wir insgesamt unsere Mission erfüllen, den Suchern relevante und maßgebliche Inhalte zu präsentieren“.

Google betont oft, dass eine Kern-Aktualisierung keine Strafe sei und dass „nichts gegen Seiten einzuwenden ist, die möglicherweise weniger gut funktionieren“. Aber das ist natürlich ein schwacher Trost, wenn eine Webseite negativ betroffen wurde.

Es ist offensichtlich, dass die inhaltliche Qualität einer Webseite eine große Rolle spielt, aber das ist auch ein sehr vages und schwierig zu bestimmendes Konzept. Wenn jemand bei einem Kern-Update Verluste hinnehmen musste, lohnt es sich, zu prüfen, ob der Inhalt tatsächlich gut auf die Bedürfnisse des Users abgestimmt ist. Dies schließt die Frage ein, ob Content korrekt und aktuell ist und im Allgemeinen so geschrieben wurde, dass er Fachkenntnisse erkennen lässt.

Letztendlich geben uns die Auswirkungen der Core Updates Hinweise auf die umfassendere Absicht von Google und darauf, wie wir diese Absicht am besten umsetzen können. Man tut also gut daran, sich diejenigen Webseiten genauer anzuschauen, die gute Ergebnisse erzielt haben und zu verstehen, wie gut ihre User inhaltlich bedient wurden. Auch wenn Platzierungen verloren gingen, stellt sich die Frage, ob der Content wirklich der Absicht dieser Sucher entsprochen hatte.

© 2020 contify - die Textagentur