SMX München Recap 2. April 2019

Auf ging’s nach München zur SMX München 2019. Die internationale Fachmesse für Online Marketing und Suchmaschinenoptimierung fand am 2.-3. April 2019 im Internationales Congress Center München statt. Das contify Team war am Tag 1 des hochangesehenen Kongresses mit unter den Zuhörern. Und wir fanden, dass das diesjährige Programm wirklich umfangreich und sehr interessant war.
Inhalt:
- Keynote 1: Die vier Reiter der Web-Marketing-Apokalypse (Rand Fishkin)
- Alternative Ranking-Faktoren: Reverse-Engineering von Suchmaschinen wie YouTube & Co. (Stefan Fischerländer)
- Die 5 Arten der Navigation, die jeder SEO kennen muss (Shari Thurow)
- Keynote 2: Diesmal wird es ernst: Die Roboter kommen und alles wird sich ändern (Jim Sterne)
- SEO-Audits für nachhaltige Sichtbarkeit (Andre Goldmann)
- Weitere Recaps zur SMX 2019 in München
1) Keynote: Die vier Reiter der Web-Marketing-Apokalypse (Rand Fishkin)
Rand Fishkin eröffnete auch dieses Jahr die 12. SMX in München. In seiner Eröffnungskeynote mit dem Titel „Die vier Reiter der Web-Marketing-Apokalypse“ stellte er klassische Marketing-Maßnahmen neuen Strategien für die Zukunft gegenüber. Denn das „Classic Playbook“ (SEO + Content), das bis etwa 2016 noch gut funktionierte, hat mehr oder weniger ausgedient:
- Keywords bringen weniger Traffic
- Guter Content ist oft nicht mehr gut genug
- Links bringen nicht mehr so viel Traffic
- Weniger Abonnenten sehen sich die Inhalte an
- Influencer haben weniger Einfluss
- Werbeanzeigenpreise steigen, aber der ROI sinkt
Was ist passiert?
Soziale Plattformen verringerten ihren ausgehenden Traffic.
„Facebook killed organic reach“
Ziel von Facebook ist es zum Beispiel, die Nutzer auf ihrer Seite zu halten. Auch Instagram hat schon immer Links nach außen limitiert. Twitter & LinkedIn wollen ihre Nutzer natürlich auch auf ihren eigenen Seiten behalten. YouTube schneidet die Descriptions ab, um externe Links auf den ersten Blick zu verstecken.
Wer bringt denn jetzt am meisten Traffic?
Der Top-Traffic-Bringer ist mit Abstand Google.com mit ca. 60 % Anteil. Google spielt zunehmend weniger organische Treffer auf den oberen Plätzen aus. Vielmehr scraped und aggregiert Google die Top organischen Seiten und zeigt deren Inhalte ganz oben auf der Seite z.B. als Featured Snippets in den SERPs an.
![]() |
Vor allem in der mobilen Suche gab es einen 30%igen Rückgang der organischen Treffer und einen 20%igen Zuwachs bei den „no Click“-Suchergebnissen von Google. Auch die Paid-Anzeigen haben sich verdoppelt. Das bedeutet, dass Google vor allem in der mobilen Suche durch die Aggregation der Top-Suchergebnisse und anschließender Ausspielung der Ads weniger organische Treffer ausspielt. Dabei gab es einen Zuwachs der „Null-Klick“-Suchen bis zu 30% in den letzten zwei Jahren.
Ein eher beängstigendes Szenario für die Zukunft könnte eben sein, dass Google all den Traffic für sich nutzt und es für Publisher weniger Sinn macht, noch gute Webseiten mit relevantem Inhalt zu kreieren.
Mitverantwortlich für eine Verschiebung des Traffics ist auch das Influencer Marketing:
- Spam,
- Bots
- Propaganda
- Machine Accounts
- Fake Accounts
Wachstum ist nun der entscheidende Faktor für Investoren.
Ziel: Neue Nutzer gewinnen – und nicht „nur“ mehr Umsatz machen
![]() |
Was können wir tun?
SEO im klassischen Sinn hat bald ausgedient. Welche Veränderungen sind jedoch nötig, um weiterhin erfolgreich zu sein?
Lösung: Mache deine Webseite oder Email Kundenliste zum Mittelpunkt deiner digitalen Marketing Strategie.
Social Media (using algorythms) rewards high engagement with boosting posts
In erster Instanz sollte nach Fishkin immer die organische Sichtbarkeit und deine eigene Marke gestärkt werden, dann erst Werbung (Ads) und CRO betrieben werden. Erfolgreiche Inhalte zielen auf Themen ab, die durch unterschiedliche Hebel wie z.B. Social-Media-Plattformen und die Interaktion mit deren Nutzern verstärkt werden.
![]() |
2) Alternative Ranking-Faktoren: Reverse-Engineering von Suchmaschinen wie YouTube & Co. (Stefan Fischerländer)
Stefan Fischerländer zeigte in dem sehr spannenden, aber auch technisch anspruchsvollen Vortrag über seinen in Python erstellten Reverse-Engineering-Prozess, wie mögliche Rankingfaktoren in Korrelation zu einer möglichen Ranking-Hypothese stehen.
![]() |
Dadurch lässt sich eine Aussage treffen, welche Rankingfaktoren auf den jeweiligen Plattformen wie Youtube, Facebook und Co letztlich zum Erfolg führen.
- Traffic kommt zu ca. 36% von Google, Facebook ca. 31%, Pinterest ca. 4,5%
- Social-Media-Seiten bringen guten Traffic auf die eigene Webseite
- Offene Systeme <gegenüber> Geschlossene Systeme
- Such-affin <gegenüber> Feed-fokussiert
Fischerländer zeigte hierzu mehrere Folien zur allgemeinen Geschichte von Webseiten.
„Was wir bei Google lernen, kann auf andere Suchsysteme übertragen werden.“
Zunächst können mögliche Ranking-Signale durch Research Papers, Patente , Studien und Nachdenken ermittelt werden. Im nächsten Schritt werden Daten für Korrelationen und Kausalitäten erhoben, berechnet und über die Zusammenhänge nachgedacht.
![]() |
Durch Experimente wie A/B-Tests können die Korrelationen auch überprüft werden. Dieser sehr zeitintensive Prozess, bei dem wichtige Faktoren zudem nicht beeinflussbar sind, kann abschließend mit anderen Studien und Erfahrungen abgeglichen werden.
Korrelationsanalysen:
- Keywords in Titel, H1, Domainnamen
- Clustering bei lokalen Suchanfragen
- Statistiken werden in Echtzeit (Python) verglichen.
![]() |
Als Beispiele wurden die Youtube-Videos und -Channels herangezogen.
Darin wurden Korrelationen aufgezeigt zwischen:
- Likes und Rank
- Comments und Rank
- Alter und Rank
Wer sich technisch besser auskennt, kann unter dem Link https://github.com/stefanfis/smx2019 das Collaborative Filtering für Python herunterladen und ausprobieren.
Bei diesem sehr technischen Thema, was einiges an Programmierkenntnissen voraussetzt, um auch die ganzen Details zu begreifen, wurde verständlich, dass es definitiv wichtige Zusammenhänge verschiedener Ranking-Faktoren auf den unterschiedlichen Sozial-Media-Plattformen gibt. Wer es zustande bringt, diese Korrelationen zu analysieren und Kausalitäten abzubilden, erhält jedenfalls einen deutlichen Mehrwert für die SEO-Optimierung.
3) Die 5 Arten der Navigation, die jeder SEO kennen muss (Shari Thurow)
![]() |
Shari Thurow demonstriert in ihrem Vortrag die Wichtigkeit einer guten Seitennavigation und wie effektiv sie zudem sein kann. Hierzu führte sie 5 Arten der Navigation an, die man als SEO im Hinterkopf behalten sollte. Auch Probleme und Fragestellungen zur mobilen Benutzerfreundlichkeit, zu sekundären Menüs u.a. wurden näher beleuchtet. Dabei spielt immer wieder die Benutzerfreundlichkeit eine herausragende Rolle für den Erfolg einer Seitennavigation.
Die 10 Tipps zur besseren Navigation aus dieser Session waren:
- Verwende keine Wegweiser – Sitemap als Fatfooter.
- Wenn du Symbole auf deiner Website verwendest, verwende Symbole mit Beschriftungen.
- Stelle sicher, dass die Navigation für den Nutzer lesbar und leserlich ist. Durch schlechte Lesbarkeit verliert der Benutzer sein Vertrauen in die Seite.
- Mit einer mobilen Navigation wird eine kontextuelle und ergänzende Navigation immer wichtiger. Teste IMMER auf mögliche Überlagerungsfehler in der Navigation.
- Lerne und validiere mentale Modelle aus Benutzersicht für Beschriftung, Platzierung, Hinweise und Formatierungen.
- Platziere formale Navigationselemente dort, wo Benutzer sie auch erwarten.
- Verwende die Benutzersprache. Keine vagen oder verwirrende Beschriftungen in der Navigation und im Hauptinhalt.
- Dem Nutzer über den Link-Status (besucht, nicht besucht) mitteilen, wo er sich gerade in der Navigation befindet, damit er nicht lange suchen muss.
- Animation sollte sinnvoll eingesetzt werden. Lenke die Benutzer NICHT zu sehr ab.
- Verwende einen Markenwahrnehmungstest, um in Erfahren zu bringen, wie wohl sich Benutzer sowie Websitebesitzer im Umgang mit der Website fühlen.
Die „Key Takeaways“ von Shari Thurow:
![]() |
- Der Footer ist kein Ort für eine Site Map. Benutze keine riesige wegweisende Site Map im Footer.
- Benutze Textbeschreibungen bei Verwendung von Symbolen.
- Format für Lesbarkeit. Stelle sicher, dass die Navigation für den Nutzer gut lesbar und verständlich ist. Schlechte Lesbarkeit reduziert das Vertrauen in die Seite.
- Teste Fehler in der Navigation. Durch die enge und tiefe mobile Navigation wird die kontextuelle und ergänzende Navigation immer wichtiger.
Die Auffindbarkeit und die Entdeckbarkeit von Inhalten hängen von vielen verschiedenen Faktoren ab. Durch Fehler in der Navigationsarchitektur verstehen Nutzer möglicherweise die Bezeichnungen der Kategorien nicht oder finden diese nicht interessant. Bestimmte Links sind demnach nicht für die Nutzer relevant, da sie nicht korrekt zugeordnet werden konnten.
4) Keynote 2: Diesmal wird es ernst: Die Roboter kommen und alles wird sich ändern (Jim Sterne)
![]() |
Jim Sterne blickt auf eine beeindruckende Erfolgsgeschichte zurück, wenn es darum geht, Trends und Entwicklungen frühzeitig zu erkennen und uns ein Bild der nahen Zukunft zu zeichnen.
Jim zeigte in seiner Keynote auf eindrucksvolle Weise eine durchaus realistische Zukunftsversion des Online-Marketings. Durch seinen fiktiven Voice-Search-Assistenten Jeeves (Bot) führte Jim die Zuhörer durch einen Kaufprozess für sein Auto. Dabei unterstützte Jeeves nicht nur die eigentliche Komponente des Einkaufs, sondern bezog auch die sozialen und ökonomischen Gegebenheiten in seine Kaufberatung mit ein. Berechnungen über Verlust und Gewinn durch Reparaturen spielen hierbei genauso eine wichtige Rolle wie die Meinungen seiner Ehefrau zu einer möglichen Pkw-Neuanschaffung.
Voice Search übernimmt in Zukunft mehr und mehr die Rolle eines persönlichen Lebensassistenten – ähnlich eines persönlichen Coaches, der alle nötigen persönlichen Abwägungen klassifiziert, analysiert und sehr intelligent sinnvolle Ergebnisse auswählt, um eine Kaufentscheidung für den Benutzer zu erleichtern. Zum Schluss des Dialoges mit dem Bot blieb dann für Jim nur noch die wichtige Entscheidung offen: Jetzt die vorgeschlagene Lösung annehmen und das Auto kaufen oder nicht?
![]() |
Doch wie müssen Webseiten ihren Content in Zukunft bereitstellen, damit Maschinen Inhalte verstehen und logisch aufbereiten?
Der hohe Anspruch an die Software wird sein, dass sie sich weiterentwickeln und intelligenter werden muss. Um alle Anforderungen an die Voice-Suche zu erfüllen, werden vier Kernkomponenten benötigt:
- Spezifische Logik: Tu dies, dann jenes, dann wieder dies. Wenn dieses eintritt, tue jenes. Wenn verwirrt, melde Fehler.
- Mathematisches Modell: Beschreibe numerische Beziehungen, Berechne Alternativen, der Mensch vergleicht die Ergebnisse und geht sie schrittweise durch.
- Statistisches Modell: Wahrscheinlichkeiten berechnen, Wahrscheinlichkeiten entwerfen, der Mensch vergleicht Wahrscheinlichkeiten durch Iteration.
- Maschinelles Lernen: Benutzt Beispiele, um Lösungen zu erhalten, und ändert dabei auch seine Meinung.
Die professionellen digitalen Agenten arbeiten an deiner Seite, um die richtige Botschaft zur richtigen Zeit an die richtige Person zu übermitteln.
Wird Marketing, wie wir es heute betreiben, bald zum Relikt?
![]() |
Ein mögliches Zukunftszenario ist nicht einmal so weit vom heutigen Stand der Dinge entfernt. Kunden besitzen immer ihre eigenen Daten. Sie entscheiden, wo ihre Daten gespeichert werden sollen. Unabhängig von Apps, sodass sie sich jederzeit frei bewegen können. Sie geben Personen und Apps die Berechtigung zum Lesen oder Schreiben. In einer App gespeicherte Daten werden zu einer anderen App weitergereicht. Alle Daten bleiben immer synchron. Datenschutz und Vertrauen sind dabei der entscheidende Faktor!
Insgesamt war die Keynote von Jim Sterne ein sehr unterhaltsamer und spannender Vortrag über die Möglichkeiten von Bots und der Automatisierung von zukünftigen Marketing-Prozessen über eine Suchergebnis-Matrix aus künstlicher Intelligenz und im höchsten Maße personalisierter Daten.
5) SEO-Audits für nachhaltige Sichtbarkeit
Nur wer die Probleme seiner Website kennt, bevor sie von den Suchmaschinen entdeckt werden, kann nachhaltiges SEO betreiben. In dieser Session zeigte André Goldmann, wie du mit SEO-Audits im Google Data Studio, der Google Search Console, dem Screaming Frog SEO-Spider und weiteren Tools die drei technischen Kernfeatures deiner Website nachhaltig gewährleisten kannst: Die Crawlbarkeit, die Indexierbarkeit und die Ranking-Fähigkeit deiner Inhalte.
Typische Systemfehler & Fehler in der Bedienung des CMS
- Meta-Title und -Description fehlerhaft „optimiert“
- Snippet-Tags nicht mehr integriert
- Meta-Robots wurden verstellt
- Interne Links weisen 404-Fehler oder 301-Weiterleitungen auf
- robots.txt falsch konfiguriert/geändert
- Ladezeiten verschlechtern sich massiv
- XML-Sitemaps beinhalten ungültige URLs
- URL-Struktur wird ungeplant verändert
- Duplicate Content wird über das System produziert
Um einen guten Überblick über seine SEO-Aufgaben zu behalten, empfiehlt Andre Goldmann die Verwendung von Checklisten, wie sie z.B. von Google Spreadsheets für verschiedene Bereiche kostenlos zur Verfügung gestellt werden.
Für ein Audit für optimale Crawlbarkeit kann die Google-Site-Abfrage Aufschluss über die Anzahl indexierter Seiten geben. Eine Gegenüberstellung von indexierten URLs und tatsächlich rankenden URLs hilft dabei, ein Gefühl für die eigentliche Crawlbudget-Verteilung auf den Seiten zu erhalten. Gute gängige SEO-Tools verfügen über Sichtbarkeitsindex und Indexe der top rankenden URLs, die dann mit Google Analytics und der Search Console verknüpft werden können. So erhält man für seinen SEO-Audit einen sehr guten Überblick der mehr oder weniger gut performenden Seiten und kann schlecht performende Seiten oder veraltete Inhalte aussortieren.
Ein weiterer wichtiger Audit ist die Auswertung der Ladegeschwindigkeit der Dokumente einer Seite.
![]() |
Bei Google Analytics können zur besseren Verwaltung auch benutzerdefinierte Benachrichtigungen eingerichtet werden. So erhält man automatische Warnmeldungen für bestimmte Seiten, sobald sie eine festgelegte Seitenladezeit überschreiten, um dann gezielt nachzubessern und die Ursache der langen Ladezeit zu beheben.
Audits für interne Verlinkungen
Goldmann zeigte Screenshots zum Tool von sitebulb.com, das eine sehr gute Darstellung der durchschnittlichen Crawltiefe der internen Links auf einer Seite bereitstellt. Über die grafische Darstellung lässt sich leichter aufspüren, wo Schwächen in der internen Verlinkung bestehen, als dies bei den meisten anderen Tools der Fall ist.
Auch durch die Auswertung des Klickpfads von der Startseite aus lassen sich interessante Aussagen zur internen Verlinkung anschaulich darstellen. Denn die interne Verlinkung schafft Klarheit über die Relevanz der Inhalte. Man darf hier beachten, dass jene Links, die von der Startseite aus auf Unterseiten erfolgen, besonders stark sind. Doch auch bei den Unterseiten gewinnt ein interner Link an Relevanz, je weniger Klicks ein Nutzer von der Startseite zur Unterseite benötigt. Mehr als vier Klicks sollten aber von der Startseite aus im Allgemeinen nicht benötigt werden, um auf die gewünschte Unterseite zu gelangen.
![]() |
Audits für die Rankingfähigkeit
Hierzu zählen vor allem auch die Onpage-Optimierungen. Über Tools wie Screaming Frog können schnell und übersichtlich die verschiedenen Faktoren beleuchtet werden. Dazu lassen sich verschiedene Parameter und auszuwertende Kriterien bequem manuell anpassen. Als Beispiel dient hier die Meta-Titel- und Meta-Description Optimierung sowie die Möglichkeiten der Einstellungen bezüglich der zu untersuchenden Pixel-Maße oder Zeichenlängen für die Texte.
![]() |
Ebenso wichtig wie die technischen Maßnahmen zur Optimierung, ist die Qualität des eigentlichen Contents auf der Seite. Ein Audit zur Content-Qualität gibt Aufschluss über die Zufriedenstellung des Nutzers bei der Bedienung der Webseite und über den Informationsgehalt der Inhalte. Wird hier die Such-Intention erfüllt und werden Inhalte benutzerfreundlich aufbereitet? Diese Faktoren sind entscheidend für die Verweildauer auf der Seite und der damit verbundenen Relevanz der Inhalte. Diese Signale fließen unumstritten in das Suchmachinenranking ein.
Ebenso wichtig wie die technischen Maßnahmen zur Optimierung, ist die Qualität des eigentlichen Contents auf der Seite. Ein Audit zur Content-Qualität gibt Aufschluss über die Zufriedenstellung des Nutzers bei der Bedienung der Webseite und über den Informationsgehalt der Inhalte. Wird hier die Such-Intention erfüllt und werden Inhalte benutzerfreundlich aufbereitet? Diese Faktoren sind entscheidend für die Verweildauer auf der Seite und der damit verbundenen Relevanz der Inhalte. Diese Signale fließen unumstritten in das Suchmachinenranking ein.
Einige Tools wie Ryte.com, Sistrix, testomate.com oder Google Analytics bieten zudem auch die praktische Möglichkeit, automatisierte Reports zu einzelnen Kriterien bereitzustellen und den Webseitenbetreiber regelmäßig über signifikante Änderungen zu informieren.
![]() |
Im Laufe eines SEO-Prozesses entstehen viele Herausforderungen und Fehler, die zu offenen Enden und unbeantworteten Fragen führen. Stell dir deshalb den SEO-Audit als den Startschuss zum Neuanfang vor. Ob durch die selbstständige Umsetzung von Maßnahmen oder die Suche nach einer neuen Agentur.
Der Vortrag zu SEO-Audits von André Goldman zeigte sehr anschaulich, welche Möglichkeiten und Tools es zur Einrichtung eines effektiven SEO-Audits gibt. Dabei erklärt er viele Vorteile und zeigt praktische Beispiele, wie SEO-Audits regelmäßig für SEO eingesetzt werden können.
Fazit:
Ein SEO ist regelmäßig mit Herausforderungen und Fehlern beschäftigt, die im Laufe der Zeit auftreten können und immer wieder zu neuen Fragestellungen führen. Mit der richtigen Strategie und Verwendung von SEO-Audits können somit die wichtigsten Faktoren überwacht und auf Fehler hingewiesen werden. Für eine erfolgreiche SEO-Arbeit ist es also ein Muss, über die Verwendung verschiedener Tools immer den Überblick zu behalten, was auf der Webseite vorgeht. Nur so können die richtigen Maßnahmen vorgenommen und wertvolle Zeit bei der Fehlersuche gespart werden.
![]() |
![]() |
SMX Afterparty
Die Afterparty im Münchner „Heart“ war sehr cool. Bei tollem Ambiente und House loungigem Dj- Set hatten wir amüsante Stunden & Gespräche mit netten Leuten aus der Szene. Währenddessen gab es immer wieder kleine kulinarische Leckereien auszuprobieren.
Unser Fazit zur SMX
Die SMX 2019 in München war auch dieses Jahr eine exzellent durchorganisierte Veranstaltung mit Top Referenten und nützlichen Insights für die eigene SEO-Arbeit. Besonders gut gefallen hat uns die KEYNOTE von Jim Sterne über die Zukunft des Machine Leanings. Die Trennung der Vorträge in bestimmte Rubriken und Räumlichkeiten war eine gute Hilfe bei der eigenen Planung des Messetages. Wir freuen uns auf die nächste SMX 2020 und sind schon sehr gespannt darauf, welche spannenden Themen und Speaker das Organisatoren Team bereitstellen wird.
6) Weitere Recaps zur SMX 2019 in München
- 121 Watt: SMX München 2019: Recap und Key Learnings
- lunapark: Recap zur SMX 2019 in München
- BLOOFUSION: Recap: SMX München 2019
- netzgefährten: Die netzgefährten auf der SMX München 2019
- Clicks: Clicks auf der SMX 2019
- SEO Profi Berlin: Recap zur SMX 2019 in München
- Online Solution Group: SMX 2019 Recap
- wolter e-marketing: SMX München 2019 – Dejan’s Recap
- sblum: SMX München 2019