9. Oktober 2020

SES Berlin Recap

Von SiteAdmin

Die SES Berlin – eine SEA Konferenz der feinsten Sorte! Und hier mein Recap der prall gefüllten drei Tage! Aber warum bin ich eigentlich zu der Veranstaltung gekommen? Glücklicherweise habe ich auf Radio4SEO ein Ticket für die Veranstaltung gewonnen. Absolut großartig! Daher auch mein besten Dank an Marco Janck (SEO) bei Sumago.de.

SEO Workshop

Der Workshop „Linkbuilding“ am Vormittag hat leider nicht allzu viele neue Erkenntnisse geliefert aber vielleicht bin ich da auch zu hart, da durchaus Publikum mit geringem Kenntnisstand anwesend war. Schade, hatte mir etwas mehr erhofft! Etwas interessanter war der Workshop “Link Research” am Nachmittag, welcher sich etwas mehr auf die Analyse der eigenen und Konkurrenz-Webseiten bezog.

Frage 1: Verhältnis von Gammel-Links zu Top-Links
Die Linkverteilung an der Qualität gemessen ist linear abnehmend. Bedeutet, dass es prozentual einen höheren Anteil an low Links geben muss, damit es natürlich ausschaut. Bsp.: 100xPR1 80xPR2 70xPR3 usw..wobei der PageRank nur zur Verdeutlichung gewählt wurde, da dieser mittlerweile nur noch minimalen Einfluss hat.

Frage 2: Linkaufbau mit neuen Domains
Linkaufbau mit komplett neuen Seiten hat keinen Wert, außer man füttert die neuen Seiten dementsprechend mit Backlinks. Umso älter die Domain ist, umso besser wird diese ranken, wirft Trust ab etc. Dementsprechend hat die Anzahl der Domains keine Relevanz, wenn keine von diesen eine gewisse Zeit im Index von Google ist, Quali-Content enthält, selbst Backlinks hat etc.

Frage 3: Wie erstellt man Unterseiten richtig
Interne Verlinkung ist sehr wichtig, damit die Crawler die Seite finden. Weiterhin will der User, welcher über die Landing-Page kommt, abgeholt werden. Usability und Bottum-Up Seitenkonstruktionen sind wichtig. Bottum-Up bedeutet, dass der User über ein bestimmtes Problem aus der untersten Ebene (z.B. Blog Artikel) langsam zum Problemlöser (dem Produkt) geführt werden muss.

Frage 4: Empfohlene Keyword-Dichte
Es gibt keine optimale Keyword-Dichte! Manche sagen 3% und manche 10%. Es geht drum, dass der Content lesbar bleibt und nicht spammy ausschaut. Daher sind 7% wohl ein guter Wert. Warum? Es gibt kleine Studien z.B. hat ein Student ne Vorlesung recorded und im natürlichen Vortrag die Keyword-Dichte ermittelt..diese lag bei 7%. Google gibt zwar keine Angaben, grundsätzlich sollte man (laut Aussage der Speaker) mit 7% aber nicht schlecht fahren. Es darf halt einfach nicht spammy sein.

Co-Citations:
Um eine relevante Seite zu schaffen, benötigt man auch eine gute Link-Nachbarschaft und ebenso den Kontakt zur Konkurrenz. Also sollte man sichLinks aus dem Netzwerk der Konkurrenz besorgen und bestenfalls einen indirekten Link der Konkurrenz besorgen. Wie macht man das? Schauen auf welche Seite die Konkurrenz intern VERLINKT und auf dieser Seite versuchen einen Link zu ertauschen/erkaufen.

Googles Handlungen:
Um es den SEOs schwerer zu machen, werden die Auswirkungen von SEO Maßnahmen zeitverzögert dargestellt. Man rechnet mit einem Delay von 2 Monaten.

Google Alerts:
Keywords SOWIE Konkurrenz-Namen / Links melden lassen!

SEO-Geheimnisse: ES GIBT KEINE! Workn, workn und nochmal workn..endlich sagt es mal jemand! 🙂

7 Regeln des Linkbuilding

  • Relevante Seite & in-content Links
  • Domain Trust
  • Natürlicher Anchor Text
  • Nofollow Links sollten im Portfolio sein
  • Seiten mit Juice
  • Gute Nachbarschaft (Co-Citation)
  • PageRank → scheiss egal!

Weiteres:

  • Seiten / Footerlinks zählen 1/10..Power wird den Content Links angerechnet
  • Ranking Verlauf positiv steigend im Sinusverlauf: Auf und ab..heute #7, in 2 Wochen #11 dann #6
  • Nicht unter sämtlichen Projekten untereinander verlinken (keine reziproke Links) → Google will unverfälschte Empfehlungen und keine Freundeslisten an Links
  • Konkurrenz Linkprofil ist guter Richtwert für eigenes Portfolio
  • DeepLinks schaffen mehr Power und sollten insgesamt dazugehören
  • es ist unnatürlich nur Links auf die Startseite zu haben
  • Mehr als 1 Link pro Absatz zu viel bei Texten
  • Wikipedia Links zwar No-Follow aber ultra trusted, da schwer zu bekommen..viele kämpfen Monate lang um nen Wiki Backlink. Deutsche Rater sind hart / stressig..im englischen hat man mehr Glück!
  • .edu und .gov Links → Kategorisierung aber ne fu-berlin.de weit aus mehr trusted als ne gammel .edu Domain
  • Kommentar-Links von Blogs nützlich für Traffic-Bringer → nur bei sinnvollen Kommentaren
  • Footprints finden, um relevante Webseiten für Backlinks zu finden, um so bei Google nach Pages zu suchen

Backlink & Anchor Text Analyse – Beispiel:
Brandname → 27%
Brandname + bla → 19%
Keyword + Brandname + bla → 11%
Domainname → 7%
weird keyword + some stuff → 1.3%
weird keyword2 + some stuff → 1.2%
weird plus money keyword and some stuff → 1.1%
money keyword → 0.1%

Day 2 – Konferenz

Session 1:

  • Sitespeed hat bei Bing nur Einfluss auf Crawl-Häufigkeit
  • tracken, tracken und nochmals tracken! Nur so findet man heraus, woher und warum die User kaufen

Session 2:

  • Suchbegriff → Anforderungen an die Site: Ranken (um gefunden zu werden) → SERP (oft gefunden werden) → Seiteninhalt (Problemlösung) → Konversion
  • Suchbegriffe (im Footer der SERPs) nutzen für Landingpages
  • Die Leute linken freiwillig auf gratis Angebote aber auf nichts was Geld kostet!

Session 3:

  • Search Funnel: SEM / SEO / Email Marketing etc. spielt alles zusammen..Kürzungen bei einer Kampagne kann verheerende Wirkungenauf die anderen Kanäle haben! Fazit: Die Conversion auf alle Marketing-Kanäle verteilen (½ pro Kanal, wenn SEO / SEM gemacht wird) auch wenn letztendlich SEM für den Sale sorgt (keine Last Ad Zuordnung)

Session 4:

  • Besucher pro Sale relevant und nicht die Besucher, welche kein Income generieren!
  • Trafficanalyse via Adsense Analyse der Konkurrenz
  • herausfinden, warum die Leute bouncen

Session 5:

  • bei Free Blogs besteht die Gefahr des Verlustes

Day 3 – Konferenz

Session 1:

  • Registrierungsformular minimieren! Einfache Anmeldung!
  • Optimale Linkgestaltung: Blaue Links, underlined!
  • Über 30 Ciau Bewertungen, um die Bewertungs-Sterne in Google SERPs zu bekommen
  • Window Size checken, ob der Content auch gesehen wird (unabhängig von der Auflösung ist der sichtbare Bereich manchmal durch Toolbars kleiner)
  • Newsletter sind nur für Abbrecher oder wiederkehrende User, nicht für Erst-Besucher!
  • BOB → Big Orange Button sind genial!
  • Persona Modelle ermitteln (Brian Eisenberg) → Stereotypen um die User besser abholen zu können

Session 2:

  • Youtube Videos durch Adwords pushen, um bessere Rankings zu erhalten, welche wiederum mehr Views bringen
  • Link und Content weiter oben im Source Code → umso besser!

Session 3:

  • Duplicate Content → keine Abstrafungen! Lediglich verschiedene Rankings durch den Trust der Domain
  • Befehl rel=canonical → Hinweis auf den Ursprung (nutzt keiner)

Session 4:

  • Deutschen Content ins englische bringen und auf digg pushen!
  • Linkbaits funktionieren national nicht, guten, englischen Content schaffen und diesen auf Seiten wie digg hochpushen → so erhält man Backlinks!
  • News-Aggregatoren benutzen und nicht innerhalb des Freundeskreises bleiben..”die Scheisse muss (!!) über den Freundeskreis hinaus kommen!” Das funktioniert nur über Multiplikatoren!

Interessante Pages:

  • Adspy → Adsense Code einfügen und Projekte / Domains der Konkurrenz rausfinden (oder Spyonweb nutzen)
  • webhits.de → Web Barometer (genial) z.B. wie viele nutzen welchen Browser
  • Wordle.net → nette free Darstellung der Keyword Verteilung
  • Blekko.com → SuMa mit guten Analysen für SEOs (free)
  • getclicky → Free Analyse Tool (Piwik like) erstellt von nem SEO aus England