• Serveradresse : ts3server://5.189.190.169
    Oktober 23, 2016 0

    Wie Google bestraft – Ex-Googler Jonas Weber mit Insights zum Penguin 4.0 Update

    Posted by:KayZaremba onOktober 23, 2016

    Auf dieser Website wurde der Original Beitrag veroeffentlicht...

    Das erste Penguin Update seit über zwei Jahren versetzte die SEO-Szene in Aufruhr. Viele Betroffene atmeten auf, andere wiederum zitterten ob der Bestrafung durch den Suchmaschinengiganten. Insbesondere das Beispiel von Home24 sorgte für hitzige Diskussionen. Wir sprachen mit dem SEO-Experten Jonas Weber und baten ihn um seine Einschätzung der Situation. Im Interview verrät der ehemalige Google-Mitarbeiter, wie der Pinguin im Detail funktioniert und was er von dem Fall Home 24 hält. Außerdem gibt er Tipps, wie du bei einer Bestrafung am besten vorgehst, und welche SEO-Maßnahmen sich heutzutage am meisten lohnen.

    Interview mit Jonas Weber, Ex-Googler und selbstständiger SEO-Berater

    OnlineMarketing.de: Hi Jonas, kannst du dich bitte kurz vorstellen?

    Jonas Weber, selbstständiger SEO-Berater

    Jonas Weber, selbstständiger SEO-Berater

    Jonas Weber: Mein Name ist Jonas Weber ich bin selbstständiger SEO Berater (mehr Infos auf meiner Website) und habe in den letzten Monaten auch einige Google Penguin Update Opfer beraten.

    Davor habe ich unter anderem bei Google im Search Quality Team in Dublin, Irland gearbeitet und bin nachwievor offizieller Google Developers Expert. Deswegen sind mir die Filter & Penalty Prozesse bei Google gut bekannt. Die teils heftigen Diskussionen in den letzten Tagen haben mich etwas verwundert bzw. verärgert.

    Wie so oft wird versucht Google für das eigene falsche Vorgehen den schwarzen Peter zuzuschieben. Dabei wurde der Richtlinienverstoß bewusst in Kauf genommen, über die Konsequenzen haben sich viele Betroffenen jetzt sichtbar beschwert. Für mich ist das unverständlich. Meine Tochter bekommt auch kein Eis mehr, wenn sie sich schlecht benommen hat. Und mit der Ausnutzung einer potentiellen Monopolstellung von Google hat das hier zu keinem Zeitpunkt zu tun.

    Welche Intention Googles steht denn hinter dem Penguin Update?

    Es ist kein Geheimnis, dass ein wesentlicher Faktor für gute SEO Rankings ein starkes Backlinkprofil ist. Aus diesem Grund hat sich in der Vergangenheit ein großer Marktplatz für den Backlinkkauf entwickelt. Agenturen haben den Kunden eine monatliche Anzahl von neuen Backlinks versprochen, der Kunde pro Backlink bezahlt, teilweise sehr hohe Summen. Das hat sich zumindest vor Penguin für die meisten Beteiligten gelohnt, weil somit die Rankings gesteigert werden konnten.

    Penguin ist ein automatisierter Filter, um diese minderwertigen, nicht Google konformen Verlinkungen zu entwerten. Ist der Anteil von zu viel low quality Links zu hoch, im Vergleich zu den guten Backlinks, dann hat der Filter die komplette Website “erwischt”. Die Links werden entwertet, ja die Rankings der Website sogar künstlich herabgestuft, weil die Website nicht mehr vertrauenswürdig ist. Das ist wie auf anderen Plattformen: Raten viele Personen in Form von Bewertungen auf Tripadvisor von einem Restaurant ab, werden viele Interessenten dort nicht mehr hingehen. Es verliert außerdem das Top Ranking auf Tripadvisor. Gleiches gilt für Ärzte auf Jameda, Produkte auf Amazon etc.

    Dieser quantitative Linkaufbau über Webkataloge, Artikelverzeichnisse, Linkkauf, Bookmarkverzeichnisse & Kommentar/Forenspam war natürlich immer schon ein Verstoß gegen die Google Richtlinien. Die meisten Beteiligten waren sich dessen auch bewusst. Deswegen kann ich das ganze Gejammere jetzt nur sehr begrenzt nachvollziehen.

    Bis zum ersten Penguin Update gab es grundsätzlich vor allem manuelle Abstrafungen von Google, wenn beim Linkbuilding übertrieben wurde. Dieser Weg ist aber nicht skalierbar, deswegen hat Google nach einer effektiveren Methode gesucht. Warum soll Google, wenn die Linkspammer mit automatisierten Tools in kurzer Zeit tausende von Backlinks “aufbauen”, dabei die Websites von vielen anderen Beteiligten zuspammen (hier eins meiner Lieblingsbeispiele dazu), beim manuellen Prozess bleiben? Das ist utopisch und nicht aggressiv genug, um das Problem zu bekämpfen.

    Der bessere Weg ist ein automatisierter Filter, der alle Übeltäter auf einmal einfängt. Das ist auch der ehrlichste Weg: Bei einer manuellen Penalty wird eine Website in einem komplizierten Prozess bei Google in meinem früheren Team abgestraft, der Webmaster in den meisten Fällen auch benachrichtigt (was sehr fair ist). Eine andere auch gegen die Richtlinien verstoßende Website kann da durchflutschen und Glück haben. Deswegen ist ein Filter, der alle Websites gleich behandelt, wesentlich fairer und hier geht es nie gegen eine einzige Website, sondern um allgemein gültige Grenzwerte – und zwar für alle betroffenen Websites.

    Genau dieser Punkt wird in den meisten Diskussionen komplett falsch wiedergegeben: “Google hat einzelne Websites auf dem Kieker, deswegen wird diese nicht aus dem Filter gelassen”. Das ist fachlich nicht korrekt. Die Website kann erst wieder aus dem Filter rutschen, wenn sie die gewissen Grenzwerte unterschreitet, die sie in den Filter hinein gebracht haben.

    Bei Penguin ist das über zwei Punkte möglich: Die schlechten Backlinks identifizieren, über das disavow File entwerten oder noch besser wenn möglich abbauen. Und zweitens: sehr gute, neue Google konforme Backlinks aufbauen. Nichts anderes hilft hier oder ist nötig, da der Filter sich ausschließlich um die Low Quality Backlinks dreht. Wichtig ist es hier, die unterschiedlichen Filter nicht miteinander zu vermischen.

    Wie macht sich eine Bestrafung durch Penguin bemerkbar?

    In der Vergangenheit war es so, dass Websites beim Penguin Update übergreifend die meisten Rankings verloren haben, wenn sie einen zu hohen Anteil an low quality Backlinks hatten. Anstatt auf Seite 1 rankt die Website dann auf den hinteren Suchergebnisseiten, wenn überhaupt. Um diesen Filter wieder zu lösen, war es notwendig, das Backlinkprofil zu reinigen (Abbau/Entwertung und Aufbau von neuen hochwertigen Backlinks), also an den prozentualen Anteilen zu arbeiten. Dann hatte man die Möglichkeit beim nächsten Penguin Update wieder aus dem Herabstufungs-Filter heraus zu kommen.

    Unglücklich war hierbei, dass Google für das letzte Update über zwei Jahre gebraucht hat. Das heißt, wenn eine Website, die sofort aufgeräumt hat, trotzdem weiterhin negativ vom Filter betroffen war. Das war mit Sicherheit nicht die Absicht von Google und dieses Problem war intern bekannt. Ein Google Update ist aber ein technisch sehr komplexes Projekt, wo der nächste exakte Launchtermin nicht ohne weiteres planbar ist.

    Meiner Meinung nach war das Penguin Update eines der erfolgreichsten von Google. Gerade nicht Google konforme SEO Methoden hat es hier hart getroffen. Mit Linkdoping gestützte Websites wurde der Boden unter den Füßen weggezogen.

    Ich habe eigentlich keinen Fall gesehen, in dem es eine Website unberechtigterweise getroffen hat. Websites, die sich nicht am unnatürlichen Linkaufbau beteiligt hatten, haben zu Recht profitiert. Viele Linkkaufbau-Budgets sind Richtung Erstellung von hochwertigen Website-Inhalten geshiftet, das ist eine gesunde Entwicklung.

    Das sind immerhin transparente SEO-Maßnahmen, hier wird sicherlich nichts bestraft / Screenshot von wki-absaugtechnik.de

    Das sind immerhin transparente SEO-Maßnahmen, hier wird sicherlich nichts bestraft / Screenshot von wki-absaugtechnik.de

    Was bedeutet in diesem Zusammenhang ein Filter?

    Ein Filter schlägt automatisch an, wenn gewisse Grenzwerte überschritten werden. Das können zu viele schlechte Backlinks sein, zu schlechte Usersignale oder auch eine unnatürliche Onpage Optimierung. Wird der Grenzwert wieder unterschritten, kann ich den negativen Filter automatisch lösen, brauche also keine menschliche Unterstützung bei Google. Der Filter ist eine mathematische Formel und Teil des Algos. Hier erhält der Webmaster keine Benachrichtigung, da es keine individuelle Website betrifft, sondern allgemeiner Teil des Algos ist.

    In der Regel sind die Filter im Kernalgo platziert, das heißt, die Daten werden laufend aktualisiert. Ist eine Website betroffen, hat diese sehr zeitnah die Möglichkeit wieder aus dem Filter zu kommen.

    Eine Ausnahme sind neue Updates & Filter. Diese funktionieren zwar auch auf skalierte Weise über Grenzwerte, aber die Daten werden nicht immer automatisiert gezogen, sondern es gibt einen sogenannten Status quo, an dem der Knopf mehr oder weniger manuell gedrückt wird. Das neue Update muss sich sozusagen “einpendeln”. Hier müssen wir dann bis zum nächsten Data Refresh warten, weil es eben nicht automatisch aktualisiert wird. Beim Panda Update war das am Ende monatlich der Fall, was sehr fair ist.

    Bei Penguin hat der letzte Refresh eben über zwei Jahre gedauert, das war nicht ganz optimal. Aber bei einem kleinen Update werden nur die Daten aktualisiert. Bei einem größeren eben auch der Filter bzw. die Grenzwerte und Faktoren des Filters. Das macht die ganze Sache deutlich komplexer und zeitaufwendiger. Bei Penguin 4.0 war genau das der Fall.

    Das Gegenstück sind die manuellen Abstrafungen. Diese werden von echten Menschen aus dem Search Quality Team von Google vergeben. Genau diese echten Menschen sind aber auch wieder nötig, um die manuelle Penalty zu entfernen. Dies passiert dann über einen Wiederaufnahmeantrag über die Search Console. In der Regel erhält der Webmaster hier eine Benachrichtigung per Email und/oder der Search Console.

    Wie kann ich im Falle einer Bestrafung vorgehen?

    Zunächst mal ist es nötig eine komplette Audit der Website durchzuführen. Nur so lässt sich herausfinden, welcher Filter oder welche manuelle Penalty für die Rankingverluste verantwortlich ist.

    Oft stellt sich dann heraus, dass es gar kein Filter/Penalty Problem ist, sondern ein technisches. Oder ein einziges Keyword springt von 3 auf 12 und der Kunde sieht gleich die große Abstrafung anstatt normaler Volatilität.

    Wenn es doch ein Filter Problem ist, dann ist die Website so zu verbessern, dass die Grenzwerte wieder unterschritten werden. Da die Grenzwerte den Beteiligten hier nicht bekannt sind, ist ein großer Erfahrungsschatz notwendig, oft empfiehlt sich hier externe Hilfe. Bei Penguin 4.0 werden die Daten jetzt bei jedem Crawling aktualisiert, also können die Grenzwerte sehr schnell wieder unterschritten werden.

    Bei einer manuelle Penalty erhält der Webmaster in der Regel eine Email, in der genau steht, wo das Problem liegt und was zu tun ist, um dieses zu lösen.

    Wie lange dauert es, sich davon zu erholen? Ist eine Seite auf ewig “gebrandmarkt”?

    Wie in unserem deutschen Rechtssystem auch gibt es verschiedene Verstöße, die mit unterschiedlichen manuellen Penalties bestraft werden.

    In den meisten Fällen ist aber eine komplette Erholung möglich. Dies gilt auch für Filter, hier gilt es die Grenzwerte zu unterschreiten.

    Natürlich gibt es Ausnahmen, hier ein Beispiel: Der Webmaster hat 100 teils minderwertige Backlinks aufgebaut und damit gute Rankings erzielt. Nun landet er im Penguin Filter. Um aus dem Filter zu kommen hat er 80 Backlinks abbauen oder disavowen, also entwerten müssen. Er hat 5 neue gute Links aufgebaut. Das bedeutet zwar, dass er jetzt vielleicht 25 Google konforme Backlinks hat und keine schlechten. Das Verhältnis passt. Er wird aus dem Penguin Filter entlassen. Aber: Die Substanz der Linkreputation ist mit 25 Backlinks jetzt deutlich geringer (früher 100). Das bedeutet, die gleichen alten Rankings einzunehmen wie vor dem Penguin Update, wird in den meisten Fällen nicht gelingen, weil viel künstliche Linkreputation verloren gegangen ist. In diesem sehr realistischen Rechenbeispiel sind das 75 Prozent der Backlink-Substanz. Die einzige Lösung ist hier der nachhaltige Aufbau von neuen hochwertigen Backlinks, um den Verlust wieder aufzufangen. Und das kann dauern.

    Was ist deiner Meinung nach im Fall von Home24 geschehen?

    Home24 hat definitiv zu aggressiv Backlinks aufgebaut, ein großer Anteil war nicht Google konform. Dies wurde auch von den Verantwortlichen in der Facebook Diskussion bestätigt. Also wurde gegen die Webmaster Richtlinien von Google verstoßen, auf diesem Level definitiv bewusst, um schneller Erfolge zu erzielen.

    Es handelt sich hierbei um eine manuelle Penalty, zusätzlich hat der Penguin Filter zugeschlagen. Manuelle Penalties und algorithmische Filter sind zwei paar Stiefel.

    Die manuelle Penalty wurde nach einer gewissen “Reinigung” des Backlinkprofils entfernt, hier sind die Google Verantwortlichen nicht nachtragend und sehr kulant. Ob sich bei uns im echten Leben jeder so verantwortungsbewusst und fair verhalten würde, wage ich zu bezweifeln. Die Google Search Quality Mitarbeiter sind definitiv kulanter und hilfsbereiter als jede Politesse, die auf Deutschlands Straßen herum rennt. Die manuelle Abstrafung betrifft wie gesagt die einzelne Website, in diesem Fall Home24.

    Aber der der Penguin Filter hat sich nicht gelöst. Ursache hierfür ist, dass Google in den letzten gut zwei Jahren die Daten des Filters hier nicht aktualisiert hat. Diesen “Stillstand” haben aber alle Penguin betroffenen Websites erfahren, nicht nur Home24. Auch musste Home24 zunächst mal neue hochwertige Backlinks aufbauen. Wie schnell das passiert ist, weiß ich nicht.

    Home24.de erholt sich nur langsam von seinem aggressiven Linkaufbau, Screenshot aus SISTRIX

    Home24.de erholt sich nur langsam von seinem aggressiven Linkaufbau, Screenshot aus SISTRIX

    Google hat hierfür seine Gründe. Mehrfach wurde das Update angekündigt, leider hat es sich immer wieder verzögert. Es ist ein sehr komplexes Projekt, bei dem immense Datenvolumen verarbeitet werden müssen. Bevor ein Update dann live geht, wird ausführlich getestet. Performen die neuen Resultate nicht besser als die alten, dann geht es nicht live. Eine meiner Meinung nach sehr nachvollziehbare Vorgehensweise. Google testet jährlich im fünfstelligen Bereich Algo-Änderungen, danach gehen ca. “nur” Änderungen im dreistelligen Bereich live. Unverantwortlich wäre es, nicht ausführlich zu testen. Deswegen finde ich Kommentare wie “Google war in dieser Stelle unfähig” nicht objektiv und erkläre diese mir so, dass die Betroffenen persönlich enttäuscht reagieren oder die komplexen Prozesse dahinter nicht richtig kennen.

    Eine spitze Bemerkung sei erlaubt: Im Vergleich zu anderen großen Konzernen hat das Google sogar relativ schnell hinbekommen.

    Welche SEO-Methoden werden belohnt, welche bestraft?

    Zunächst mal ist es wichtig sich an die Google Richtlinien zu halten, dann ist das Risiko einer Bestrafung schon sehr gering.

    Um nachhaltig gute Platzierungen zu erzielen sind folgende Bereiche bei der Suchmaschinenoptimierung wichtig: Technik, Content, Linkreputation & User Signals.

    Die Website ist technisch einwandfrei aufzusetzen. Sauberes Crawling und Indexing der SEO relevanten Seiten muss möglich sein, Meta Daten, Ladezeiten, Serververfügbarkeit et cetera. Bei diesem Punkt unterstützt Google sehr gut, ein guter Startpunkt ist die offizielle Einführung in SEO von meinem früheren Team aus Dublin mit allen wichtigen Infos & Links oder die monatlichen Hangouts von John Mueller, um direkt Fragen zu stellen.

    Hochwertiger, relevanter Content in Form von Text, Tabellen, Bild & Video etc. ist sehr wichtig geworden. Hierbei ist Google inzwischen in der Lage hochwertigen Experten Content von schlechter Qualität zu unterscheiden.

    Backlinks sind nach wie vor ein wichtiges Signal: Nachhaltige Online Pressearbeit & Content Marketing Maßnahmen funktionieren hier sehr vielversprechend. Auch die Vernetzung mit Geschäftspartnern ist eine gute Strategie, genauso wie der Auf- und Ausbau einer Marke.

    Einer der wichtigsten Ranking-Faktoren ist inzwischen der Besucher selbst geworden. Suchmaschinen wie Google können über verschiedene Mittel unterschiedliche Nutzer-Signale auswerten. Je mehr Besucher eine Website bekommt, desto schneller kann Google den Ranking-Faktor mit einbeziehen.

    Das heißt für uns als Unternehmen: Wir sind daran interessiert, eine sehr nutzerfreundliche Website für unsere Kunden zu bauen, die bestenfalls noch die in Google gesuchten Probleme der Kunden löst. Nur dann sammeln wir positive Nutzer-Signale wie lange Aufenthaltsdauer und geringe Absprungraten und steigen so in den Rankings.

    Andere Ranking-Faktoren wie Backlinks werden dann sogar etwas unwichtiger. Diese Entwicklung ist sehr angenehm, denn Google lässt sich so schwerer manipulieren, und der ehrlichste Ranking-Faktor überhaupt – das Benutzerverhalten – entscheidet. Zwei wesentliche Punkte helfen dabei: die Erstellung von Content mit Mehrwert für die Zielgruppe, der bestenfalls Probleme löst, und der Aufbau einer Marke, was auch in der eigenen Nische funktioniert. Brands bringen grundsätzlich ein besseres Benutzerverhalten mit als weniger bekannte Websites, beispielsweise wiederkehrende Besucher, die direkt nach dem Markennamen gesucht haben.

    Vielen Dank für das Interview!

    Schreibe einen Kommentar

    Unsere Test Sieger

    Unsere Testsieger aus allen Unseren Bereichen, alle wurden mit sehr Gut bewertet.

    Powered by Binaerestrategie.
    Copyrights © Binaerestrategie.de
    Sichere Gewinne $$$