Ein Interview mit den Spamfightern von Google!

Wir haben die Möglichkeit zu einem Exklusiv-Interview mit dem SPAM-Fighting Team von Google Dublin bekommen. Natürlich haben wir selber jede Menge Fragen 😉 Aber selbstverständlich wollen wir vor allem auch den Leserinnen und Lesern von Website Boosting die Mögichkeit geben, eigene Fragen zu stellen.

Die Spam-Fighter in Dublin kümmern sich, wie der Name schon sagt, hauptsächlich um die Erkennung und Abwehr  (nach den Google Richtlinien) unerlaubter Methoden, die Webseiten im Ranking nach oben schieben oder schieben sollen. Dahin gehend sollten auch die Fragen gehen. Was interessiert Euch? Was wolltet Ihr Google hinsichtlich dieser Thematik schon immer fragen? Flog vielleicht eine Site von Euch unerwartet aus dem Index oder wurde mit einer Strafe belegt? Es ist wohl selbstverständlich, dass reine Fragen nach Rankingfaktoren keinen Sinn machen, denn hier werden wir definitiv keine Antworten bekommen.

 

Wir werden alle Eure Fragen sammeln und einige davon Google stellen. Die Antworten gibts dann ausführlich in der nächsten Website Boosting (Ausgabe 13)! Wer seine Frage(n) nicht hier öffentlich stellen möchte, kann das gerne auch per E-Mail direkt an die Redaktion machen (redaktion@websiteboosting.com)

 

Feuer frei!

23 Antworten zu “Ein Interview mit den Spamfightern von Google!”
  1. Dominik sagt:

    Was wird künftig gegen Seiten mit geklautem Content (allen voran yasni) unternommen werden? Die Sichtbarkeit wurde ja schon reduziert, aber die Spamprofile von Personen sind immer noch viel zu oft in den SERPs – obwohl ich die Seite auf meiner Blackliste habe in meinem Google-Konto.

    Danke 🙂

  2. Gute Sache, freue mich auf den Artikel!

    Ich wüsste gerne, ob wie Google inzwischen Rich Snippet Spam bekämpft. Gibt es dort mittlerweile regelmäßige Routine-Kontrollen von den Spamfightern oder verlässt man sich noch rein auf den Algo bzw. das neue Rich Snippet Spam-Formular?

    Außerdem fände ich an der Stelle auch die genaue Definition interessant. Wann tauchen beispielsweise Sterne Bewertungen zu unrecht in den SERPs auf? Sind Event-Informationen im Affiliate-Bereich gestattet, oder muss man „wirklich“ Tickets verkaufen? Wie will man erkennen, ob Bewertungen echt oder gefälscht sind?

    Aber wie gesagt, ich bin mir sicher, dass das Website Boosting Team wie gewohnt sowieso gute Fragen an Bord hat und freue mich auf die nächste Ausgabe 🙂

    Beste Grüße,
    Torben

  3. […] Boosting: Ein Interview mit den Spamfightern von Google! var szu=encodeURIComponent(location.href); var […]

  4. Dennis M. sagt:

    Mich würde interessieren wo Google eigentlich die Grenze zieht. Immerhin beschäftigt der Konzern auch Ansprechpartner für SEO und Online Marketing Agenturen. Wo fängt also bei Google der Spam überhaupt an?

  5. Steffen sagt:

    Mich würde die Bearbeitungsdauer von der Meldung bis zur Maßnahme interessieren und ob die Meldungen vom Rich-Snippet-Spam und anderem (Adsense) auch dort landen.

  6. Vluse sagt:

    Hallo,

    zu dem Punkt:
    Find My Face -> Wie werden die gespeicherten Daten bzw. das personifizierte Modell der Gesichtserkennung weiter verarbeitet / weiter verbreitet?

    Erhalte ich von Google ein Bestätigung der Löschung von Find My Face? Wo wird das Modell gelöscht – in meinem Account oder auf expliziet in der DB von Google?

    LG Vluse.
    P.S. Das Fünfte Element ist nicht mehr weit weg?

  7. Tokk sagt:

    Mich würde interessieren, ob das Gerücht stimmt, welches besagt: „Eine Seite mit vielen Verlinkungen nach außen gibt jeder verlinkten Seite einen Teil seines Ranks ab.“

  8. Ich würde mir wünschen, dass die ganzen Preisvergleiche und Bewertungsportale etwas an Gewichtung verlieren. Sobald man nach Produktnamen sucht findet man fast ausnahmslos ciao.de, dooyoo, geizhalz.at, idealo und Co.

    Nicht direkt ´ne Frage, aber wenn ihr schonmal mit den Spamfightern sprechen dürft… 😉

  9. @Vluse: Ich glaube nicht, dass hier die Spamfighter die richtigen Ansprechpartner sind. Die Gesichtserkennung hat ja mit Spam erst mal nichts zu tun. Was genau bei einer Löschung passiert, ist natürlich interessant. Aber Google hat diese Funktion ja ausführlich mit den Datenschützern vorab besprochen und ich gehe davon aus, dass das dann auch „hart“ gelöscht wird. Bei Streetview sind ja auch die Originalbilder verpixelt worden, damit eben auch nicht aus Versehen oder wg. eines technischen Fehlers die unverpixelten Bilder gezeigt werden „könnten“.

    Google wird gut daran tun, einer solchen Löschanforderung nachzukommen. Kaum vorstellbar welcher Imageschaden entstünde, wenn jemand hinterher verstellen würde, dass sein biometrischen Gesichtsmerkmale heimlich noch gespeichert würden. Und: Was will Google mit den Daten anfangen, wenn der Nutzer sie nicht nutzen will? Wie jemand aussieht, ist doch in keiner Weise relevant…?
    Hier: http://www.spiegel.de/netzwelt/web/0,1518,802557,00.html gibt es übr. einen guten Beitrag dazu!

  10. Edgar Sobisch sagt:

    Was versteht das SPAM-Fighting Team eigentlich unter Spam, woran erkennt man ob man als Spam (obwohl man das gar nicht beabsichtigt hat) eingeordnet wird und wie lässt sich Abhilfe schaffen?

  11. Heiko Eckert sagt:

    nette Idee 🙂 und ich hätte tatsächlich 2 Fragen:

    1) Parameter-Handling
    Ist’s Euch prinzipiell lieber dass man parameter-URLs crawlen lässt und dann in den Webmaster-Tools entschärft oder soll man parameter-URls lieber via noindex und/oder robots rausnehmen?
    wichtig: hier geht’s mir um parameter die einschränken, also „preis unter 5€ oder so“, bei denen der canonical also per se keinen Sinn macht.

    2) duplicate-content per language
    Ich habe hier eine .com/de_de/ .com/de-cn/. Beides deutsche Inhalte, früher mit unterschiedlichen Texten, aber jetzt nciht mehr. Beide sind regional ausgerichtet. Beide ranken.
    => Baue ich jetzt die Canonical-Tags ein, warte ab und entferne dann das regio-Targeting oder entferne ich das regio-Targeting sofort wenn die canonicals eingebaut sind?

    …zu beidem habe ich eine Meinung, aber andere Meinungen interessieren mich…

    Dankeschön!

  12. Hallo Heiko. Interessante Frage. Kannst Du das mit der Einschränkung bei Deiner Parameterfrage noch etwas ausführlicher erklären – was Du da genau meinst?

  13. @Tokk: Das ist kein Gerücht…! 😉

  14. Gerdi sagt:

    Mich würde ja @Heiko Eckert interessieren was regio Targeting (Adwords) mit dem Canonical Tag zu tun
    hat *grübel*??
    Vom SPAM Fighting Team würde ich mir wünschen, dass Sie den Dumpfbacken,
    die fremden Content kopieren (oftmals ja auch das Layout) lautstark Strafverfolgung androhen.
    Sofern die „Diebe“ nicht für die „Nichtaufname“ in SUMAs gesorgt haben. Evtl. mit einem neuen Meta Tag…
    Also einfach mal „Eier zeigen“ fûr die Guten und nicht rumeiern, was die Guten alles tun sollen/müssen.
    Thks.

  15. Heiko Eckert sagt:

    @Gerdi
    Du kannst in den webmaster tools auch deine gTLD (.com, .org) regional ausrichten: http://der.heiko.in/y0wEja

    @ProfFischer
    Als Shop hat man ja viele Parameter die den Content nur „verfeinern“, also etwa „alle Produkte einer Kategorie unter 20€“. Einen Canonical-Tag setzen macht hier keinen Sinn da der Content unterschiedlich ist. Jetzt kann ich die URls mit diesem Parameter und/oder
    • auf noindex, follow setzen
    • via robots.txt aussperren
    • im URL-Parameter-Handling der Webmaster Tools [http://der.heiko.in/AmbFI8] auf etwa „Parameter, die den Inhalt einer Seite ändern oder bestimmen“ & „Eingrenzung“ stellen.

    Mich würde jetzt generell mal eine Aussage von Google interessieren ob es ihnen lieber ist möglichst viel Crawlen zu können und dann in den WebmasterTools zu verfeinern oder ob es Google prinzipiell lieber ist nur das Crawlen zu können/müssen was ich als relevant erachte (und damit möglichst viel auszusperren)

    *gibt ein Gefühl für zukünftiges Sculpting etwa. Und ich habe noch nie von Google eine Stellungnahme dazu gelesen..

  16. Was zählt google denn als Duplicate content? Wieviel % müssen unique sein? Es gibt gerade in Onlineshops viele Artikel, die sich nur in Kleinigkeiten unterscheiden.

  17. Bei welchem Prozentsatz Google den Regler eingestellt hat, weiß natürlich niemand so genau und sie verraten das natürlich auch nicht. Man kann außerdem davon ausgehen, dass auch hieran ständig gearbeitet und geschraubt wird. Von Experten hört man immer wieder, dass der Anteil identischer Inhalte besser nicht über 30-40% liegen sollte. Ich hoffe, das hilft weiter!

  18. Olaf sagt:

    Mich würde mal interessieren, wie google mit Contentklau umgeht.

    Suchen sie den Urheber und wenn ja, wie kann der ausgemacht werden?
    Werden die anderen Seiten dann abgestraft oder passiert mit denen nichts?

  19. Ich überprüfe laufend meine Artikel mit dem wohl besten duplicate checker „www.copyscape.com“. Über dieses Tool bezieht auch Google Daten über Duplikate. Meine Texte sind zu 85% Unique und trotzdem erkennt das Tool massenhaft Duplikate. Also muss davon ausgegangen werden, dass auch nur 15% gleicher Text zu Duplicate Content führen !

  20. Es gibt hier ein noch geileres Tool für die Duplicate Prüfung „http://www.siteliner.com/secondsurf.ch“.

  21. Jens sagt:

    Wie verhält es sich mit redaktionellen Beiträgen und Presseportalen? Wenn ich auf mehreren Portalen einen Artikel veröffentliche entsteht doch automatisch duplicate content. Oder sehe oich das falsch?

  22. Mich würde interessieren, ob Google in Zukunft den Traffic, der über Links kommt, als Rankingfacktor heranziehen will. Im Sinne von Black Hat wäre dieser Traffic leicht fälschbar. Was hätte es also für einen Sinn, dies zu bewerten? – Ich glaube es wird weiter mehr um Trust gehen als wie um Traffic. Vielleicht erfahrt Ihr im direkten Gespräch ja mehr.

  23. Der Boxer sagt:

    Der Beitrag ist ja schon etwas älter, mich würde es dennoch interessieren, ob es den Artikel in Ausgabe #13 vielleicht hier online zu lesen gibt?

Hinterlasse eine Antwort