T-Online verbannt auch Beteiligungen der Verlage wie Xing und Immonet aus den Suchergebnissen


17.09.2014 12:45 Uhr

Die Eskalation des Streits um das Leistungsschutzrecht geht weiter. Offenbar hat T-Online nicht nur die Websites von Bild, Welt, Express und dutzender weiterer regionaler und überregionaler Zeitungen und Magazine aus seinen Suchergebnissen entfernt.

Vielmehr wurden auch die Websites von Beteiligungen und Tochterunternehmen der Presseverleger aus dem Suchindex verbannt. So findet man in der Suche von T-Online beispielsweise keine Treffer mehr von xing.com, immonet.de oder meinestadt.de.

Keine Treffer von Xing bei T-Online

Welche Websites betroffen sind, kann man mit einer einfachen Site-Abfrage nach dem Muster „site:xing.com“ in der Suche von T-Online überprüfen.

Diese Maßnahme geht noch einmal einen Schritt weiter als das Vorgehen von Web.de und GMX, deren Verbannung sich bisher auf den Ausschluss der Online-Auftritte der Zeitungen beschränkt.

Die Suchmaschinen von T-Online, web.de und GMX werden in Kooperation mit Google betrieben. Offenbar bestimmt jeder Google-Partner aber sein Vorgehen selbst und entscheidet eigenständig über die Deindexierung einzelner Angebote.

Hintergrund des Streits ist das vom Bundestag am 1. März 2013 verabschiedete Leistungsschutzrecht für Presseverleger. Danach dürfen Suchmaschinen nur „einzelne Wörter und kleinste Textausschnitte“ nutzen, ohne den Verlagen Vergütungen zahlen zu müssen. Ob die üblichen Suchtreffer in den Suchmaschinen bereits diese Grenze überschreiten ist juristisch unklar und wurde noch von keinem Gericht entschieden.

Trotzdem haben die in der VG Media organisierten Verlage im Sommer 2014 angekündigt, die Suchmaschinen zur Zahlung einer „angemessenen Vergütung“ auf Basis des umstrittenen Leistungsschutzrechtes zu verklagen.

Die Anbieter der Suchmaschinen halten die Forderungen der VG Media für unbegründet, haben jedoch seit August vorsorglich mit der Entfernung der betroffenen Angebote begonnen.

Interessant ist, dass jetzt auch Angebote wie xing.com betroffen sind, die nach meiner Auffassung nicht als Presseerzeugnisse gewertet werden können und nur eine Beteiligung bzw. ein Tochterunternehmen der Presseverlage sind.

Auch wenn die Marktanteile der Suchmaschinen von T-Online, web.de und GMX gering sind, soll hier offenbar ein eindeutiger Warnschuss an die Verlage gesendet werden. Vielleicht dient das Vorgehen auch als Testballon.

Im Gegensatz zu Google steht die Suche von T-Online nicht unter dem Verdacht eine marktbeherrschende Stellung zu haben. Damit ist das juristische Risiko geringer von den Verlagen zu einer Aufnahme der Verlagsangebote in die Suchergebnisse und zur Zahlung von Lizenzgebühren gezwungen zu werden.

Leistungsschutzrecht: Zeitungen aus den Suchergebnissen von Google-Suchpartnern entfernt


15.09.2014 10:43 Uhr

Leistungsschutzrecht: Zeitungen wurden aus den Suchergebnissen von Google-Suchpartnern entfernt

Wie Stefan Niggemeier heute schreibt, wurden die Treffer der Zeitungen, die zu den Leistungsschutzrecht-Forderern gehören, aus den Suchergebnissen einiger Google-Partner entfernt.

Keine Treffer bild.de

Wer die Internetsuche von web.de, GMX oder T-Online nutzt, bekommt keine Ergebnisse mehr von „Bild“, „Welt“, „Hannoversche Allgemeine“, „Berliner Zeitung“ und zahlreichen weiteren Online-Angeboten von Zeitungen angezeigt. Die drei Portale haben jene Verlage, die in der VG Media organisiert sind, um Ansprüche aus dem neuen Presse-Leistungsschutzrecht geltend zu machen, ausgelistet.

Die Portale web.de, GMX und T-Online sind alle Partner von Google und verwenden die Google-Suche. Bei Google selbst findet man noch Treffer der Zeitungen.

Treffer bei Google

Fraglich ist, ob Google die Seiten bei den Suchmaschinen der Suchpartner deindexiert hat, oder ob diese selbst die Ergebnisse herausgefiltert haben, falls das überhaupt möglich ist.

Bei aol.de, die ebenfalls zum Google-Suchnetzwerk gehören, findet man hingegen noch Treffer z.B. von bild.de.

Treffer bei AOL

Laut einer Studie von TRG und SISTRIX machen die Angebote von Verlagen bei 15 Millionen untersuchten Suchbegriffen etwa 7,5 Prozent der Treffer in den Suchergebnissen von Google aus.

Klauen die News den organischen Treffern bei Google einen Platz in den Top-10?


03.09.2014 14:40 Uhr

Neuerdings besteht die Suchergebnisseite bei Google anscheinend nur noch aus 9 organischen Treffern, wenn über die Universal Search gleichzeitig News angezeigt werden.

In der Vergangenheit wurden sogenannte Universal Search Integrationen zusätzlich zu den üblichen 10 organischen Treffern auf der ersten Suchergebnisseite bei Google angezeigt. Ein Spezialfall waren immer die Places-Integrationen, die aus Hybriden Treffern bestehen können.

In der letzten Woche ist mir bei der Suche nach „bonn“ erstmals ein Suchergebnis aufgefallen, bei dem es rund um die Universal Search Treffer aus den Bereichen News und Bilder nur 9 organische Treffer gab. Diese Fälle lassen sich für andere Suchen reproduzieren.

Nach einer ersten kleinen händischen Stichprobe sieht es so aus, als ob die Universal Search Integrationen von News den organischen Treffern einen Platz in den Top-10 kostet.

Dieser Screenshot zeigt das heutige Suchergebnis für die Suchanfrage „deutschland argentinien“ (zum Vergrößern anklicken).

Nur 9 organische Treffer

Wie man leicht erkennt, werden auf der ersten SERP neben den News aus der Universal Search nur 9 organische Treffer angezeigt.

Sucht man zum Vergleich „topflappen“, spielt Google eine Integration von Bildern aus und schenkt weiterhin 10 organischen Treffern einen Platz an der Sonne.

Website mit Keywords, zu denen es häufig News git, dürfte diese Änderung bei Google einige Besucher kosten, da sie bei einigen Suchbegriffen von der ersten Suchergebnisseite verdrängt werden.

Was sind Eure Beobachtungen? Findet Ihr Beispiele für SERPS mit News und 10 organischen Treffern?

IndexWatch 09/2014


02.09.2014 10:00 Uhr
Gewinner August 2014
# Domain Veränderung Daten
1 tape.tv +834,36%
2 bbc.com +179,14%
3 mirapodo.de +133,04%
4 bestbuy.com +95,87%
5 airport-pad.com +77,39%
6 urlaubspiraten.de +74,86%
7 games.com +71,09%
8 bundeswehr-karriere.de +70,32%
9 jaumo.com +67,97%
10 toggo.de +66,97%
11 cortalconsors.de +66,14%
12 vistaprint.de +66,02%
13 centerparcs.de +65,42%
14 jako.de +65,37%
15 selbermachen.de +65,10%

Der SISTRIX IndexWatch in der Ausgabe 09/2014 steht bereit.

In unserem monatlichen IndexWatch betrachten wir die Veränderungen auf dem deutschen Suchmarkt, hier die des Monats August 2014. Wir haben für euch die Gewinner und Verlierer im SISTRIX Sichtbarkeitsindex analysiert.

Starten wir mit den Gewinnern. Dies sind jene Domains, welche im Verlaufe des Monat August den größten Zuwachs im SISTRIX Sichtbarkeitsindex verzeichnen konnten.

Erholung des Musikfernsehsenders tape.tv

Mit einem gewaltigen Plus von 835% im SISTRIX Sichtbarkeitsindex ist die Domain tape.tv größter Gewinner im August. Damit erholt sich der Musikfernsehsender von einem dreiwöchigen Einbruch in der Sichtbarkeit, wie der folgende Verlauf verdeutlicht:

Sichtbarkeitsindex Domain tape.tv

  weiterlesen...

Google Panda Update und User-generated content


19.08.2014 09:32 Uhr

In den letzen Jahren waren Websites mit User-generated content wie Foren und Frage-und-Antwort-Portale häufig vom Google Panda Update betroffen. User-generated content besitzt nicht grundsätzlich eine schlechte Qualität. Aber ohne redaktionelle Pflege entsteht oft ein Wildwuchs, welcher die Qualität herunterzieht.

Die Google Nutzer bevorzugen oft einen gut recherchierten und hochwertig geschriebenen Fachartikel anstelle von Community-Inhalten, bei denen gerne zehn Personen zwölf verschiedene Meinungen vertreten, so dass der Nutzer noch dem Lesen der Lektüre noch mehr verwirrt ist als vorher.

Problematisch sind sicherlich auch Spam-Beiträge aus der Community und eine Vielzahl sehr ähnlicher Posts zu dem gleichen Thema, die sich sich inhaltlich überschneiden und gegenseitig kannibalisieren. Das sind nur einige Beispiele, warum User-generated content oftmals keine besonders hohe Qualität besitzt.

Besonders tragisch ist die Situation, wenn eine Website qualitativ wertvollen Content z.B. in Form von Fachartikeln besitzt und gleichzeitig einen wild wuchernden Bereich mit User-generated content auf der Domain vorhanden ist. Es kommt vor, dass der Panda Algorithmus dann die gesamte Website herabstuft und auch die Seiten mit dem hochwertigen Content plötzlich Rankings verlieren.

Einen solchen Fall hatten wir 2012 mit der Fallstudie zu netdoktor.de beschrieben (SEO-Analysen mit dem SISTRIX Sichtbarkeitsindex Seite 59 ff.). Als Lösung haben wir vorgeschlagen, dass netdoktor.de die Community-Inhalte deindexieren kann, oder sie auf eine zweite Domain auszulagert. Die zweite Domain könnte die Funktion einer „Bad Bank“ für schlechte Nutzersignale übernehmen (S. 72).

Diese Lösungsmöglichkeiten hat jetzt auch John Mueller im Google Webmaster Hangout bestätigt. Ihr findet seine Antwort im Video ab Minute 11:36 bis Minute 16:05.

John empfiehlt ein für die Website passendes System zu finden, um User-generated content mit geringem Mehrwert auszufiltern und auf NoIndex zu stellen. Sollte das aus irgendwelchen Gründen nicht möglich sein, sollte der User-generated content auf eine andere Domain ausgelagert werden, um die Website vor dem Panda Algorithmus zu schützen. Eine Auslagerung auf eine Sub-Domain ist nicht ausreichend, um einen sicheren Schutz zu ge­währ­leis­ten.

Google straft ein weiteres deutsches und europäisches Linknetzwerk ab


18.08.2014 10:46 Uhr

Am Wochenende tauchten bei Facebook zahlreiche Beiträge auf, dass aktuell viele Websites Benachrichtigungen über die Google Webmaster Tools (GWT) wegen Linkkauf und Linkverkauf erhalten haben.

Heute bestätigt Johannes Mehlem, Quality Rater bei Google, dass Maßnahmen gegen ein europäisches sowie ein deutsches Linknetzwerk eingeleitet wurden.

Abstrafung Linknetzwerke

Aufgrund der Menge an Beiträgen bei Facebook wäre es nicht überraschend, wenn es sich um große Linknetzwerke handelt.

[UPDATE 19.08.2014 - 10:44 Uhr]: Das in den Kommentaren zu diesem Post genannte Unternehmen Teliad hat sich inzwischen bei und gemeldet und uns eine Pressemitteilung geschickt.

Auswirkung negativer Nutzersignale auf das Google Ranking


13.08.2014 14:27 Uhr

Die Startseite der Domain hotel-bonn.de bietet ein sehr schönes Beispiel dafür, welchen Einfluss Nutzersignale auf das Google-Ranking zu einem bestimmten Keyword haben können.

Bei der Domain handelt es sich um eine uralte Exact-Match Domain für das Keyword “hotel bonn“. Die beiden Wörter “Hotel“ und “Bonn“ kommen auf der Startseite vor und sind ebenfalls in einigen externe Backlinks enthalten. Für Google gibt es also deutliche Rankingsignale die Website hotel-bonn.de für das Keyword “hotel bonn” relativ weit oben als Treffer anzuzeigen.

Schauen wir uns den Rankingverlauf der Domain für das Keyword an, so sehen wir ein stetiges Auf und Ab.

Rankingverlauf hotel-bonn.de zu dem Keyword "hotel bonn"

In gewissen Abständen ist die Domain für wenige Wochen in den Top 10 zu finden und verschwindet dann wieder für einen längeren Zeitraum von der ersten Suchergebnisseite. Zeitweise schafft sie es bis auf Platz 2 für die attraktive und umkämpfte Suchphrase “hotel bonn“.

Hotel BonnDas Problem ist, dass es bei der Website nicht um ein Hotel in der wunderschönen Bundesstadt Bonn geht, wie man eigentlich vermuten könnte. Vielmehr handelt es sich um die Seite eines Hotels in Baunatal am Stadtrand von Kassel. Es wird von einer Familie mit dem Nachnamen Bonn betrieben und heißt deshalb “Landgasthaus Hotel Bonn”.

Der überwiegende Teil der Google-Nutzer dürfte bei der Suche nach „hotel bonn“ ein Hotel in der Stadt Bonn suchen (User Intent). Ein Hotel 2,5 Stunden Fahrzeit von Bonn entfernt am Stadtrand von Kassel ist für die meisten Nutzer daher kein besonders guter Treffer für ihre durchgeführte Suche.

Treffer Hotel BonnViele Suchende werden erst gar nicht auf den Treffer klicken, weil sie im Snippet des Treffers bereits “Hotel und Landgasthaus am Stadtrand von Kassel“ gelesen haben. Ein weiterer Teil klickt ihn an, kehrt aber im Vergleich zu den anderen Treffern überdurchschnittlich oft zu Google zurück, um ein anderes Ergebnis auszuwählen (hohe Return-to-SERP-Rate).

Als Ergebnis kann man dem Google Algorithmus bei der Arbeit zuschauen. Aufgrund der vorhandenen positiven Rankingsignale testet Google den Treffer von hotel-bonn.de alle paar Monate in den Top 10 zu dem Keyword “hotel bonn“. Bei den Nutzern fällt der Treffer jedoch durch, so dass Google in für einige Zeit aus den Top 10 wieder entfernt.

Entsprechend volatil ist dann auch die Entwicklung des Sichtbarkeitsindex der Domain hotel-bonn.de

Sichtbarkeisindex hotel-bonn.de

Gerade weil das Beispiel so simpel ist, zeigt es sehr anschaulich, vor welchen Problemen Google und Websitebetreiber stehen, wenn Rankingsignale und User Intent nicht übereinstimmen. Stark schwankende Rankings können ein Signal sein, dass eine Website einfach die falschen Signale an Google sendet.

Google ergänzt Webmaster Guidelines: Creating pages with little or no original content


12.08.2014 11:37 Uhr

Heute hat Google die englischsprachigen Webmaster Guidelines im Bereich Qualitätsrichtlinien um den Punkt “Creating pages with little or no original content“ ergänzt.

Little or no original content

In dem verlinkten Dokument wird beschrieben, dass Google gegen Domains vorgeht, welche viele Seiten ohne erkennbaren Mehrwert für die Nutzer erstellen.

Als Beispiele werden genannt:

  • automatisch generierter Content
  • Doorway Pages
  • Content aus anderen Quellen wie Scraped Content oder Gastbeiträge mit geringer Qualität
  • Thin Affiliate Sites

Dass Google gegen solche Seiten vorgeht, ist nicht neu. Jetzt werden in den Webmaster Guidelines aber mehrere explizite Beispiele zusammengefasst

Zum großen Teil überschneiden sich die Beispiele mit den bereit existierenden Nennungen von “Automatically generated content“, “Doorway Pages”, “Scraped content” und “Participating in affiliate programs without adding sufficient value“.

Wirklich neu scheint nur der Punkt “Gastbeiträge mit geringer Qualität” (low-quality guest blog posts) zu sein. Solche Beiträge werden gerne für den (nervigen und schlechten) Linkaufbau erstellt. Eventuell schafft Google mit der Ergänzung der Qualitätsrichtlinien jetzt eine Grundlage, um auch die einbindenden Domains zu bestrafen, welche diese Gastbeiträge veröffentlichen.

In den deutschen Richtlinien für Webmaster ist der Punkt noch nicht enthalten, wird in den nächsten Tagen aber wahrscheinlich ergänzt.

SEO-Stammtisch in Bonn am 28.08.2014


11.08.2014 11:08 Uhr

SEO-Stammtisch in Bonn am 28.08.2014

Am Donnerstag, den 28.08.2014, findet als Warm-Up zu der bevorstehenden Messe dmexco und den in der letzten Jahreshälfte stattfinden SEO- und Online-Marketing-Konferenzen wieder ein SEO-Stammtisch in Bonn statt.

Ab 19 Uhr erwartet Dich eine lockere und gemütliche Runde von ca. 50 Leuten, die sich bei Speisen und Getränken unkompliziert kennenlernen, austauschen und vernetzen.

Einsteiger, Fortgeschrittene und “alte Hasen” sind gleichermaßen gern gesehen. Gemeinsam werden wir versuchen, unser solides SEO-Basiswissen zu gefährlichem SEO-Halbwissen zu veredeln.

Wenn Du Lust und Zeit hast, kannst Du Dich einfach über dieses Formular kostenlos und unverbindlich anmelden.

Ein paar Tage vor dem Stammtisch erhältst Du wie immer eine E-Mail mit allen Detail-Infos zum Stammtisch.

Wir freuen uns auf Dich!

Anteil von SSL-Treffern in Google-SERPs


08.08.2014 13:41 Uhr

Im Zuge der Ankündigung von Google, künftig Inhalte mit SSL-Zertifikat zu bevorzugen, habe ich mir den zeitlichen Verlauf des Anteils von SSL-Treffern in den Google-SERPs für Deutschland angesehen. Im folgenden Chart ist sowohl der prozentuale Anteil an SSL-URLs in den Top-100 (blau) als auch der Anteil verschlüsselter URLS in den Top-10 (grün) seit Anfang 2011 zu aufgezeichnet:

ssl-urls-de

Schön zu sehen, dass es 2011 nahezu keine Entwicklung gab: der Anteil lag anfang des Jahres bei 0,42%, gegen Ende 2011 bei 0,51%. Erst 2012 hat der Trend zur Verschlüsselung eingesetzt, so dass gegen Ende 2012 bereits 1% aller Inhalte über SSL ausgeliefert wurden. Die Verbreitung hat seitdem an Geschwindigkeit zugelegt. Mittlerweile werden in Deutschland mehr als 4 Prozent aller Google-Treffer verschlüsselt ausgeliefert. Die stärkeren Schwankungen im Verlauf stammen übrigens von der nur teilweise geglückten Umstellung von Facebook und Twitter auf HTTPS. In den USA ist eine vergleichbare Entwicklung wie in Deutschland zu beobachten, dort ist die Verbreitung allerdings noch ein Stück höher und es werden mehr als 5% aller Inhalte über HTTPS zur Verfügung gestellt.

Spannend wird nun die Verfolgung dieser Entwicklung: schafft Google es, durch einen eventuellen Ranking-Boost, dass deutlich mehr Webseitenbetreiber auf SSL umstellen? Ich werden mir in ein paar Monaten die aktuellen Zahlen ansehen und berichten.