Deduplizierung von Suchergebnissen komplexer als vermutet

Die Suchergebnissen werden auch in der Zusammenstellung immer komplexer: normale organische Treffer, zahlreiche vertikale Spezialsuchen, strukturierte, semantische Daten und mehr werden auf einer Suchergebnissseite zusammengeführt.

Da bleibt es nicht aus, dass der gleiche Inhalt in mehreren Quellen gefunden wird. Damit diese Inhalte nicht mehrfach in den SERPs zu sehen sind, werden sie von Google dedupliziert – also zusammengefasst und nur einmal angezeigt.

Wie komplex die Regeln hinter einer solchen Deduplizierung ist, zeigt nun ein Fall des Journalisten Dieter Bohn. Der hatte nach dem Titel seines Artikels bei Google gesucht und Google öffentlich vorgeworfen, nur noch Kopien seines Artikels anzuzeigen.

Danny Sullivan hat sich als Vertreter von Google dem Vorwurf angenommen und ihn aufgeklärt. Das Ergebnis ist interessant: wenn nach vielen Worten gleichzeitig gesucht wird (wie hier nach dem Titel des Artikels), wechselt Google in einen anderen Suchmodus.

Google versucht dann nicht mehr, das Query zu “verstehen” (Sichtwort: ML/BERT) und passende Treffer anzuzeigen, sondern sucht nur noch Seiten, die alle gesuchten Worte enthalten. Google funktioniert dann quasi wie früher als echte Volltextsuchmaschine.

Wird dabei die gleichen URL in mehreren Quellen gefunden, zeigt Google sie nur in einer Quelle an. In diesem Fall war es so, dass der Artikel bereits der erste Link in der “Top Stories”-Box war und zusätzlich diese Box vor den organischen Suchergebnissen erschien.

Ähnliche Beiträge