Mittelmaß ist nicht genug

Johannes Beus
Johannes Beus
12. September 2007
Johannes Beus
Johannes Beus
Johannes Beus ist Gründer und Geschäftsführer von SISTRIX.

Bei meinen Streifzügen durch das deutschsprachige Internet stoße ich immer wieder auf Projekte, über die ich mich wundern muss. Da werden Webkataloge gestartet, die schon vor drei Jahren nach Made-for-Adsense gerochen hätten, Blogs mit Pseudocontent ausgestattet, den manche Maschine besser schreiben könnte und Soziale Netzwerke gegründet, die weder jemand aussprechen kann noch von einem der 6 Milliarden Menschen benötigt werden. Das Internet wandelt sich in rasender Geschwindigkeit, wer heute auf Ideen baut, die bereits vor einigen Jahren fragwürdig waren, verliert sowohl kostbare Zeit als auch Geld.

Wenn heute jemand groß in die Produktion von Schwarz/Weiß-Fernsehern einsteigen möchte, würde er vermutlich schneller therapeutische Behandlung erfahren, als ihm lieb ist. Wenn man nun die Entwicklungsgeschwindigkeit von Fernsehtechnik mit der des Internets vergleicht, so ist es heute ebenso unsinnig, 5 Jahre alte Internet-Konzepte, die bereits hundertfach gescheitert oder drastisch verändert wurde, damit sie funktionieren, neu aufzusetzen.

Wie für die Projektidee, gelten ähnliche Regeln für die Inhalte. „Unique Content“, häufig und zu Recht als wesentlicher Schritt für ein gutes Ranking genannt, wird häufig falsch ausgelegt. Es geht nicht nur darum, dass Copyscape keine anderen Seiten findet, die exakt die gleichen Sätze haben sondern darum, Content zu erschaffen, der inhaltlich einzigartig ist. Umgeschriebene Wikipedia-Artikel fallen da ebenso wenig drunter wie neugetextete Pressemitteilungen für langweilige „Gadget-Blogs“. Der berühmte Long-Tail der Suchanfragen, der früher mit Pseudosuchemaschinen, Fakeblogs oder ähnlichen Spielereien abzugreifen war, wird mittlerweile von vielen „Großen“, die diese Möglichkeit erkannt haben und gleichzeitig im Besitz riesiger Mengen von altem und gutem Content sind, regiert.

Wer heute Mittelmaß online stellt, wird morgen damit Probleme bekommen und übermorgen wieder bei null stehen.

Ähnliche Beiträge
Kommentare
tba   
12. September 2007, 12:12

Weise Worte!

Robert   
12. September 2007, 13:12

Ach, fürs Abschöpfen von AdSense ist Qualität nicht nützlich, eher hinderlich.

Und was anderes haben die von dir angeführten Negativbeispiele doch nicht im Sinn. Wenn das Projekt in sechs Monaten untergeht, wird auf eine neuen Domain mit erwürfeltem Namen das selbe wieder hochgezogen: Webverzeichnis, Artikelverzeichnis, Link- oder Repost-Blog, Pseudosuchmaschine mit Keyword-Subdomains (das funktioniert bei Google immer noch blendend).

Das ist ja keine signifikante Arbeit, sondern erfordert nur einige Knopfdrücke im Webformular. Siehe Elis gestrigen Post hier: http://www.bluehatseo.com/seo-empire-part-1/

Johannes   
12. September 2007, 13:35

Robert, dass im Blackhat-Bereich komplett andere Regeln gelten ist klar aber ich hätte vielleicht im Beitrag erwähnen sollen, dass es mir um die saubere bis „halbsaubere“ Seite der Geschichte geht. Aber auch dort sehe ich, dass es immer enger wird. Google kickt schneller per Hand und auch die Erkennung scheint mittlerweile ganz gut zu laufen …

Abababakus   
12. September 2007, 23:01

damit beleidigst du alle profi-SEOs ausm abakus forum!

klixi   
13. September 2007, 11:26

Sehr gut gesprochen. Ich mache zur Zeit die gleich Erfahrung und wird auch bestätigt bei der Show am Dienstag bei webmasterradio.

Weblike   
18. September 2007, 02:10

Nun ja also ich möchte euch gerne das Gegenteil beweisen, http://www.oktoberfest-info.de neu und bestens zu gewissen Keywords gelistet! 😀

Daniel   
9. Oktober 2007, 21:59

Ein Artikel, der mir aus der Seele spricht. Solange Google aber nur von Hand durch tausende eifriger Helfer die Qualität der Inhalte einer Seite überprüfen kann, werden sich immer mehr Webmaster auf AVs stürzen und auch weiterhin täglich frische AVs aus dem Boden schießen. Den meisten fehlt dann sowieso die Linkpower und das technische Verständis (ich sage nur der More-Tag bei WordPress), um mit einer größeren Anzahl von Artikeln fertig zu werden, was ja wunderbar zu beobachten war, als Google den Supplemental Index noch vollständig angezeigt hat.

Jürgen Schönbrod   
20. Januar 2008, 00:54

Google arbeitet an entsprechenden Verbesserungen. Wofür braucht Google den PR? Na damit genügend Leute die Toolbar installieren, PR Anzeige aktivieren und (im Kleingedrukten steht, daß Google hierbei Informationen sammelt!) so Informationen über das Surfverhalten bekommt. Mit solchen Daten + Cookies kann man in Zukunft Seiten ganz anders bewerten… Nebenbei kann man bei Adsense Eigenklicks sehr schnell identifizieren.

Ralph   
1. März 2008, 14:05

Warum bezieht sich dieser Artikel nur auf das Internet?

In jedem Bereich sollte der Kunde im Mittelpunkt stehen und an zweiter Stelle das eigene Ego. Das Problem ist aber, dass jeder in den Medien lesen kann, dass man mit einer eigenen Website viel Geld verdienen kann und dies lockt natürlich 🙂

In diesem Sinne auf ein qualitativ hochwertiges Internet, dass wir vielleicht eines Tages zu sehen und zu lesen bekommen werden.

Ralph

Die Kommentarfunktion wird 30 Tage nach der Veröffentlichung des Beitrags deaktiviert.

Kostenlosen Testaccount jetzt aktivieren

Aktiviere jetzt deinen kostenlosen Testaccount für die SISTRIX Toolbox. Garantiert ohne Kosten und unverbindlich. Jetzt aktivieren!