2007
Bedeutung von Suchmaschinenoptimierung für StartUps
Mit deutlich simplerer Finanzierung sowie einigen erfolgreichen Vorbildern der vergangenen Jahre, scheint mir der Bereich der vc-getriebenen Neugründungen in den letzten Monaten geradezu explodiert zu sein. Fast täglich werden auf den einschlägigen Blogs tolle neue soziale Netzwerke für Eigentümer dreibeiniger Zwergpudel und ähnliche Projekte angekündigt. Suchmaschinenoptimierung hat zwar häufig seinen […]...
Frohe Weihnachten 2007
Bevor meine geflügelte Kutsche zur Inspektion der geöffneten Ostgrenzen im Laufe des Tages Richtung Binz aufbrechen wird, möchte ich die Gelegenheit nutzen, allen Lesern ein frohes Weihnachtsfest sowie einen guten Rutsch ins neue Jahr zu wünschen. Für den Teil der SEO-Bevölkerung, der trotz der Festtage die Finger nicht vom Gerät […]...
Google verändert den Supplemental Index
Der Supplemental Index, in dem Google Seiten speicherte, die den Anforderungen für den ersten, normalen Suchindex nicht gerecht wurden, war in diesem Jahr bereits häufiger ein Thema in diesem Weblog. Vor einiger Zeit hatte Google angekündigt, die Grenzen zwischen den beiden Indexvarianten durchlässiger und variabler zu gestalten. Ein erster Schritt […]...
Und täglich grüßt der Googlebot
Ich gebe es zu, ich leide an einer fortgeschrittenen Form der Logfile-Abhängigkeit. Fast immer läuft auf meinem rechten Monitor eine Tail-Grep-Variante irgendeines meiner Projekte. Früh morgens eher das unaufgeregte Spidern von Microsoft, nach dem ersten Kaffee dann meistens Google und wenn ich mal ganz verrückt sein will, tu ich mir […]...
Google geht Subdomain-Problematik an
Auf der derzeit stattfindenden PubCon in Las Vegas hat Googles oberster Spamjäger Matt Cutts angekündigt, die Subdomain-Problematik endlich angehen zu wollen. In der Vergangenheit wurde nicht nur in diesem Blog bereits häufiger auf das Problem hingewiesen, dass dadurch, dass Subdomains zwar den Trust der Hauptdomain erben, sie allerdings als eigenständiger […]...
Evolution der Linksammelei
Seit Google den Internetsuchmarkt mit der Einbeziehung externer Faktoren – wie Anzahl und Qualität eingehender Links – ins Ranking revolutioniert hat, gab es Versuche, diese Faktoren „nachzubauen“. Aber der Reihe nach: Früher, ganz ganz früher ging es los damit, dass man sich (automatisiert) in die damals noch zahlreich vorhandenen Gästebücher […]...
IP-Adressen deutscher Domains, 2007
Vor gut einem Jahr habe ich schon einmal die IP-Adressen, die bei DE-Domains als häufigsten auftreten zusammengetragen. Da ich zum einen gerade wieder sehr aktuelle Daten dazu habe und sich zum anderen ein paar interessante Veränderungen ergeben habe, will ich euch die Daten natürlich nicht vorenthalten. Anteil IP-Adresse rDNS-Auflösung 1.62% […]...
Top-Keywords 2007
Wenn man aus dem Fernsehen derzeit eines lernen kann, dann ist es, dass Jahresrückblicke am besten Mitte des laufenden Jahres gesendet werden sollten, um eine bestmögliche Quote zu erzielen. Yahoo scheint gelernt zu haben, und ist mit dem Rückblick auf die beliebtesten Suchen 2007 bereits für Deutschland und die USA […]...
Hat die Ära des Linkhandels den Zenit überschritten?
Seit Google mit der Herabsetzung des PageRanks einiger offensichtlicher Linkverkäufer für reichlich Aufregung in der SEO-Szene gesorgt hat, ist mittlerweile etwas Zeit vergangen und die Wogen haben sich geglättet. Es gab noch eine zweite Runde, in der diejenigen, die weiterhin Links verkaufen ihren kümmerlichen Rest-PageRank komplett verloren haben und auch […]...
Barrierefreies Webdesign und dessen Schnittmenge mit SEO
Eines der Dinge, die mir an der Suchmaschinenoptimierung wirklich gefallen ist, dass dies nicht ein einziges, abgegrenztes Betätigungsfeld, das nie verlassen wird, ist, sondern es eine Vielzahl an Herangehensweisen und Methoden gibt, von denen sehr viele aus der Erfahrung in anderen Bereichen profitieren. Wenn ich beispielsweise an die SEM-Kollegen denke, […]...
Suchmaschinenoptimierung für Einsteiger 1.3
Fast genau ein Jahr, nachdem die erste Version meines SEO-Einsteiger-Tutorials online ging, gibt es dieses jetzt in der überarbeiteten Version 1.3. Von ursprünglich etwa 30 Seiten ist es auf nun 61 gewachsen, Fehler wurde korrigiert und neue Teile hinzugefügt. So ist dieses mal der Teil zur Keywordrecherche hinzugekommen und es […]...
Microsoft zeigt Backlinks wieder an
Nachdem Microsoft die – qualitativ hervorragende – Backlinkanzeige im März dieses Jahres deaktiviert hatte, scheint sie nun wieder zu funktionieren: mit „+link:http://www.example.org/“ erhält man die Backlinks einer beliebigen URL. Die Datenbasis scheint mir im Vergleich zu dem Zeitpunkt vor der Abschaltung deutlich vergrößert – auch, wenn die Qualität der SERPs […]...
Google macht Platz im Index
Man könnte fast meinen, Google sei in der südlichen Hemisphäre beheimatet und habe zum großen Frühjahrsputz angesetzt: seit dem 26.10. sinkt bei einer großen Anzahl von Seiten die Zahl der indexierten Dokumente im „ersten“ – also nicht Supplemental – Index. Dabei ist egal, ob mit site:example.org oder (all)inurl:example.org gemessen wird, […]...
AdSense-Konkurrenzfilter
Seit einiger Zeit bietet Google AdSense die Möglichkeit, über einen Konkurrenzfilter Anzeigen von bestimmten Seiten zu blockieren. Damit lassen sich allerdings nicht nur Konkurrenten ausblenden sondern auch Anzeigen, von denen man glaubt, dass der Klickpreis eher niedrig angesetzt sein könnte und durch deren Blockierung die eigenen Einnahmen steigen könnten. Hier […]...
Das Märchen von der Themenrelevanz
Wenn man eines der vielen Blogpostings zum Thema Linkbewertung ließt oder einen der mittlerweile zahlreich vorhandenen „Experten“, die zu allem ihre fundierte Forenmeinung haben, fragt, was eigentlich das wichtigste bei Links sei, so wird man sehr häufig eins hören: Themenrelevanz. Eine schöne, runde und konsensfähige Meinung, gegen die kaum jemand […]...
Google hilft bei Geo-Zuordnung
Ein Thema, das hier in diesem Blog schon häufiger besprochen wurde, ist die Zuordnung von Webseiten zu Sprachen und Ländern. Bislang war meine Empfehlung, möglichst viele der Signale, die man den Suchmaschinen auf die Herkunft und Sprache geben kann, eindeutig zu halten und zu nutzen. Seit gestern bietet Google nun […]...
IndexWatch – was passiert im Suchmaschinenindex?
„Gab es heute größere Veränderungen, ich kann meine Seite fast nicht mehr finden?“ – Um einen objektiven Eindruck davon zu erhalten, ob im Index wirklich Bewegung ist oder die Veränderungen eher die eigene Seite oder besonders beobachtete Bereiche betreffen, habe ich einen Service online gestellt, der die Änderungen zum jeweiligen […]...
PageRank-Update – ein paar Daten
Eines der interessantesten PageRank-Updates der letzten Jahre ist vorbei, die aktuellen Zahlen mittlerweile auf allen Servern, die den Google-Toolbar-PageRank ausliefern angekommen – Zeit, sich mal anzusehen, was eigentlich passiert ist. Gewinner und Verlierer – Wie bei jedem PR-Update gab es auch diesmal eine Vielzahl von Gewinnern und Verlierern, die große […]...
Google PageRank Update 10/2007
Nachdem viele monatelang drauf gewartet hatten und nach den Linkverkauf-Abwertungen der vergangenen Tage vermutlich doch lieber drauf verzichtet hätten, spielt Google derzeit ein komplettes PageRank-Update auf die Server, die diesen an die Google-Toolbar ausliefern. Neue Werte sind bereits auf dem Datenzentrum mit der IP 72.14.221.18 zu bewundern und es sind […]...
Nach der PageRank-Anpassung: Wie geht es weiter?
Drei Tage, nachdem Google bei Seiten, die offensichtlich Links verkaufen, den angezeigten PageRank herabgesetzt hat, möchte ich nun, da sich der Staub etwas gelegt hat, ein paar Gedanken zu dem Vorgang teilen. Auch, wenn man manchmal nicht das Gefühl hat, so ist die Suche doch noch mit weitem Abstand das […]...
Google, Don Quijote des Linkverkaufs
Seit Anfang dieses Jahres ist der Verkauf beziehungsweise Kauf von Textlinks zur Manipulation Verbesserung des Suchmaschinenrankings insbesondere bei Google hier in diesem Blog ein Thema: Ich habe Gefahren aufgezeigt, erklärt wieso der großflächige Verkauf von Links ein Problem für den Suchmaschinengiganten darstellt, mögliche Erkennungsmuster gezeigt und zuletzt selber gezweifelt, ob […]...
Hostnamen auf Google News
Nicht nur der normale Googleindex ist interessant, mit der ständigen Erweiterung von Googles Universal Search sollten auch die ganzen vertikalen Suchen nicht aus den Augen verloren werden. Eine der ältesten und bestbesuchten vertikalen Suchen von Google ist die Nachrichtensuche „Google News“. Ich habe die Nachrichtenquellen von Google News über die […]...
Baustelle
Bei diesem mehr als trüben Wetter habe ich mich heute morgen entschlossen, keinen Ausritt zu unternehmen, sondern etwas am Design und Konzeption des Blogs und der ganzen Seite zu basteln. Nachdem sich Gerald schon vorbildlich ins Zeug gelegt hat und uns jetzt nicht mehr mit dem etwas lieblosen WordPress-Standardtemplate begrüsst […]...
Schränkt auch Yahoo die Backlink-Abfrage ein?
Bei Google ist es ja bekanntermaßen Folklore, dass die angezeigten Backlinks einer Seite nahezu unbrauchbar sind und seit auch Microsoft seine bis dahin hervorragende Backlink-Anzeige über Nacht deaktiviert hat, bleibt nur noch Yahoo als einzige Suchmaschine mit einem hinreichend großen Index, der eine Backlinkabfrage erlaubt, übrig. In der letzten Woche […]...
SEO: Handwerk oder Magie?
Im vorletzten Beitrag hatte ich kurz angedeutet, dass ich Suchmaschinenoptimierung hauptsächlich für ein solides Handwerk halte. Da es darauf ein paar Kommentare gab und ich dem Thema mehr als nur einen Halbsatz widmen möchte, hier etwas Gemale: Die zwingend notwendige Basis für alle Webprojekte sollte eine suchmaschinenfreundliche Umsetzung sein. Kein […]...
Steuerung der internen Verlinkung mit Nofollow
Die interne Verlinkung ist zugleich ein sehr interessanter und wichtiger aber auch extrem häufig sträflich vernachlässigter Parameter für Suchmaschinenoptimierung gerade umfangreicher Webseiten. Durch gezielte Veränderungen können hier schnell deutliche Erfolge erzielt werden, ohne, dass neue eingehende Links gekauft akquiriert werden müssen. Die Homepage eines typischen Internetshops zum Thema „Sport“ dürfte […]...
For Sale: SEO-Snakeoil – 3,99 Dollar
Schlangenöl ist eine gebräuchliche Bezeichnung für Produkte, die keine Funktionen haben, denen aber allerlei Wunderwirkungen zugeschrieben werden. Eigentlich aus dem Wilden Westen stammend, wo Wunderheiler dieses Schlangenöl gegen Leiden jeglicher Art an gutgläubige Trottel verkauften, scheint es mittlerweile auch den Weg in den Suchmaschinenoptimierungsbereich gefunden zu haben. Ob Ebay-Auktionen, in […]...
SEO-Tools: Keyword-Datenbank
Nur ein kurzer Beitrag, da ich für die OMD morgen noch packen muss. Eine Keyword-Datenbank war – noch vor dem Blog – ein Hauptbestandteil dieser Webseite. Leider wurde dieser Service recht schnell missbraucht und ich hatte einige Anfragen irgendwelcher Scripte und Programme pro Sekunde und war gezwungen, den Dienst offline […]...
Indexparty
In den Google-SERPs sind derzeit größere Veränderungen zu beobachten. Auf der ersten Resultat-Seite kann ich von gestern auf heute rund 13 Prozent, bei den ersten einhundert Ergebnissen sogar 21 Prozent veränderte Positionen beobachten – ein Wert, der sich schon lange nicht mehr in diesen Bereichen bewegt hat. Aber nicht nur, […]...
5 Jahre SISTRIX SEO-Blog
Auf den Tag genau fünf Jahre ist es nun her, dass mit einem unscheinbaren Beitrag zu einem neuen Google-Rechenzentrum (damals hatten die noch Kürzel und nicht nur IPs), dieses Blog seinen Anfang nahm. Seitdem sind einige Beiträge zusammengekommen und, obwohl es immer mal wieder Formschwächen gab, hat mir das bloggen […]...
Lasst den Content frei!
Die New York Times hat bekannt gegeben, ihr Abomodell, das entweder knapp 50 Dollar pro Jahr oder 7,95 pro Monat gekostet hat, zu beenden und die kompletten Inhalte fortan kostenlos zur Verfügung zu stellen. Nun ist es nicht so, dass bei der New York Times nur Philanthropen, die lediglich das […]...
Domains, Subdomains, Hostnamen und was sie verbindet
Die Herren SEOBlogger wollten Meinungen zum Thema Subdomain hören und da ich das Thema auch ganz interessant finde, noch nicht viel dazu geschrieben habe und die Bahn mal wieder ihren Zug kaputt gespielt hat, so dass ich mehr Zeit als erwartet habe, hier meine Einschätzung zum Thema. Google arbeitet mit […]...
Mittelmaß ist nicht genug
Bei meinen Streifzügen durch das deutschsprachige Internet stoße ich immer wieder auf Projekte, über die ich mich wundern muss. Da werden Webkataloge gestartet, die schon vor drei Jahren nach Made-for-Adsense gerochen hätten, Blogs mit Pseudocontent ausgestattet, den manche Maschine besser schreiben könnte und Soziale Netzwerke gegründet, die weder jemand aussprechen […]...
Universal Search
Zuerst nur in den USA aktiv, kommen die verschiedenen Ausbaustufen von Google Universal Search nun auch langsam nach Europa – höchste Zeit, sich die Sache mal genauer anzusehen. Unter dem Begriff „Universal Search“ fasst Google eine ganze Reihe von Veränderungen in den SERPs sowie auch der zugrundeliegender Technik zusammen, die […]...
Suchmaschinenfreundliche URLs
Sprechende, suchmaschinenfreundliche URLs sind nicht erst, seit in der aktuellen c’t eine Einführung von Stefan Karzaunikat zu dem Thema und mod_rewrite zu lesen ist, gefragt. Da bei vielen Projekten keine fertigen Lösungen, wie es sie beispielsweise für Blogsysteme gibt, Anwendung finden, bastelt jeder selber mit den ihm gegeben Fähigkeiten drauf […]...
Ist das noch normal? – Teil III
Die Komplexität nimmt zu: während es im ersten Teil noch um die einfach zu beeinflussenden Onpage-Faktoren gibt, waren es im zweiten die Offpage-Faktoren, also das Linknetzwerk. Ist dies bereits deutlich schwieriger und aufwändiger „nachzubauen“, kommt jetzt noch eine Schwierigkeitsstufe hinzu: die zeitliche Entwicklung dieser beiden Anhaltspunkte. Praktischerweise ist Yahoo zu […]...
Ist das noch normal? – Teil II
Im ersten Teil ging es, kurz zusammengefasst, darum, dass Suchmaschinen Seiten, die eventuell Spam sind dadurch erkennen können, dass eine Reihe von Merkmalen vom Durchschnitt aller Webseiten im Internet abweicht. Dass dies nicht nur mit Onpage-Merkmalen wie beispielsweise der Länge des Titels funktioniert, sondern auch – und dann viel effektiver […]...
Ist das noch normal? – Teil I
Die Qualität der Suchergebnisse entscheidet über den Erfolg einer Suchmaschine: findet der Suchende wiederholt nur irrelevante Seiten, wird er recht zügig zu einer Suchmaschine wechseln, die ihm bessere Trefferlisten vorsetzt. Neben dem Versuch, die Qualität durch Einstellung der zahlreichen Stellschrauben, sprich Rankingfaktoren, möglichst hoch zu halten, ist eine weitere Vorgehensweise, […]...
SEO-Tools: Backlink-Auswertung
Google bietet authentifizierten Webseitenbetreiber seit einiger Zeit die Möglichkeit, recht aktuelle, umfassende und genaue Informationen über alle gefundenen Backlinks der Webseite einzusehen und auch als CSV-Datei herunterzuladen. Dieses Tool nimmt nun diesen CSV-Download und versucht, einige weitere Informationen über die Backlinks zu sammeln. So werden die Links nach Hostnamen, IP-Adresse […]...
Googles Angst vor kleinen Seiten
Manchmal kommt mir der Suchmaschinengigant Google wie der sprichwörtliche Elefant, der Angst vor der kleinen Maus hat, vor. Gerade, wenn man sich generische Serps, die beispielsweise aus einem Stadtnamen und einer Berufsbezeichnung bestehen, ansieht, so werden dort meistens nicht relevante Webseiten von Anbietern aus der jeweiligen Stadt sondern Branchenbücher, Meinungsportale […]...
Das Proxy-Problem
Ein Problem, das seit einiger Zeit aktuell ist, aber anscheinend noch nicht genügend Öffentlichkeit gefunden hat, damit die großen Suchmaschinen aktiv werden, hat – wie bei der 302-Hijack-Problematik – mit der Übernahme von Inhalten zu tun. In einer Reihe von Ländern, wie beispielsweise China oder den Vereinigen Arabischen Emiraten, gibt […]...
Google Sitelinks revisited
Die Sitelinks von Google sind häufiger Gegenstand unterhaltsamer Diskussionen in den gängigen SEO-Foren. So richtig weiß niemand etwas Fundiertes dazu – folglich schießen die abstrusesten Deutungen und Ideen ins Kraut. Um die Verwirrung zu komplementieren, hier noch ein paar Ideen von mir zu dem Thema. Sitelinks werden die Links in […]...
Bestof: PageRank-Anzeige-Dienste
Was ich von diesen PageRank-Anzeige-Dienste, von denen man sich so nen kleinen Button mit dem aktuellen PageRank seiner Seite auf die Homepage klatschen kann halte, habe ich ja bereits häufig genug verkündet. Heute bin ich allerdings in einem Blogkommentar über eine Seite gestolpert, die wirklich alles bislang gesehe in der […]...
Basteltag
Heute abend kam ich endlich dazu, hier einige Neuerungen, die ich schon länger angedacht hatte, einzubauen. So kann man sich jetzt einen kostenlosen Account erstellen. Für das Blog hat das den Vorteil, dass es nach dem Login einmal einen Cookie gibt und man nicht jedesmal seine Daten erneut eingeben muss. […]...
Gefahrensucher
War das Geschrei in der SEO-Szene eben noch groß, als Google seine Webmaster-Guidelines etwas genauer gefasst hat und dabei darauf hinweist, dass nicht nur der Kauf sondern auch der Tausch von Links, die auf die Manipulation von Suchergebnissen zielen, in Hinsicht auf den Verbleib im Googleindex ungern gesehen werden, da […]...
Gewonnen
Vielen Dank an Alle, die bei der Abstimmung von SeoFM für dieses Blog sowohl in der Kategorie „bestes SEO-Blog“ als auch „bestes Posting“ gestimmt haben. Auch den anderen Gewinnern herzlichen Glückwunsch – so eine Anerkennung ist bei der doch nicht unerheblichen Arbeit, die so ein (SEO)-Blog macht doch immer schön. […]...
Alexa – Hokuspokus oder brauchbare Daten?
Die Daten von Alexa scheinen seit einiger Zeit wieder eine Renaissance zu erleben. Nachdem jahrelang ziemliche Ruhe um diese höchst umstrittenen Besucherzahlen war, sehe ich sie jetzt häufiger in Blogpostings und es soll sogar schon Leute gegeben haben, die sich an die Optimierung dieser Kenngröße gewagt haben – höchste Zeit […]...
Hintergrundinformationen zum Supplemental Index
Diese Woche wurde Google ein bereits 2003 eingereichtes Patent, das offensichtlich die Funktionsweise des Supplemental-Indexes beschreibt, gewährt. Das Patent geht darauf ein, wie ein Index sinnvoll in einzelne Partitionen unterteilt werden kann um die Geschwindigkeit und Effizienz des gesamten Systems zu erhöhen. Im Detail geht das Patent auf die konkreten […]...
Spam bei Google-Maps
Bislang hat sich „Spam“ bei der lokalen Suche von Google in sehr engen Grenzen gehalten: Da Google anscheinend hinreichend sichere Methoden der Authentifizierung von Firmen, die sich in Google Maps eintragen oder ihren Eintrag verändern wollen einsetzt, wurden wohl noch keine Lücken gefunden. Das scheint sich jetzt mit der Möglichkeit […]...
Cloaking – saubere Lösung oder Blackhat-Methode?
Ein uraltes Black-Hat-Thema wird derzeit erneut diskutiert: Cloaking. Dabei geht es darum, dem Suchmaschinencrawler andere Inhalte zu liefern als den Besuchern. Früher, als On-Page-Faktoren bei Suchmaschinen wie Fireball oder AltaVista noch extrem wichtig waren, wurde Cloaking recht häufig eingesetzt und hat seitdem einen negativen Beigeschmack. Heute hingegen empfiehlt Google seinen […]...
PageRank-Update August 2007
Google exportiert veraltetet PageRank-Werte auf die Server und die (Abakus)-SEO-Welt freut sich. Wer mitspielen will, kann auf Datencentern wie 66.249.93.44 oder 72.14.207.83 nachsehen....
Supplemental-Results ohne Kennzeichnung
Google hat– nach den Andeutungen von Cutts – nun auch offiziell angekündigt, die Kennzeichnung von Resultaten, die im Supplemental Index stecken, zu entfernen. Als Rechtfertigung wird genannt, dass die Unterschiede zwischen dem „Ersten“ sowie dem Supplemental Index geringer werden. Auf der einen Seite kann ich gut verstehen, dass Google diese […]...
Sommerloch
Ich weiß nicht, ob es die räumliche Entfernung zur deutschen SEO-(News)-Szene ist, oder ob einfach wirklich nichts passiert – jedenfalls ist mir beim entschlacken meines RSS-Readers keine Meldung aufgefallen, die ein eigenes Posting wert wär, deswegen jetzt hier kurz einige Sachen zusammengefasst. Abfrage für Supplemental-Index – Nachdem Google eine Möglichkeit, […]...
Das Web, Seiten auf Deutsch, Seiten aus Deutschland
[Die Bilder dieses Beitrags sind leider nicht mehr verfügbar.] Thomas hat mich gefragt, ob ich eigentlich auch schon mal ausgewertet habe, wie sich die Herkunft der IP-Adresse oder die Top-Level-Domain auf das Ranking bei Google Deutschland auswirken. Hatte ich nicht, ist ein interessantes Thema – hier also die Ergebnisse. Ich […]...
Bundesregierung versenkt 120 Millionen Euro-Steuergelder
Bislang waren die Ideen und Gerüchte zum deutschen Google-Konkurrenten eher theoretischer Natur, doch jetzt hat die EU-Kommision einem Antrag der Bundesregierung entsprochen und genehmigt, dass 120 Millionen Euro in einem obskuren Projekt, das irgendwas mit Internet und Suchmaschinen zu tun hat, versenkt werden. Theseus, so der Name des Projektes, hat […]...
Google geht auf Webmaster zu
Mit dem Schritt, Warnungen über einen (möglichen) Ausschluss aus dem Googleindex in den Webmaster-Tools anzuzeigen, setzt Google seinen Weg, die Kommunikation mit Webmaster zu verbessern, fort. Letztes Jahr hatte Google damit experimentiert, diese Meldungen per E-Mail zu versenden – dieses Vorhaben wurde aber recht bald dadurch torpediert, dass gefälschte E-Mails, […]...
Powerset – Hype oder Zukunft?
Seit einigen Monaten läuft die PR-Maschine von Powerset auf Hochtouren – offenbar so erfolgreich, dass Spiegel Online in Powerset bereits den kommenden Herausforderer von Google sieht. Nicht schlecht dafür, dass es derzeit weder eine öffentliche Beta noch sonstige, verwertbare Informationen gibt. Powerset will eine Technologie entwickeln beziehungsweise entwickelt haben, die […]...
Google gibt es, Google nimmt es
Suchmaschinen-Diva Google hat sich wieder etwas Neues einfallen lassen, um Webmaster zur Verzweiflung zu bringen. Waren es früher monatliche PageRank-Updates einhergehend mit dem mittlerweile schon legendären Google-Dance, entzieht Google derzeit gerne mal Seiten ihre Zuneigung und lässt Besuche aus dem Googleindex während dieser Zeit drastisch einbrechen. Gerald leidet mit seinem […]...
Linkkauf – Realitätsverlust oder Doppelmoral bei Google?
Seit Googles oberster Spamhüter Anfang des Jahres den Kampf gegen den Kauf und Verkauf von Links angekündigt hat, ist – objektiv betrachtet – wenig passiert. Es gibt in den Webmastertools nun ein Formular, um Seiten, die Links verkaufen zu melden und die Google-Richtlinien wurden entsprechend angepasst. Der Linkmarkt jedoch wächst […]...
Schaltet Google die Supplemental-Index-Abfrage ab?
Matt McGee ist aufgefallen, dass Google die Abfrage, die Seiten eines Projektes, die im Supplemental-Index stecken, anzeigt, offensichtlich nach und nach abschaltet. Während sie derzeit auf den Datencentern, die für Europa zuständig sind, noch funktioniert, sieht es bei einigen amerikanischen Datencentern schlecht aus. Rand Fishkin bestätigt die Vermutung und weißt […]...
Richtig fragen
Suchmaschinenoptimierung ist ein Themengebiet, das Diskussionen und Fragen geradezu herausfordert: Zuviel ist unbekannt, ändert sich oder wird unterschiedlich eingeschätzt. Folglich haben sich, auch im deutschsprachigen Internet, eine Vielzahl von Diskussionsforen zum Thema herausgebildet. Wer dort schreibt, möchte möglichst gute und viele Antworten auf seine Frage, hier ein paar Punkte, die […]...
Google-Stemming immer besser
Seit einigen Tagen kann ich beobachten, dass Google anscheinend eine neue Evolutionsstufe der Stemming-Algorithmus für den deutschen Index aktiviert hat. Während Google ganz am Anfang allenfalls Singular/Pluralformen erkannte und bei Suchen auch Seiten, die nicht exakt den gesuchten Begriff enthielten anzeigte, wurden anscheinend laufend Veränderungen vorgenommen. Jetzt scheint Google recht […]...
One Wikipedia to Rule Them All
Russ Jones von thegooglecache.com hat eine interessante Untersuchung gemacht: Er hat bei 600 zufällig ausgewählten Wikipedia-Seiten nach deren Titel bei Google gesucht und protokolliert, ob sich die Seite in den Google Top10 befindet – 580, also 96,6 Prozent taten es. Da ich zum einen Fan von solchen Untersuchungen bin, die […]...
Googlebot vs. Yahoo Slurp
Adam Doppelt hat in seinem Blog einige interessante Daten und Vergleiche zum Crawlverhalten der Bots von Google und Yahoo zusammengetragen. Analysiert wurden dazu die Logfiles von urbanspoon.com, einem Restaurantführer für die USA. Während der Googlebot schön gleichmäßig die Seite crawled, gibt es bei Yahoo extreme Spitzen. Auch überraschend, dass Google […]...
Inhouse-SEO wird auch in Deutschland erwachsen
Angebote für festangestellte Suchmaschinenoptimierer häufen sich in den letzten Wochen. So scheint Ebay auf der Suche nach einem SEO, der etwas Ordnung ist das Chaos bringt, das Meinungsportal Ciao hat eine SEO-Stelle schon seit längerem offen und auch die Allesklar AG sucht diesmal keine Telefonierer sondern einen SEO für Meinestadt.de. […]...
Was kostet Suchmaschinenoptimierung? – Teil III
Nachdem es gestern darum ging, welche SEO-Dienstleistungen eingekauft werden sollten, bei welchen der Kunde unterstützen kann und welche unnötig sind, geht’s jetzt ans Geld.AbrechnungsmodelleDer SEO-Dienstleister unterstützt und hilft dem Kunden und möchte dafür verständlicherweise auch bezahlt werden. Im Folgenden nun einige Abrechnungsmodelle, die so oder abgewandelt häufiger angewandt werden, ihre […]...
Was kostet Suchmaschinenoptimierung? – Teil II
Gestern habe ich kurz umrissen, welche SEO-Leistungen am häufigsten angeboten und nachgefragt werden. Jetzt geht es darum, dass entschieden werden muss, welche dieser Leistungen sinnvollerweise eingekauft werden sollten, welche selber erledigt werden können und welche überflüssig sind. Und was benötige ich jetzt?Wie so häufig gibt es hier nicht das eine […]...
Was kostet Suchmaschinenoptimierung?
„Wie kann es sein, dass ich Suchmaschinenoptimierung bei MyHammer für 9 Euro bekomme, andere Suchmaschinenoptimierer aber 1.000 Dollar pro Stunde verlangen?“ – Da hat man seinen tollen, neuen Onlineshop eingerichtet, die handgeklöppelten Produkte schön fotografiert und beschrieben und – niemand kauft sie. Kein Problem, etwas Geld ist noch übrig, dann […]...
Wann verlässt Matt Cutts Google?
Nachdem Vanessa Fox, die maßgeblich für den Aufbau der Google-Webmaster-Zentrale verantwortlich war, letzte Woche ihren Abschied von Google bekannt gegeben hat, gehen nun Bret Taylor und Jim Norris. Taylor und Norris, beide quasi Väter von Google Maps und Halter des Google Founders’ Award werden in Zukunft bei Benchmark Capital, einer […]...
Das Subdomain-Problem
Aron Wall, Verfasser des empfehlenswerten SEO-Books, hat auf den zunehmenden Missbrauch von Subdomains durch die „Großen“ aufmerksam gemacht. Dadurch, dass Google der Stärke beziehungsweise dem Trust einer Domain eine weitreichende Rolle bei der Relevanzbeurteilung zukommen lässt, kommt es häufig vor, dass mehr als eine Unterseite zu einem Query gefunden und […]...
Erneut gefälschte Google-Mails im Umlauf
Wie bereits im Mai ist wieder mal eine Welle jener Mails unterwegs, die angeblich vom Google Search Quality Team stamme und auf die baldige Entfernung der Webseite aus dem Index hinweist. Während beim letzten Mal hauptsächlich an webmaster@exmaple.org verschickt wurde, scheint es jetzt die generische und häufig vorhandene info@example.org zu […]...
Pagination als Gefahr für internen Duplicate Content
Blog- und Content-Management-Systeme wie WordPress oder auch Ruby on Rails verteilen Content, der nicht auf eine Seite passt üblicherweise auf mehrere Seiten und bieten dann unten, am Ende der Seite eine Navigation über Seitenzahlen an. Was für den Benutzer praktisch und übersichtlich ist, kann für Suchmaschinen zum Problem werden. Würde […]...
Die Ignoranz der Großen
Es gibt ja eine Reihe von so genannten Internet-Gesetzen. So besagt Godwin’s Law beispielsweise, dass derjenige, der in einer Diskussion das Gegenüber als Nazi bezeichnet, die Diskussion verloren hat. In Bezug auf Internetfirmen könnte man jetzt folgende Law aufstellen: „Je größer die Marktmacht der Firma, desto ignoranter geht die Firma […]...
Search Engine Reputation Management
Ein Bereich der Suchmaschinenoptimierung, der in Deutschland noch nicht so ganz angekommen ist, hört auf den schönen Namen „Search Engine Reputation Management“ oder auch abgekürzt „SERM“. Die Zahl der Suchanfragen, bei denen Suchende nach Informationen und Meinungen zu Firmennamen und Produkten suchen, nimmt stetig zu. Problematisch kann das für die […]...
Internationalisierung von Webseiten aus SEO-Sicht
Auch, wenn das Internet global ist, so muss doch auf die Bedürfnisse regionaler Zielgruppen eingegangen werden. Am wichtigsten ist dabei vermutlich die Übersetzung der Inhalte in die jeweiligen Sprachen. Bei der Umsetzung gibt es allerdings einige Fallstricke, auf die ich im Folgenden kurz hinweisen möchte: Pro Sprache eine ccTLD Jeder […]...
Google lässt Linkverkäufer und -Käufer melden
Wie vor einigen Tagen von Cutts schon indirekt angekündigt wurde, gibt es in den Google-Webmaster-Tools neben dem „klassischen“ Spamreport nun auch eine Möglichkeit, Seiten zu melden, die Links verkaufen. Das Ganze ist mit viel pathetischem Text umrahmt, wird aber vermutlich trotzdem recht schnell eine große Zahl an Meldungen zusammenbringen. Interessant […]...
Linkbaits: Solche und solche
Irgendein schlauer Mensch hat die Kunde vom Linkbait nach Europa gebracht. Dabei geht es darum, mit un- oder außergewöhnlichem Content eine große Anzahl neuer, eingehender Verlinkungen auf die eigene Seite zu generieren. Letzes Jahr habe ich schon mal einige, wie ich finde gute Linkbaits verlinkt und kurz erklärt. Das schöne […]...
XML-Sitemap schützen
Seit es die sinnvolle Erweiterung des Sitemaps.org-Standards gibt, die erlaubt, dass man den Pfad zu seiner Sitemaps-Datei in der robots.txt hinterlegt und sich diese nicht für jede Suchmaschine einzeln anmelden, authentifizieren und einreichen muss, ist leider auch die Gefahr gestiegen, dass Scraper und sonstiger Webabschaum sich dort bedient. Gerade Contentdieben […]...
Search Quality Rater, das unbekannte Wesen
Dass Google die SERPs mit Hilfe von Studenten auf Qualität kontrolliert, sollte mittlerweile kein Geheimnis mehr sein – die Stellen werden ja offiziell ausgeschrieben. Mich hat interessiert, ob sich die Zugriffe auf die Gegend um Hamburg beschränken oder die Quality Rater deutschlandweit sitzen und habe das mal auf eine Deutschlandkarte […]...
AdSense und der Dollarkurs-Mythos
Häufig lese ich in Blogs oder Foren, dass die Einnahmen durch AdSense ja eigentlich schon ganz gut sein, der schlechte Dollarkurs aber viel des Gewinnes durch den schlechten Kurs des US-Dollars verloren gehe. Es ist zwar prinzipiell richtig, dass der Dollarkurs Einfluss auf die Höhe der AdSense-Überweisungen hat, allerdings in […]...
Supplemental Index – Wie entkomme ich dem Google Hell?
In den ersten beiden Teilen haben wir gesehen, wieso es überhaupt eine Zweiteilung des Indexes gibt, wie man auslesen kann, wie viel Seiten des eigenen Projektes betroffen sind und welche Kriterien dazu führen können, dass eine Seite vom ersten in den zweiten Index rutscht. Nun ist es abhängig vom jeweiligen […]...
Google Webmasterrichtlinien überarbeitet
Google hat seine Webmasterrichtlinien – und dort besonders den Teil zu den Qualitätsrichtlinien – überarbeitet. So sind die meisten der dort aufgeführten Punkte, die ein Webmaster, dem der Googlegott wollgesonnen sein soll beachten sollte, nun auf eine ausführliche Erklärung und Erläuterung dieses Punktes verlinkt. Diese Änderungen sind derzeit nur auf […]...
Supplemental Index – Wieso hat es mich erwischt?
Wie gestern gesehen, hat nahezu jede Domain einen gewissen Anteil der Seiten im Supplemental Index. Ziel sollte es sein, diesen Anteil möglichst gering zu halten. Wer die Auswahl der Seiten im zweiten Index von Wikipedia durchgeht, wird sehen, dass Google die Erkennung von Seiten, deren Mehrwehrt gering ist, schon recht […]...
Supplemental Index – Webseiten zweiter Klasse?
Seit seiner Einführung 2003 ist der sogenannte „Supplemental Index“ Gegenstand zahlreicher Diskussionen und Fragen: Was ist der Supplemental Index überhaupt, wieso ist eine Seite drin und wie bekommt man sie dort wieder raus, welche Auswirkungen hat der Supplemental Index auf das Ranking der Seiten? Da dieser Blogpost etwas umfangreicher ausgefallen […]...
Robots.txt Deluxe – Die Erweiterungen, die Google unterstützt
Die sogenannte Robots.txt – eine im Rootverzeichnis der Domain abgelegte, reine Textdatei mit dem Namen robots.txt dient dazu, Suchmaschinen, die diese Datei beachten von bestimmten Bereichen der Webseite auszusperren. Obwohl bereits die Standardversion, die von den meisten großen Suchmaschinen unterstützt wird, immer wieder für Verwirrung sorgt, hat Google seinem Parser […]...
Ein Blick in das Herz von Google
Obwohl sonst eher nicht für korrekte und interessante Artikel zu Suchmaschinen bekannt, gab es in der New York Times jetzt einen interessanten Einblick in die Abteilung von Google, die Änderungen am Algorithmus vornimmt. Amit Singhal, Leiter der „Ranking-Algorithm“-Abteilung hat einige interessante Anmerkungen gemacht. So werden pro Woche etwa 5 Eingriffe […]...
Kleine Seite, kleine Probleme – große Seite, große Probleme
In SEO-Tutorials und Lehrgängen werden häufig die kleineren, übersichtlichen Seiten als Beispiel herangezogen: Startseite, ein paar Produkte, Kontakt, Impressum und Firmenbeschreibung – und das nicht ganz zu unrecht: Viele der „klassischen“, häufig auftretenden SEO-Problematiken sind bei kleinen Seiten deutlich einfacher zu handhaben oder erst gar nicht vorhanden. Wenn man nun […]...
Ranking-Faktoren: H1 bis H6 im Detail
Eine der größeren Überraschungen der „Ranking-Faktoren-Auswertung“ war ja, dass, während der Einfluss von Überschriften erster Ordnung anscheinend gering bis nicht vorhanden ist, Überschriften von H2 bis H6 einen Einfluss auf das Google-Ranking haben. Leider habe ich damals – wer konnte das Ergebnis schon voraussehen – bereits bei der Auswertung H2 […]...
Google auf den Spuren des VeriSign Sitefinders
2003 hat VeriSign, damals Monopolist für viele generische Top-Level-Domains für einen Eklat gesorgt als Anfragen, zu denen keine Domain existiert auf eine eigene, werbefinanzierte Landingpage weitergeleitet wurden. Nun scheint jemand von Google in Archivseiten gewühlt und das Vorgehen von VeriSign als nachahmenswert eingestuft zu haben. So hat Google vor etwa […]...
Zanox geht an Springer
Nun ist es also offiziell – Zanox wird nicht wie geplant an die Börse gehen sondern von einem Konsortium aus dem Axel Springer Verlag und der Schweizer PubliGroupe gekauft. Für rund 215 Millionen Euro gehen 60 Prozent an Springer, die restlichen 40 an die Schweizer. Im letzten Jahr setzte Zanox […]...
Diversifikation als Weg zum Erfolg
Die bereits im letzten Jahr von Faris erfolgreich angebotene Fortbildungsreihe für SEOs wird auch in dieses Jahr fortgesetzt. Dem SEO, dem durch zunehmende Konkurrenz, fiese Spamjäger in Dublin oder sinkende Qualität in den gängigen Foren die Arbeitsgrundlage entzogen wird, möchte ich die Weiterbildung zum Spargelstecher ans Herz legen. Nachdem weder […]...
Erkennung von Linkverkauf – Theoretische Gefahr oder bereits Praxis?
Das Thema Linkverkauf beziehungsweise Linkvermietung hat in den letzten Monaten große Wellen geschlagen. Google, in den Grundfesten seiner Rankingkriterien getroffen, kündigt schon länger an, dass linkverkaufende Seiten erkannt und entsprechend behandelt werden. Matt Cutts hat sogar schon dazu aufgerufen, diese Seiten zu melden, um einen angeblich in Entwicklung befindlichen Algorithmus […]...
Linkverkauf – Cutts legt nach
Nach seinem heftig kritisierten Posting, in dem Googles oberster Spamjäger dazu aufrief, Linksverkäufer zu melden, hat er diesen Beitrag jetzt erweitert und antwortet auf häufige Fragen, die er dazu bekommen hat. Interessant ist, dass er dabei zwei Beispiele von Seiten, die der Google-Linkverkaufsalgorithmus erkannt haben soll aufzeigt. Die erste Seite […]...
DVD-Lehrgang: Suchmaschinen-Optimierung
Stefan Fischerländer, Urgestein der deutschen Suchmaschinenszene und Betreiber von suchmaschinentricks.de hat in Zusammenarbeit mit dem Video-Trainings-Dienstleister Video2Brain einen umfassenden SEO-Lehrgang für Einsteiger auf DVD herausgebracht. In über 5 Stunden erklärt Stefan alle wesentlichen Schritte von der Einrichtung der benötigten Werkzeuge, über die technische Umsetzung, Linkbuildung bis hin zu Lösungen für […]...
Google-Ranking-Faktoren
„Ich habe das Gefühl, dass die Hervorhebung des Keywords in formatierten Listen eventuell Vorteile für das Ranking haben könnte“ – so, oder so ähnlich hören sich viele Aussagen aus dem SEO-Bereich an. Gesicherte Tatsachen gibt es nur wenig, gefühlte Erfahrungen und Meinungen dafür umso mehr. Um die Verwirrung komplett zu […]...
Kreative Virenmails
Derzeit rollte eine Welle an Virenemails, die mit der Wichtigkeit von Google spielt. So schreibt das – natürlich unechte – „Google Search Quality Team“, dass die Seite wegen eines Verstoßes gegen die Google-Richtlinien aus dem Index entfernt werden musste. So soll die Startseite mit einem nicht richtlinienkonformen Redirect weiterleiten. Zur […]...
Wie Suchmaschinen Nofollow-Links behandeln
Da seit Einführung des Attributes, das Linkspam reduzieren soll, unklar ist, wie genau die großen Suchmaschinen mit dem Nofollow-Attribut umgehen, hat Loren Baker von SearchEngineJournal nun bei Google, Yahoo und Ask.com nachgefragt: Google – Der Googlebot wird Links, die ein Nofollow-Attribut tragen, nicht folgen. Folglich werden auch Seiten, die nur […]...
PageRank-Update April 2007
Google exportiert derzeit wieder aktuelle PageRank-Werte auf die Server, die diese an die Google-Toolbars ausliefern. Zu sehen sind die Wert beispielsweise schon auf den Rechenzentren 64.233.189.161 oder auch 72.14.235.101. Dann dürfte für die nächsten Tage und Wochen die Zahl der Beiträge in Linktausch-Foren ja wieder entsprechend ansteigen und auch die […]...
SEO-Gerüchte: Ranking abhängig von HTML-Validität
„Bring erstmal den Quelltext in Ordnung – so kann das mit dem Ranking ja nichts werden“ – dieser oder ähnliche Sätze werden gerne benutzt, wenn in SEO-Foren oder -Blogs nachgefragt wird, wieso das Ranking einer Seite nicht den Erwartungen entspricht. Dass allerdings kein Zusammenhang mit der Validität des HTML-Quellcodes besteht, […]...
Webseiten-Diät – mehr ist nicht immer besser
Ein Beitrag im – übrigens absolut empfehlenswerten – SEOmoz-Blog hat mich an ein Thema erinnert, das mir in letzter Zeit auch häufiger beim Surfen aufgefallen ist: Nicht nur die Deutschen, sondern auch Webseiten werden immer fetter. Während Shopsysteme früher alle Artikel einer Kategorie noch häufig auf einer Seite darstellten und […]...
Datenschutzgau: Google Web History
Google hat die Search History vor ein paar Tagen in Web History umbenannt und damit gleichzeitig die Breite der mitprotokollierten Handlungen massiv erhöht: Wurden bei der Search History, die seit Februar bei vielen Google-Accounts als Standardeinstellung aktiviert war, nur die Suchanfragen bei Google aufgezeichnet, wird nun, über die Google-Toolbar, das […]...
Abakus PubCon & SEMSEO 2007
Alan Webb, der mit der jährlich stattfindenden Pub-Konferenz in Hannover ein Highlight des deutschen SEO-Zirkus aufführt, veranstaltet dieses Jahr vor dem gemütlichen Treff im Pub noch eine SEO- und SEM-Konferenz. Im Gegensatz zu den bekannten Events soll es hier etwas weiter in die Tiefe gehen und so nicht nur SEO-Anfänger […]...
Linkverkauf – ein Problem für Google
Seit Matt Cutts in einem Beitrag in seinem Blog dazu aufgerufen hat, Seiten, die offensichtlich Links verkaufen per Spamreport zu melden, kochten die Meinungen in Blogs und Foren zu diesem Thema hoch: Einmischung, Ausnutzung der Monopolstellung oder auch Vortrieb dem Denunziantentum sind nur einige Vorwürfe, denen sich Cutts und Google […]...
Klickbetrug am Fallbeispiel Clickbot.A
Die Googlemitarbeiter Neil Daswani und Michael Stoppelman vom Click-Quality-Team haben eine Untersuchung eines Klickbetrug-Netzwerkes veröffentlicht und ermöglichen damit einen Einblick in diesen sonst so öffentlichkeitsscheuen Bereich. Untersucht wurde der Aufbau und das Verhalten des auf den Namen „Clickbot.A“ getauften Schädlings, der auf über 100.000 Rechnern verbreitet war. Die Umsetzung des […]...
Neues von Sitemaps.org
Nachdem der Sitemaps.org-Standard bereits von Google, Yahoo und Microsoft unterstütz wurde, hat nun auch Ask.com angekündigt, das Format zu verarbeiten. Neu ist auch, dass nun eine Möglichkeit, den Suchmaschine die Pfad zur Sitemaps-Datei zu zeigen, ohne, dass man sich bei jeder einen eigenen Account für Webmaster erzeugen muss, geschaffen wurde. […]...
Wie funktioniert eigentlich Google Maps?
Nicht erst, seit Google bei einigen Suchanfragen mit regionalem Bezug die Onbox inklusive Google-Maps anzeigt und es auch nur noch eine Frage der Zeit sein kann, bis die Usenet-Suche gegen die lokale Suche von Google ausgetauscht werden kann, kommt die Frage auf: Wie funktioniert Google Maps eigentlich, was sind die […]...
Sitemaps.org Generator
Kurz vor Ostern habe ich unsere SEO-Tools noch um eine Möglichkeit, XML-Sitemaps nach Sitemaps.org-Standard zu erzeugen, erweitert. Einfach E-Mail-Adresse sowie Domain, für die eine Sitemap erzeugt werden soll eingeben und den Link zur fertigen Sitemap nach kurzer Zeit per E-Mail erhalten. Da das Tool noch neu ist, würde ich mich […]...
Die nervigsten SEO-Gerüchte
In einem Geschäft, in dem belegbare Fakten seltener als PageRank-Exporte sind, sprießen die Gerüchte in Foren und Blogs naturgemäß besonders gut. Im Folgenden eine Zusammenstellung der nervigsten SEO-Gerüchte und Weisheiten: Google hat Technikprobleme Seit Jahren ein Evergreen der Gerüchte. Kaum fliegen ein paar unbedeutende Seite aus dem Index oder werden […]...
Google Rankingfaktoren
Die Umfrage von SEOmoz wurde, nach sie bereits seit 2005 online ist, jetzt überarbeitet und erweitert. Prinzip dahinter ist, dass eine Reihe möglicher Rankingfaktoren, welche die Google-SERPs beeinflussen, von Suchmaschinenexperten bewertet und nach Relevanz sortiert werden. Aus diesem Pool an Informationen wird dann ein Durchschnitt gebildet – heraus kommt ein […]...
Yahoo-Bot mit neuem Host
Nachdem es im Yahoo-Blog bereits angekündigt wurde, ist der neue Host der Yahoo-Crawler nun auch in den Logfiles zu sehen. Während früher Subdomains von inktomisearch.com verwendet wurden, nutzt der Bot jetzt Subdomains von crawl.yahoo.net: lj612026.crawl.yahoo.net - - [31/Mar/2007:19:23:09 +0200] "GET /news/ HTTP/1.0" 200 31337 "-" "Mozilla/5.0 (compatible; Yahoo! Slurp; http://help.yahoo.com/help/us/ysearch/slurp)" […]...
Aprilscherzchen
Google TiSP: Netzwerkkabel durch Abwasserleitungen legen. Matt Cutts: Pseudohack CuttsCon: Konferenz, bestehend nur aus Cuttlets. GMail: Zustellung via Post....
Lokale Suche in Deutschland: Cityreview
Ich habe mir in letzter Zeit einige der recht zahlreich vertretenen lokalen Suchmöglichkeiten in Deutschland angesehen und so richtig begeistert war ich von keiner. Was mich gestört hat, war, dass den vorhandenen Lösungen keine wirkliche Websuche zugrunde liegt, sondern es bessere Branchenbücher mit Such- und Kartenfunktion sind. Was nicht in […]...
Microsoft-Backlink-Abfrage deaktiviert
Live, the artist formerly known as MSN hat derzeit seine Backlink-Abfrage deaktiviert. Anfragen der Art „link:http://www.example.org“ laufen komplett ins Leere. Auf Nachfrage gibt der Support an, dass Aufgrund der Massenabfragen durch SEO-Tools die Serverbelastung für diese – für den normalen Betrieb – unwichtige Option zu groß und folglich deaktiviert wurde....
Domainverteilung Deutschland
Statistiken, wie beispielsweise die der Denic über die Verteilung der registrierten de-Domains auf die Landkreise fand ich schon immer interessant und aufschlussreich. Da wir selber derzeit etwas mit ortsbezogenen Daten arbeiten, habe ich diese ebenfalls auf einer Deutschlandkarte visualisiert. Im Gegensatz zu der Denic-Statistik sind die Daten auf Städte und […]...
Webmaster-Central-Blog auf Deutsch
Google hat nun auch eine deutschsprachige Variante des Webmaster-Central-Blogs gestartet. Steh zwar bislang nur der Eröffnungsbeitrag von „Stefanie“, ihres Zeichens bemüht um die Qualität der Suchresultate drin, aber da das Blog sogar schon mit einer Philosophie ausgestattet ist, sind die Erwartungen hoch – die Amerikaner haben ja bereits einige interessante […]...
.plan reloaded
Twitter macht derzeit in meinem Bloglines die Runde. Wer es noch nicht mitbekomme hat: Twitter ist ein „Dienst“, bei dem User posten können, was sie gerade wo machen. Also eine Art Status aber in viel Pastell-Farben, Farbverläufen und weiteren Web2.0-Erkennungsmerkmalen. Ich fühlte mich, nachdem ich glaube erkannt zu haben, dass […]...
Manipulationsmöglichkeiten bei Social-Media-Portalen
Yigg, Webnews und die weiteren Digg-Kopien habe ein großes Problem: Sie haben zu wenig User. Eine Startseitenplazierung bringt selbst bei Yigg selten mehr als 300 Klicks, bei Webnews ist der Traffic kaum messbar. Neidisch schauen die Betreiber da vermutlich in die USA zum großen Vorbild und hoffen auf die Zukunft. […]...
Google Richtlinien für Webmaster: Wenn Ihre Website fertig ist
Google hat in Deutschland zwar keine Gesetzgebungskompetenz, bei über 90 Prozent Marktanteil können die Google Richtlinien für Webmaster allerdings doch für alle, die erfolgreich Webseiten betreiben wollen einen ähnlichen Status erreichen. Da der Link zu den Richtlinien zwar häufig genannt, aber inhaltlich noch nicht wirklich besprochen wurde, will ich das […]...
Wenn die Vergangenheit peinlich wird
In Zusammenhang mit einem unserer Projekte habe ich heute eine E-Mail der Firma ReputationDefender erhalten. Es geht darum, einen Beitrag, den ein Kunde der Firma vor längerer Zeit bei uns hinterlassen hat, zu entfernen. Offensichtlich ist ihm sein damaliges Verhalten heute peinlich und vielleicht sogar ein Hindernis bei Bewerbungen – […]...
Misstrauen gegenüber Google Sitemaps
Google Sitemaps, jetzt seit über eineinhalb Jahren aktiv, scheint in letzter Zeit Quell für zahlreiche Spekulationen und Verschwörungstheorien geworden zu sein. Mal wird die Anmeldung bei Google Sitemaps mit PageRank-Verschiebungen in Verbindung gebracht, dann wieder werden dem Google-Tool Rankingsprünge angelastet. Man sollte Google Sitemaps als das sehen, was es ist: […]...
Firefox Googlesuche mit eigenem Referrer
Seit es das Bugrelease 2.0.0.2 für den Firefox gibt, scheint Mozilla die Behandlung von Traffic, der aus der voreingestellten Homepage kommt, umgestellt zu haben. Während diese Startseite früher auf www.google.com lag und nur im Design an den offenen Browser angepasst war, hat sie nun den Host $lang.start2.mozilla.com – wobei $lang […]...
Spam 2.0
Bei Jojo habe ich heute gelesen, dass Webnews, dieser Digg-Clone, der zwar deutlich zu spät aber dafür mit Samwergeld gestartet ist, jetzt auf die lustige Idee kam, Trackbacks zu senden, wenn man seine News dort einreicht. Wenn man jetzt die ganze Web2.0-Fassade mal weglässt und sich überlegt, was da eigentlich […]...
Suchmaschinenoptimierung für Einsteiger 1.2
Eine neue Version des SEO-Tutorials für Einsteiger nur einen Tag vor Rosenmontag – wenn das kein gutes Zeichen ist. Neu hinzugekommen ist diesmal eine Sektion mit häufigen Fragen und hoffentlich richtigen und verständlichen Antworten dazu. Neue Fragen können mir gerne per E-Mail geschickt werden. So sie für die Allgemeinheit interessant […]...
Lokale Suche in Deutschland: Google sammelt eigene Daten
Nachdem Google bislang auf Daten von Drittanbietern zurückgegriffen hat, um den Datenbestand für die lokale Suche zu erzeugen, scheint man jetzt dazu überzugehen, eigene Daten zu sammeln. So hatte ich heute einen Flyer von Google im Briefkasten, in dem Google mich bittet, meine eingetragenen Daten zu überprüfen und zu erweitern. […]...
Wikipedia – der UberSEO?
Die Webstatistiker von Hitwise haben jetzt Zahlen veröffentlicht, die belegen, dass der Traffic, den Wikipedia von Google erhält, innerhalb des letzten Jahres um 166 Prozent gestiegen ist. Nur Google Image Search und MySpace, beides Googleseiten, erhalten mehr Indextraffic. Der Anteil von Google am Trafficmix ist damit von 40 auf 50 […]...
Herkunft der Beschwerden bei Google
Google versucht ja bekanntermaßen, die jeweiligen Ländersuchen den rechtlichen Gegebenheiten des betreffenden Landes anzugleichen. Dass das nicht immer einfach ist und auch nach hinten losgehen kann, hat hier das Verhalten von Google in China gezeigt. Um dem ganzen trotzdem noch einen halbwegs seriösen Anstrich zu geben, veröffentlicht Google diese Aufforderungen, […]...
Googlestudie zur Lebensdauer von Festplatten
Wenn man, wie Google, eine große Anzahl von Computern betreibt, fallen dabei häufig auch interessante Daten an, die mit dem eigentlichen Geschäft nichts zu tun haben. Drei Googlemitarbeiter haben nun die Lebensdauer der Festplatten in den Googleservern in Abhängigkeit von verschiedenen Einflüssen wie beispielsweise Alter oder Temperatur der Umgebung in […]...
Kommende Termine 2007
Nachdem ich letzten Dienstag auf dem – übrigens sehr gelungenen – Stammtisch in Hamburg war, hier kurz ein paar Hinweise auf kommende Termine und Treffen aus dem Onlinemarketing/SEO-Bereich: 24.02.2007 – Mainz Hosting-Stammtisch, organisiert von Dennis Hain in Mainz. Ab 15 Uhr 07.03.2007 – Berlin Online Marketing Lounge, organisiert von Ecato. […]...
Wieso SEO-Blogs den deutschen SEO-Foren voraus sind
Früher war alles einfach: Es gab Fireball und im Suchmaschinentricks-Forum wurde diskutiert, wie häufig man das Keyword im Titel oder Dateinamen wiederhole müsse, um weit vorne zu laden. Dann kam Google, der Anteil der Suchmaschinen am Traffic wuchs stark, das Abakus-Forum eröffnete und Suchmaschinenoptimierung wurde ein „Mainstream“-Thema. Egal, welches qualifizierte […]...
Ähnlichkeitsfilter bei Google angezogen?
In letzter Zeit verdichten sich die Hinweise, dass Google beim Filter, der ähnliche Inhalte erkennen soll, entweder die Parameter verändert oder aber neue Erkennungsmuster eingeführt hat. So scheinen derzeit Projekte, die eine Vielzahl ähnlicher oder gleicher Daten nutzen davon betroffen. Als Paradebeispiel hierfür können Preisvergleiche gelten: Letztlich haben sie alle […]...
Lokale Suche in Deutschland: Die Mitspieler
Auch, wenn die weltweite Vernetzung des Internets viele Vorteile hat, so ist es doch häufig gewünscht, nur Seiten zu finden, die in einem begrenzten regionalen Umkreis liegen. So mag das Hotel in New York noch so schön sein, als Unterkunft für die nächste Abakus Pubcon ist es denkbar ungeeignet. Diesen […]...
Yahoo Pipes
Yahoo stellt mit Pipes einen Service bereit, mit dem man Daten-Feeds (RSS, XML, etc) verknüpfen und mischen kann. Der Name „Pipes“ soll die Ähnlichkeit zum gleichnamigen Unixtool aufzeigen – mit ihm kann man nahezu alle Ein- und Ausgaben von Shellbefehlen kombinieren. Die Onlineversion von Yahoo stellt dafür einen Editor bereit, […]...
GMail jetzt offen
Bei GMail, in Deutschland und anderen Ländern aus juristischen Gründen auch Google Mail, kann jetzt jeder ohne Einladung ein Konto eröffnen. Derzeit werden 2,8 Gigabyte Speicher und die vertrauten Funktionen geboten....
Textbroker erhöht Preise
Der Contentvermittler Textbroker hat bereits kurz nach dem Start angekündigt, die Qualitätseinstufung der Autoren zu überarbeiten und die Preise, zum Teil deutlich, zu erhöhen. In der fünfstufigen Bewertungsskala wird die niedrigste Qualitätsstufe in Zukunft wegfallen, der Preis der zweite Stufe wird von 0,8 auf 1,2 Cent, der der dritte von […]...
Google zeigt Backlinks wieder an
Wie das Google-Medium Matt Cutts berichtet, bietet Google über das Sitemaps-Tool Seiteneigentümern ab heute endlich wieder die Möglichkeit, aktuelle Backlinkdaten einzusehen. Dieses Feature wurde in der Vergangenheit wiederholt von Webmaster gewünscht und scheint nun von Google umgesetzt. Die Backlinks werden pro Seite und dort unterteilt in interne und externe Backlinks […]...
Erfahrungen mit Textbroker.de
Ich habe bei Internetmarketing-News und dem Affiliateboy jeweils einen Beitrag zu Textbroker.de gelesen und, da ich seit ein paar Tagen ebenfalls mit diesem Service zur Contenterstellung experimentiere, will ich auch meine Meinung dazu beitragen. Textbroker bringt Produzenten von Texten auf der einen und Contentsuchende auf der anderen Seite zusammen. Es […]...
Google News mit Technikproblemen
Google scheint derzeit Probleme mit seinem Newsdienst „Google News“ zu haben. Die Startseite zeigt sich reichlich lückenhaft und viele Themengebiete sind erst gar nicht belegt. Dieser Fehler scheint bei allen Länderversionen von Google News aufzutreten – auch die US-Seite ist betroffen. [Update 22:00 Uhr] Google scheint das Problem behoben zu […]...
Microsoft verliert weiter Marktanteile
Die Nielsen//NetRatings-Zahlen für den US-Markt für Dezember 2006 zeigen, dass Microsoft dort weiter massiv Marktanteile verloren hat. Mit nur noch 8,4 Prozent aller Suchanfragen rangiert MSN/Live damit nur noch kurz vor AOL, die nichtmal einen eigenen Index haben, sondern lediglich Google-Daten nutzen. Während alle anderen Suchmaschinen die Zahl der Suchen […]...
Google kann Marke "Gmail" in Europa nicht gewinnen
Google hat den Prozess um die Marke „Gmail“ vor dem OHIM (Office for Harmonization in the Internal Market), der europäischen Organisation für Marken, verloren. Der Deutsche Daniel Giersch, der die Marke „GMail“ bereits vor Google angemeldet hat und unter diesem Namen einen Postzustelldienst betreiben will, konnte so also nach Siegen […]...
Klickbetrug auf Rekordniveau?
Click Forensics stellt quartalsweise Zahlen zu Klickbetrug in einem Clickfraudindex zur Verfügung. Diese Daten werden von über 3000 Werbetreibenden und deren Agenturen bezogen. Die jetzt veröffentlichen Zahlen für das letzte Quartal 2006 zeigt ein neues Rekordniveau – so sollen 14,2 Prozent aller Klicks auf Betrug zurückzuführen sein. Etwas aufgeschlüsselt zeigen […]...
Amazons Wiki-Versuch
Mit „amapedia“, einer Wortkombination aus Amazon und Wikipedia hat Amazon mal wieder eines seiner zahlreichen Testprojekte online gestellt. Die üblichen Web2.0-Features wie Blogs, Tagging, Ajax oder Systeme, um anderen Usern Produkte zu empfehlen werden bei amapedia geschickt um die Amazon-Produktdatenbank herumgebaut. Sieht auf den ersten Blick interessant aus und zeigt, […]...
Google.de kurzzeitig übernommen
Google scheint die Domain google.de kurzzeitig verloren zu haben. So ist auch derzeit noch ein Domainhändler aus Wiesbaden als Domaineigentümer bei Denic eingetragen – die Nameserver sind aber mittlerweile wieder auf die von Google zurückgestellt. In der Nacht von Montag auf Dienstag haben allerdings zahlreiche Surfer eine Seite des Hosters […]...
Nofollow – das ewige Thema
In den letzten Tagen ist das Thema nofollow, also der Einsatz eines Attributes zum Link-Tag, das die Vererbung für Suchmaschinen unterbindet, pünklich zum zweijährigen Juliläum desselben wieder aktuell geworden und durch deutsche SEO-Blogs gegangen. Passenderweise hat heute auch die englischsprachige Ausgabe der Wikipedia beziehungsweise dessen Gründer Jimbo Wales im Alleingang […]...
Spider Trap jetzt in Version 1.0
Spider Trap, ein Projekt von Thomas Zeithaml – vielen aus Foren auch unter dem Pseudonym jr-ewing bekannt – liegt nun in Version 1.0 vor. Spider-Trap erkennt Crawler, die sich nicht an die Vorgaben der robots.txt halten und sperrt den Zugriff für die betreffenden IP-Adressen automatisch. In der jetzigen ersten „vollen“ […]...
Google will Standort Zürich ausbauen
Laut einem Bericht der NZZ will Google das Büro in Zürich erweitern. In den neuen Räumen sollen zukünftig bis zu 1600 Mitarbeiter arbeiten – damit wäre Zürich der größte Google-Standort außerhalb der USA. In Zürich betreibt Google neben der lokalen Vertriebsorganisation Google Switzerland das europäische Forschungs- und Entwicklungszentrum....
Sicherheitsprobleme bei Google und SEO-Blogs
Zwei Sicherheitsprobleme mit Bezug auf den Suchmaschinenmarkt wurden in den letzten Tagen publik: Google hatte seine Cookieverwaltung nicht ausreichend geschützt und Seo-Uberblogger aus den USA haben mit einem Scriptkiddie, das einen Bug im beliebten Blogsystem WordPress ausnutzt, zu tun. Google Google bietet seit einigen Tagen die Möglichkeit, bei Blogger.com verwaltete […]...
Was will AOL mit TradeDoubler?
tecCHANNEL berichtet, dass AOL den Partnerprogrammbetreiber TradeDoubler übernehmen will. Geboten habe AOL rund 900 Millionen US-Dollar und TradeDoubler habe bereits zugestimmt....
DMoz wieder vollständig funktionstüchtig?
Nachdem die interne Arbeitsumgebung für Editoren bereits letztes Jahr wieder funktionstüchtig war, scheint jetzt auch die Funktion für den Eintrag neuer Seiten wiederhergestellt. Das Formular sieht jedenfalls aus wie vorher und nimmt die Daten auch an – bleibt zu hoffen, dass der Admin sie auch in die Datenbank und nicht […]...
Google Neuigkeiten
Google-Sternchen Matt Cutts hat versucht, das Rausch-Signal-Verhältnis in seinem Blog etwas zum Besseren zu wenden. Da einige Punkte interessant sind, hier eine kurze Zusammenfassung auf Deutsch: PageRank Cutts bestätigt, dass das etwa vierteljährliche PageRank-Update derzeit an die Datencenter ausgeliefert wird. Auch betont er, dass die neuen PageRank-Werte längst in das […]...
Apple iPhone: Auch Google und Yahoo im Boot
Beim jetzt vorgestellten neuen Apple iPhone spielen auch die beiden Suchmaschinenanbieter Google und Yahoo eine Rolle. Während Google mit Google Maps die Karten- und Satellitenübersicht bietet, stellt Yahoo einen E-Mail-Dienst auf IMAP-Push-Technologie bereit. Damit werden neue E-Mails nach Eingang auf dem Mailserver an das Handy weitergeleitet und das Postfach ist […]...
PageRank-Update Januar 2007
Der grüne Balken zuckt mal wieder. Auf einigen Google Datencentern wie 216.239.51.19 scheinen die neuen Daten schon vorzuliegen, bei anderen werden sie derzeit wohl noch eingespielt. Die Datenbasis für das PageRank-Update muss irgendwo in der ersten Dezemberwoche 2006 liegen. Dann ist es ja wieder Zeit für seitenlange „Diskussionen“ bei OMTalk […]...
Überblick: Suchmaschinen
Für einen Überblick über relevante nationale und internationale Suchmaschinen habe ich eine Liste mit den jeweiligen Datenlieferanten, einem Screenshot und ein paar Worten zu der Suchmaschine zusammengestellt....
Überblick: Deutsche SEO-Blogs
Frisch aus meinen Feedreader und der Bookmarkverwaltung: Ein Überblick (Link nicht mehr verfügbar) über deutschsprachige SEO-Blogs, die ich derzeit lese. Vielleicht ist für den ein oder anderen ja noch eine Anregung dabei. Auch würde ich mich über noch nicht entdeckte Sterne des Bloghimmels in den Kommentaren freuen....
Google beteiligt sich an WLAN in San Francisco
Laut heise.de haben die Stadt San Francisco und der Provider Earthlink sowie Google einen Vertrag über den Aufbau eines stadtweiten WLAN geschlossen. Das WLAN soll frei zugänglich sein – Google soll dazu „innovative neue Anwendungen und Dienste“ beisteuern und wird vermutlich auch in die Finanzierung eingebunden sein. Für zahlreiche Geodienste […]...
Fernöstliches Rechtsverständnis
Da zitiert ein Blogger einen Bericht des Spiegel Online, laut dem ein chinesischer Bushersteller die Luxusbuse des deutschen Herstellers MAN dreist kopiert haben soll. 3 Monate später erscheint dann ein Rechtspfleger und verkündet, dass jene chinesische Firma den Blogger in China auf eine öffentliche Entschuldigung und wirtschaftliche Entschädigung verklagt habe. […]...
Bedient sich Yahoo bei Google?
Bei einer heute neu registrierten Domain, auf der ein Blog installiert wurde, kam kurz nachdem die Domain bei Google Blogsearch angemeldet wurde auch Besuch von Yahoo vorbei: crawl-66-249-66-240.googlebot.com - - [05/Jan/2007:14:50:38 +0100] "GET / HTTP/1.1" 200 3068 "-" "Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)" relay2.ops.scd.yahoo.net - - [05/Jan/2007:14:50:52 +0100] "GET / HTTP/1.0" […]...
AdSense testet negativen Keywordfilter
In Caydels SEO Blog wird berichtet, dass Google bei AdSense neben der schon lange aktiven Möglichkeit, Seiten per URL auszuschliessen, neuerdings einen negativen Keywordfilter testet. So kann man dann eine Reihe von Keywords angeben und es werden über AdSense keine Anzeigen mehr eingeblendet, die auf diese Keywords passen. Geht zwar […]...
Hosting Stammtisch, Mainz
Dennis, auch Moderator bei OMTalk, veranstaltet am 24.02. in Mainz einen Stammtisch. Auch, wenn die URL eher auf Webhosting hindeutet, wird es auch um Onlinemarketing und Suchmaschinenoptimierung gehen. Da es von hier nur etwa eine Stunde mit dem Auto ist, werde ich vorbeisehen und würde mich freuen, einige der Leser […]...
Wieviel zahlt Google an Mozilla?
Mitchell Baker, Vorstand der Mozilla Foundation, hat in einem Posting in seinem Blog erstmals Angaben zu Finanzen der Mozilla Foundation gemacht. So habe die Stiftung 2005 insgesamt 52,9 Millionen US-Dollar zur Verfügung gehabt. 29,8 Millionen davon sein Einnahmen der Stiftung, wovon wiederum ein Großteil durch die Kooperationen mit Suchmaschinen erzielt […]...
Gefahren der Linkvermietung
Nicht erst, seit das Konzept von Text Link Ads mit Linklift auch Deutschland erreicht hat, scheinen viele Seiten- und Blogbetreiber in der Vermietung von Textlinks eine neue Goldgrube zu sehen. Dass sie aber auch Gefahren für die eigene Seite birgt, scheint vielen Verkäufern nicht klar zu sein. Aktuelle Suchmaschinen berechnen […]...
Google produziert 404-Fehler
Beim Durchsehen von Logfiles ist mir heute aufgefallen, dass Google – wie Yahoo schon seit einiger Zeit – offenbar absichtlich 404-Fehler produziert um somit den Inhalt der 404-Fehlerseite zu erhalten. Ziel ist es vermutlich, Seiten bei denen für Fehlerseiten der Standardheader 200 gesendet wird zu entdecken und entsprechend zu behandeln. […]...
StudiVZ für 100 Millionen verkauft
Laut Informationen des Spiegel wurde das Studentennetzwerk StudiVZ für 100 Millionen Euro an die Holtzbrinck-Gruppe verkauft. Der Verkauf ist damit der größte Verkauf eines Web2.0-Projektes in Europa. Weitere Informationen bei Spiegel Online. Bei etwa einer Millionen angemeldeter User entspricht das 100 Euro pro Studenten – vermutlich mehr, als der Durchschnitt […]...
Suchmaschinenoptimierung für Einsteiger 1.1
Ich habe heute ein kleines Update des SEO-Tutorials „Suchmaschinen für Einsteiger“ online gestellt. Hauptsächlich ist ein SEO-Glossar hinzugekommen. Auch habe ich einige kleinere Fehler verbessert und ein paar Passagen aktualisiert. Nachträglich dann auch noch allen Lesen ein frohes neues Jahr....