Der Document Titel Ihrer Webseite wird im Browser (IE, Firefox, Opera etc.) im oberen Rand dargestellt und ist eines der wichtigsten Elemente für ein gesunde Suchmaschinenoptimierung. Diese sog. Onpage Optimierung ist unerlässlich und wir weisen Sie hiermit darauf hin, dass Sie hier keine Power verschenken sollten. Der Title wird in den Suchergebnisseiten aller Suchmaschinen als Überschrift der Suche gewertet. Dies allein sollte für Sie ein Hinweis auf die unbedingt notwendige und sinnvolle Gestaltung dieses Titels sein. Bestimmt ist Ihnen auch schon aufgefallen, dass Suchmaschinen die Wörter welche Sie in Ihrem Titel oder der Beschreibung gefunden haben als schwarz markieren. Wie können aber Suchmaschinen Keywords im Titel oder in der Beschreibung finden, wenn diese nicht vorkommen?
Die Frage ist also nun, sollte der Name Ihrer Firma in den Titel?
Die Antwort ist ganz klar “NEIN”!
]]>Heute war Großreinigungstag. Letzte Nacht liefen mehrere über putty manuell angestoßene Cronjobs welche alle 18000 Einträge auf Erreichbarkeit der Domains überprüften. Sofern ein Servererror wie z.b. 404 oder 500 ausgegeben wurde oder der Apache der eingetragenen Webseiten nicht mehr reagierte, wurde die Domains vermerkt und heute nochmals von Hand gesichtet. 324 Domains waren nicht mehr zu erreichen und wurde somit gelöscht!
Es gibt jedoch auch Webseitenbetreiber die Ihre Einträge angemeldet hatten und die Domain nun bei Sedo oder anderen Domainparking Diensten parken. Diese Seiten sind nicht natürlich weiterhin erreichbar und geben keinen 404 aus. Somit wurden diese durch den ersten Cronjob nicht erkannt. Da es natürlich sehr ungünstig ist auf geparkte Domains wo sich nur Werbung befindet zu verlinken, wurde im zweiten Cronjob der gesamte Seiteninhalt der Webseiten nach Schlagwörtern wie “sedo” oder “parking” untersucht. Das Script arbeitete die 18000 Einträge perfekt ab, so dass 245 geparkte Domains entlarvt werden konnten. Auch diese wurden heute nochmals von Hand kontrolliert und aus dem Webkatalog entfernt!
Es geht doch nichts über eine saubere Datenbank!
]]>2 neue Projekte welche größtenteils von uns betreut werden gehen heute nach längerer Entwicklungszeit an den Start. Zum einen ist es das Beauty & Wellness Projekt auf welchem Artikel & Newsmeldungen aus den Bereich Gesundheit, Kosmetik und Lifestyle veröffentlicht werden und zum anderen das Reit & Pferdesport Forum reitlehre-forum.de. Dort wurde mit Unterstützung von Hr. Heuschmann ein Portal geschaffen, auf welchem sich Pferdefans untereinander austauschen können. Abgerundet wird dieses Projekt durch einen Chat, eine Galerie und einen Kleinanzeigenmarkt.
]]>Immer wieder erhalten wir von Kunden gleichgelagerte Anfragen. Weiterhin werden Fußnoten oder oder Wichtige Anmelderichtlinien nicht gelesen. Keine Sorge, wir verstehen dass, auch wir lesen nicht überall jeden einzelnen Punkt und belästigen dann den Support! Trotzdem möchten wir die Supportzeiten minimieren in dem wir in unserer Antwort E-Mail dann unsere FAQ zitieren. Uns ist klar, dass wir bei unseren vielen Aufnahmerichtlinien zur Freischaltung im Webverzeichnis Fehlanmeldung nicht komplett ausschließen können aber wir möchten nichts unversucht lassen diese Zahl zu minimieren in dem wir Sie an verschiedenen Stellen über unsere Gründe und Notwendigkeiten informieren. Die FAQ wurde nun um 3 wichtige Punkte ergänzt!
Hilfe, die Detailseite oder Kategorie wird in den Suchergebnissen vor meiner Webseite gelistet?
Warum ist es nötig eine eigene Detailbeschreibung zu verfassen?
Freischaltung oder Verschiebung Ihres Eintrages in eine andere / neue Kategorie!
Seit unser Webkatalog am 29.04 nahezu fast aus den Suchergebnissen verschwunden ist, habe ich mir eigentlich durchgehend über die möglichen Ursachen Gedanken gemacht. Was nicht bedeutet, dass man sich die letzten Jahre nicht zu genüge damit auseinander gesetzt hätte. Durch den unmittelbaren Bezug zu meinem Hauptprojekt wurde die Ursachenforschung jedoch noch verstärkt und ich denke, dass ich nun die richtigen Ansätze habe. Die Lösungen ergeben sich dann aus dem Verständnis für die Ursache. Da Google die Ursachen für sich behält, kann ich natürlich nur vermuten und alle mir erdenklichen Faktoren zusammenrechnen. Das ist eigentlich auch das was ich die ganze Zeit über probiert habe, mir ein Puzzlebild zu Ende denken ohne die Hälfte der Puzzleteile zu kennen.
Es gibt Mutmassungen die ich glaube und welche die ich von vorneherein verwerfe. Dazu kommen noch Mutmassungen bei denen ich Anfangs dachte sie könnten ursächlich sein aber diese nun auch verwerfe. Zu diesen letztern zähle ich z.B. das DC für das Fallen der Kataloge oder Webseiten im Allgemeinen verantwortlich ist. (Clones ausgeschloßen) Dies wird auch von Google teilweise bestätigt, in dem im Google Webmasterblog mitgeteilt wird, dass DC bzw. einzelne Sätze und Textpassagen nicht schädigend sind usw. oder zumindest nicht in dem Ausmaß wie schlechte links schädigen.
Nun zu meiner Erkenntnis der letzten Tage:
Was jetzt kommt ist alles irgendwo bekannt..aber ich hab dies nochmal für mich aufgefrischt! Ich gehe jetzt auch nicht auf die Punkte ein, welche noch zu einem Absturz führen können wie cloaking..doorway..hidden links usw…
Also, es ist jedem bekannt, dass es ein internes für uns nicht einsehbares Qualitätsranking gibt. Ich spreche natürlich nicht vom Pagerank. Einer der höchsten Maßstäbe für Google sind natürlich immer noch Backlinks. Diese Methode hat Google auch erfolgreich gemacht und genau das will google natürlich auch schützen. Demnach legt Google höchsten Wert darauf, diese Links genaustens zu definieren und sich mit den Qualitätsmerkmalen der Links auseinander zu setzen.
Wir haben bereits alle irgendwo an unseren Seiten festgestellt, dass es letztendlich eigentlich nicht an unseren Seite selbst liegt, dass wir abgestürzt sind, sondern das es noch Faktoren geben muss, die für uns nicht einsehbar sind. Selbst beim ändern der kompletten Webseite, stecken Webseiten immernoch über Monate und Jahre hinweg in diesen Filtern fest. Wie wir schon richtig erkannt haben, kann es eigentlich nur noch an den Links liegen und ich denke, dass tut es auch zu 100 %. Wie will Google die Stärke einer Seite bewerten wenn nicht über links? Klar man denkt sich, dass kann doch nicht sein, dann könnte ich die Konkurrenz ja schädigen…kann man auch, nur nicht so schnell!
Wie definiert man aber ob ein Link gut oder schlecht ist? Ein Link ist dann gut, wenn er von einer Webseite kommt welche bereits gute links hat. Ein Link ist dann schlecht, wenn er von einer Webseite kommt die schlechte Links hat. Jetzt ist aber noch nicht gesagt, was genau einen schlechten Link ausmacht…schlechte links sind links von Seiten auf denen sich mit wenig Text viele Links befinden oder ähnliches. Ich will mich eigentlich auch nicht darauf festlegen wie diese Seiten aussehen, jedenfalls kennen wir alle schlechte links!
Der Punkt ist jetzt, dass je mehr man gute Links hat, man auch mehr schlechte haben darf bis die Filter einsetzen. Das ist dann auch der Grund, warum manche der Ansicht sind, dass Webkatalog links schädlich sind, weil diese eben das Fass im individuellen Fall zu überlaufen gebracht haben. Man muss ja immer vom Faktor der einzelnen Seite ausgehen. Manche Seiten sind weit weg davon abzustürzen…manche sind kurz davor und bei uns ist es eben übergelaufen, weil wir links von zuvielen Webseiten hatten, die ebenfalls nur links von Webkatalogen hatten anstatt von qualitativen Webseiten. Demnach sind wir alle zu unterschiedlichen Zeitpunkten gefallen, weil der eine mehr, der andere weniger gute Webseitenpartner hatte.
Nehmen wir also mal als internes Google Ranking Faktor System 1 bis 100. 100 ist 100% Trust und 50% ist nur noch die hälfte an Vertrauen usw. Die Webseite 1.de ist neu und hat 100% Trust. Sie meldet sich in 200 Verzeichnissen an welche einen bunten Mix aus Trustwerten haben. Katalog A hat nur noch 20% Katalog B vielleicht 40% usw. Am Ende hat die Domain 1.de vielleicht 70 % Trust. Sie fällt erstmal zurück, weil soviele Berechnungen auf einmal zu erhalten sehr ungewöhnlich ist. Sie könnte natürlich wieder rauskommen, in dem Sie Links von Webseiten erhält, die mehr Trustwerte haben…diese bekommt sie aber nicht. Also muss Sie warten bis der Trustwert wieder von selbst etwas steigt oder Sie erhält links von wirklichen 100% was in Seo Kreisen natürlich sehr schwer zu bekommen ist…
Einer 100% Domain können dann auch 1000 20er nichts anhaben…aber vielleicht 3000 schon…jede Seite hat Ihre eigene Schwelle bis sie kippt. Dazu kommt, dass starke Seiten ja auch wieder weiter starke und gute Links bekommen…wodurch dann wieder die schlechten relativiert werden. Mein Katalog konnte sich also nur deswegen länger oben halten, weil er auch wirklich gute Links hat…diese konnte aber die schlechten links, von denen ein Katalog sehr viele bekommt nicht mehr auffangen. Denn Kataloge bekommen ja meist links von Seiten welche auch nur Links von anderen Katalogen erhalten. Somit ist es nur eine Frage der Zeit, bis die schlechten Links die Guten schwächen und die Trustpunkte soweit fallen, dass z.b. einer 50er Penalty greift…usw…
Manche Webmaster haben berichtet, dass ein Link vom yahoo directory oder anderen starken Seiten geholfen hat. Dies kann sogar stimmen…aber auch nur, wenn der Link ausreicht um wieder die Punktezahl herzustellen, die man braucht um rauszukommen…d.h. manche Seiten bräuchten 4 100% Links..bei anderen reicht einer…andere wiederum würden 2 80er völlig reichen um wieder in den grünen Bereich zu kommen…Man kennt halt seinen internen Wert nicht…
Wir haben Seiten, an denen wir nichts tun und die trotzdem perfekt ranken…warum? Weil wir unsere Trustwerte behalten während die Konkurrenz durch Linktausch etc. Ihren weiter mindert… Natürlich gibt es noch viele andere Faktoren die den Trustwert mindern können oder steigern können…in unserem Fall, dürfte es wohl aber an den Links liegen!
Nun, was können wir tun? Entweder wir werden unsere schlechten Links los oder wir bekommen mehr Gute dazu…schlechte Links loswerden wird schwer, weil man müsste die Partner und die Partner der Partner analysieren damit der Schuss nicht nach hinten los geht…
]]>Die schlechten Suchergebnisse halten an. Heute ist der fünfte Tag an dem wir so gut wie nicht mehr bei google gefunden werden. Heute vor einer Woche waren es noch ca. 16 000 Besucher welche Google zu uns geführt hat…nun sind es noch nicht mal mehr 50. Wie im vorherigen Beitrag geschrieben, schwanken wir zwischen Seite 5 und Seite 900 mit allen uns wichtigen Suchbegriffen. Tun können wir wenig…Jede momentane Änderung im Unwissen könnte alles nur noch Schlimmer machen!
Momentan wissen wir noch nicht einmal, ob es sich um ein manuelles eingreifen von Google handelt oder ob der Positionsverlust durch einen Filter oder Fehler im Algorithmus einhergeht. Ein Reinclusion Request mit der Bitte um Prüfung und Hilfe haben wir bereits über die Google Webmastertools versendet. Es ist uns bewusst, dass dies evtl. verfrüht ist und wir womöglich keine Stellungnahme erhalten werden. Trotzdem möchten wir nichts unversucht lassen um unser Webkatalog Projekt wieder zum Leben zu erwecken.
Es wäre schön, wenn Google etwas mehr Transparenz gegen über den Webmastern zeigen würde, da wir wohl alle bereitwillig Änderungen durchführen würden, wenn wir doch nur wüssten welche? Die Frage, welche ich mir die letzten Tage vermehrt stelle ist, ob Google überhaupt eingreifen kann, d.h. ob es nur ein Trustfeld mit dem Namen 50+ in der DB ist oder ob der Algorithmus hier macht was er will.
Im Grunde wünsche ich mir momentan, dass es nur ein Fehler ist..eine Neuberechnung und ich / wir von webverzeichnis-webkatalog.de keinen Fehler gemacht haben. Betrachte ich mir gleichgelagerte Projekte unserer Konkurrenz welche in den vergangen Monaten unter ähnlichen Symptomen leiden, habe ich hier wenig Hoffnung, da diese bereits seit mehreren Wochen…Jahre auf diesen Positionen festgenagelt sind.
Heute ist mir bei der Suche nach dem Webkatalog auch etwas sehr merkwürdiges aufgefallen, was ich bisher noch bei keiner Webseite zuvor gesehen hab. Die Webkatalog Startseite war auf der Seite 6 zu finden. Auf Seite 7 war diese nochmals mit einer Unterseite gelistet. Auf der Seite 8 war dann nochmals die Unterseite von Seite 7. Das soll mal einer verstehen? Das Cache Datum war bei beiden Treffern identisch. Natürlich wurde die Standarddomain per 301 definiert…
Wir hoffen weiter…
Lars
Am 29.05.08 stellten wir fest, dass wir mit unserem Hauptkeyword sowie allen Nischenkeywörtern einen Positionsverlust erlitten haben. Seitdem ist nichts mehr wie es mal war. Die Positionen schwanken (Google Dance) zwischen unauffindbar und der Seite 5-7. In SEO Kreisen spricht man hier vom 5oer Penalty, sofern es diesen überhaupt gibt. Google hüllt sich hierzu nämlich in Schweigen. Ob Seite 5 oder Seite 900 spielt im Grunde keine Rolle, da der Suchende ohnehin nicht bis zur Seite 5 klickt. Demnach kommt dieser Filter oder was auch immer einem Todesstoß gleicht. per site: Abfrage ist der Webkatalog noch normal gelistet. Momentan erhalten wir Besucher von yahoo und per Direktlinks. Der Trafficverlust beträgt jedoch 95 % und würdigt unsere Arbeit der letzten 4 Jahre nicht im geringsten.
Auf folgendem Screenshot aus Analytics ist der Trafficverlust deutlich zu sehen:
In der Regel wird dieser Filter vergeben, wenn man gegen die Google Richtlinien verstoßen hat oder gravierende Änderungen an der Webseite durchgeführt wurden. Beides können wir mit gutem Gewissen verneinen, sofern man mit einem Webkatalog überhaupt sauber bleiben kann. Webkataloge waren ja in letzter Zeit oft im Gespräch, da diese die Suchergebnisse manipulieren würden oder ungepflegte Linkwüsten darstellen. Aus diesem Grund haben wir stets auf Qualität geachtet, haben nur unique content veröffentlicht und wollten dem Suchenden immer einen Mehrwert bieten. Die Bearbeitungsgebühr für kostenpflichtige Einträge halten wir für angemessen, da bei der Flut an Webseitenvorschlägen ein Webkatalog in Top Positionen ein Full Time Job darstellt, wenn man die Qualitätsrichtlinien einhalten möchte. Trotzallem waren stets kostenlose Eintragsmöglichkeiten vorhanden.
Nun, der Schock sitzt tief und die Hoffnung ist der stetige Begleiter. Wird die Seite bald wieder normal gelistet sein? Je mehr man liest und je mehr Erfahrungsberichte man verinnerlicht, desto deprimierender ist die Situation. Wir werden voerst den Webkatalog weiter pflegen und wie immer täglich neue Artikel veröffentlichen, in der Hoffnung, dass der Trafficverlust wirklich nur ein Schluckauf ist.
Drückt uns die Daumen.
Gruß
Lars
]]>Vor Kurzem stand ich mal wieder vor der Überlegung meinen Webhoster zu wechseln. Natürlich gehen einem bei der Wahl des Hosters verschiedene suma technische Dinge durch den Kopf. Man wägt ab, sucht…überlegt, obwohl eine Meinung eigentlich schon seit Jahren fest steht.
Es geht um das Thema, ist eine gleiche IP im Bereich Suchmaschinenoptimierung von Nachteil? Verschlechtern sich die Suchergebnisse wenn ich mir einen V-Server anschaffe? Nur wenige Hosts bieten für jede Domain eine eigene IP Adresse an und wenn, dann nur mit Aufpreis. Ist es also nötig, um auf der sicheren Seite zu sein, eine Mehrpreis zu zahlen wo bisher alle meinen Erfahrungen und Selbsttest gezeigt haben, dass es sich nicht negativ auswirkt?
Eigentlich ist doch folgendes Fakt:
IP-Adressen gibt es nicht wie Sand am Meer, auch wenn viele wohl denken diesen wären unendlich verfügbar. Weiterhin wäre es absolut unrentable für einen Provider jedem User/Kunden, der 50MB webspace betreibt, eine eigene IP oder einen eigenen server bereit zu stellen, damit die Seite auf einem eigenen host und auf einer eigenen IP liegt. Denn würden wir einen Schritt weiter gehen, kann doch Mr. Google bereits jetzt feststellen, welcher server auf welchem host und welcher IP liegt. Das ist nicht nur für google einfach, sondern für jeden anderen Abfragedienst im www. Denn wie funktionieren denn beispielsweise votinglisten, bannerlisten mit reload-sperre?
Meines Erachtens ist es rein technisch momentan nicht möglich, jedem Internetuser oder Webseiten Betreiber eine eigene IP Adresse mit IPv4 zuzuteilen. Es gibt einfach nicht genug davon…
Ich denke erst mit Verwirklichung und Einführung von IPv6, dann wenn die NIC, ICCAN etc. eine Einigung herbei geführt haben, würde es für google womoglich Sinn machen die IP Adressen zu überprüfen und evtl. eine Abstrafung oder minimale Verschlechterung einzuführen.
Bis dies alles noch offen ist, wird google sich kein eigentor schießen. Google hat sich zu Aufgabe gemacht zu indexieren und nicht zu entfernen.
Dies ist aber selbstverständlich nur meine eigene Sichtweise und Vorsicht ist besser als Nachsicht aber man kann es meines Erachtens auch übertreiben mit der Vorsicht.
]]>Übersetzungsanfragen können Online bequem versendet werden. Weiterhin wurde hier eine Plattform geschaffen um Freelancer in vielen Sprachen zu bündeln. Auch diesbezügliche Kooperationsanfragen können online gestellt werden.
]]>Hier gehts zum Webverzeichnis Anmeldeformular.
Wenn Sie eine Englishe Webseite betreiben, können Sie sich auch gerne noch zusätzlich im Arnayo Web Directory anmelden.
]]>- Hochzeitsgedichte
- Hochzeitsspiele
- Hochzeitszeitung
- Hochzeitsplanung
- Hochzeitssprueche
- Hochzeitsleider