RSS Verzeichnis RSS FEED SEO in der Praxis - RSS
INTERNET / SEO / SEO in der Praxis - RSS
RSS NEWSFEED INFOS

Feed Titel:
SEO in der Praxis - RSS Feed
Feed Beschreibung:
Artikel zu den Themen Suchmaschinenoptimierung (SEO) und Suchmaschinenmarketing (SEM)
Anbieter Webseite:
http://seo-in-der-praxis.de
RSS Feed abonnieren:
http://seo-in-der-praxis.de/blog/feed/

Ich optimiere was, was Du nicht siehst

Ich werde von Kunden häufig mit der folgenden Frage konfrontiert: Warum ranken meine Seiten nicht? Spätestens ab diesem Zeitpunkt wird klar, dass der Kunden bzgl. der Grundsätze der SEO und der Funktionsweise von Suchmaschinen aufgeklärt werden muss. Auch wenn sich der Kunden selbst als SEO-erfahren bezeichnet, muss man dann auch konsequent sein und den Kunden ggf. auf die Spur bringen – sonst hat keine Seite etwas von der Beratung und Optimierung. Die Frage „Warum ranken meine Seiten nicht?“ muss inhaltlich konkretisiert werden: "meine Seiten" muss auf einzelne URLs heruntergebrochen werden.Welche Seite (URL) soll zu welchem Keyword ranken. Das ist mitunter die wichtigste Frage, die aber häufig gar nicht beachtet wird.In welcher Suchmaschine (ja, es gibt noch andere Suchmaschinen außer Google) soll die Kombination aus 2. Ranken?Was wird getan, damit die Seite (URL) xy zum Keyword yz positioniert wird? Spätestens hier gehen häufig die Antworten auf Kundenseite aus.Warum soll die Suchmaschine x (siehe 3.) genau die Kombination aus 4. gegenüber Konkurrenzseiten besser bewerten und in den SERPS (Search Engine Result Pages) höher positionieren? Ich möchte hier natürlich kein Kundenbashing betreiben, sonst hätte ich ja von der Beratungsseite nichts zu tun, sondern ganz einfach auf eine reale Situation aufmerksam machen – diese Situation findet man sehr häufig sogar auch in größeren Unternehmungen. Die Eigensicht und die Fremdsicht Eine typische Ursache für Konflikte im realen Leben ist, dass die Eigensicht (wie sehe ich mich selbst) und die Fremdsicht (wie sehen mich andere) nicht übereinstimmen bzw. deckungsgleich sind. Daraus ergeben sich häufig gegensätzliche Aktionen und Aktivitäten, die nicht zu einem gemeinsamen Erfolg führen. Warum schweife ich hier aus, ganz einfach, weil das bei Webseiten nicht anders ist. Stellen Sie sich mal bitte folgende Frage: Warum ist meine Seite (URL) auf das von mir gewünschte Keyword ausgerichtet? In der Praxis stellt sich dann häufig heraus,...

Google Phantom Update im Mai 2015

Ende April, Anfang Mai 2015 scheint es ein neues Google Update gegeben zu haben. Interessant daran ist, dass es sich nicht um ein offizielles Update, sondern um ein sogenannten Phantom Update handelt. Still und heimlich hat Google (erneut) offenbar signifikante Änderungen an den Kernfunktionen der eigenen Bewertung- und Rankingalgorithmen durchgeführt. Diese sind geheim und werden laut Google auch nicht kommuniziert. Das Ergebnis ist drastisch: Viele Webseitenbetreiber melden Verluste in der Sichtbarkeit von 10-20% und stellenweise massive Rückgänge in den SERPs (Search Engine Result Pages). Was ist passiert? Kein Panda- oder Penguin-Update laut Google Wir sind es mittlerweile gewohnt, bei solchen Veränderungen in den Google-Ergebnissen sofort an Panda und Penguin zu denken und das auch aus guten Gründen, mit Blick auf die Vergangenheit. Allerdings steht dem Googles eigene Aussage entgegen, dass es sich definitiv nicht um ein Panda- oder ein Penguin-Update gehandelt hat. Ok, es wurde ein Update in Bezug auf Responsivness von Webseiten im Rahmen eines Mobile-Friednly-Updates angekündigt, was tatsächlich auch seit Ende April ausgerollt wird. Kann es an diesem Update liegen? Wenn man sich die betroffenen Seiten anschaut muss man wohl sagen, nein. Viele der abgestraften Seiten sind für mobile Ansichten optimiert und die Auswirkungen betrafen mobile- als auch Desktopseiten - das kann also auch nicht der ausschlaggebende Grund sein. Qualität der Webseiteninhalte als Ursache? Aktuell scheint es so, als ob bestimmte Qualitätsparameter ursächlich für die Bewegungen in den Rankingpositionen sind. Evtl. handelt es sich auch um Korrekturen von Seiten bzw. Kriterien, die bei vergangenen Panda-Updates durchgerutscht sind. Schmale Webseiten mit wenig Inhalten, die als Klickfalle (Linkbait) dienen und zudem kaum oder keine Navigation zu anderen Seiten bieten, scheinenvorrangig betroffen zu sein. Parallel dazu gehören die "Lockseiten", die durch den gezielten Einsatz von Keywordphrasen und deren Variationen auf diversen Unterseiten versuchen, Besucher aus den Suchmaschinen anzulocken, die dann auf...

Konkurrenzanalyse mit Google

Wie man eine erste Konkurrenzanalyse, auch ohne teure Tools, nur mit der reinen Google-Suche durchführen kann, möchte ich in diesem Artikel vorstellen. Voraussetzung ist, dass Ihr bereits ein Keyword oder ein Longtail ausgesucht habt. Mit der folgenden Beschreibung bekommt man recht gut einen Überblick darüber, wie die Konkurrenzsituation aussieht und wie viele "richtige Konkurrenten" es zu dem gewählten Keyword tatsächlich gibt. Unter "richtigen Konkurrenten" sollen die Mitbewerber verstanden werden, die gewisse Grundzüge der Onpage-Optimierung durchgeführt haben - es wird dabei die Annahme getroffen, dass man die anderen Mitbewerber mit den klassischen Mitteln der Suchmaschinenoptimierung, die die eigene Seite betreffen, eh ausstechen wird. Für die folgenden Ausführungen verwenden wir das Thema "Hunde ausführen". Das soll also unsere Nische sein, in der wir uns positionieren wollen (in diesem Beispiel lasse ich bewusst einen Ort weg, damit man die Veränderung der Trefferzahlen besser sehen kann). Grobanalyse des Konkurrenzumfeldes Bei der Grobanalyse verschaffen wir uns einen ersten, groben Überblick über die Konkurrenzsituation, indem das Keyword oder der Longtail in der Google-Suche eingegeben wird. Die sogenannte "Broad" Suche oder "Broad match" bei Google liefert Ergebnisse, in denen verwandte Wörter (Synonyme), Pluralformen und weitere ähnliche Begriffe oder Wortkombinationen vorhanden sind. [caption id="attachment_356" align="aligncenter" width="300" caption="Keyword Google Broad Match"][/caption] In diesem Fall erhalten wir für den "broad match" auf "hunde ausführen" 143.000 Treffer angezeigt. Wenn das Trefferergebnis nicht völlig abschreckt, verfeinern wir die Suche, indem wir das Keyword oder den Longtail in Anführungszeichen ("keyword", "das ist mein logtail") setzen und die Suche erneut starten. Hierbei verwenden wir durch die Anführungszeichen die Google-Funktion, die passende Wortgruppen zurückliefert, was wird in einer deutlichen Reduzierung der erhaltenen Treffer auch bestätigt bekommen. [caption id="attachment_358" align="aligncenter" width="300" caption="Keyword Google passende Wortgruppe"][/caption] Aktueller erhalten wir nur noch 23.800 Treffer für unsere Wortgruppe angezeigt. Bezogen auf das eigene Vorhaben hat sich einerseits die Trefferanzahl...

ScrapeBox Einrichten

Da ScrapeBox ein sehr mächtiges Tool ist, eigentlich eine Sammlung von verschiedenen Funktionen und Werkzeugen - die sich fast beliebig untereinander kombinieren lassen - ist es wichtig, eine für sich passende Grundkonfiguration einzurichten. ScrapeBox führt bei jedem Start einen Updatecheck durch. Ihr solltet diesen nutzen, da hierbei nicht nur das Programm selbst, sondern auch die AddOns und die intern verwendeten Listen mit aktualisiert werden. In diesem Artikel konzentriere ich mich auf die Grundeinstellungen, die man über die Menü "Projects" und "Settings" erreicht. Projects-Menü Über das Menü "Projects" werden in ScrapeBox Projekte verwaltet. Ich empfehle dringend, für jedes Vorhaben ein eigenes Projekt anzulegen, da ihr dadurch nicht nur die jeweilige Umgebungskonfiguration, sondern auch noch die Posting-Eigenschaften abspeichern und natürlich wieder laden könnt. [caption id="attachment_237" align="aligncenter" width="300" caption="ScrapeBox Projekteinstellungen"][/caption] Führt also die notwendigen Einstellungen durch und speichert diese dann als separates "Poster"- oder "Environment"-Projekt ab. Settings-Menü In dem umfangreichen Settings-Menü können die allgemeinen Einstellungen erst einmal wie im folgenden Screenshot übernommen werden. [caption id="attachment_238" align="aligncenter" width="300" caption="ScrapeBox Einstellungen"][/caption] Wichtig sind hierbei die "Verbindungseinstellungen" (Adjust Maximum Connections). Nach Aufruf des Menüpunktes öffnet sich der folgende Dialog: [caption id="attachment_234" align="aligncenter" width="300" caption="ScrapeBox Verbindungseinstellungen"][/caption] Dies sind meine Einstellungen, die unter dem Gesichtspunkt "safety first" gewählt sind. Wie man sehen kann, ist da noch Luft nach oben, aber ein Maximieren der Settings kann auch ganz schnell nach hinten losgehen, ich komme darauf in dem Artikel über Proxies und den Posting-Features zu sprechen. Captcha-Menü Meine Empfehlung ist ganz klar, einen deCaptcha-Dienst zu nutzen und entsprechend in ScrapeBox zu konfigurieren. Ansonsten steht man vor zwei Möglichkeiten: in den Posting-Features alle Seiten auszulassen, die einen Captcha-Code verwenden und damit auf die "besseren" zu verzichten, oder man sitzt die ganze Zeit vor dem Bildschirm und löst die Captchas manuell. Beides...

ScrapeBox Proxies sammeln

Bei verschiedenen Aufgaben innerhalb von ScrapeBox ist es ratsam, sogenannte Proxy-Server zu verwenden, um seine Identität - genauer gesagt, seine eigentliche IP-Adresse - zu verschleiern. Diese Maßnahme dient nicht dazu, die eigene Identität zu verbergen, sondern um den eigenen Rechner nicht in sogenannte Spam- und Blockfallen laufen zu lassen. Dazu später mehr. Was ist ein Proxy-Server? Ein Proxy (engl. Stellvertreter) arbeitet als Vermittler in einem Netzwerk. Er nimmt Anfragen auf der einen Seite entgegen, leitet diese unter seiner Adresse weiter an ein Ziel, empfängt die Antwort an seine Adresse und leitet die Antwort an den anfragenden Rechner zurück. Der eigene Rechner, bzw. seine IP-Adresse, taucht beim angefragten Rechner also nie auf. Es gibt öffentliche, als auch private Proxy-Server. Warum einen Proxy verwenden? Bestimmte Aktionen innerhalb von ScrapeBox veranlassen den eigenen Rechner vielfach bei einer bestimmten Adresse nachzufragen. Sei es beim Harvesten von URLs, indem viele, gleichzeitige Anfragen an Google gestellt werden, als auch beim Posting-Feature von ScrapeBox. Bekommt ein Anfrageziel mit, dass es häufig innerhalb kurzer Zeiträume von ein und der selben Adresse angefragt wird, landet die anfragende IP schnell auf einer Blacklist. Vielleicht habt ihr das bei Google schon einmal gesehen, wenn ihr bei einer Anfrage plötzlich ein Captcha eingeben müsst. Um nun genau solche Situationen zu vermeiden, verwendet man Proxies, die man für einen selbst beim Ziel anfragen lässt. Idealerweise verwendet man für jede Anfrage einen eigenen Proxy, bzw. lässt diese aus einem Pool rotieren. Das Problem der ScrapeBox-Proxies ScrapeBox bietet zufällig genau solch eine Funktion an, mit der man Proxies sammeln (harvesten) kann. Diese Funktion ist einerseits natürlich sehr nützlich, birgt aber ein nicht zu unterschätzendes Risiko: ScrapeBox verwendet eine shared Proxy-Liste, das heisst, alle ScrapeBox-User ermitteln ihre Proxies aus den selben Quellen. Man kann zwar so schnell frei verfügbare Proxies sammeln, nur tun das andere...

ScrapeBox Übersicht

Scrapebox ist eine sehr mächtige Software zur Suchmaschinenoptimierung (SEO) von Webseiten. Mit dem Einsatz von ScrapeBox stehen dem Anwender in der Tat vielfältigste Möglichkeiten zur Verfügung, Optimierungsmaßnahmen an Webseiten durchzuführen - dies ist einerseits die Stärke von ScrapeBox, aber auch zugleich die größte Schwäche! Das Tool ist so mächtig, dass man schon genau wissen muss, was man eigentlich mit dieser Software anstellen möchte. Mit der falschen Herangehensweise kann man nämlich der eigenen Webseite viel Schaden zufügen, wenn es einfach als reiner Kommentar-Spammer genutzt wird. ScrapeBox lässt sich für sogenannte "Black-Hat", aber auch als "White-Hat" Werkzeug einsetzen. ScrapeBox - Übersicht Die Stärken von ScrapeBox liegen aus meiner Sicht ganz eindeutig in der direkten Konkurrenzanalyse, dem Aufspüren von Nischen und allgemein dem "Harvesten" (sammeln) von Keywords und Links. ScrapeBox-Artikel Weitere ScrapeBox-Themen werden in den folgenden Artikeln behandelt: ScrapeBox einrichten, ScrapeBox Proxies, Keywords finden, Konkurrenzanalyse, Blog-Kommentare posten. Scrapebox ist eine sehr mächtige Software zur Suchmaschinenoptimierung (SEO) von Webseiten. Mit dem Einsatz von ScrapeBox stehen dem Anwender in der Tat vielfältigste Möglichkeiten zur Verfügung, Optimierungsmaßnahmen an Webseiten durchzuführen - dies ist einerseits die Stärke von ScrapeBox, aber auch zugleich die größte Schwäche! Das Tool ist so mächtig, dass man schon genau wissen muss, was man eigentlich mit dieser Software anstellen möchte. Mit der falschen Herangehensweise kann man nämlich der eigenen Webseite viel Schaden zufügen, wenn es einfach als reiner Kommentar-Spammer genutzt wird. ScrapeB…