SEO Beratung

Wir nehmen es ganz genau

Eine SEO Beratung kann oft teures Lehrgeld vermeiden. Ob nun bei strategischen Fragen, bei dem Briefing für eine SEO-Agentur oder bei der Neupositionierung eines bestehenden Website-Projektes.

„Internetmarketing bedeutet: Die Konkurrenz ist einen Klick weiter. Wirke frisch, sei auffallend sichtbar und biete konkreten Nutzen! Dabei sind ein schneller Seitenaufbau (Speed), aktueller Content und hohe Sichtbarkeit im Zusammenspiel das A & O. Die SEO ist als laufender Prozess zu verstehen – eine budgetäre Herausforderung, die sich rechnet.“

SEO Beratung wird von der WKO gefördert

Die WKO fördert Web-Beratung: Unter diesem Begriff werden alle Beratungen zusammengefasst, die mit Website-Konzeption, Website-Optimierung, Domain, Usability, IT-Security, Apps, Google Analytics, Google Adwords, Webshops, Social Media, SEO, Suchmaschinen-Marketing und Internetmarketing in Verbindung stehen.

Wie bei allen anderen Beratungsthemen in der WKO geförderten Unternehmensberatung konnten gleichartige Themen nur alle 24 Monate in Anspruch genommen werden. Es wurde eine generelle Begrenzung dieses Themas mit 8 Stunden vorgenommen, die jedoch jedes Jahr zur Verfügung stehen. Unsere Agentur ist als SEO-Berater gelistet und förderbar, nutzen Sie diese Möglichkeit um teures Lehrgeld zu vermeiden.

SEO Beratung: Ablauf Suchmaschinenoptimierung

Vorab sollte für Sie als Kunde ein SEO-Pflichtenheft erstellt und ein Rahmenvertrag mit umfangreichen Schutzbestimmungen ausformuliert werden. Die Website-Ziele sollten ausreichend geklärt und die Conversion-Ziele definiert werden.

SEO Beratung in WienIst die SEO-Agentur dann ausgewählt und beauftragt sind mögliche technische Mängel auf einer bestehenden Webseite zu beheben.  Anschließend wird in der Regel ein Keyword-Speicher erstellt, der die relevanten Begriffe enthält, die ein Website-Besucher bei seiner Google-Suche eingibt. In Folge wird dieser Speicher operationalisiert. Für jeden Schlüsselbegriff werden Kennzahlen erhoben, um die „Spreu vom Weizen“ zu trennen. So werden Master-Keywords, Proof-Terms und Relevant-Terms identifiziert. Weiterführend wird die User-Motivation in Bezug auf das Kaufbedürfnis abgegrenzt und analysiert. Abschließend sollten die strategisch wichtigen Schlüsselbegriffe den einzelnen Landing Pages des Website-Projektes zugeordnet werden. Dann erst beginnt die eigentliche Optimierung. Die ausgearbeiteten Optimierungsmaßnahmen werden von der SEO-Agentur in die Website eingepflegt, justiert und vermessen.

Berater Info´s: Manipulation wird bestraft

Um Manipulationen bei den Suchergebnissen entgegenzuwirken, hat Google seine Richtlinien überarbeitet. Mangelhafte Arbeit von SEO-Agenturen wird aufgedeckt, von Google abgestraft, und Kunden zahlen dann doppelt. Ein neues Google Webmaster-Tool zeigt Seiten mit einem verdächtigen Muster im Linkprofil an und reduziert ihre Sichtbarkeit. Mit dieser Maßnahme werden jene SEO-Agenturen aufgedeckt, die für die Websites ihrer Kunden „schlechte“ Links kaufen. Wir sagen „Bravo Google“! Denn letztendlich profitieren die User, die qualitative Suchergebnisse zur richtigen Zeit am richtigen Ort erwarten.

Grundsätzlich gibt es Basisinformationen für SEO zu berücksichtigen: Dazu das Google PDF Einführung in die Suchmaschinenoptimierung.

Trends bei den Keywords

Die User-Abfrage bei Suchanfragen wird zunehmend länger! Es wird immer spezifischer gesucht und dabei nimmt die Anzahl der eingegebenen Wörter bei den Suchmaschinen-Anfragen stetig zu. In der Regel liegt die Länge einer durchschnittlichen Anfrage derzeit zw. zwei bis drei Wörtern. Dieser Sachverhalt hat erhebliche Auswirkungen auf die Trendanalyse der Keywords für die Vorbereitung zur Positionierung eines Websiteprojektes! Und es ist davon auszugehen, dass sich dieser Trend 2016 in Richtung „bis 3,5 Wörter ergeben eine Keyword-Kombination“ entwickeln wird.

Oft vergessen: Status-Code anschauen!

Damit eine Seite bei Google indexiert und laufend überprüft werden kann, muss die Crawlability stimmen. Dazu ist auch der http-Statuscode zu analysieren. Die technisch orientierten Crawler sind sehr sensibel betreffend dem Status-Code des Webservers, wie z.B. 200, 404, 410, 301. Es stellt ein Problem dar, wenn eine nicht zu erreichende Seite keinen 404-Fehler als Rückmeldung anzeigt, sondern einen 200-(ok)Status. Besser wäre aber statt 404 gleich eine 410-Fehler Meldung und somit die Info: Diese Site wird nie mehr verfügbar sein. Was geschieht aber, wenn eine URL nicht mehr erreichbar ist und eine 200er Meldung erscheint? Dann wird eine eigentlich gelöschte URL weiter gecrawlt. Damit wird das begrenzte Google Crawl-Budget unnötig belastet. Und so ganz nebenbei: Fehlende 404-Meldungen sind für Google ebenso negative Merkmale.

Als Agentur haben wir bei der SEO Beratung leider feststellen müssen, dass mittels negativer SEO- Angriffe diese Manipulation dazu führt, dass keine relevanten Inhalte auf einer Domain aktualisiert oder neu indexiert werden. Bei einem Website-Relaunch werden oft die 301-Weiterleitungen vergessen. Das tut weh und kostet massive Sichtbarkeit. Oder noch schlimmer: Eine 301-Weiterleitung verweist auf eine 301-Weiterleitung usw. Das tut noch mehr weh. Man schwächt durch solche Ketten die Umleitung und verschenkt Potenzial. Es ist immer auf die richtige Ziel-URL zu verlinken!

Sitemap.xml

Damit vom Crawler nichts übersehen wird, sollte die Sitemap.xml verwendet werden. Diese Anwendung ist eigentlich auch nicht neu, wird aber eben oft einfach vergessen. Es sind dort alle verfügbaren URLs anzuführen. Wichtig: Was nicht indexiert ist, kann auch nicht gefunden werden. Dies gilt ganz besonders für ältere, komplexe oder große Websites. Mit CMS-Systemen lassen sich hier sogar die Prioritäten der Indexe ranken. Für besonders komplexe Domains empfiehlt es sich, gleich mehrere XML-Sitemaps anzulegen und in einer Sitemap-Index-Datei zu referenzieren. So lassen sich dann auch die einzelnen Sites über die Google-Search-Console besser auswerten.

Robots.txt

Der Google Crawler schaut sich mittlerweile alles sehr genau an. Deshalb müssen alle Ressourcen erreichbar sein, eben auch CSS, Java Skript und Bilder. Früher war es eine gängige Praxis, diese teilweise zu blockieren, aber derlei Blockierungen sollten gerade bei älteren Websites unbedingt aufgehoben werden. Ebenso muss die Referenz zur Sitemap.xml angeführt sein. (Als http:// bzw. https:// ist der Eintrag nicht lesbar!)

Duplicate Content

Seit dem Panda-Update ist für Optimierer auch die Google Abstrafung ein wichtiges Thema und im Auge zu behalten. Und hier gibt es einen feinen Unterschied im Bereich Duplicate Content bezüglich Crawling und Indexierung zu beachten. Das Crawling wird über die Robots.txt gesteuert und die Indexierung über rel= noindex , welche die Indexierung verbietet – genau so und nicht anders! URLs sollten nicht in die Robots-Datei aufgenommen werden, wenn sie nicht (mehr) im Index sind.

SEO Beratung kann manchmal so einfach sein. Und am Ende des Tages heißt es: Mühsam nährt sich das Eichhörnchen. Es sind eben die vielen kleinen Dinge, die eine gute Positionierung im organischen Sichtfeld einer Suchmaschine bewirken.

Zurück zur Startseite