Startseite | Lageplan | Impressum | Sitemap | SEO MitarbeiterIn gesucht

SEO Beratung

 

Wir nehmen es ganz genau

Eine SEO Beratung kann oft teures Lehrgeld vermeiden. Ob nun bei strategischen Fragen, bei dem Briefing für eine SEO-Agentur oder bei der Neupositionierung eines bestehenden Website-Projektes.

"Internetmarketing bedeutet: Die Konkurrenz ist einen Klick weiter. Wirke frisch, sei auffallend sichtbar und biete konkreten Nutzen! Dabei sind ein schneller Seitenaufbau (Speed), aktueller Content und hohe Sichtbarkeit im Zusammenspiel das A & O. Die SEO ist als laufender Prozeß zu verstehen - eine budgetäre Herausforderung, die sich rechnet." (CEO der EINSATZ-zwar Agentur Mag. Daniel Spornitz, Betriebswirt, Wirtschaftstrainer; Seo Berater)

 

SEO-Beratung wird vom WIFI-Wien gefördert

Das WIFI-Wien fördert Web-Beratung: Unter diesem Begriff werden alle Beratungen zusammengefasst, die mit Website-Konzeption, Website-Optimierung, Domain, Usability, IT-Security, Apps, Google Analytics, Google Adwords, Webshops, Social Media, SEO, Suchmaschinen-Marketing und Internetmarketing in Verbindung stehen.

Wie bei allen anderen Beratungsthemen in der vom WIFI Wien geförderten Unternehmensberatung konnten gleichartige Themen nur alle 24 Monate in Anspruch genommen werden. Ab April 2015 wurde eine generelle Begrenzung dieses Themas mit 8 Stunden vorgenommen, die jedoch jedes Jahr zur Verfügung stehen.

Unsere Agentur ist als SEO-Berater gelistet und förderbar, nutzen Sie diese Möglichkeit um teures Lehrgeld zu vermeiden.

 

Beratungsinfo: Ablauf einer Suchmaschinenoptimierung

Vorab sollte ein SEO-Pflichtenheft erstellt und ein Rahmenvertrag mit umfangreichen Schutzbestimmungen ausformuliert werden.

Die Website-Ziele sollten ausreichend geklärt und die Conversion-Ziele definiert werden.

Ist die SEO-Agentur ausgewählt und beauftragt sind mögliche technische Mängel auf einer bestehenden Webseite zu beheben.  Anschließend wird in der Regel ein Keywordspeicher erstellt, der die relevanten Begriffe enthält, die ein Webseiten-Besucher bei seiner Google-Suche eingibt. In Folge wird dieser Speicher operationalisiert. Für jeden Schlüsselbegriff werden Kennzahlen erhoben, um die "Spreu vom Weizen" zu trennen. So werden Master-Keywords, Proof-Terms und Relevant-Terms identifiziert. Weiterführend wird die User-Motivation in Bezug auf das Kaufbedürfnis abgegrenzt und analysiert. Abschließend sollten die strategisch wichtigen Schlüsselbegriffe den einzelnen Landing Pages des Website-Projektes zugeordnet werden. Dann erst beginnt die eigentliche Optimierung. Die ausgearbeiteten Optimierungsmaßnahmen werden von der SEO-Agentur in die Website eingepflegt, justiert und vermessen.

 

Berater Info´s: Manipulation wird bestraft

Um Manipulationen bei den Suchergebnissen entgegenzuwirken, hat Google seine Richtlinien überarbeitet. Mangelhafte Arbeit von SEO-Agenturen wird aufgedeckt, von Google abgestraft, und Kunden zahlen dann doppelt. Ein neues Google Webmaster-Tool zeigt Seiten mit einem verdächtigen Muster im Linkprofil an und reduziert ihre Sichtbarkeit. Mit dieser Maßnahme werden jene SEO-Agenturen aufgedeckt, die für die Websites ihrer Kunden "schlechte" Links kaufen. Wir sagen "Bravo Google"! Denn letztendlich profitieren die User, die qualitative Suchergebnisse zur richtigen Zeit am richtigen Ort erwarten.

Grundsätzlich gibt es Basisinformationen für SEO zu berücksichtigen: Dazu die Google Einführung in die Suchmaschinenoptimierung.

 

Trends bei den Keywords

Die User-Abfrage bei Suchanfragen wird zunehmend länger!

Es wird immer spezifischer gesucht und dabei nimmt die Anzahl der eingegebenen Wörter bei den Suchmaschinen-Anfragen stetig zu. In der Regel liegt die Länge einer durchschnittlichen Anfrage derzeit zw. zwei bis drei Wörtern. Dieser Sachverhalt hat erhebliche Auswirkungen auf die Trendanalyse der Keywords für die Vorbereitung zur Positionierung eines Websiteprojektes! Und es ist davon auszugehen, dass sich dieser Trend 2016 in Richtung "bis 3,5 Wörter ergeben eine Keyword-Kombination" entwickeln wird.

 

Oft vergessen: Status-Code anschauen!

Damit eine Seite bei Google indexiert und laufend überprüft werden kann, muss die Crawlability stimmen. Dazu ist auch der http-Statuscode zu analysieren. Die technisch orientierten Crawler sind sehr sensibel betreffend dem Status-Code des Webservers, wie z.B. 200, 404, 410, 301. Es stellt ein Problem dar, wenn eine nicht zu erreichende Seite keinen 404-Fehler als Rückmeldung anzeigt, sondern einen 200-(ok)Status. Besser wäre aber statt 404 gleich eine 410-Fehler Meldung und somit die Info: Diese Site wird nie mehr verfügbar sein. Was geschieht aber, wenn eine URL nicht mehr erreichbar ist und eine 200er Meldung erscheint? Dann wird eine eigentlich gelöschte URL weiter gecrawlt. Damit wird das begrenzte Google Crawl-Budget unnötig belastet. Und so ganz nebenbei: Fehlende 404-Meldungen sind für Google ebenso negative Merkmale. 

Als Agentur haben wir leider feststellen müssen, dass mittels negativer SEO- Angriffe diese Manipulation dazu führt, dass keine relevanten Inhalte auf einer Domain aktualisiert oder neu indexiert werden. Bei einem Website-Relaunch werden oft die 301-Weiterleitungen vergessen. Das tut weh und kostet massive Sichtbarkeit. Oder noch schlimmer: Eine 301-Weiterleitung verweist auf eine 301-Weiterleitung usw. Das tut noch mehr weh. Man schwächt durch solche Ketten die Umleitung und verschenkt Potenzial. Es ist immer auf die richtige Ziel-URL zu verlinken!

 

Sitemap.xml

Damit vom Crawler nichts übersehen wird, sollte die Sitemap.xml verwendet werden. Diese Anwendung ist eigentlich auch nicht neu, wird aber eben oft einfach vergessen. Es sind dort alle verfügbaren URLs anzuführen. Wichtig: Was nicht indexiert ist, kann auch nicht gefunden werden. Dies gilt ganz besonders für ältere, komplexe oder große Websites. Mit CMS-Systemen lassen sich hier sogar die Prioritäten der Indexe ranken. Für besonders komplexe Domains empfiehlt es sich, gleich mehrere XML-Sitemaps anzulegen und in einer Sitemap-Index-Datei zu referenzieren. So lassen sich dann auch die einzelnen Sites über die Google-Search-Console besser auswerten.

 

Robots.txt

Der Google Crawler schaut sich mittlerweile alles sehr genau an. Deshalb müssen alle Ressourcen erreichbar sein, eben auch CSS, Java Skript und Bilder. Früher war es eine gängige Praxis, diese teilweise zu blockieren, aber derlei Blockierungen sollten gerade bei älteren Websites unbedingt aufgehoben werden. Ebenso muss die Referenz zur Sitemap.xml angeführt sein. (Als http:// bzw. https:// ist der Eintrag nicht lesbar!)

 

Duplicate Content

Seit dem Panda-Update ist für Optimierer auch die Google Abstrafung ein wichtiges Thema und im Auge zu behalten. Und hier gibt es einen feinen Unterschied im Bereich Duplicate Content bezüglich Crawling und Indexierung zu beachten. Das Crawling wird über die Robots.txt gesteuert und die Indexierung über rel= noindex , welche die Indexierung verbietet - genau so und nicht anders! URLs sollten nicht in die Robots-Datei aufgenommen werden, wenn sie nicht (mehr) im Index sind.

SEO kann manchmal so einfach sein. Und am Ende des Tages heißt es: Mühsam nährt sich das Eichhörnchen. Es sind eben die vielen kleinen Dinge, die eine gute Positionierung im organischen Sichtfeld einer Suchmaschine bewirken.