Vermutlich werden sich die meisten Leser dieses MAGs bereits mit den Basics der Suchmaschinenoptimierung auskennen. Off-Page und On-Page Optimierungsmöglichkeiten gibt es, anders als bei technischem SEO, sehr viele. Gängige Optimierungsmaßnahmen wie umfangreiches Linkbuilding und hochwertige Inhalte sind natürlich nach wie vor absolut essenziell, um bei Google ein gutes Ranking zu erhalten. Aber auch viele kleine Schritte führen irgendwann ans Ziel. Und bei technischem SEO geht es um genau diese vielen kleinen Schritte, die alleine vielleicht nicht den größten Einfluss haben, in der Summe aber auf jeden Fall einen Unterschied machen können. Damit auch Sie genau wissen wie Sie das Maximum von technisches SEO für Ihre Webseite erreichen können, möchten wir Ihnen als Experten für SEO München im heutigen Mag-Artikel ein wenig über technisches SEO erzählen.

Technisches SEO – Robots.txt und Sitemap.xml

Aber vor allem Neueinsteiger können bei all den diversen Begriffe, Bereichen und Faktoren rund um technisches SEO schnell den Kopf verlieren. Robots.txt, Sitemap.xml, Canonical Tags, Meta-Description – Die Liste ist quasi unendlich. Es ist daher wichtig technisches SEO in Einzelstücke zu unterteilen. Technisches SEO zählt zu den On-Page Optimierungen, also jene Optimierungen die auf der eigenen Seite durchgeführt werden. Dabei sind diese Optimierungsmaßnahmen in der Regel später für den Webseitenbesucher nicht nachvollziehbar. Sie geschehen im Hintergrund, im sogenannten Backend, der Seite und beschäftigten sich hauptsächlich mit der Struktur und Form der Seite.

Einer der wichtigsten Faktoren und Optimierungsmaßnahmen des technischen SEO betrifft die robots.txt Datei. Diese Datei mit dem süßen Namen ist dafür verantwortlich Googles Crawler gezielt über die eigene Webseite zu führen. Was dies im Umkehrschluss auch heißt ist, dass mit der robots.txt Datei auch spezifische Unterseiten der Webseite vom Crawling durch Google ausschließen kann. Wie Ihr Team für technisches SEO Ihnen verrät, werden diese ausgeschlossen Seiten anschließend somit auch nicht von Google in den Index mit aufgenommen. Ein mögliches Beispiel für eine Unterseite die man nicht unbedingt indexiert haben möchte wäre eine Login- oder Registrierungsseite. Die Wichtigkeit der robots.txt wird aber eigentlich erst so richtig verständlich, wenn man sich vor Augen hält, dass jeder Webseite ein limitiertes Crawlingbudget zusteht. Dieses Crawler überprüft Seiten auf bestimmte Rankingfaktoren. Umso wichtiger ist es, dass man auch wirklich nur Seiten indexieren lässt, die optimiert sind und einen echten Mehrwert bieten.

Aber auch die sitemap.xml Datei ist wichtig für den Crawler und technisches SEO. Diese Datei kann als Spinnennetz der Webseite verstanden werden, bei dem jeder Link einen einzelnen Strang des Netzes repräsentiert. Die Robots.txt Datei sagt dem Crawler auf welche Seite er nicht darf und welche Seiten er nicht indexieren soll. Dagegen sagt die Sitemap.xml Datei dem Crawler genau welche Unterseiten der Crawler in den Index mit aufnehmen soll. Aus diesem Grund sollte die Sitemap.xml Datei immer aktualisiert werden und alle neuen Unterseiten beinhalten. Wer darauf achtet eine gepflegte robots.txt Datei und sitemap.xml Datei zu besitzen ist stets optimal auf das Crawling durch Google vorbereitet. Die Indexierung kann ohne Probleme erfolgen und Google bedankt sich mit einer besseren Platzierung in den Ergebnissen der Suchmaschine. Diese zwei Dateien und deren korrekte Verwendung sind wichtige Bestandteile jedes technisches SEO.

Technisches SEO – Problematik: Duplicate Content

Ein weiterer wichtiger Teil von technisches SEO ist die Vermeidung von sogenanntem Duplicate Content. Das häufigste Problem ist, wenn eine Webseite mit HTTPS und HTTP erreichbar ist. Durch die Setzung spezifischer Canonical Tags kann vermieden werden, dass ausversehen, neben der HTTPS Seite, auch die HTTP Seite indexiert wird. Somit entsteht eine große Menge an Duplicate Content, doppeltem Inhalt. Vor allem bei Webseiten die einen Online Shop betreiben kommt es schnell mal zu Problemen mit Duplicate Content, da für einzelne Produkte gerne die gleiche Beschreibung verwendet wird. Google mag Duplicate Content überhaupt nicht und zeigt dies auch in den Rankings. Umso wichtiger ist es die Canonical Tags zu setzen. Denn diese sagen Google, dass eben nur die Seite mit dem Tag indexiert werden soll. Wer also auch hier Google bei der Indexierung entgegenkommen möchte und bei technisches SEO alles richtig machen möchte, verwendet Canonical Tags.

Technisches SEO – Ladezeit drücken

Sie, wir und Google lieben schnelle Webseiten. Sie wünschen es sich, wir können es ermöglichen und Google bedankt sich dafür mit besseren Platzierungen. Eine kürzere Ladezeit kann vor allem bei technisches SEO ermöglicht werden. An erster Stelle stehen hier natürlich die Komprimierungen der CSS- und JavaScript Dateien. Diese können mit den richtigen Tools kleingehalten werden und ermöglichen somit eine kürzere Ladezeit der Gesamtseite. Aber auch im Bilder-Dateien können und sollten komprimiert werden. Wer seine Seite, von der Datenmenge her, klein hält wird mit einer kürzeren Ladezeit und einem besseren Ranking belohnt.

Wie sich zeigt, gibt es viele Schritte beim technisches SEO die im Backend der Seite durchgeführt werden können. Wenn Sie an diesem Thema oder ähnlichen Themen rund um die Suchmaschinenoptimierung interessiert sind, sind Sie auf unserem MAG genau richtig. Falls Sie noch die passende SEO Agentur für technisches SEO suchen, können Sie uns gerne telefonisch oder per E-Mail kontaktieren.

© Fotolia.com – trueffelpix