Serveroptimierung für SEO: pusht den PageSpeed

Das Hosting einer Domain und die Serverparameter haben auch einen Einfluss auf die Suchmaschinenoptmierung.
Mit einem sauber konfigurierten Server sorgt ihr für schnellere Ladezeiten, korrektes URL-Handling und vieles mehr.
Meine Tipps fürs Server-SEO-Tuning:

htaccess Konfiguration für Suchmaschinenoptimierung: Alles rund um mod_deflate und 301en erfahrt ihr hier.htaccess

Zugriff auf die htaccess-Datei sollte beim Hoster eures Vertrauens Standard sein, denn hier nehmt ihr wichtige Einstellungen vor.
Wichtig ist z.B. dass wenn eure Seite sowohl mit „www“ als auch ohne zu erreichen ist, dies Duplicate Content bedeutet, d.h. die Seite existiert für google doppelt. So etwas mag google gar nicht.
Um dies zu vermeiden leitet ihr mit der Rewrite-Engine das eine auf das andere um. So sind beide Varianten erreichbar, werden aber nicht als Duplicate Content angesehen:

Rewrite Engine On
RewriteCond %{HTTP_HOST} ^pixelconsult.de$ [NC]
RewriteRule ^(.*)$ http://www.pixelconsult.de/$1 [R=301,L]

Weiterhin solltet ihr hier die Komprimierung mit mod_deflate aktivieren:

</pre>

<IfModule mod_filter.c>
<IfModule mod_deflate.c>
AddOutputFilterByType DEFLATE text/plain text/html text/xml text/css text/javascript
AddOutputFilterByType DEFLATE application/xml
AddOutputFilterByType DEFLATE application/rss+xml
AddOutputFilterByType DEFLATE application/javascript application/x-javascript
</IfModule>
</IfModule>
BrowserMatch ^Mozilla/4\.0[678] no-gzip
BrowserMatch \bMSIE\s7 !no-gzip !gzip-only-text/html
<pre>

In diesem Beispiel stellt ihr die Komprimierung nach Dateityp ein.
Als nächstes Konfiguriert ihr das browserseitige Caching für ein Ablaufdatum von z.B. 1 Monat:

</pre>
<pre><IfModule mod_expires.c>
 ExpiresActive On
 ExpiresByType text/css "access plus 1 month"
 ExpiresByType text/javascript "access plus 1 month"
 ExpiresByType text/html "access plus 1 month"
 ExpiresByType application/javascript "access plus 1 month"
 ExpiresByType image/gif "access plus 1 month"
 ExpiresByType image/jpeg "access plus 1 month"
 ExpiresByType image/png "access plus 1 month"
 ExpiresByType image/x-icon "access plus 1 month"
</IfModule>
<ifmodule mod_headers.c>
 <filesmatch "\\.(ico|jpe?g|png|gif|swf)$">
  Header set Cache-Control "max-age=2592000, public"
 </filesmatch>
 <filesmatch "\\.(css)$">
  Header set Cache-Control "max-age=604800, public"
 </filesmatch>
 <filesmatch "\\.(js)$">
  Header set Cache-Control "max-age=216000, private"
 </filesmatch>
</ifmodule></pre>
<pre>

Im 2. Beispiel teilt ihr dem Server in der Zeile

 <filesmatch "\\.(ico|jpe?g|png|gif|swf)$">

mit, für welche Dateiendungen diese Einstellungen gelten sollen.
Wenn ihr mit TYPO3 arbeitet, so solltet Ihr die Standardmäßig in der htaccess-Beispieldatei von TYPO vorhandene Komprimierung einkommentieren und den obigen Code darunter pasten.
Damit TYPO3 jetzt so richtig mitarbeiten kann, kommt noch das folgende Snippet ins Setup (erst wenn die Seite fertig ist!):

 config {
concatenateJs = 1
compressJs = 1
compressCss = 1
concatenateCss = 1
}

301 Weiterleitungen sind wichtig, um bei Relaunch oder Umzug die Historie eurer Seite zu erhalten

301 : dauerhafte Weiterleitungen – moved permanently, auch das gehört zur Serveroptimierung

die 301 Umleitungen gehören auch in die htaccess und sind immer dann nötig, wenn sich eine URL eurer Seite ändert. Sei es durch Umzug, Relaunch oder einfach weil es die Seite eigentlich gar nicht mehr gibt.
Damit Eure PLatzierungen für die betreffenden Seiten nicht verloren gehen und google keine 404 Fehler findet, solltet ihr in o.g. Fällen immer eine 301 umleitung, auch 301 Weiterleitung genannt, anlegen.
Dies geht beispielsweise so:

 Redirect permanent alte URL neue URL 

Es gibt hier viele verschiedene Syntax-Möglichkeiten, die ihr durch googeln leicht finden werdet.


die robots.txt sagt den google Bots, was erlaubt ist und was nicht.

robots.txt

Die robots.txt liegt auf dem Server auf der gleichen Ebene wie die htaccess und ist quasi eure Anleitung für die Bots der Suchmaschinen. Hier könnt ihr die Suchmaschinen aussperren (in der Entwicklungsphase zu empfehlen), oder nur bestimmte Inhalte vor dem Crawler schützen.
Da google es gar nicht mag, großflächig ausgesperrt zu werden, seit hier bitte sparsam.

Bots während der Entwicklungphase aussperren:

Nur bestimmte Verzeichnisse sperren:

Alle Verzeichnisse dürfen gecrawlt werden:


Die sitemap.xml unterstützt das schnelle Crwalen duch die google bots, wie ihr sie richtig verfasst, lest ihr hiersitemap.xml

Die sitemap.xml hilft euch zwar nicht direkt dabei besser zu Ranken, aber auf einem gut konfigurierten Server und einer Serveroptimierung sollte sie trotzdem vorhanden sein. Denn in dem ihr eine sitemap.xml für Google vorhaltet, kann der Bot eure Seite besser srollen und ihr sorgt so dafür, dass eure Seite schneller indexiert wird.
Am besten reicht ihr die Sitemap auch direkt noch in der Google Search Console ein.
Die Sitemap wird im XML-Format angelegt, das könnt ihr mit einem beliebigen Text-Editor tun und dann die Datei als. XML abspeichern.
Für kleine Seiten könnt ihr auch gratis Online-Tools verwenden. Diese crwalen eure Seite und generieren automatisch eine Sitemap, die ihr dann nur auf den Server hochladen müsst. Für Bei den Gratis-Tools gibt es aber meist ein Limit an maximalen Seiten, daher kann man nicht immer auf diese Tools zurückgreifen.
Ich Persönlich bevorzuge es jedoch mit einer leeren Beispiel-XML zu arbeiten die ich mir für diesen Zweck abgespeichert habe. So habe ich immer die volle Kontrolle und kann eine sitemap.xml auch ohne Werbelinks erstellen.
Hier seht ihr ein Beispiel für eine Sitemap:

</pre>
<?xml version="1.0" encoding="UTF-8"?>
<urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">
<url>
<loc>http://www.stark-im-web.de/</loc>
<changefreq>daily</changefreq>
<priority>1.0</priority>
<lastmod>2015-03-05</lastmod>
</url>
<url>
<loc>http://<a href="http://www.stark-im-web.de/onpage-seo/">www.stark-im-web.de/</a>onpage-seo</loc>
<changefreq>daily</changefreq>
<priority>0.8</priority>
<lastmod>2015-03-05</lastmod>
</url>
/urlset>

Kommentare sind geschlossen