INS-ecommerce

Tipps um Web 2.0 suchmaschinenfreundlich zu gestalten

Durch Web 2.0 hat sich das Web stark verändert. es ist interaktiver, bunter und kommunikativer geworden. Hinter vielen Websites verstecken sich jetzt Web-Anwendungen. Doch einige Wahrheiten bleiben dennoch bestehen.

So ist die beste Website der Welt wertlos, wenn sie nicht besucht wird. Und wie bekommt sie Besucher? Suchmaschinen sind immer noch mit Abstand das meist genutzte Mittel, wenn sich Menschen im Web informieren wollen oder bestimmte Informationen oder Produkte suchen.

Doch die meisten Web 2.0 Anwendungen sind nicht suchmaschinenfreundlich. Denn viele Web 2.0 Programmierer kommen von klassischen Software-Anwendungen, haben aber wenig Erfahrung und Wissen, wie man gute und suchmaschinenfreundliche Websites erstellt.

Das ist nicht weiter verwunderlich, denn für klassische (Desktop) Anwendungen sind Suchmaschienenfreundlichkeit und SEO (search engine optimization) bedeutungslos.

Deswegen folgen nun einige wichtige Punkte, die man bei Web 2.0 Anwendungen in Bezug auf Suchmaschinenfreundlichkeit beachten sollte. Allerdings sind diese Punkte nicht nur für Suchmaschinen wichtig, sondern können auch die technische Qualität der Website erhöhen.

Trennung von Code, Design und Funktion!
Gutes Webdesign überfrachtet den HTML-Code nicht mit Anweisungen zur optischen Darstellung der Seite. Der HTML-Code soll möglichst schlank nur die Inhaltselemente darstellen. Die Gestaltung erfolgt durch einen in eine separate Datei ausgelagerten CSS-Stylesheet. Genauso ist es schlecht, den HTML-Code mit eingebetteten Javascript-Funktionen zu überfrachten. Besser ist es, auch diese Javascript-Funktionen in einer separat geladenen Javascript-Bibliothek auszulagern. Dadurch wird der HTML-Code schlanker, schneller ladbar und ist wesentlich leichter zu pflegen und anzupassen.

Keine dynamischen URLs mit Session-IDs!
Bedingt durch das Web-Protokoll HTTP, bei dem jeder einzelne Browser-Zugriff für sich steht, muss bei einer Web-Anwendung der User, der sich z.B. gerade eingeloggt hat, eindeutig identifiziert werden. Dieses passiert über eine sogenannte Session-ID (eine lange kryptische Zeichenkombination, die nicht zu erraten sein sollte...). Diese Nummer muss bei jeder Anfrage von Webbrowser mitgesendet werden. Daher nutzt man dazu entweder ein Cookie oder schreibt diese Session-ID als Parameter in die URL. Letzteres ist ganz schlecht. Zum einen können Fremde dadurch leicht in den Besitz dieser Session-ID kommen (und sich damit als jemand anderes ausgeben...) und zum anderen führt das dazu, dass die Suchmaschine jedesmal eine andere URL erhält (mit anderer Session-ID) wenn sie die Website besucht. Das wiederum führt zu vielen Seiten im Suchmaschinenindex, die alle identische Inhalte haben. Identische doppelte Inhalte sind aber Gift für Suchmaschinen und werden von ihnen daher mehr oder minder stark bestraft, und die Website im Endeffekt abgewertet.

Keine dynamischen URLs (mit vielen Parametern)!
Suchmaschinen lieben statische URLs, die sich nicht verändern und in denen Keywords der Seite stehen. Viele Webanwendungen übergeben mit der URL einen Haufen von Parametern zur Steuerung der Webanwendung (das sind URLs mit Fragezeichen und vielen "und" Zeichen dahinter. Das kann dazu führen, dass diese Seiten von Suchmaschinen gar nicht indiziert werden. Statt:
www.ins.de/?id=47&content=234&rubr=345&cat=2543&from=45

besser sprechende URLs verwenden wie:
www.ins.de/produkte/software/CMS/shop.html


Vorsicht bei Hilfsseiten (wie der "Druckansicht")!
Viele Webanwendungen bieten eine zweite Sicht auf die Informationen an (wie die Druckansicht, bei der die Seite für den Ausdruck optimiert wurde). Wenn Suchmaschinen ebenfalls auf diese Seite gelangen können, sehen sie also zwei verschiedene Seiten mit den gleichen Inhalten - als wieder identischer doppelter Inhalt. Gift, das zur Abwertung führt (s.o.). Bei solchen Seiten sollte man (mittels javascript oder besser den "nofollow,noindex" Parameter oder noch besser einfach nur (bei gleicher URL) anderen Stylesheet (für den Druck) dafür sorgen, dass die Suchmaschine nur eine Seite sieht.

Individuelle Header-Felder
Es ranken sich viele SEO Mythen um die geheimnisvolle Bedeutung der sogenannten META-Informationen im Header einer Seite. Meist kann eine Web-Anwendung dazu nicht alle Möglichkeiten unterstützen. Wichtig ist jedoch, dass zumindest die Felder Title, Keywords und Description nicht bei allen Seiten gleich sind (das führt im schlimmsten Fall wieder zur Abwertung als "doppelte Inhalte") und zumindest die Möglichkeit besteht, diese Felder auch individuell pro Seite einzugeben.

Inhalte für Spider sichtbar darstellen
Mit DHTML durch Javascript dynamisch in die Seite nachgeladene Inhalte ohne die Seite reloaden zu müssen sind schick und verbessern die flexibilität für den User. Suchmaschinen sind für diese Inhalte aber blind, weil sie kein Javascript verstehen. Daher sollten auch solche Seiten noch genügend individuelle und statische Inhalte haben, also Futter für die Suchmaschine, damit die Seiten nicht als leer oder als "doppelter Inhalt" abgewertet werden.

Gute statische Verlinkung und Navigation
Was für dynamische Inhalte gilt, gilt verstärkt für die Navigation. Wer die Navigation einer Website ausschliesslich über Javascript realisiert, sperrt damit die Suchmaschinen aus, die dadurch viele Seiten nicht finden. Denn Suchmaschinen-Crawler hangeln sich entlang der internen Verlinkung der Seiten und der Navigation durch die Website. Dabei ist es doch so einfach, die Navigation als statische HTML-Link-Liste auszulegen, die dann trotzdem per Javascript dynamisch und schick angezeigt wird.

Guter und fehlerfreier HTML-Code
Es hält sich zwar das hartnäckige Gerücht, dass Google besonders komplizierte und fehlerhaft verschachtelte Tabellen honoriert, doch Tatsache ist, dass fehlerfreier HTML-Code zu besseren Positionen in Suchmaschinen und nachvollziehbareren Ergebnissen führt. Es ist doch nicht so schwer, einen der vielen frei verfügbaren HTML-Validatoren zu nutzen.

Alles wird gut!
Diese Tips stellen nur einen kleinen Ausschnitt der Möglichkeiten dar. Doch wer schon diese wenigen Ratschläge bei der Entwicklung von Web 2.0 Web-Anwendungen befolgt, hat kaum einen Mehraufwand, aber gestaltet seine Anwendung suchmaschinenfreundlicher als es über 80% der vorhandenen Web 2.0 Websites sind. Und wird daher mittelfristig daraus einen merkbaren Wettbewerbsvorteil im Sinne von besserer Suchmaschinenreichweite erhalten, ohne nachträglich viel Geld in das Thema SEO stecken zu müssen.



Geschrieben von af in am: Donnerstag, 8. Februar 2007
Permalink

Tags: , , , , ,

Diesen Beitrag bei folgenden Diensten bookmarken:
del.icio.us - Digg it - Mister Wong - Technorati - Ruhr.com Suchmaschine

Kommentare

Nächster Artikel: Wann ist der Relaunch einer Website sinnvoll?

Vorheriger Artikel: Ecommerce wie er nicht sein sollte