Kostenkalkulator

Interne Verlinkung – ein Experteninterview mit Tobias Schwarz

Tobias Schwarz ist Gründer und Entwickler von strucr.com.
strucr.com ist ein Dienst der Strukturanalysen von Webseiten ermöglicht. Der Dienst umfasst einen Crawler, der in der Lage ist alle über Links erreichbaren Seiten abzurufen und zu analysieren. Dabei werden der HTTP Status, die Antwortzeit und die Verlinkungen der Seiten untereinander analysiert und basierend darauf Vorschläge zur Linksetzung unterbereitet.

 
Onlineshops.de: Hallo Tobias, wir hatten uns auf der SEO campixx 2014 kennen gelernt. Magst Du Dich kurz unseren Lesern vorstellen?

Tobias SchwarzMeine Name ist Tobias Schwarz und ich bin einer der Gründer von Strucr.com. Strucr ist ein Dienst der technische Audits von Webseiten durchführt. Ich habe Strucr zusammen mit Gerd Riesselmann 2011 ins Leben gerufen. Davor habe ich überwiegend eigene Webseiten betrieben und diese über Werbung monetarisiert. Seit 2013 machen wir Strucr nun hauptberuflich und helfen überwiegend großen Seiten bei der Analyse und Optimierung ihrer Webauftritte.

Onlineshops.de: Bei der SEO campixx 2014 hattest Du einen spannenden Vortrag über die interne Verlinkung gehalten. Dabei hattest Du ein gutes Beispiel, wie sich die interne Verlinkung in Onlineshops positiv und negativ auswirken kann. Magst Du das Beispiel vorstellen?

Viele Onlineshops schaffen es mit wenigen tausend Produkten und einigen wenigen Kategorien, Milliarden von sinnlosen Unterseiten zu erzeugen. Zur Kernfunktionalität von Shops gehört das Filtern von Produkten und das Sortieren von Produkten. Filter und Sortierungen lassen sich damit oft beliebig kombinieren und führen dann zu der riesigen Anzahl von Seiten. Von diesen Seiten sind die meisten nicht relevant für SEO. In meinem Beispiel auf der SEO-Campixx habe ich über einen Kunden gesprochen der durch Reduktion der Seiten eine Steigerung von 40% im SEO-Traffic verbuchen konnte.

Onlineshops.de: Es gibt ja technisch einige Möglichkeiten (canonical, nofollow, Maskierung mittels JavaScript etc.), wie man Links auszeichnen kann, um diese für Google und andere Suchmaschinen zu „entwerten“ bzw. zu verstecken. Funktionieren die Techniken?

Genau richtig, die meisten Shops wissen um die Problematik und diese sinnlosen Seiten werden dann in der robots.txt gesperrt, über nofollow verlinkt, auf noindex gestellt, oder mit dem canonical Element bestückt.
Nach meiner Erfahrung sind all diese Ansätze nicht optimal. Seiten die auf noindex stehen oder ein canonical-Element enthalten werden von Suchmaschinen auch weiterhin gecrawlt und durch den Einsatz von nofollow Links wird der Linkjuice der Webseite nicht mehr innerhalb der Seite weitervererbt. Bei nofollow reicht außerdem ein einziger externer Links aus, damit die Seite auch weiterhin gecrawlt wird. Javascript versteht Google inzwischen recht gut. Wir hatten Fälle bei denen Kunden Links per Javascript maskiert haben und Google diese bereits einige Wochen später verstanden und wieder gecrawlt hat.

Onlineshops.de: Schade, dass die Techniken nicht funktionieren! Wie habt Ihr in Eurem Projekt das Problem gelöst?

Wir lösen das Problem, indem wir statt Links auf Formulare mit Buttons setzen und POST Anstelle von GET als Methode für die Übertragung der Daten nutzen. Anschließend schreiben wir die Information in eine Session leiten den Nutzer zurück auf die ursprüngliche Seite. Dort lesen wir dann die gesetzten Filter und Sortierungen wieder aus der Session aus und zeigen das gewünschte Ergebnis an. Bekannt ist dieses Design-Pattern als PRG-Pattern (http://en.wikipedia.org/wiki/Post/Redirect/Get).
Die Buttons lassen sich wie Links stylen und ein Nutzer bemerkt den Unterschied in der Funktion nicht. Die alten URLs der Filterfunktionen können sauber auf dieses Verfahren portiert und durch Weiterleitungen ersetzt werden. Für Nutzer welche ein gefiltertes Ergebnis versenden möchten kann man ebenfalls eine Funktionalität über Weiterleitungen bereitstellen.
Bei der Umstellung sollte man jedoch unbedingt sicherstellen, dass alle Produkte weiterhin über normale Links erreichbar sind. Dies lässt sich z.B. durch den Abgleich zweier Crawls überprüfen und ist ein häufiger Verwendungszweck unserer Software.
Für einen größeren Shop haben wir übrigens externe Links auf gefilterte Ergebnisse ausgewertet. Viele der Links führten zu Seiten mit 0 Ergebnissen. Durch die Umstellung und die Anzeige der Bestseller statt einer leeren Liste konnten deutliche Steigerungen bei den Conversion realisiert werden.

Onlineshops.de: Hast Du einen Tipp, wie man im Onlineshop die üblichen Links (Produkt bewerten, Fehler melden, …), behandeln sollte?

Da sich durch diese Links ebenfalls viele Seiten ergeben, sollte man diese ebenfalls auf Formulare mit POST umstellen. Das Verfahren lässt sich eigentlich auf alle nicht SEO-relevanten Seiten anwenden.
Sofern entsprechende Funktionen aber nur einen kleinen Teil der Seiten ausmachen, so würde ich immer zwischen Kosten und Nutzen abwägen. Der größte Hebel ergibt sich nunmal wenn man viele Seiten ändert und große Änderungen an den Strukturen einer Seite durchführt.
Am Anfang sollte daher wie bei jeder Optimierung die Erhebung von Daten und deren Analyse stehen, etwa durch einen Crawl mit Strucr.

 

Vielen Dank für das Interview, Tobias!

Mehr unter www.strucr.com

Related Post