Matt Cutts hat am 25.09 repräsentativ für Google Stellung zu der von Webmastern hinterfragten Bedeutung von validem HTML-Sourcecode genommen.
Er sagte, dass der Google-Bot eine Webseite nicht für “unsauberen” oder invaliden Sourcecode bestrafen würde, es aber trotzdem zahlreiche Gründe für die Codeoptimierung gebe.
Das Originalvideo von Matt Cuts
Die Validationsrate ihrer Webseite hat also keinen direkten Einfluss auf das Google Ranking. Trotzdem macht es, auch meiner Meinung nach, Sinn, konform zu entwickeln. Denn durch indirekte Einflüsse kann man sehr wohl erheblich vom Bot (ungewollt) abgestraft werden, wenn dieser den Quellcode nicht korrekt lesen und analysieren kann. Bei Google sind die Bots mittlerweile sehr weit entwickelt und sollten auch einen Großteil des invaliden Codes verstehen, garantieren kann man das aber nicht und sollte auf Nummer sicher gehen.
Zudem bezieht sich Cutt´s Stellungnahme nur auf Google. In Deutschland ist dies auch der entscheidendste Punkt, weil Google hierzulande einen Marktanteil von >90% besitzt und man damit wohl den Großteil der potentiellen Besucher abdeckt. Internationale Webseiten müssen allerdings mit Besuchern rechnen, die ggf. aus Staaten mit einem Google Anteil von weniger als 50% stammen. In den alternativen Suchmaschinen dieser Staaten wird möglicherweise anders mit “unsauberem” Quelltext umgegangen bzw. sind die Bots vermutlich nicht so weit entwickelt wie Google´s. Dann ist die Optimierung auf jeden Fall lohnenswert.
Selbstverständlich enthält jede Webseite seine HTML-Errors, die sich je nach Anwendungsart schnell oder aber nur mit kompletter Umstrukturierung entfernen lassen.
Dazu sagt Google: Die Benutzer(-freundlichkeit) stehen/steht im Vordergrund! Lieber eine kleine “Unsauberkeit” hinnehmen und dafür dem Benutzer das bieten, was er wünscht!