Google als Browser: Welche Konsequenzen das Rendern von Inhalten hat

Google hat in den letzten Jahren dramatisch dazugelernt. Früher gab es zum Beispiel unter vermeintlich pfiffigen SEOs die Praxis, Texte im HTML-Code weit vorne zu platzieren und diese dann über CSS-Methoden entweder ganz unten oder sogar außerhalb der Sichtbarkeit darzustellen. Das Wichtige sollte eben im Quellcode einer Website ganz vorne zu finden sein. Ob das jemals funktioniert hat, ist umstritten. Unstrittig ist aber wohl, dass Google sich weiterentwickelt hat und jetzt in der Lage ist, HTML-Seiten „richtig“ zu verstehen. Was folgt daraus für Shopbetreiber?
Schon seit einiger Zeit hat Google die Fähigkeit, Seiten zu „rendern“ – also dasselbe zu machen, was in jedem Web-Browser passiert. Es wird eben nicht nur die reine HTML-Seite ausgelesen, sondern auch die CSS-Dateien, Bilder und sogar JavaScript-Dateien. Die Konsequenz ist klar. Google weiß jetzt, wo sich Texte befinden. Wer also wie bislang z. B. am unteren Ende einer Rubrikenseite drittklassige SEO-Texte platziert, sollte sich darüber im Klaren sein. Dass sich dieser Text weit unten befindet, kann die Suchmaschine sehr gut feststellen. Besser ist es daher, Texte eher im direkt sichtbaren Bereich zu platzieren. Das hat dann allerdings noch eine weitere Konsequenz: Um die Nutzer nicht zu stören, müssen die Texte dann auch sinnhafter sein und den Besucher z. B. auf die Seite und das Produktsortiment ein- stimmen.
Testen mit Google
Es geht aber nicht nur um die Frage der Platzierung, sondern auch darum, ob Google die Seiten überhaupt vernünftig „rendern“ kann. Dass es wichtig ist, Google Zugriff auf alle relevanten Dateien zu geben, hat Google im Oktober 2014 sehr klar formuliert:
„Wenn ihr das Crawling von JavaScript-oder CSS-Dateien in der robots.txt- Datei eurer Website nicht zulasst, wirkt sich dies unmittelbar auf die Darstellung und Indexierung eurer Inhalte durch unsere Algorithmen aus und kann zu schlechteren Rankings führen.“
Ein wichtiges Tool zum Testen bieten die kostenlosen Google Webmaster Tools. In dem Bereich „Crawling > Abruf wie durch Google“ befindet sich die Möglichkeit, eine URL einzugeben und dann auf „Abrufen und rendern“ zu klicken. Google lädt dann die entsprechende URL und sämtliche dort benötigen Ressourcen (Bilder, CSS-Dateien, JS-Dateien) herunter. Dieses Tool sollte man für alle wichtigen Seitentypen exemplarisch durchführen, also die Startseite, eine Rubrikenseite und eine Produktdetailseite anfordern.
Falls der Download geklappt hat – gelegentlich kommt es dort auch zu temporären Problemen – gelangt man dann auf eine Seite wie die in der Abbildung unten. Dort sieht man, wie Google die jeweilige HTML-Datei darstellt („So sah der Googlebot die Seite“). Im Beispiel (Abbildung unten) ist zu erkennen, dass es Google nicht gelungen ist, das Logo herunterzuladen und entsprechend dann auch darzustellen. Das kann man daran erkennen, dass die entsprechende Bilddatei im unteren Bereich mit „Vorübergehend nicht erreichbar“ gekennzeichnet wird.
Wie gesagt: Solche Probleme können immer mal wieder vorkommen. Man sollte den Test daher so lange wiederholen, bis solche Meldungen nicht mehr auftauchen. Alle weiteren Meldungen sollten dann gewissenhaft geprüft werden.
Einige Objekte sind mit „Blockiert“ gekennzeichnet. Handelt es sich dabei um Objekte, die Google für das Rendern der Seite unbedingt braucht? Oder sind diese unwichtig und können daher auch weiterhin blockiert bleiben?
Im Beispiel werden nur Tracking-Scripte und Aufrufe zur Banner-Einbindung blockiert. Auf diese kann sicherlich verzichtet werden. Schlimmer wäre es dagegen, wenn wichtige CSS-Dateien oder sogar alle Produktbilder blockiert würden, so dass der Googlebot dann nur ein sehr unvollständiges Bild von der Website erhalten würde.
Dass Google das Blockieren von Ressourcen als wichtigen Punkt ansieht, kann man auch daran erkennen, dass es neuerdings in der Sektion „Google-Index“ eine weitere Auswertung namens „Blockierte Ressourcen“ gibt. Dort werden die gesamten Website Ressourcen gesammelt, die blockiert sind. Wer sich das Durchtesten von vielen unterschiedlichen Seiten sparen möchte, kann sich auch diese Auswertung (siehe Abbildung 2) anschauen und damit Zeit sparen.
Übrigens: Mit „blockiert“ ist jeweils gemeint, dass die entspreche Ressource mittels robots.txt gesperrt ist. Das untersagt Suchmaschinen, die jeweilige Datei herunterzuladen. Wer sich mit diesem Thema nicht gut auskennt, sollte hier keine Änderungen vornehmen, da diese auch unerwünschte Nebeneffekte haben können.
Der zweite Test
Wie schon eingangs erwähnt, ist es Google aber auch wichtig, ob textliche Inhalte sichtbar sind. In einem Google Hangout (https://www.youtube.com/watch?v=tFSI4cpJX-I, beginnt bei ca. 11:20) hat sich John Mueller von Google dazu wie folgt geäußert:
“If we can recognize that the content is actual hidden, then we’ll just try to discount it [...] the user doesn’t see it, therefore it’s probably not something that’s critical.”
Nun könnte man meinen, dass Google damit auf die frühere Praxis anspielt, dass z. B. weißer Text vor einem weißen Hintergrund dargestellt wird. So hat man „früher“ Texte vor Nutzern versteckt und nur für Suchmaschinen sichtbar gemacht.
Das ist aber so nicht gemeint. Modernes Webdesign bietet ganz andere Möglichkeiten, etwas zu „verstecken“:
- Tabs (verschiedene Oberpunkte, die dazu führen, dass innerhalb einer Seite ein Bereich aktualisiert wird)
- Slider (rotierende Elemente, die manchmal auch Text enthalten)
- Click to Expand (ein Link wie „mehr Text“, der nach einem Click einen vorher nur gekürzt dargestellten Text vollständig aufdeckt)
Bei diesen Features geht es in der Regel nicht darum, etwas willentlich vor Google zu verstecken. Aber dennoch können diese problematisch werden, wenn relevante Texte eben nicht direkt ohne Interaktion (also z. B. den Klick auf ein Tab) sichtbar sind.
Das Beispiel in Abbildung 3 zeigt eine Produktdetailseite, die Tabs einsetzt. Geöffnet ist beim Abruf der Seite der erste Tab „Details“. Dort sind auch die wichtigen Produktinformationen zu finden. Die beiden anderen Tabs „Produktbenachrichtigungen“ und „Ersatzartikel“ enthalten zwar auch Text; dieser ist allerdings in Bezug auf die Produktdetailseite nicht wichtig. In diesem Fall sind Tabs also nicht zu beanstanden, weil die wichtigen Texte direkt ohne Klick auf einen Tab zu sehen sind.

Problematisch wird es hingegen, wenn z. B. wertvolle nutzergenerierte Produktbewertungen in einem Tab „versteckt“ werden. Hier sollten dann alternative Lösungen gefunden werden – also in der Regel ohne die Nutzung von Tabs. Das verlängert zwar die Produktdetailseite, kann aber für die Auffindbarkeit vorteilhaft sein.
Alles auf einen Blick
- Google kann durchaus feststellen, wo auf einer Website sich ein Text befindet – also z. B. im direkt sichtbaren Bereich oder am Ende einer Rubrikenseite. Grundsätzlich sollten Texte daher immer im sichtbaren Bereich platziert werden, damit sie ihre volle Wirkung entfalten können.
- Über das Webmaster-Tools-Feature „Abruf wie durch Google“ sollte mit der Rendern-Funktion geprüft werden, ob Google die wichtigen Seiten eines Shops (Startseite, Rubrikenseiten, Produktdetailseite, ...) problemlos abrufen und komplett darstellen kann.
- Grundsätzlich dürfen Ressourcen blockiert werden, die für die Darstellung einer Seite nicht relevant sind (vor allem Tracking-Scripts). Alle anderen Ressourcen (vor allem CSS und Bilder) sollten immer zugänglich sein.
- Es sollte auch geprüft werden, ob relevante textliche Inhalte der unterschiedlichen Seitentypen direkt beim Abruf (ohne Klick) sichtbar sind. Vor allem Produktbeschreibungen und Bewertungen sollten nicht „versteckt“ werden.
Fazit
Konnte Google früher nur HTML auslesen und dort einfaches Markup verarbeiten, muss man anerkennen, dass Google signifikant dazugelernt hat und Seiten komplett „rendert“. Das kann, wie beschrieben, aber auch Auswirkungen auf das Design haben. Wichtig ist in jedem Fall zunächst, dass Google Zugriff auf alle relevante Ressourcen einer Seite erhält, damit es nicht zu Ranking-Nachteilen kommt.

Autor
Markus Hövener
Markus Hövener ist geschäftsführender Gesellschafter und Head of SEO-/ SEM-Agentur Bloofusion. Darüber hinaus bloggt er zu SEO-Themen für die Internetkapitäne, ist Chef- redakteur vom SEO-/SEM-Magazin suchradar, hält Vorträge auf Konferenzen (SMX, Conversion Conference, SEOkomm, Search Conference, ...) und ist Autor vieler Studien und Analysen.
www.bloofusion.de
markus.hoevener(at)bloofusion.de
twitter.com/bloonatic