Wie guter Content heutzutage aussehen muss

Content is King – dieses Motto gibt es schon seit Jahren. In den letzten Jahren haben sich die Anforderungen Googles immer weiter erhöht, so dass „irgendwelche Inhalte“ einfach nicht mehr funktionieren. Dieser Artikel bietet daher einen Überblick über die unterschiedlichen Aspekte und Sichtweisen auf das Thema Content.
In den letzten Jahren hat sich in Bezug auf die Bewertung von Content einiges bei Google getan. Früher waren es Aspekte wie „Keyword-Dichte“, die relevant waren. Ein Text konnte inhaltlich relativ schwach sein, aber solange die Suchbegriffe an den richtigen Stellen auftauchten, wurde die Seite doch mit guten Rankings belohnt. Diese Zeit ist – je nach Sichtweise leider bzw. zum Glück – vorbei. Vor allem mit dem Google Panda Update hat Google den Fokus auf die Qualität von Inhalten gelegt. Und dank weiterer Updates wie Hummingbird löst sich die Suchmaschine auch immer mehr von den Suchbegriffen und versucht die Intention des Suchenden wirklich zu verstehen. Einfach nur Texte schreiben – oder schreiben lassen – reicht also nicht mehr, um mit dem eigenen Content gut gefunden zu werden. Es geht in Bezug auf die Inhalte vielmehr um zwei wichtige Bereiche:
- Reale Nutzersignale
- Erwartete Nutzersignale
Natürlich wirken auch noch viele weitere Signale auf das Ranking ein, z. B. die externe Verlinkung. Oder mit anderen Worten: Selbst der perfekte Inhalt wird es auf einer schlecht verlinkten oder schlecht strukturierten Website nicht einfach haben. Für diesen Artikel beschränken wir uns aber auf das Thema Content – und hoffen, dass die anderen Signale natürlich auch beachtet werden.
Reale Nutzersignale
Es ist unter SEOs unstrittig, dass Google auch reale Nutzersignale heranzieht, um Content zu bewerten. Wer sich einmal die „Suchanalyse“ in der Google Search Console anschaut, erkennt, dass dort für die organischen Rankings Positionen und Klickraten (CTR = Click Through Rate) ausgegeben werden. Das ist der eindeutige Beweis dafür, dass Google jeden Klick in den Suchergebnissen mitzählt.
Und wenn die Suchmaschine das macht, kann sie nicht nur die Klickrate messen, sondern auch Rückschlüsse auf die Verweildauer ziehen. Wenn jemand auf ein Suchergebnis klickt, sich kurz die Seite anschaut, zu den Suchergebnissen zurückkehrt und auf ein weiteres Suchergebnis klickt, ist das ein klares – in diesem Fall negatives – Signal: Der Nutzer hat für diese Suchanfrage auf der ersten Seite wohl nicht das gefunden, was er sich erhofft hat.
Grundsätzlich will man also eigentlich zwei Signale an Google schicken
- 1. Das eigene Suchergebnis hat eine überdurchschnittlich hohe Klickrate.
- 2. Der Suchende bleibt lange auf der Seite – findet dort also, was er gesucht hat.
Wie kann man das beeinflussen?
Zunächst scheint es so, dass Marken-Websites grundsätzliche höhere CTRs haben. Das ist ja auch der Sinn einer Marke: Orientierung und ein Versprechen auf eine gute Leistung zu bieten. Wer nach einem Marathon-Trainingsplan sucht und in den Suchergebnissen eine Seite von Nike und eine von Paules-Billig-Sportshop findet, wird wohl eher auf die Nike-Seite klicken – und das kann Google messen. Es macht also auch in Bezug auf die CTR Sinn, eine eigene Marke aufzubauen.
Es gibt aber auch noch andere Möglichkeiten, Einfluss zu nehmen. So können Unternehmen natürlich auch optische Vorteile aufbauen. Durch die Optimierung der Seitentitel und Meta Descriptions ist es möglich, die Titelzeile und den Textausschnitt im Suchergebnis zu beeinflussen. Wenn man sich die beiden Suchergebnisse in Abbildung 1 anschaut, würden überdurchschnittlich viele Nutzer aus den folgenden Gründen auf das zweite Ergebnis klicken:
- 1. Das vollständige Produkt wird nur beim zweiten Ergebnis angezeigt. Der Nutzer weiß dort also eher, dass er „das Richtige“ bekommt.
- 2. Das zweite Ergebnis verfügt über sogenannte Rich Snippets: Die zusätzliche Zeile zeigt sowohl attraktive Sternchen als auch direkt den Preis an.
- 3. Die Textbeschreibung ist zwar relativ kurz, macht aber auch deutlich, dass das Produkt direkt gekauft werden kann. Ob Milupa einen Onlineshop hat oder nur Produktinformationen bietet, ist aus dem Suchergebnis nicht zu erkennen.

Inhalte auf den Nutzer ausrichten
Neben der Nutzung solcher optischer und kommunikativer Vorteile ist es aber auch wichtig, Inhalte optimal auf den Nutzer auszurichten. Der Nutzer soll ja möglichst lange auf der Website bleiben, was er genau dann macht, wenn die Inhalte alle seine Fragen beantworten und diese Inhalte zudem noch leicht zu konsumieren sind.
Ein Beispiel: Wer einen Text zum Suchbegriff „hörgeräte kosten“ schreiben will, muss wissen, welche Fragen seine Nutzer haben. Wenn man sich selber bereits jahrelang mit dem Thema beschäftigt, kann man sich oftmals gar nicht mehr in die Position des Unwissenden versetzen. Hier können aber Keyword-Datenbanken helfen.
Wer z. B. den Google Keyword Planner (AdWords-Login erforderlich) nutzt und die Phrase „hörgeräte kosten“ eingibt, findet dort Suchanfragen wie „hörgeräte ohne zuzahlung“ und „digitale hörgeräte preise“. Daraus kann man dann schon wichtige Inhalte für den Text ableiten:
- Gibt es eine Zuzahlung? Wie hoch ist diese? Welche Art von Gerät bekommt man dafür?
- Wenn es digitale Hörgeräte gibt: Gibt es auch analoge Hörgeräte? Wie sind die Kosten im Vergleich? Sind die digitalen besser? Für wen?
Man kann auch andere Tools wie keywordtool.io und hypersuggest.com nutzen, um sich noch mehr Inspiration über das Suchverhalten zu holen.
Wichtig ist insgesamt aber auch die Lesbarkeit: Nur eine geringe Zahl von Nutzern hat die Ausdauer und Muße, um einen Text komplett von oben nach unten zu lesen. Der größere Teil versucht, die Struktur eines Textes schnell zu erfassen und nur benötigte Teile zu lesen. Dabei kann der Leser mit folgenden Elementen unterstützt werden:
- Packende Hauptüberschrift
- Sinnvolle Zwischenüberschriften
- Inhaltsverzeichnis am Anfang
- Medien (YouTube-Videos, Downloads, ...)
- Weiterführende Links (intern, extern)
Erwartete Nutzersignale
Zusätzlich zu den realen, beobachteten Nutzersignalen übernimmt der Google-Algorithmus einen anderen wichtigen Anteil. Dort wird berechnet, wie gut ein Text wahrscheinlich für den Nutzer sein wird – deswegen auch „erwartete“ Nutzersignale.
Wie schon anfangs gesagt, war hier vor allem das Panda Update wichtig. Im Rahmen des Updates hat Google damals einen Fragenkatalog veröffentlicht, der insgesamt 23 Fragen stellte, mit denen man seine Inhalte und seine gesamte Website kritisch hinterfragen konnte, z. B.
- Würdet ihr den in diesem Artikel enthaltenen Informationen trauen?
- Wurde der Artikel von einem Experten oder einem sachkundigen Laien verfasst oder ist er eher oberflächlich?
- Enthält dieser Artikel Rechtschreibfehler, stilistische oder Sachfehler?
Das Panda Update wurde von Google nicht so implementiert, dass man bestimmte Bestandteile oder Eigenschaften einer Seite explizit formuliert hat. Vielmehr wurde eine Software genutzt, die auf Basis manuell ausgewählter guter und schlechter Websites trainiert wurde. Interessant ist es also sich zu fragen, welche Eigenschaften die Software denn erkannt hat.
Einen guten Überblick dazu bildet der Beitrag „How the Panda Algorithm Might Evaluate Your Site“, der genau diese Frage beantwortet. Es handelt sich dabei immer nur um Hypothesen – aber um solche, die durchaus sinnvoll sind. So könnte Google gelernt haben, dass unter einem guten Beitrag häufig ein Autorenprofil zu finden ist. Oder dass es Zwischenüberschriften gibt. Oder sinnvolle Bilder und Diagramme.
Der Text
Google hat auf algorithmischer Ebene noch andere Möglichkeiten Texte zu bewerten. So gibt es verschiedene Lesbarkeitsindizies, die die gute Lesbarkeit eines Textes (Satzlänge, Silbenzahl pro Wort, ...) analysieren.
Unter dem Stichwort „WDF*IDF“ geistert seit Jahren aber auch ein anderes Verfahren durchs SEO-Netz. Dabei geht es darum, dass ein Text auch anhand seiner „Proof Terms“ und „Relevant Terms“ bewertet werden kann. Ein fiktives Beispiel: In einem Text über „Aspirin“ kommt mit einer Wahrscheinlichkeit von 80 % auch das Wort „Kopfschmerzen“ vor (und mit 70 % „Medikamente“ und mit 60 % „Tabletten“ und so weiter). Wer nun einen Text über „Aspirin“ schreibt und diese Wörter alle nicht verwendet, schickt ein klares Signal, dass der Text wohl nicht gut ist.
Grundsätzlich ist es also sinnvoll, die Erwartung in Bezug auf diese „Proof/Relevant Terms“ zu erfüllen. Wer einen sachlich fundierten Text schreibt, wird das zum Glück in der Regel von selber machen. Viele Autoren nutzen aber auch WDF*IDF-Tools, um die verwandten Suchbegriffe zu ermitteln und dann auch in den Text einzubauen. Ein solches Tool liefert eine Auswertung wie die in Abbildung 2. Dort sind Suchbegriffe zu finden, die in Bezug auf die Suchanfrage „sofa“ wichtig sein könnten. In jedem Fall sollte man das alles also sehr kritisch prüfen (und nicht Wörter wie „ikea“ oder „heine“ einbauen). Denn: Die Tools nutzen nur eine sehr kleine Datenbasis, so dass sich oftmals Wörter zu Unrecht in der Liste befinden.

Sichtbarkeit
Darüber hinaus sind aber auch noch weitere Aspekte wichtig. So hat Google unlängst seine Google-Richtlinien erweitert. Dort steht jetzt zu lesen:
„Stellen Sie sicher, dass die wichtigsten Inhalte Ihrer Website standardmäßig sichtbar sind. Google ist in der Lage, HTML-Inhalte zu crawlen, die sich hinter Navigationselementen wie Tabs oder maximierbaren Bereichen verbergen. Wir stufen diese Inhalte jedoch als weniger zugänglich für Nutzer ein und sind der Ansicht, dass die wichtigsten Informationen in der Standard-Seitenansicht sichtbar sein sollten.“
Mit anderen Worten: Inhalte, die eingeklappt sind oder eine Nutzerinteraktion benötigen, um sichtbar zu werden, werden von Google geringer gewertet. Wer also auf Produktdetailseiten einen Tab wie „Bewertungen“ hat, in dem sich Nutzerbewertungen befinden, wird von den Texten dort nur dann profitieren, wenn der Tab auch direkt beim Laden der Seite sichtbar ist.
Noch mehr Input von Google
Lesenswert sind übrigens auch die „Search Quality Evaluator Guidelines“, die Google vor einiger Zeit aktualisiert veröffentlicht hat. Das Dokument richtet sich eigentlich an die Google-internen Mitarbeiter, die Suchergebnisse beurteilen sollen, damit der Algorithmus immer weiter verfeinert werden kann. Aber auch Unternehmen finden dort viele Informationen darüber, welchen Content Google bevorzugt. So findet sich in dem Dokument der Begriff „Helpful Supplementary Content (SC)“, der wie folgt definiert ist:
„SC allows users to find related and interesting content on websites with many pages.“
Eine Sektion wie “Weiterführende Links” am Ende eines Artikels erfüllt diese Anforderung sicherlich schon gut.
Fazit
Wie man an diesem Artikel sehen kann, sind die Anforderungen von Suchmaschinen an gute Inhalte relativ hoch und insgesamt sehr vielfältig. Im Kern geht es aber darum, dass der Nutzer hochwertige Inhalte erhält, die seine Bedürfnisse befriedigen und die es für ihn nicht nötig machen, sich noch anderweitig zu informieren. In SEO-Branchenkreisen spricht man dabei vom „10x Content“, also Inhalte, die zehnmal besser als alle anderen Inhalte sind. Das ist natürlich ein hohes Ziel, zeigt aber auch eine grobe Richtung an: Anstatt zehn kleinere Beiträge zu einzelnen Aspekten zu schreiben, ist es heutzutage eher üblich, einen großen, umfassenden Beitrag zu realisieren.
Autor

Markus Hövener ist geschäftsführender Gesellschafter und Head of SEO-/ SEM-Agentur Bloofusion. Darüber hinaus bloggt er zu SEO-Themen für die Internetkapitäne, ist Chefredakteur vom SEO-/SEM-Magazin suchradar, hält Vorträge auf Konferenzen (SMX, Conversion Conference, SEOkomm, Search Conference, ...) und ist Autor vieler Studien und Analysen.
www.bloofusion.de
markus.hoevener(at)bloofusion.de
twitter.com/bloonatic