KI schreibt Texte – mehr als nur Roboterjournalismus!

Automatisierte Texte? In den meisten Medien erscheinen die Berichte über “Roboterjournalismus” mit Bildmotiven, die Unbehagen erzeugen – wie zum Beispiel Roboterhände, die eine Tastatur bedienen. Und häufig stellen die Journalisten die besorgte Frage, ob ein Roboter einen Autor ersetzen kann.
Eine Künstliche Intelligenz, die Texte schreibt, kann man durchaus als bedrohlich wahrnehmen. Sie kann Sprache erzeugen, die einen sinnvollen Inhalt hat. Damit dringt eine Software in den Raum der Kommunikation und Sprache ein, der bisher als allein dem Menschen eigen galt. Sprache prägt dazu noch die Beziehung zwischen Menschen. Kein Wunder, dass die Diskussion zu diesem Thema in den Medien vor allem von der ethischen Frage bestimmt wird, was geschieht, wenn Maschinen Menschen in einem so wichtigen Bereich ersetzen. Das liegt natürlich auch daran, dass sich die in der Diskussion beteiligten Journalisten unmittelbar und konkret in ihrem Berufsfeld bedroht sehen.
Auf der anderen Seite gibt es in der Praxis einen riesigen Bedarf an guten und verständlichen Texten, wie z. B. Produktbeschreibungen im Onlinehandel, Informationen über den eigenen Wahlbezirk nach einer Wahl, Erläuterungen zu Diagrammen oder personalisierte Anleitungen, wie man seine kaputte Waschmaschine wieder zum Laufen bringt.
Texte können präziser informieren als Bilder oder Grafiken und diese Informationen verständlicher vermitteln als Zahlenreihen oder Tabellen. So zeigt eine Studie der Universität Aberdeen von 2009, dass Ärzte bessere Entscheidungen getroffen haben, wenn sie ihre Informationen über den Zustand von kranken Neugeborenen auf der Intensivstation statt als visualisierte Daten aus den Messwerten der Überwachungsgeräten in Form von (automatisierten) Texten vorliegen hatten. Hier hatte ein Projekt des NLG-Experten Ehud Reiter mithilfe der Technologie von Arria NLG entsprechende Texte automatisiert. Viele solcher nützlichen Texte fehlen, weil es nicht genügend Ressourcen gibt, um sie zu produzieren. Und genau solche Texte können Natural Language Generation (NLG) Systeme schnell und in großer Zahl liefern.
Natural Language Systeme: verständliche Texte in natürlicher Sprache
NLG Systeme sind Systeme, die verständliche und sinnvolle Texte in natürlichen, also von Menschen gesprochenen, Sprachen produzieren können. Die Grundlage für diese Texte sind (strukturierte) Daten, die in den Texten beschrieben, zusammengefasst oder erklärt werden. Zusammen mit Systemen, die verstehen (wollen), was in Texten steht und wie man Texte wiederum in strukturierte Daten verwandeln kann (= Natural Language Understanding NLU), bilden sie in der Computerlinguistik den Bereich “Natural Language Processing” (NLP).

Wie produzieren NLG Systeme Text?
Um einen Text zu produzieren, muss festgelegt werden, welche Informationen in welcher Reihenfolge darin erscheinen sollen (Document planning). Zu diesem Zeitpunkt liegen die Informationen nicht in natürlicher Sprache vor, sondern als ein Bündel von Datenwerten und Bedingungen. Erst im nächsten Schritt (Microplanning) wird darüber entschieden, in welcher Form sie in Sprache gegossen werden. Die tatsächliche Umsetzung des individuellen Textes, der auf einem Datensatz beruht, findet erst im letzten Schritt (Realisation) statt. Die Systeme, die aktuell auf dem Markt sind, nutzen Templates, die Entscheidungen über die Textplanung, Satz- und Wortwahl sowie die Regeln für die Datenanalyse enthalten.
- Die Datenanalyse ist in die NLG-Architektur eingepasst, es ist die Stelle innerhalb des “Document Planning”, in der die Informationen aus den Daten gewonnen werden. Das ist wichtig, denn die Daten sollen nicht einfach im Text aufgelistet werden, vielmehr sollen die Systeme die Daten einordnen, bewerten und Schlussfolgerungen aus ihnen ziehen.
- In der Microplanning-Phase werden die Aussagen in Wörter und Sätze umgewandelt. Hierbei kann es wichtig sein, dass Varianz eingebaut wird. Dafür werden für bestimmte Aussagen mehrere Varianten entwickelt, um selbst bei identischen oder sehr ähnlichen Datensätzen keine gleichklingenden Texte zu produzieren. Das kann wichtig sein für Situationen, in denen ein Leser mehrere Texte z. B. aus einer Produktgruppe lesen wird oder auch für die Suchmaschinenoptimierung, um keinen unerwünschten “Duplicate Content” zu haben.
- Für die tatsächliche Textproduktion, also die “Realisation”, werden die Templates auf Datensätze angewendet, über die die Systeme schreiben sollen. So entsteht ein Text jeweils über einen Datensatz, beispielsweise eine Produktbeschreibung über ein bestimmtes Handy oder eine Berichterstattung über ein bestimmtes Fußballspiel.
Was ist mit diesen KIs, die so wunderbare Texte aus dem Hut zaubern ohne diese viele Arbeit?
Wie gezeigt, benötigen die NLG Systeme, die auf dem Markt sind, strukturierte Daten, aus denen sie die Werte entnehmen und Einschätzungen für den Text ableiten können. Außerdem muss ein Mensch noch seinen Beitrag in der Konfiguration leisten.
Daneben gibt es Schlagzeilen über den aufsehenerregenden Text Generator GPT-2, entwickelt von OpenAI, einem Unternehmen, das sich auf die Erforschung von KI spezialisiert hat. Er soll dank extrem fortgeschrittener künstlicher Intelligenz scheinbar aus dem Nichts so perfekte Texte generieren können, dass die Entwickler die Veröffentlichung einige Zeit hinaus zögerten – mit der Begründung, dass er gefährlich werden könne. Warum also strukturierte Daten bearbeiten und Regeln entwickeln, wenn ein paar Stichwörter einer Software reichen, um daraus brillante Texte in einem beliebigen Stil zu schreiben?
- Systeme wie GPT-2 verstehen nicht, worüber sie schreiben. Sie können lediglich sehr gut voraussagen, welches Wort nach einem Wort oder einer Wortgruppe am wahrscheinlichsten auftauchen wird. Im Linguistik-Slang nennt man das “Syntax”. Den Systemen fehlt aber die Bedeutung, also die “Semantik”, hinter den Wörtern. Sie produzieren grammatisch richtige Sätze und die Texte klingen gut, sind aber weitgehend sinnfrei. Häufig werden beliebige Elemente zu falschen Aussagen kombiniert.
- Mit solchen Systemen hat man keinerlei Kontrolle über die Inhalte, während man ein Grundgerüst und die Aussagen kontrollieren kann, wenn man Daten und Regeln bereitstellt.
- GPT-2 gibt es nur auf Englisch – um dem System weitere Sprachen beizubringen, braucht man große Textmengen. Wirklich gute Ergebnisse sind im Augenblick noch nicht in Sicht.
Kommerzielle NLG Systeme auf dem Markt
NLG Systeme sind inzwischen so weit entwickelt, dass man sie kommerziell nutzen kann. Sie werden in unterschiedlichen Anwendungsformen angeboten: NLG Systeme gibt es beispielsweise als Module zur Erweiterung von Datenvisualisierungssoftware, die nur für die Erstellung von Reports angewendet werden können oder als domänenübergreifende Lösungen für alle Arten von Texten. Sie unterscheiden sich auch in der Zahl der unterstützten Sprachen. Hier sind im Bereich der Dashboard-Visualisierungen bereits viele reale Beispiele von Narrative Science oder Automated Insights im Einsatz, um in großen Unternehmen die Daten und deren Entwicklung intern in Form von verständlichen Texten transparent zu machen.
Während einige Systeme von Entwicklern des Anbieters programmiert werden müssen, lassen sich andere über ein Web-Interface direkt vom Kunden mit Textvorlagen und Regeln füttern. Die aktuellste Generation dieser Web-Interfaces verwendet ihrerseits Künstliche Intelligenz, um die Eingaben ihrer Nutzer zu verstehen und Regeln direkt vorherzusagen.
Daten-zu-Text: Wo ist das Anwendungsfeld?
NLG Systeme sind am einfachsten einzusetzen, wo es bereits ausreichend strukturierte Daten gibt, die einen essentiellen Input für die Systeme liefern.
- Im Medienbereich sind das beispielsweise Wettertexte, Sport- und Wahlberichte, Finanznachrichten und einfache News. Insbesondere im Amateurfußball gibt es bereits seit längerem z. B. bei bundesliga.de (vom Technologieanbieter Retresco aus Berlin) oder Fupa eine teilweise kommerzielle Verbreitung.
- Interne Geschäftsberichte und Reportings beruhen auf einer breiten Datenbasis. Ein Teil der kommerziellen Anbieter bietet Komponenten für BI Dashboards an, die komplexe Datenstrukturen erklären können. Der französische Softwarehersteller Yseop hat beispielsweise insbesondere im Versicherungsbereich eine breite Kundenbasis.
- Im E-Commerce gibt es für die meisten Produkte bereits Herstellerdaten oder andere Datenquellen, aus denen Produktvergleiche oder Beschreibungstexte sowohl für beispielsweise Konsumgüter als auch für Hotels und Destinationen oder Immobilien generiert werden können.
- Messdaten bieten eine gute Grundlage für nützliche Texte, so z. B. genau angepasste Fehlerbeschreibungen aus Maschinendaten oder Informationen, die aus IoT-Geräten kommen. Das Fraunhofer IPA zusammen mit der Uni Reutlingen sucht für solche Lösungen übrigens noch nach weiteren Anwendern aus der Industrie.
- Verbunden mit Massen-Analyse-Daten und Personalisierung schreiben Anbieter wie Phrasee (UK) auch bereits die Marketing-Claims für große Unternehmen wie Virgin.
NLG Systeme sind am effizientesten, wo es um große Textmengen geht, sie skalieren schnell und mühelos, vor allem ...:
- … wenn es viele Datensätze gibt, die betextet werden sollen. So z. B. eine Menge unterschiedlicher Produkte.
- … wenn ähnliche Texte immer wieder gebraucht werden, tägliche Wettertexte sind Beispiele dafür.
- … wenn die Zielgruppe sehr groß oder sehr heterogen ist. Statt bestimmte Leserbereiche komplett zu ignorieren oder mit dem Gießkannenprinzip dieselben Texte für alle bereitzustellen, kann man die Zielgruppe beinahe granularisieren und passende – ja personalisierte und lokalisierte – Texte für die jeweilige Situation und die jeweiligen Anforderungen produzieren.
- … wenn Texte in unterschiedlichen Sprachen gebraucht werden. NLG Systeme können dieselben Aussagen in unterschiedlichen Sprachen ausgeben. Komplexe Übersetzungsprozesse fallen damit weg.
Produkttexte: Wie Redakteur und Software zusammenarbeiten

Anhand des Beispiels des Produkttextes über die graue Strickjacke kann man sehr gut ablesen, wie Daten und Text über Regeln gesteuert werden und welchen Einfluss der Redakteur nicht auf den einzelnen Text, sondern auf eine größere Textgruppe hat. Der Beginn des Textes erscheint relativ einfach: Die Überschrift zählt die wichtigsten Eigenschaften für den Kunden auf und ist direkt aus den Produktdaten entnommen. Danach wird der Text komplexer und es ist wichtig sich gegenwärtig zu halten, dass diese automatisierte Produktbeschreibung, anders als eine in der herkömmlichen Produktion, nicht genau für diese Strickjacke konzipiert wurde.
Vielmehr hat ein Redakteur eine Art Meta-Text oder Textkonzept für eine größere Gruppe von Produkten entwickelt, zu denen die gleichen Informationen zur Verfügung stehen. Die Kategorie “product” deutet an, dass sich in dieser Gruppe nicht nur Strickjacken befinden, sondern weitere Produkte, die sich mit den Kriterien Farbe, Material, Anlass, Verschluss, Verzierung und Passform beschreiben lassen, wie etwa Mäntel oder Hosen. Das Textkonzept muss für unterschiedliche Produktgruppen funktionieren. Die Datenwerte dienen dabei als Ausgangspunkt für die Ableitungen und Empfehlungen in der Beschreibung. Hier ist die Rolle des Redakteurs besonders wichtig, denn er hat Wissen, das sich nicht aus Datenbanken ableiten lässt, wie etwa, dass die Knöpfe der Strickjacke ein Vorteil bei kühlem Wetter sind. In der Redaktion sind die Aufgaben zwischen Mensch und Software aufgeteilt. Im besten Fall sind die Aufgaben so aufgeteilt, dass eine schnellere Produktion und eine bessere Textqualität erzielt werden
Fazit:
- NLG Systeme bringen ein riesiges Potential an Skalierbarkeit von Texten mit sich, die z. T. die vorhandene Content-Produktion erweitert, aber auch völlig neue Publikationsmöglichkeiten eröffnen kann.
- Voraussetzung für ihren Einsatz ist eine gute Datenbasis. Oft sind mehr Daten vorhanden als angenommen, aber auch die Erschließung neuer Quellen oder ein Neuaufbau von Daten kann sich lohnen.
- Die automatisierte Textproduktion ersetzt keine redaktionelle Arbeit, sie verändert sie. Das Wissen der Redaktionen um Textgattung und -wirkung sowie die Ausrichtung an die Zielgruppen ist weiterhin ein wichtiges Element der Textproduktion. Die Anwendung dieses Wissens ändert sich aber grundlegend.
- NLG Systeme zu nutzen ist nicht unbedingt mit großem finanziellen oder zeitlichen Aufwand verbunden. Es gibt sie als z. B. browserbasierte Plattformen, die ohne Programmierkenntnisse bedient werden können

Autor
Robert Weißgraeber ist Chief Technology Officer von AX Semantics, wo er die Produktentwicklung und das Engineering leitet und Geschäftsführer ist. Robert ist gefragter Redner und Autor zu Themen wie agile Softwareentwicklung und Natural Language Generation (NLG) Technologien und Mitglied des Forbes Technology Council. Zuvor war er Chief Product Officer bei aexea und studierte Chemie an der Johannes Gutenberg Universität mit einem Forschungsaufenthalt an der Cornell Universität.
www.linkedin.com/in/robert-weissgraeber