White Paper: Automatische Content-Kuration für Presseportale
Die Modellierung des User Engagement mittels Natural Language Processing
Das Kuratieren von Artikeln gehort neben dem Schreiben derselben zum Tagesgeschäft einer Redaktion. Dazu gehören auch die Auswahl, die Positionierung und das Pricing der Artikel auf Grundlage der Beurteilung ihrer Relevanz und des Interesses der Leser*innen.
- Welcher Content soll den Leser*innen wo und wie im Online-Portal angeboten werden?
- Gehört ein Artikel auf die Titelseite oder eignet er sich nur für einen kleinen Teil der Leserschaft und sollte daher auf einer anderen Seite untergebracht werden?
- Soll ein Artikel öffentlich oder nur für Abo-Kund*innen zugänglich sein?
- Bei welchen Artikeln lässt sich möglichst gewinnbringend Werbung schalten?
Eben in dieser Einschätzung und der Optimierung der qualitativen Größen Relevanz und Leser*innen-Interesse liegt die zentrale Herausforderung bei der Aussteuerung der angebotenen Inhalte. Denn die genannten Key Performance Indicators (KPIs) haben einen direkten Einfluss auf die Performance eines Artikels. Artikel sollen interessieren, also Inhalte fokussieren, die auf die Bedürfnisse der Leser*innen zugeschnitten sind. Die Bemessung der genannten qualitativen Größen erfolgt oft durch subjektive Einschätzung, Erfahrung und Bauchgefühl. Doch moderne Machine-Learning-Methoden eröffnen mittlerweile noch einen zweiten, datengetriebenen Weg: die Modellierung des Zusammenhangs zwischen Artikelinhalten und ihrer Performance.
Das entsprechende Teilgebiet von Machine Learning, das sich mit der Verarbeitung von Text bzw. Sprache beschäftigt, ist das Natural Language Processing (NLP). Der Mehrwert des datengetriebenen Ansatzes liegt in der Prozessoptimierung innerhalb von Redaktionen. Automatisierte Machine-Learning-Verfahren sind in der Lage, die Arbeit von professionellen Mitarbeiter*innen enorm zu unterstützen. Beispielsweise können sie eine Vorauswahl von Artikeln treffen, Vorschläge zeitlicher Planung und Platzierung liefern oder sogar im Editierungsprozess einzelner Artikel behilflich sein.
Das vorliegende White Paper beschreibt die Modellierung der Performance von Artikeln mithilfe von Natural Language Processing (NLP). Im Folgenden geben wir zunächst einen Überblick über Methoden aus dem NLP. Anschließend erfahren Sie, welche Daten als Input für eine Modellierung benötigt werden, wie sie im Use Case zur Anwendung kommt, durch den wir Sie zum Schluss führen. Hier wird anhand von Artikeltexten die Performance in Form von Verweildauern modelliert.
Der Begriff Artificial Intelligence (AI) umfasst das Automatisieren des menschlichen Denkens und Handelns. Machine Learning (ML) ist ein Teilgebiet von AI und beschäftigt sich damit, dem Computer selbstständige Entscheidungsfindung oder das Erkennen von Regeln und Zusammenhängen beizubringen. Deep Learning (DL) ist ein Machine Learning-Gebiet, das sich neuronaler Netze zum Anlernen des Computers bedient. Natural Language Processing (NLP) ist ebenso ein Teilgebiet von Machine Learning, das sich mit der computergestützten Verarbeitung von Sprache beschäftigt. Verwandte Begriffe zu NLP sind Text Mining, Computerlinguistik oder automatisierte Sprach- oder Textverarbeitung.
Natural Language Processing Methoden
Textdaten (Artikel, Kommentare, etc.) stellen eine wertvolle Informationsquelle dar: Sie enthalten Bewertungen zu Produkten, sie zeigen unterschiedliche Meinungen zu Gesellschaftsthemen, sie vermitteln Wissen. Natural Language Processing bietet eine Moglichkeit diese Information automatisiert nutzbar zu machen. Typische Anwendungsbereiche von NLP sind – um nur ein paar zu nennen – die Klassifikation von Texten (z.B. Spam oder nicht Spam, positive oder negative Rezension, Erkennung des Topics), maschinelles Übersetzen, stetig verbesserte und flexiblere Bearbeitung von Suchanfragen, automatisierte Rechtschreibung- und Grammatikprüfungen, Sprachassistenten wie Alexa und Siri, Chatbots, Textgenerierung, automatisierte Untertitel und Zusammenfassungen, Erstellen von Knowledge Bases, logisches Schlussfolgern, automatisierte Erkennung und Anonymisierung von personenbezogenen Daten oder medizinischen Fachtermini, Erkennung und Kennzeichnung von Hate Speech oder Missinformation. Deutlich wird: Natural Language Processing und die zugehörigen Methoden und Anwendungen sind in der heutigen Zeit nicht mehr wegzudenken, denn sie betreffen einen großen Teil der menschlichen Lebenswirklichkeit: Sprache ist allgegenwärtig.
Da NLP-Modelle auf numerische Eingaben angewiesen sind, sind Texdaten in ihrer Rohform für Machine-Learning-Methoden nicht zugänglich. Der Text wird zunächst für die Modelle zugänglich gemacht, also in ein numerisches Format übersetzt, welches den Inhalt des Textes repräsentiert. Diese numerische Repräsentation der Sprache und ihrer Bedeutung macht es möglich, Machine-Learning-Fragestellungen zu lösen, beispielsweise eine Prognose darüber zu erstellen, wie gut Artikel bei den Leser*innen ankommen.
Es gibt verschiedene Ansätze, um Textdaten in ein numerisches Format zu überführen. Diese Verfahren unterscheiden sich in ihrer Komplexität und damit auch in ihrer Fähigkeit, komplexe Inhaltszusammenhänge abzubilden. Während einfache Ansätze auf Worthäufigkeiten setzen, die aber die tatsächliche Semantik von Sprache nicht transportieren können, zielen andere Verfahren darauf ab, die Bedeutung des Textes bzw. einzelner Textbausteine abzubilden. Im Folgenden werden die wichtigsten Konzepte im Bereich Natural Language Processing vorgestellt und ihre jeweiligen Stärken und Schwächen diskutiert, eine Übersicht ist in Tabelle 1 zu finden.
NLP-Methoden
NLP-Methoden: Bag of Words
Ein einfacher NLP-Ansatz ist die Verwendung von Worthäufigkeiten: Ein Text wird dabei als Menge der in ihm enthaltenen Wörter betrachtet, was diesem Verfahren die Bezeichnung Bag of Words
verleiht. Die betrachtete Einheit wird als Token
bezeichnet, dies können neben einzelnen Wörtern auch Wortgruppen (N-Gramme) oder Satzzeichen sein. Ein Textdokument wird also durch einen Vektor mit einzelnen Tokenhäufigkeiten dargestellt.
Das Bag-of-Words-Verfahren (BOW) hat einige Vorteile gegenüber komplexeren Verfahren: BOW-Vektoren können inhaltliche oder stilistische Ähnlichkeiten zwischen Texten erstaunlich gut abbilden und sind damit für einige einfache Anwendungen eine gute Wahl. Ihr entscheidender Vorteil liegt aber – neben der schnellen und ressourcensparenden Berechnung – in der hervorragenden Interpretierbarkeit. Gleichzeitig macht man es sich mit BOW-Verfahren oft zu leicht, da einige Textinformationen nicht berücksichtigt werden können: die syntaktische Abfolge, das Zusammenspiel von Bedeutungen, die sich nur im Kontext ergeben, oder Mehrdeutigkeiten werden nicht erfasst. Bei komplexeren Fragestellungen kann ein BOW-Ansatz also lediglich als Ausgangspunkt dienen, dann sollten Ansätze in Erwägung gezogen werden, die weitere textuelle Ebenen wie die Bedeutung der Sprache erfassen können.
NLP-Methoden: Word Embeddings
Im Gegensatz zum Bag-of-Words-Ansatz erfassen Word Embeddings
die Bedeutungen der Wörter selbst. Die Bedeutung wird als ein semantischer Vektorraum abgebildet, d.h. Wörter mit ähnlicher Bedeutung liegen in diesem hoch-dimensionalen Raum näher beieinander und Wörter mit unterschiedlicher Bedeutung weiter entfernt voneinander.
Abbildung 1: Veranschaulichung von Word Embeddings im semantischen Vektorraum.
Diese Repräsentation von Texten ermöglicht ein gewisses semantisches Verständnis seitens des Modells. In Abbildung 1 ist ein solcher Vektorraum stark vereinfacht dargestellt. Es zeigen sich aber grundlegende Eigenschaften von Word Embeddings:
- Bezeichnungen für eine inhaltliche Gruppe von Begriffen, hier Tiere (
Hund
,Pferd
,Tiger
), liegen in räumlicher Nähe, aber weit entfernt von thematisch sehr verschiedenen Begriffen, wie etwaSofa
. Auch die drei negativ konnotierten BegriffeUnfall
,Angst
,Feuer
bilden ein gemeinsames Cluster. Sofa
undCouch
liegen sehr eng beieinander, was die nahezu identische Bedeutung der Begriffe widerspiegelt. Das Wortgemütlich
findet sich in der Nachbarschaft hierzu.- Die Relationen, also Abstand und Richtung der Begriffe
Hund
--Welpe
,Kuh
--Kalb
undPferd
--Fohlen
sind fast identisch. Word Embeddings sind also in der Lage, einen Zusammenhang der Form "B
ist die Bezeichnung für ein jungesA
" zu identifizieren und der numerischen Berücksichtigung zugänglich zu machen.
Word Embeddings werden anhand großer Sammlungen von unverarbeitetem Text von einem Modell erlernt. Sie ermöglichen, dass Modelle tatsächlich verblüffend gut Bedeutungszusammenhänge verstehen können. Die zentrale Annahme ist, dass Wörter mit ähnlicher Bedeutung tendenziell in ähnlichen Kontexten auftreten.
2013 stellte Google den berühmten Word2Vec-Algorithmus vor. Seitdem sind Word Embeddings in der Sprachverarbeitung in aller Munde. Für viele Sprachen stehen allgemeinsprachliche vortrainierte Word Embeddings öffentlich zur Verfügung (fastText, GloVe, ELMo) und können etwa direkt als Features in statistischen Modellen verwendet werden.
Zwei Aspekte von Word Embeddings sind allerdings nicht optimal: Erstens lassen sich die Entscheidungen von Modellen, die Word Embeddings als Eingabe enthalten, im Gegensatz zu BOW-Modellen nur schwer interpretieren. Zwar ist die Gesamtbedeutung eines Wortes im Vektor kodiert, die einzelnen Elemente sind aber nicht anschauliche Inhalte, sondern abstrakte Koordinaten in einem Vektorraum. Zweitens operieren Word Embeddings analog zum Bag of Words maßgeblich auf Wortebene. Das ist besonders dann ein Problem, wenn die Texte Wörter enthalten, die je nach semantischen und syntaktischen Zusammenhang unterschiedliche Bedeutungen aufweisen und deshalb entsprechend unterschiedliche numerische Repräsentationen erhalten sollten. Diese Lücke lässt sich durch Hinzunahme der nachfolgend vorgestellten Deep-Learning-Ansätze schließen.
NLP-Methoden: Deep Learning
Deep-Learning-Modelle (neuronale Netzwerke) sind aktuell der Standard im Natural Language Processing. Diese setzen direkt auf der beschriebenen Word-Embedding-Repräsentation von Texten auf und verwenden diese als Input in das neuronale Netz. Diese Netze lassen sich in unterschiedliche Klassen einordnen, die bestimmte Aspekte der Sprache gezielt berücksichtigen und modellieren. Der Output eines neuronalen Netzes, eine äußerst komplexe numerische Repräsentation von Text, wird dann verwendet um eine konkrete Fragestellung zu modellieren, z.B. die Vorhersage einer KPIs, einer Textrubrik oder auch eine Zusammenfassung des ursprünglichen Textes. Die Bausteine der neuronalen Netze (sog. Schichten) basieren auf einer Vielzahl von mathematischen Transformationen und Verknüpfungen, deren zunächst unbekannte Parameter im Modell-Training quantifiziert werden.
Abbildung 2 illustriert drei für den NLP-Einsatz besonders relevante Netzwerkklassen. Diese unterscheiden sich darin, wie sie die Eingabesequenz einlesen, die Informationsverarbeitung im Innern abläuft, und ob sie in der Lage sind, Struktur und Querverbindungen im Text zu erkennen. Der Beispielsatz in Abbildung 2 enthält zur Verdeutlichung zwei Schwierigkeiten, denen bei der Sprachverarbeitung üblicherweise begegnet werden muss: zusammengesetzte Verben (einbrechen
--> "bricht ein") und Wörter mit verschiedenen Bedeutungen (Bank
: Kreditinstitut vs. Möbelstück), die kontextspezifisch aber klar identifizierbar sind.
Abbildung 2: Beispielhafte Textverarbeitung mit RNN, CNN und Transformer-Encoder.
Diesen Herausforderungen begegnen die drei Modellarten in unterschiedlicher Weise. Recurrent Neural Networks (RNNs) lesen die Eingabe schrittweise ein und erneuern dabei stets die interne Repräsentation auf Basis der neuen Eingabe¹. Wörter stehen also nicht losgelöst voneinander, es können semantische und syntaktische Verbindungen zwischen ihnen und Kontextinformationen einfließen: Die Doppelbedeutung von Bank
kann etwa durch die Nachbarschaft mit einbrechen
aufgelöst werden, vorausgesetzt der Abstand ist nicht zu groß. Eine weitere klassische Modellart sind Convolutional Neural Networks (CNNs), diese sind vor allem aus der Bildverarbeitung bekannt, spiel(t)en aber auch im NLP eine Rolle. Ihre Spezialität ist die Verwendung von sog. Filtern, die die Eingabe scannen und auf relevante Muster untersuchen. Bei der Textverarbeitung bedeutet dies die gemeinsame Betrachtung von Wortgruppen: So kann etwa 'in die Bank'
gemeinsam verarbeitet werden. Das zusammengesetzte Verb hat aber nach wie vor keine Chance, da der Abstand zu groß ist. Über die Wortgruppen hinaus kann die sequenzielle Abfolge nicht berücksichtigt werden.
¹RNN-Modellierungen eignen sich vor allem für Sequence-to-Sequence-Anwendungen, z.B. maschinelles Übersetzen, Zusammenfassen, Tagging, Bestimmung von Wortarten oder Named Entities). Ein Problem von RNNs ist, dass sie dazu neigen, Information über weite Abstände zu vergessen. Es gibt RNN-Erweiterungen, die dieses Problem angehen: Long Short-Term Memory (LSTMs) und Gated Recurrent Units (GRUs) ermöglichen Direktverbindungen für besonders relevante Information, was dem zusammengesetzten Verb 'brachen ... ein'
zugute kommt
Viele dieser Probleme werden durch die dritte, aktuell erfolgreichste, Architektur im Natural Language Processing behandelt: der Transformer. Ursprünglich für maschinelle Übersetzung entwickelt, dominiert der Encoder-Teil dieser Architektur zur Zeit jede NLP-Anwendung und stellt andere Ansätze in den Schatten. Statt sequenzieller Betrachtung (wie bei RNNs) oder Erkennen von lokalen Mustern (CNN) ist das zentrale Prinzip zur Erkennung von Beziehungen innerhalb der Eingabe die sogenannte Self-Attention: Jedes Wort wird dabei mit jedem anderen Wort der Eingabe in Beziehung gesetzt, sodass eine Art Verbindungs- oder Relevanzstärke ermittelt werden kann. Im Beispiel erkennt das Modell etwa den starken Zusammenhang von brachen
und ein
. So können Zusammenhänge von Wörtern auch in großem Abstand erkannt und für die Weiterverarbeitung genutzt werden: Die Repräsentation eines Wortes enthält sinnvoll gebündelte Information aus allen Wörtern der Eingabe.
Deep Learning: Transfer Learning mit BERT
Ein zentrales Konzept im Deep Learning ist Transfer Learning. Gemeint ist die Nutzung von auf sehr großen Datensätzen vortrainierten Modellen, die dadurch bereits über ein allgemeines Sprachwissen verfügen. Wie in Abbildung 3 konzeptionell dargestellt, wird dieses bestehende, in aller Allgemeinheit vortrainierte Modell auf einen spezifischen Use Case angepasst und auf den eigenen Daten weitertrainiert. Die eigene Modellierung profitiert so von dem allgemeinen Vorwissen des Modells und kann durchaus als spezifische Weiterbildungsmaßnahme angesehen werden.
Abbildung 3: Der Transfer-Learning-Ansatz: Anwendung eines vortrainierten Sprachmodells.
Das aktuell prominenteste vortrainierte NLP-Modell und Vertreter der Transformer-Architektur ist BERT: Das Pretraining beruht auf der Lösung der Aufgabe, benachbarte Wörter und Sätze möglichst gut vorhersagen zu können. Hierfür wurde das deutschsprachige BERT-Modell auf der gesamten deutschen Wikipedia und einem sehr großen News-Datensatz trainiert.
Fazit: die Ansätze im Vergleich
Die Stärken und Schwächen der vorgestellten Ansätze im Natural Language Processing, Bag of Words, Word Embeddings und Deep Learning, sind zusammenfassend in Tabelle 1 aufgeführt. Neuronale Netze sind sehr mächtige Modelle und überzeugen vor allem durch ihre gute Prognosegüte. Ein zentraler Nachteil gegenüber dem einfachen BOW-Ansatz ist die unter dem Stichwort 'Black Box' bekannte Problematik: Die Wirkungsweise des Algorithmus und der Einfluss einzelner Textelemente sind nur schwer nachvollziehbar. Während bei klassischeren Ansätzen (z.B. lineare Regression oder Entscheidungsbäume basierend auf BOW-Features) die Wirkungsweise direkt an einzelnen Textelementen festgemacht werden kann, ist dies bei Deep-Learning-Modellen nicht möglich. Außerdem führt die große Zahl an Parametern von Deep-Learning-Modellen die meisten Computer schnell an ihre Grenzen, sie benötigen sehr viel Rechen- und Zeitressourcen und sind für eine gute Anpassung auf recht große Datensätze angewiesen. Der Vorteil von Transfer Learning ist dabei aber: Es werden sehr viel weniger Trainingsdaten benötigt. Mithilfe von modernen NLP-Bibliotheken kann in wenigen Schritten ein funktionstüchtiges Modell erzeugt werden!
NLP-Ansatz | Ebene der Textverarbeitung | Interpretier-barkeit | Ressourcen-verbrauch | Vorhersage-güte |
---|---|---|---|---|
BOW | Worthäufigkeiten, kein Kontext, keine Struktur | sehr gut | gering | mittel |
Word Embeddings (fix) | Wortsemantik enthalten, keine Beachtung von Kontextabhängigkeiten | mittel | mittel | mittel |
DL-Modelle RNN/CNN Transformer, vortrainiert (BERT) | Wortsemantik, Wortgruppen, Kontext & Satzstruktur fließt ein allgemeines "Sprachverständnis", Beachtung von komplexen Zusammenhängen zwischen Wörtern möglich | wenig wenig ("Black Box") | hoch sehr hoch | gut sehr gut |
Tabelle 1: NLP-Ansätze im Überblick: Stärken und Schwächen
Es muss individuell nach Use Case und Datengrundlage abgewogen werden, welcher Grad an Komplexität angemessen ist und ob ein einfacher Ansatz ausreicht.
Use Case: Modellierung der Performance von Zeitungsartikeln
Anhand eines Use Cases zeigen wir, wie die Performance von Artikeln des Online-Zeitungsportals der Neuen Osnabrücker Zeitung (NOZ) mithilfe der dargestellten Methoden modelliert und verstanden werden kann.
Datenbasis
Die Analyse basiert auf ca. 36.000 Artikeln der NOZ. Zusätzlich zu den Texten selbst wird die Information benötigt, welche Performance die einzelnen Artikel erzielt haben und welche Key Performance Indicators (KPIs) zur Messung der Performance herangezogen werden können. Mithilfe von On-Site-Tracking können anonymisiert aggregierte Informationen über das Verhalten der Nutzer*innen auf Webseiten erhoben und für die Analyse verwendet werden. Als Kennzahlen eignen sich KPIs wie z.B. Seitenaufrufe, ggf. differenziert nach Ein- und Ausstiegen, Entrances und Exits. Eine weitere häufig verwendete Kennzahl ist die Click-Through-Rate (CTR), also das Verhältnis aus Einblendungen und tatsächlichen Aufrufen eines Artikels. Da Klicks allerdings eher ein Maß für die erste und eventuell auch nur kurzfristige Aufmerksamkeit der Leser*innen sind, enthalten sie nur begrenzte Information über die echte Zufriedenheit über den Inhalt eines Artikels. Unter dem Stichwort Clickbait ist dieses Phänomen allgemein bekannt. Andere, explizite Größen wie zum Beispiel die Anzahl von Kommentaren oder Likes pro Artikel gäben zwar mehr Aufschluss, liegen aber nur selten oder nur für wenige Artikel vor.
Für die Messung von Performance im Sinne von Interesse am Artikelinhalt hat sich die Verweildauer (Dwell Time) als sehr guter Indikator etabliert. D.h. je länger eine Person auf der Seite mit dem Artikelinhalt verweilt, desto höher wird ihr Interesse am Inhalt interpretiert. Im vorliegenden Use Case liegen uns keine individuellen Daten von spezifischen Nutzer*innen vor, sondern aggregierte Werte über alle Besuche eines Artikels. Wir modellieren also anhand der durchschnittlichen Verweildauer die allgemeine Performance eines Artikels, nicht das individuelle Interessenprofil einzelner Leser*innen. Sollten individuelle Verweildauern zur Verfügen stehen, kann die im folgenden vorgestellte Analyse problemlos auf die granularere Datenbasis erweitert werden.
Neben dem zu modellierenden KPI, der sog. Zielvariablen, ist zu überlegen, ob über die Artikeltexte weitere Informationen zur Analyse herangezogen werden können. Im Use Case sind dies die Länge der Texte und die Rubrik der Artikel. Die Berücksichtigung dieser weiteren Datenpunkte erlaubt es, unterschiedliche Effekte wie z.B. den Einfluss der Textlänge auf die Verweildauer von dem Einfluss des Textinhalts zu separieren. Die Aufbereitung der Daten für die Modellierung ist unkompliziert, da im Use Case ein vortrainiertes Tranformer-Modell (BERT) zur Repräsentation der Texte verwendet wird, welches so gut wie keine weitere Vorverarbeitung der Textdaten erfordert.
Modellierung
Bei der Repräsentation des Textes wird auf Transfer Learning gesetzt. Verwendet wird ein entsprechend vortrainertes BERT-Modell. Dieses und viele weitere vortrainierten Transformer-Modelle werden von der transformer-Bibliothek von Huggingface bereitgestellt. An die BERT-Repräsentation schließen wir ein eigenes Ausgabemodell (konkret ein basales Feed Forward Network) an, welches die Verweildauer direkt als zu modellierende Zielgröße beinhaltet. Die Separation der Einflüsse von Textlänge und Rubrik sind dem BERT-Modell vorgelagert. Anhand der Trainingsdaten lernt das BERT-Modell also, systematische Zusammenhänge zwischen Inhalt und Verweildauer zu quantifizieren, die nicht allein durch Länge und Rubrikzugehörigkeit der Texte erklärbar sind.
R² | Güte |
---|---|
gering | |
0.2 | gut |
sehr gut | |
Tabelle 2: Die Güte des Bestimmtheitsmaßes ist abhängig von der Datenbasis. Bei mikroskopischen, heterogenen Daten wie im vorliegenden Use Case ist ein
Prognostizierbarkeit der Verweildauer
Unter Verwendung eines klassischen Train-Test-Splits der Daten wird auf zunächst unberücksichtigten Testdaten (ca. 10%) quantifiziert, wie gut das trainierte Modell in der Lage ist, die Verweildauer zukünftiger Texte zu prognostizieren. Die Prognosegüte wird anhand des Bestimmtheitsmaßes R² beurteilt, welches angibt, welcher Anteil der beobachteten unterschiedlichen Verweildauern durch Inhalt, Länge und Rubrik der Texte erklärbar ist.
Ergebnisse
Der Use Case zeigt, dass die Verweildauern gut prognostizierbar sind. So lässt sich insgesamt 33% der Schwankung der Lesedauern durch die Modellierung erklären. Dies ist ein guter Wert, berücksichtigt man das große Spektrum an möglichen Artikelinhalten und die Modellierung auf mikroskopischer Ebene der einzelnen Texte. Über alle Artikel und Rubriken hinweg setzt sich die Prognosegüte hierbei zu 58% aus Informationen über die Textlänge und Artikelrubrik und zu 42% aus dem eigentlichen Artikeltext zusammen.
Allerdings unterscheiden sich die Prognosegüte und der Einfluss der Textinhalte sehr stark zwischen den einzelnen Textrubriken. Die besten Vorhersagen werden dabei in den Rubriken Nordrhein-Westfalen
(R² = 0.53), Niedersachsen
(R² = 0.46), Medien
(R² = 0.40) und Politik
(R² = 0.39) erzielt. In anderen Rubriken, wie z.B. Kultur
(R² = 0.05) ist die Prognosegüte sehr gering. Einen Überblick über die Rubrik-spezifischen Ergebnisse gibt Abbildung 4. Es wird deutlich, dass nicht nur der gesamte Erklärungsgehalt zwischen den Rubriken stark variiert, sondern dass auch der Einfluss des eigentlichen Textinhalts je nach Rubrik den Erklärungsgehalt dominiert oder nur von untergeordneter Bedeutung ist. So ist der Anteil der Inhalte am Erklärungsgehalt z.B. in den Rubriken Nordrhein-Westfalen
(63%) und Politik
(73%) sehr hoch, hingegen in der Rubrik Sport
(22%) deutlich geringer.
Abbildung 4: Überblick über die erzielten Prognosegüten R² getrennt nach Rubrik. Aus der Abbildung wird deutlich, dass der Beitrag der Textinhalte zum Erklärungsgehalt zwischen den Rubriken stark unterschiedlich ist.
Ein weiteres Ergebnis der Modellierung ist, dass bereits allein mit den Inhalten am Artikelanfang die Verweildauern überzeugend vorhergesagt werden können und Inhalte am Artikelende für die Verweildauer eher von nachgelagerter Bedeutung sind. Dies ist ein Hinweis darauf, dass der Artikelanfang entscheidend für die Performance ist.
Es sei angemerkt, dass die vorgestellten Ergebnisse allein auf der Verwendung textueller Informationen beruht, also noch keinerlei weitere Angaben wie etwa das Vorhandensein von Bildern, Werbung oder Kommentarspalten - die starken Einfluss auf die Verweildauer haben können - berücksichtigt. In Anbetracht der komplexen Fragestellung zeigen die Ergebnisse daher bereits sehr deutlich, dass die Texte selbst schon genügend Information beinhalten, um deren Performance nach der Ausspielung vorherzusagen. Damit stellt das trainierte Modell die Basis für eine automatisierte und optimierte Aussteuerung von Artikelinhalten dar.
Modelle aus der klassischen Statistik weisen eine extrem gute Interpretierbarkeit auf. Dafür kommen sie bei der Modellgüte oft nicht ganz an komplexere ML-Ansätze heran. Aufgrund der höheren Komplexität sind Machine-Learning-Modelle allerdings eine Black Box - d.h. der Zusammenhang zwischen den Einflussgrößen und der aus dem Modell resultierenden Entscheidung ist ohne weiteres nicht direkt interpretierbar. Man kann also nicht sagen, warum bezogen auf den Use Case ein bestimmter Text viel besser funktioniert als ein anderer.
Tieferes Verständnis mit Explainable AI
Der beschriebene NLP-Ansatz kann die Verweildauer eines Artikels gut modellieren. Die Problematik der Black Box verwehrt allerdings zunächst genauere Einblicke oder Schlussfolgerungen auf Textebene, also Antworten auf Fragen wie z.B.: Warum wird für einen bestimmten Text eine hohe bzw. geringe Verweildauer vorhergesagt? Das Gebiet der Explainable AI beschäftigt sich mit der Interpretierbarkeit von Black-Box-Modellen. Mithilfe von SHAP - einem sehr mächtigen Verfahren zur Bestimmung der Relevanz bestimmter Features - werfen wir im Folgenden einen Blick hinter die Kulissen der eingesetzten Machine-Learning-Algorithmen und arbeiten heraus, welche Texteigenschaften (sog. Features) Einfluss auf die Performance der Artikel haben.
Features
sind im Falle von Textdaten die einzelnen Wörter (genauer aus den Wörtern abgeleitete Tokens), die in die NLP-Modellierung eingehen.
SHAP fährt einen lokalen Interpretationsansatz, untersucht also für jeden einzelnen Text, welche Relevanz die im Text enthaltenen Features auf die Prognose haben. Die aggregierte Betrachtung dieser Einzeltext-Ergebnisse lassen dann Rückschlüsse auf generelle, für alle Texte gemeinsam geltende, Tendenzen zu.
Interessant ist diese Betrachtung sowohl über alle Texte als auch innerhalb einzelnen Textrubriken. Über alle Rubriken hinweg zeigt sich, dass Zitate (identifizierbar durch die verwendeten Anführungszeichen) einen positiven Einfluss auf die Lesedauer zeigen. In einzelnen Rubriken lassen sich besonders relevante Tokens identifizieren, die bei Leser*innen verstärkt Interesse wecken und mit längeren Verweildauern einhergehen. Beispielhaft sind hierfür Ergebnisse in Tabelle 3 aufgeführt.
Rubrik | Bereich | Relevante Tokens |
---|---|---|
politik | Parteipolitik Außenpolitik | cdu, spd, csu, 2017³, linke, angela eu, usa, donald |
osnabrueck | Stadtgeschehen | zoo, kita, hochschule, ziel, uhr, preis |
gut-zu-wissen | Medizin Ernährung Familie/Haushalt | arzt, schwitzen, tod ei, fisch, gemüse tier, baby, brett, euro, kosten |
³2017 fand eine Bundestagswahl statt. |
Tabelle 3: Relevante Schlagworte, die zu hoheren Verweildauern führen, für ausgewählte Rubriken.
Der SHAP-XAI-Ansatz ermöglicht es auch, gezielt den Einfluss einzelner Begriffe oder Themen zu untersuchen. In der Rubrik Politik ergibt eine solche Analyse nach des Einflusses der in den Texten genannten Parteien auf die beobachteten Verweildauern das in Abbildung 5 dargestellte Ergebnis. Das Auftreten der Kürzelspd
, cdu
und csu
hat eine Zunahme auf die Verweildauern zur Folge, wohingegen das Kürzel afd
mit einer kürzeren Verweildauer einhergeht. Die Begriffe linke
und grüne
liegen im neutralen Bereich.
Auch gesamte Texte können entsprechend analysiert werden. Abbildung 6 zeigt beispielhaft einen Ausschnitt eines Artikels aus der Ratgeber-Rubrik (gut-zu-wissen
). Die Farbhinterlegung der einzelnen Tokens gibt Auskunft darüber, ob das Token laut Modell zu einer höheren (blau) bzw. niedrigeren (orange) Verweildauer beigetragen hat oder diesbezüglich neutral (grau) war. Im Beispiel zeigt sich, dass Begriffe aus den Themenfeldern Familie, Gesundheit und Haushalt positiven Einfluss auf die Verweildauer haben.
Abbildung 6: Beiträge einzelner Wörter zur Vorhersage: Blau entspricht negativer, rot positver Auswirkung auf die Verweildauer, die Farbintensität spiegelt die Stärke der Auswirkung wider.
Fazit und Ausblick
Mit Methoden der automatisierten Sprachverarbeitung und Natural Language Processing können wertvolle Informationen, die in Textdaten vorliegen, nutzbar gemacht werden. Die modellierte und zu prognostizierende Zielgröße kann spezifisch für den jeweiligen Use Case gewählt werden, solange eine Verknüpfung zwischen KPI und Text möglich ist. Der vorgestellte Use Case macht dies am Beispiel der Performance von Zeitungsartikeln deutlich, der Ansatz ist aber auf beliebige Fragestellungen anwendbar.
Als erfolgversprechend erweist sich die Kombination aus unstrukturierten Textdaten (Content) und strukturierten Meta-Daten, im besprochenen Use Case waren das die Rubrik und Textlänge. Problemlos kann bei Bedarf und Vorhandensein weiterer Metadaten die Modellierung entsprechend erweitert werden. Im Bereich des Zeitungswesens ist die zusätzliche Berücksichtigung von Informationen über das Vorhandensein von Bild- oder Videoelementen, Kommentaren, die Positionierung des Artikels, Autor*in oder Erscheinungszeitpunkt naheliegend. Auch eine Analyse getrennt nach Leser*innen-Segmenten oder sogar auf Individualebene ist möglich, wenn entsprechende Daten vorhanden sind.
Die Wahl der zu modellierenden Performance-Metrik richtet sich direkt nach der zu beantwortenden Fragestellung. Denkbar wären z.B. auch die Anzahl der Aufrufe, Kommentare, abgeschlossene Abos oder das Scrolling-Verhalten. Neben der Vorhersage der Performance können aber auch andere für Redaktionen relevante Fragestellungen mittels Natural Language Processing bearbeitet werden. So kann etwa eine automatisierte Unterstützung bei der Identifikation von Hate Speech in Kommentaren umgesetzt werden. Kommentare können automatisiert vorsortiert werden, oder das erwartbare Volumen an problematischen Kommentaren pro Artikel vorhergesagt werden. Weitere Szenarien sind beispielsweise das automatisierte Zusammenfassen von Texten, die Identifikation und Anonymisierung von personenbezogenen Daten, oder schlicht automatisiertes Tagging von Artikeln mit thematischen Überbegriffen oder Schlagwörtern.
Somit können die vorgestellten datengetriebenen Methoden der Unterstützung und Entlastung von Redaktionen und Journalist*innen dienen und interessante Informationen für Redaktionen herausarbeiten. Somit wird aus einem generellen content matters
ein datengetriebenes und datenunterstütztes specific content matters
, was für Redaktionen bei Planung und Aussteuerung von Inhalten eine wertvolle Zusatzinformation darstellt.