Journalisten müssen sich schon immer mit neuen Technologien auseinandersetzen. Die Schreibmaschine ersetzte Stift und Papier. Mit der Einführung von Computern verstaubten auch diese Hilfsmittel. Nun steht Roboterjournalismus vor der Tür. Doch das Thema ist nicht neu.
Was ist Roboterjournalismus?
Der Begriff Roboterjournalismus beschreibt die Erstellung von automatisch generierten Texten auf der Basis von strukturierten Daten.
Spannend ist bei der Definition von Roboterjournalismus, dass der Begriff nicht ganz korrekt ist. Denn Roboter kommen beim Schreiben von Texten eigentlich nicht zum Einsatz. Vielmehr erstellt eine Maschine mit Künstlicher Intelligenz und einem programmierten Algorithmus aus einer Fülle von Datensätzen einen Text. Damit die Maschine genau dieses Prinzip umsetzt, muss ein Mensch vorab den dahinter liegenden Algorithmus programmieren und bei Bedarf anlernen. Ohne diese menschliche Komponente wäre ein Roboter keine Unterstützung.
Ein Vorteil von Automatisierung im Journalismus besteht darin, routinierte und zeitaufwendige Arbeitsprozesse durch eine Maschine zu erledigen. Diese ersetzt dabei nicht den Journalisten, sondern unterstützt ihn bei seinen Aufgaben. Redakteure bekommen mehr Zeit für Recherche oder Kreativität.
Im Moment leisten Maschinen im Journalismus vor allem redaktionelle Assistenz. Sie crawlen das Netz und Social-Media-Kanäle. Aus dieser Datenmenge generieren sie passende Bausteine, schlagen thematisch passende Bilder vor oder erstellen Grafiken mit Informationen. Mit strukturierten Daten und technischen Verfahren in der Redaktion betreiben Nachrichtenagenturen bereits Liveticker. Diese Methode ist jedoch im Grunde nur ein Automatenjournalismus. Roboterjournalismus ist erst dann per Definition die richtige Bezeichnung, wenn die Algorithmen dazulernen und semantisch zusammenhängende Berichte ohne Zutun von Autoren erstellen.
Wie funktioniert automatische Content-Produktion?
Voraussetzung für lesbare digitale Inhalte sind Daten. Je mehr Daten vorliegen, desto besser sind die Programme mit Künstlicher Intelligenz beim Schreiben von Texten. Über den zentralen Algorithmus werden diese Daten mit definierten Phrasen kombiniert. Die Bausteine für den späteren Text bestimmt der Mensch vor dem Computer, indem er die gewohnten Sprachbilder vorab definiert. Neben der nötigen linguistischen Formulierung ist auch der korrekte Umgang mit statistischen Regeln zu definieren.
Als Quelle für die Vielzahl von statistischen Daten kommen neben Instituten der Wissenschaft auch andere Tools oder soziale Netzwerke in Frage. Eine große Menge von Daten hilft dabei, dass automatisierte Inhalte abwechslungsreich sind. Hier besteht auch eine enge Verbindung zum normalen Journalismus, da ein Redakteur bei seiner Berichterstattung ebenfalls auf Daten zurückgreift. Allerdings können Maschinen die Daten noch nicht einordnen oder gar kommentieren.
Natural Language Processing als Grundlage
Jeder Algorithmus ist nur so gut, wie das Verständnis für Sprache durch eine dahinter liegende Software. Grundlage für automatisch generierten Content ist deshalb immer Künstliche IntelligenzWas ist Künstliche Intelligenz? Definition Künstliche Intelligenz bzw. KI (auf Englisch: Artificial Intelligence bzw. AI) ist ein Teilgebiet der Informatik. KI soll es dem Computer ermöglichen Aufgaben und Probleme zu lösen, die menschliche Intelligenz benötigen. Des Weiteren befasst sich künstliche Intelligenz mit der Automatisierung von intelligentem Verhalten, dem maschinellen Lernen (Machine Learning) und dem Deep Learning. << zurück zum Glossar. (KI). Ein Teilbereich von KI ist Natural Language Processing (NLP). Hier sind alle digitalen Technologien vereint, die sich mit der Verarbeitung von natürlicher Sprache beschäftigen. Zwei weitere Fachgebiete lassen sich daraus ableiten: Natural Language Understanding (NLU) und Natural Language Generation (NLG).
Natural Language Understanding ist die Basis, um Maschinen oder einer Software das Verständnis von natürlicher Sprache beizubringen. Beispiele für die Anwendung solcher Verfahren sind Chatbots und virtuelle Sprachassistenten.
Die nächste Stufe ist die automatische und korrekte Textgenerierung durch das Prinzip der Natural Language Generation. NLG ist die Voraussetzung, dass Systeme mit einem mathematischen Algorithmus natürliche Sprache automatisiert erstellen. Dabei werden aus Daten journalistische Inhalte. Sie sind inzwischen so gut, dass sie von Lesern nicht mehr von Beiträgen eines Redakteurs zu unterscheiden sind. Beispiele für diese Form der Textgenerierung sind Produktbeschreibungen im E-Commerce und Chatbots.
Beispiele für maschinellen Content
In verschiedenen Themenbereichen werden Leser inzwischen mit Nachrichten versorgt, die nicht menschlich geschrieben wurden. Anders als gedacht nehmen jedoch journalistische Medien keine Vorreiterrolle für Roboterjournalismus ein, sondern vielmehr Unternehmen aus unterschiedlichen Branchen. Es handelt sich zum Beispiel um Wirtschaftsbetriebe, die automatisierte Geschäftsberichte erstellen oder Firmen aus dem Gesundheitssektor. Krankenakten von Patienten werden häufig ebenfalls schon maschinell erstellt.
Im E-Commerce sind Produktbeschreibungen in Online-Shops teilweise automatisiert erstellt worden. In diesem Fall spielt Roboterjournalismus seine ganze Stärke aus. Shop-Betreiber können im System auf eine umfangreiche Datenbasis (Preise, Farben, Maße, Varianten) zurückgreifen. Auf diese Art können innerhalb kurzer Zeit zehntausende Produktbeschreibungen maschinell geschrieben werden.
Daten in Worte zu fassen klappt am besten auch dort, wo eine entsprechende Datenlage gegeben ist. Das ist der Fall im Sport, Finanzwesen, Wetter oder Verkehr.
Software-Anbieter für automatisierte Inhalte
Ein wichtiges Thema für Roboterjournalismus sind intelligente Programme, die aus Informationen auf Datenbasis per Algorithmus eine journalistische Meldung schreiben. In den vergangenen Jahren haben verschiedene Anbieter eine NLG-Software entwickelt.
Automated Insights wurde bereits 2007 gegründet. Das Portal bot automatisch generierte Beiträge über Sport an. Das Unternehmen hat mittlerweile eine große Bedeutung für die Entwicklung von NLG-Software. Insbesondere auf dem amerikanischen Markt ist Roboterjournalismus ein Thema. Hier nutzten Medien bereits frühzeitig eine Technologie auf Datenbasis, um Meldungen zu generieren.
Seit 2010 ist Narrative Science ein weiterer Anbieter im Segment der Software-Entwicklung. Erste Versuche mit automatischen Inhalten fanden auch hier im Sportbereich statt.
Auch hierzulande entwickeln Unternehmen intelligente Software für Robotertexte. Kunden sind zum Beispiel journalistische Medien im Sport- und Finanzbereich, vor allem aber auch Firmen ohne journalistischen Hintergrund. Zu den bekanntesten Entwicklern gehören Retresco, AX Semantics und Textomatic.
Roboterjournalismus im Online-Journalismus
Erste Versuche, einfache Worte mit Programmiersprache zu Sätzen zu formulieren, gab es bereits in den 1960er-Jahren. Der kommerzielle Schritt erfolgte 1992 mit dem Forecast-Generator, der in zwei Sprachen längere Wettervorhersagen generieren konnte.
Mit dem „Quakebot“ der Los Angeles Times wurde 2011 der Roboterjournalismus in breiteren Fachkreisen bekannt. Das Projekt umfasste die Entwicklung eines Algorithmus, der Datenstrukturen geologischer Institute nutzte, um Informationen über ein Erdbeben zügig bereitzustellen. Der Text wurde durch Automatisierung innerhalb weniger Minuten erstellt und von Journalisten nur noch veröffentlicht.
2016 hat die Washington Post für die Olympischen Spiele eine Software verwendet, die sich Heliograf nannte. Hier kam ein Algorithmus auf der Grundlage von Natural Language Generation zur Anwendung, um Sportergebnisse zu tickern.
Mensch oder Maschine? Zerstört Roboterjournalismus auch Arbeitsplätze?
Im Zusammenhang mit dem Einsatz von Maschinen im Journalismus oder anderen Branchen ist oft die Rede davon, dass Roboter den Menschen ersetzen. Die Angst vor dem Verlust von Arbeitsplätzen spielt auch in den Redaktionen eine Rolle. Doch diese Zweifel sind zumindest auf absehbare Zeit nicht berechtigt. Offensichtlich ist die Zunahme der Datenmengen auf der ganzen Welt. Die Digitalisierung der Gesellschaft verläuft unaufhaltsam. Das ist auch im Journalismus so. Und trotzdem unterscheidet sich die Arbeit von Redakteuren von der automatisch generierten Berichterstattung durch Computerprogramme.
Journalisten lernen ihr Handwerk und arbeiten nach definierten Grundsätzen. Sie haben eine Bedeutung für die Gesellschaft. Ihre Arbeit beinhaltet nicht nur die Bekanntgabe von Nachrichten. Journalisten fragen kritisch nach, sind kreativ im Schreiben, bereiten komplexe Sachverhalte kritisch auf und formulieren Meinungen. Diese Eigenschaften besitzt eine Maschine nicht.
Sie hat auch keine Emotionen und ist nicht in der Lage, auf außergewöhnliche Ereignisse zu reagieren. Gerade in Sportarten, wo es ums Gewinnen und Verlieren geht, wo die unglaublichsten Geschichten geschrieben werden, kann ein mitfühlender Mensch eindeutig besser die dramatischen Wendungen auf dem Spielfeld beschreiben.
Herausforderungen für die Zukunft
Für den Einsatz von Automatisation in der Kommunikation existieren Grenzen. Wie schnell automatisierte Prozesse zu peinlichen Fehlern führen, zeigte sich beispielsweise in der Sport-Berichterstattung mit Beginn der Corona-Krise. Ein Fußball-Medium veröffentliche online Vorberichte zu Begegnungen, die längst abgesagt waren. Sobald standardisierte oder genormte Abläufe abweichen, offenbaren die programmierten Algorithmen einer Software ihre Schwächen.
Im Kontext gesellschaftlicher Veränderungen und ethischen Normen stellt sich zudem die Frage, inwieweit es notwendig ist, automatisierten Content zu kennzeichnen. Denn welche Konsequenzen ergeben sich zum Beispiel aus Empfehlungen, die ein unmenschlicher Autor dem Leser vermitteln will? Diese Gefahren gelten auch für personalisierten Content auf der Basis von Daten. Die Alternative eines Blicks über den Tellerrand darf zukünftig nicht durch die eigene, personalisierte Content-Blase verdrängt werden.
Trackbacks/Pingbacks