Haben Algorithmen ein Näschen für News?

Weitersagen:Share on LinkedInTweet about this on TwitterShare on FacebookBuffer this pageShare on Google+

Am Dienstag den 06.12. brachte das CoLab 5 Expertinnen aus Theorie und Praxis zusammen, um bei einer Podiumsdiskussion über den vermehrten Einsatz von Algorithmen und Big Data im Journalismus zu sprechen.

Resa Mohabbat Kar, Geschäftsführer des CoLab, führte ein in die Thematik , indem er einige Anwendungsbeispiele aus der journalistischen Praxis vorstellte . Dabei wurde deutlich, wie automatisiert und dabei menschenähnlich die heutigen Programme bereits journalistische Tätigkeiten erledigen. Die Diskussion eröffnete er mit Verweis auf die Innovationspotentiale, die maschinelle Lernverfahren, Big Data-Technologien und verschiedene weitere Anwendungen aus dem Bereich der künstlichen Intelligenz für den Journalismus und den Redaktionsalltag freisetzen können. Andererseits verwies er auf diskussionswürdige Fragestellungen, die sich in diesem Zusammenhang ergeben: “Inwieweit sollten die gesellschaftlich und demokratietheoretisch so  zentralen Funktionen des Journalismus automatisiert werden?”. „Wie verändert sich das Berufsbild des Journalisten, wie die Leistungen und Qualitäten, die von Journalisten erwartet werden?“

Bevor es in die hitzige Debatte ging, stellte Neil Thurman, Professor für Kommunikationswissenschaften mit einem Fokus auf Computational Journalism an der LMU München, erste Ergebnisse aus seinem Forschungsprojekt “Algorithmic News” vor, mit dem er in den nächsten Jahren die Rolle und Implikationen von Algorithmen im Journalismus untersuchen wird. In der von ihm dargestellten Untersuchung wurde eine ausgewählte Gruppe von Journalisten, u.a. von CNN, Sun und Mirror, im Umgang mit einer Software für automatisierte Texterstellung trainiert. In der anschließenden Befragung der Journalisten kristallisierten sich drei Themenfelder heraus: Wirtschaft, Expertise und Ethik. Aus wirtschaftlicher Sicht waren die Journalisten überzeugt, dass Robo-Journalismus die kostengünstigste Variante ist, um in kurzer Zeit eine hohe Quantität an Texten zu erzeugen. Es zeigte sich aber auch: Quantität ist nicht gleich Qualität. Kaum einer der Journalisten war davon überzeugt, dass Robo-Journalismus die gleiche Komplexität noch Kreativität in der Ausformulierung von Texten erreichen kann, wie es ein Journalist kann. Auch ethisch sahen die Journalisten Probleme: kann die Maschine erkennen, in welchem Kontext ein Thema steht? Besteht nicht die Gefahr der Manipulation von öffentlicher Meinungsbildung, wenn die Maschine in sekundenschnelle tausende Texte erstellen und veröffentlichen kann? Nichtsdestotrotz gab es auch einige Journalisten, die davon überzeugt waren, dass “Verdatung” und der Einsatz von Algorithmen zu einer objektiveren Berichterstattung führen könnten.

Gefolgt wurde dieser Vortrag von Mirko Lorenz, Innovation Manager bei der Deutschen Welle, der das Projekt newsstream vorstellte. Die Deutschen Welle arbeitet hier mit dem Fraunhofer Institut und neofonie als technische Partner und dem dpa als Anwendungspartner zusammen, um eine Reihe von Big Data Werkzeugen für redaktionelle und journalistische Arbeitsabläufe zu entwickeln. Das Projekt arbeitet u.a. an der Entwicklung von Komponenten für Topic Monitoring, semantischen Analysen für Text, Audio und Video, der Recherche von Zitaten aus verschiedenen Datenbanken, einen Source Tracker für die Kontrolle der Verbreitung von Meldungen und Plagiatskontrolle. Lorenz betonte, dass die Lösungen die Arbeit von Journalisten erleichtern und unterstützen soll, den Journalisten aber keinesfalls ersetzen kann.

Dann ging es in die Debatte: wie verändert algorithmengestützter Journalismus die Art und Weise, wie Medien gemacht und konsumiert werden? Saim Alkan, Geschäftsführer von AX Semantics, die eine Software entwickelt haben, die aus Daten natürlichsprachige Texte in derzeit 13 Sprachen generiert, stellte klar: Diese Art von Journalismus macht extreme Personalisierung von Texten möglich – sei es bezogen auf Ort, Alter oder persönliche Präferenzen. Die Perfektion der Filterblase, sozusagen. Er stellte aber auch klar, dass Medienhäuser sich entscheiden müssen, was sie mit Robo-Journalismus erreichen wollen. Gibt es keine klare Strategie, kann auch schnell der Mehrwert für den Leser verloren gehen. Konstantin Dörr, wissenschaftlicher Mitarbeiter und Doktorand in der Abteilung Medienwandel & Innovation an der Universität Zürich, fügte hinzu, dass diese Personalisierung wohl nur in Sport, Wetter oder Verkehr als Einsatzgebiet denkbar wäre.

Weiter wurde über die emotionalen Fähigkeiten der Maschine diskutiert. Saim Alkan meint dazu, dass maschineller Journalismus niemals empathisch sein könne – dafür brauche es immer noch den Menschen. Elena Erdmann, Mitglied von Journocode und Promovendin an der TU Dortmund, konterte, dass KI sehr wohl schon in der Lage ist, Emotionen aus Bildern zu lesen und dadurch auch Empathie erlangen kann.

Was kann die Maschine, was kann sie nicht – darum ging es auch in der weiteren Diskussion. Vor allem um Fehler, die im Umgang mit Daten – dem Rohstoff der automatisierten Texterstellung – passieren können. So gab es beispielsweise im letzten Jahr eine Falschmeldung zum Quartalsbericht von Netflix. Die Meldung wurde durch eine algorithmengestützte Anwendung publiziert und von weiteren Medienhäusern übernommen. Solche Fehler, gibt Saim Alkan zu bedenken, sind aber keine Fehler der Maschine. Diese kann nur mit den Daten arbeiten, die ihr ein Mensch über eine Datenbank zur Verfügung stellt. Sind diese eingegebenen Daten falsch, entstehen auch solche Falschmeldungen – und zwar in hoher Quantität. Das wirft wiederum die Frage nach einer Kennzeichnungspflicht von algorithmengenerierten Texten auf. Viele Medienhäuser, so Alkan, nutzen bereits den Service von AX Semantics, möchten darüber aber stillschweigen bewahren.

Auch die Beteiligung des Publikums an der Diskussion war groß. So kam mehrmals die Frage auf, wie Robo-Journalismus die Arbeit, aber auch die Ausbildung eines Journalisten konkret verändert. Die Antwort: Wer Journalismus studiert hat, um an Zahlen vorbeizukommen, hat in Zukunft ein Problem.

Mirko Lorenz aber auch Konstantin Dörr sind überzeugt, dass eine große Lücke zwischen der heutigen universitären Ausbildung und dem eigentlichen Journalismusgeschäft besteht. Elena Erdmann gibt zu bedenken, dass viele Mitglieder von Journocode in Redaktionen auf Mitarbeiter treffen, die keinerlei Verständnis für Big Data aufbringen oder deren Relevanz nicht erkennen.

Die Vision der Zukunft, soviel wurde zumindest aus den Wortmeldungen des Abends klar, ist die “hybride Redaktion”, in der Automatisierungstechnologien und Journalisten Hand in Hand arbeiten, mit klarer Aufgabenverteilung. Die Maschine hilft z.B. bei Recherche, Monitoring und Fact-Checking, erstellt Textentwürfe auf der Grundlage von Daten, und der Mensch liefert Kontext, Einordnung und Meinung. Klar ist aber, dass es einen enormen Wandel geben wird, der sich bereits jetzt in vielen Redaktionsräumen abzeichnet. Und viel Diskussionsbedarf. Aus diesem Grund wird sich das  CoLab nächstes Jahr intensiv im Rahmen einer Studie mit der Algorithmisierung und Automatisierung des Journalismus beschäftigen .

capture cza0kcwveaaxf8i czafgueweaajqz0

Weitersagen:Share on LinkedInTweet about this on TwitterShare on FacebookBuffer this pageShare on Google+

Das könnte Dich auch interessieren...

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.