Wir müssen reden: über Künstliche Intelligenz und Ethik im Journalismus

Ellen Heinrichs
8 min readOct 30, 2018

--

2018 — Jahr der Künstlichen Intelligenz: Elon Musk warnt in Austin vor den Gefahren autonomer Waffensysteme — ein paar Monate später erschüttert der Cambridge Analytica Skandal die Welt. Es gibt Leute, die sagen: In der unethischen Nutzung von KI liegt die eigentliche Bedrohung der Menschheit.

Photo by Ellen Schuster

Künstliche Intelligenz. Das ist die Digitalisierung menschlichen Wissens und menschlicher Fähigkeiten. Was vielen nicht bewusst ist: Schon heute setzen Medien an vielen Stellen Künstliche Intelligenz ein.

Die Washington Post versucht seit Jahren herauszufinden, inwiefern Automatisierung im Journalismus nutzbringend eingesetzt werden kann. Etwa mit dem Bot Heliograf, der Daten analysiert, Trends erfasst und dann (von Menschen erstellte) Templates so anreichert, dass daraus Geschichten werden. Das klappt mittlerweile ganz gut für die Bereiche Sport, Finanzen und Wahlberichterstattung — also überall dort, wo es genügend strukturierte Daten gibt. Ähnlich arbeitet Quakebot, ein Bot der Los Angeles Times, der praktisch in Echtzeit Berichte über regionale Erdbeben auf Grundlage von Daten und Text-Templates generiert.

Auch andere setzen auf Künstliche Intelligenz: AP etwa bei der Erstellung von Unternehmensberichten, CNBC und viele weitere Newsrooms bei der halbautomatischen Produktion von Social Videos, und Al Jazeera denkt gar darüber nach, Reporter-Roboter aus Kriegsgebieten berichten zu lassen.

Weitere Anwendungsfälle von Künstlicher Intelligenz im Journalismus:

· Recommendation-Widgets auf Basis von Bewegungsdaten der Nutzer für Videos und anderen Content (z.B. BBC)

· Smarte Text-to-Speech Features für Sprachassistenten (z.B. DW)

· Aktive und passive Personalisierung von Informationsangeboten (Washington Post, FAZ), Paid Content-Kaufangeboten auf Basis von Kaufwahrscheinlichkeitsmodellen (SZ) und Werbung auf der Basis von Nutzungsmustern/Profiling (Outbrain und andere Werbevermarkter)

· Systematisches Zuhören im Netz: Mit Hilfe von Listening Tools frühzeitig virale Trends und neue Themen im Netz und in den Sozialen Medien erkennen (z.B. Listening Center RP online, Crowdtangle)

· Informationsextraktion, Clustering und Visualisierung komplexer, unstrukturierter Datenmassen u.a. durch Machine Learning (z.B. SZ/Paradise Papers)

Miteinander sprechen lernen

Photo by Andy Kelly on Unsplash

Für mich besonders spannend: Das Thema Natural Language Processing, kurz NLP. Einige meiner Kollegen bei der Deutschen Welle beschäftigen sich schon länger mit dieser Technologie, die zum Ziel hat, dass Menschen und Computer miteinander auf Augenhöhe kommunizieren können. Die Funktionsweise von Chatbots oder digitalen Sprachassistenten basiert auf diesem Prinzip. In diesem Jahr sind die Fortschritte vielversprechend: Der Prototyp des Tools news.bridge etwa transkribiert per speech-to-text Technologie in Sekundenschnelle Videos, übersetzt sie anschließend (in noch sehr unterschiedlicher Qualität) in alle möglichen Zielsprachen (u.a. über eine API zu Google Translate) und kann das Video sogar mittels synthetischer Spracherzeugung neu vertonen.

Ähnlich magisch die Vorführung bei Salesforce in San Francisco: Eine Maschine, die fast in Echtzeit einen komplexen Texts zusammenfassen kann — Chief Scientist Richard Socher sagt selber, dass er das bis vor Kurzem nicht für möglich gehalten habe.

Photo by Ellen Schuster

Pulitzerpreisverdächtig sind maschinell erstellte Texte derzeit (noch) nicht, auch wenn die Grenzen zwischen menschlichen und automatischen Autoren immer schneller verschwimmen.

Aber viele Vorteile für die Medienhäuser liegen auf der Hand: Automatisierung spart Zeit und ermöglicht das „repackaging“ journalistischer Produkte für unterschiedliche Plattformen — und das tut dringend Not, bedenkt man, wie sprunghaft die Zahl der Kanäle, die gleichzeitig und spezifisch bedient werden müssen, in den letzten Jahren gestiegen ist.

Automatisierung bringt Pageviews

In dem Maße, wie durch Automatisierung neue Möglichkeiten entstehen, schnell und kostengünstig ähnlichen Content auf unterschiedlichen Plattformen und in verschiedenen Sprachen zu publizieren, verbessern sich die Möglichkeiten der Skalierbarkeit im Journalismus. Oder, weniger umständlich ausgedrückt: Automatisierung bringt — wenn’s gut läuft — höhere Engagementrates, größere Verweildauern und mehr Pageviews. Und das ist überlebenswichtig in Zeiten, in denen das Geschäftsmodell vieler Medienhäuser noch auf Reichweite beruht. “Right now, automated journalism is about producing volume. Ultimately, media companies will have to figure out how to go beyond the pageview,” sagt Seth Lewis, auf KI spezialisierter Journalismus-Professor an der University of Oregon.

Doch auch wer auf Impact statt ausschließlich auf Reichweite setzt, kommt um KI nicht herum: Bereits jetzt existieren Belege für ein signifikant ansteigendes Audience Engagement, sobald Inhalte personalisiert werden. Nutzer schätzen es, wenn Medienangebote auf ihre Interessen zugeschnitten sind. Nach einer Accenture Studie von 2017 erwarten rund 77% der Nutzer digitaler Nachrichtenangebote irgendeine Form der Personalisierung — vielleicht aufgrund des Wunsches, sich dank moderner Technologien aus dem Überangebot an Informationen genau die angeboten zu bekommen, die für sie relevant sind. Oder vielleicht auch, weil sie diese Form der Personalisierung von Sozialen Netzwerken wie Facebook gewohnt sind.

Ohne Daten keine Personalisierung

Allerdings: Keine Personalisierung ohne Daten. Facebook hat es vorgemacht. Das Unternehmen erfasst derart viele Daten — auch weit über die eigenen Plattformen hinaus — , dass es bekanntlich so ziemlich alles über seine Nutzer weiß. Medienorganisationen hinken da noch hinterher, doch auch sie tracken das Verhalten ihrer Nutzer, wie dieser kurze Ausschnitt aus der umfangreichen Privacy Policy der Washington Post (v. 24.5.2018) deutlich macht:

„We may collect personal information about our users in various ways. For example, we may collect information that you provide to us, information that we collect through your use of the Services, and information that we collect from publicly available sources or third parties.”

Nicht allen Nutzern dürfte bewusst sein, dass Medien mittlerweile versuchen, ebenso intensiv Daten zu sammeln, wie die aus diesem Grund immer wieder kritisierten Tech-Konzerne. Es geht um pseudonyme und um die — noch wertvolleren — personenbezogenen Daten. Letztere müssen Medien ihren Nutzern jedoch erst mühevoll abringen. Während die großen Plattformen von Beginn an eine Registrierung erfordern und daran gleich die umfangreiche Abtretung personenbezogener Daten knüpfen, gibt der Nutzer eines Medienangebots erstmal kaum etwas von sich preis, wenn er einen Artikel liest oder ein Video anschaut. Das ändert sich erst, wenn er überzeugt werden kann, einen Newsletter zu abonnieren, einem Leserclub beizutreten oder gar ein Bezahlangebot zu buchen. In einem der wenigen Artikel zu diesem Thema schreibt Natasha Singer von der New York Times: „Many other companies, including news organizations like The New York Times, mine information about users for marketing purposes. If Facebook is being singled out for such practices, it is because it is a market leader and its stockpiling of personal data is at the core of its $40.6 billion annual business.”

Wir müssen über Vertrauen reden!

Geht es Ihnen auch so? An dieser Stelle beschleicht mich die Ahnung, dass wir reden müssen: Über die Art, wie wir Medien Nutzerdaten sammeln, und vor allem darüber, wie wir mit diesen Daten umgehen. Am Ende hängt davon nicht weniger ab, als das wichtigste Gut von Medienunternehmen: Das Vertrauen der Nutzer.

Photo by Bernard Hermant on Unsplash

Ich habe eine vollkommen nicht-repräsentative Umfrage in meinem persönlichen Umfeld gemacht: Nicht eine einzige Person war damit einverstanden, ohne ihre ausdrückliche Zustimmung personalisierte Inhalte zu erhalten. Und nicht eine einzige Person hatte zuvor in Betracht gezogen, dass der Informationsanbieter ihres Vertrauens theoretisch persönliche Daten an Marketingpartner weitergeben könnte — erst recht nicht, wenn diese Person zuvor für ein digitales Abo bei einem sogenannten Qualitätsmedium bezahlt hatte. Kurz und gut: Während viele meiner Freunde mittlerweile ein tiefes Misstrauen gegen Soziale Netzwerke hegen, vertrauen sie allesamt darauf, dass etablierte Medienanbieter sehr viel verantwortungsbewusster mit ihren privaten Daten umgehen. Wir Medien leben von diesem Vertrauen. Menschen geben Geld für unsere Produkte aus, weil sie uns vertrauen. Weil sie davon ausgehen, dass Medien der Gesellschaft dienen — egal, ob sie privat oder öffentlich finanziert sind.

Noch haben 70% der US-Bürger „a lot of trust“ oder „some trust“ in News Organizations. In Deutschland sind es in diesem Jahr unverändert 75% der Befragten, die den Medien vertrauen (2017: 75%). Dabei genießen die öffentlich-rechtlichen Medien das mit Abstand meiste Vertrauen, gefolgt von den überregionalen Tageszeitungen.

Immerhin 48% der Befragten in Deutschland möchten ausdrücklich nicht, dass Medien ihre Daten weitergeben, etwa 40% hingegen sehen das unproblematischer, wenn sie dafür beispielsweise weiterhin kostenlose Dienste beziehen können. Ich persönlich gehe davon aus, dass in Zukunft die Sensibilität der Menschen für den Wert ihrer Daten wachsen wird — im Hinblick auf Mediennutzung auch befeuert durch ein wachsendes Misstrauen in Soziale Netzwerke, deren Ansehen in den letzten Jahren schwer gelitten hat.

Photo by Markus Spiske on Unsplash

Was ist also zu tun?

1) Wir müssen eine Debatte über einen ethischen Umgang mit Künstlicher Intelligenz führen. Bislang habe ich keinen journalistischen Code of Ethics finden könne, der Aussagen zum ethischen Umgang mit KI enthält. Und ebenso gibt es bislang keine offene Debatte darüber, welche ethischen Grundsätze dem Handeln von Verlagen und Medienorganisationen zugrunde gelegt werden könnten. Es braucht also einen publizistischen Code of Ethics, der Business- und Journalistische Seite integriert.

2) Wir sollten ethische Aspekte in die Entwicklung journalistischer Produkte mit einbeziehen. Immer mehr Medienunternehmen setzen auf agile Produktentwicklung, um schneller mit innovativen Produkten am Markt zu sein. Künstliche Intelligenz ist immer häufiger Bestandteil dieser Produkte. Damit muss auch eine Ethikdebatte Platz in der Produktentwicklung haben: Welche Konsequenzen hat es beispielsweise, wenn wir ein Nachrichtenangebot personalisieren (Stichwort Filterblasen)? Wie können Produkte aussehen, die Nutzern gleichzeitig breiten Zugang zu Informationen bieten und doch attraktiv genug sind, um deren Verweildauer zu erhöhen?

3) Wir Journalisten müssen kompetenter werden und dürfen die Beschäftigung mit KI nicht allein unseren Entwickler-Kollegen überlassen. Code ist nie frei von Werten, denn er wird letztlich von Menschen geschrieben (oder beauftragt), die ein bestimmtes Ziel verfolgen.Und auch Machine Learning geschieht mit Hilfe von Datensätzen, die Menschen ausgewählt haben. Wie können wir verhindern, dass darin enthaltene Unschärfen und Vorurteile Eingang in unsere Berichterstattung finden und sich dadurch verfestigen?

4) Wir müssen diese Debatte aus der Perspektive unserer Nutzer angehen. Was brauchen sie, um weiterhin Vertrauen in Medien haben zu können? Was müssen wir tun, um sie weiterhin davon zu überzeugen, dass Journalismus im Dienste der Gesellschaft steht?

Welche Welt wollen wir? Wir müssen uns entscheiden!

Die Washington Post bezeichnet sich heute stolz als “Media and Technology Company”. Erst dieser Kurs des neuen Eigentümers Jeff Bezos hat die Zeitung in die schwarzen Zahlen gebracht — und ermöglicht es damit bis heute, dass gesellschaftlich relevanter Journalismus entstehen kann, der dem Gemeinwohl verpflichtet ist (und trotzdem finanziert werden kann). Im September 2018 haben nun Marc Benioff — Gründer und CEO von Salesforce — und seine Frau Lynne das Time Magazine gekauft. Doch Benioff bringt nicht nur eine gigantische AI-Kompetenz mit (was vermutlich eine gute Nachricht für das Blatt ist, das mit Auflagen- und Anzeigenschwund zu kämpfen hat). Er ist auch ein CEO, der sich dem Allgemeinwohl verpflichtet sieht und der über seine journalistische Neuerwerbung sagt: “I feel our values are aligned. Trust is my highest value and it is Time’s as well.”

Damit setzt er den Ton für eine Debatte, die wir nun führen müssen. Künstliche Intelligenz per se ist weder gut noch schlecht. Wenn Journalismus weiterhin dem Allgemeinwohl verpflichtet bleiben soll, dann müssen wir darüber sprechen, warum und wo wir sie einsetzen — und wie wir gleichzeitig das Vertrauen unserer Nutzer wahren können. Oder, wie Benioff es ausdrückt:

„Are you committed to the state of the world? And committed to improving the state of the world? Or not? You have to choose.”

Note:

I have also published this article in English

--

--

Ellen Heinrichs

Head of Trends & Knowledge at Deutsche Welle, Fellow of Constructive Institute, Solutions Journalism Trainer