Archiv für den Monat: Mai 2017

Ein Monat Faktenfinder bei der Tagesschau. Bitte unbedingt weitermachen.

Seit dem 3. April gibt es das “Faktenfinder”-Team bei der Tagesschau-Redaktion; Chefredakteur Kai Gniffke zieht einmal eine erste Bilanz. Und in der finden sich ja ein paar bemerkenswerte Sätze:

Nahezu jede Geschichte der Faktenfinder landet unter den Top Ten der am meisten aufgerufenen Inhalte auf tagesschau.de. Es erscheint fast zu banal, um wahr zu sein: Gib einem Redaktionsteam die Zeit und den Raum für gründliche Recherche, und du erntest verdammt guten Journalismus.

Ja. Stimmt.

Ist meine Rede seit wer-weiß-wie-viel-Jahren, aber als kleiner Unter-Indianer im öffentlich-rechtlichen Rundfunk ist meine Rede ja auch weitgehend völlig egal für die Entscheidungsträger in den Anstalten. Aber trotzdem (und trotz eventueller Zweifel an den Faktenfindern… – die Perspektive sollte da übrigens nicht nur 100%ig, sondern 300%ig neutral sein 🙂 ): Ja. Wir bekommen eine Menge Kohle über die Rundfunkgebühren den Rundfunkbeitrag, und das ist bei “den Menschen da draußen im Lande” gar nicht so unumstritten/akzeptiert/beliebt, als dass es uns in diesem Sektor arbeitenden Leute ruhig schlafen lassen könnte. Jeder Artikel über GEZ/Rundfunkgebühren/Rundfunkbeitrag bekommt fünfzig- bis hundertmal soviel Kommentare wie ein Artikel von ÖR-Sendern. Ok – auch die ÖR-Hasser sind nicht repräsentativ 🙂 …

Aber ganz klar: Unsere Aufgabe in den öffentlich-rechtlichen Sendern ist, Qualitätsjournalismus zu liefern. Das ist unsere Agenda und Kompetenz – ich kenne auch niemanden unter den Kolleginnen und Kollegen, der oder die das fahrlässig anders machen würde oder wollte. Das Gequatsche von Verschwörungstheoretikern oder irgendwie ideologisch Angehauchten, wir würden auf Befehl von Angela Merkel, der Weisen von Zion oder Fethullah Gülen irgendwelche Nachrichten oder Kommentare lancieren oder abändern, ist totaler Bullshit.

Was vielleicht kein Bullshit ist: Wieso hauen wir Millionen raus für Sportübertragungen (und Vermögenstransfers an ohnehin nicht finanziell unterbemittelte Akteure…)? Sind Einschaltquoten bzw. die (messbare, aber fragwürdig messbare…) Popularität das richtige Kriterium für unser Engagement? Nehmen wir mal die von Kai Gniffke erwähnten Zahlen: Vier Schichten pro Tag für die Faktenfinder – wenn die Kolleginnen und Kollegen einigermaßen gut bezahlt werden, macht das 400,- x 4 x 5 Tage x 52 Wochen im Jahr: 416.000 Euro. Je nach Beschäftigungsstatus plus Sozialabgaben.

Das sind – mit Verlaub – Peanuts. Ich frage mich, warum nicht jede ARD-Anstalt ein Recherche-Team (mindestens!!!) in der Größenordnung unterhält/finanziert – eben wohlgemerkt ohne den Druck, jeden Tag einen Beitrag “liefern” zu müssen. Wenn man die Aktivitäten ARD-weit koordinieren würde, wäre das natürlich auch noch einmal extra-hilfreich. Zwei- oder dreimal die gleiche Enthüllungs-Story oder den gleichen Faktencheck braucht natürlich niemand. Aber den fünfzigsten Bericht zu Bayern gegen Dortmund auch nicht.

Insofern mal – die Entscheidung steht jetzt schon fest sollte an sich schon jetzt feststehen:

Ende des (Wahl-) Jahres wollen wir bilanzieren, ob sich die Faktenfinder bewährt haben oder ob wir mit Kanonen auf Spatzen geschossen haben.

Die “Faktenfinder” haben sich schon jetzt bewährt – und das ist auch eigentlich die Begründung, warum es uns privilegiert honorierte ÖR-Journalistinnen und -Journalisten gibt oder geben sollte:  “gründliche Recherche” ohne Bullshit-Zeitdruck durch Popularitäts- oder Einschalt- /Klicksüchtige Entscheidungsträger.

Vielen Dank für Ihre Aufmerksamkeit. Ein Unter-Indianer. 🙂

App “Justice”: Selbst-Check von unbewussten Vorurteilen

Wenn es um den Einsatz neuer Technologien geht, sind die US-Amerikaner deutlich experimentierfreudiger als wir Bedenkenträger in der Alten Welt. Und während wir hier noch sehr zaghaft “Crime prediction”-Programme zur eventuellen Verhinderung von Wohnungseinbrüchen testen, ist “Künstliche Intelligenz” in den USA schon im vollen Praxis-Einsatz. Und liefert Richtern Einschätzungen darüber, wie hoch denn etwa die Rückfallwahrscheinlichkeit eines Angeklagten ist.

Das hat dann natürlich u.U. massive Auswirkungen auf das Urteil und das Strafmaß – kurz und knapp gesagt: Ein Algorithmus entscheidet (mit…) drüber, ob jemand in den Knast wandert und für wie lange. Ein Algorithmus einer privaten Firma, dessen interne Entscheidungskriterien aber völlig intransparent sind – für Richter, Delinquenten und Strafverteidiger. Spätestens seit dem Artikel bei Propublica im letzten Jahr ist klar – die KI ist alles andere als objektiv. Sie liefert für Schwarze einen signifikant höheren Rückfall-Risikoscore als für Weiße. Suresh Venkatasubramanian, Professor an der University of Utah, macht schon seit langem auf den Skandal aufmerksam – und auf die Ursachen.

Die KI lernt nämlich ihre vermeintlich “intelligenten” Weisheiten schlicht aufgrund der Trainingsdaten, mit der sie gefüttert wird. Und die Vorurteile, vor allem eben auch die unbewussten, die – um beim konkreten Beispiel zu bleiben – in menschlichen Urteilen, Gutachten und Prognosen stecken, kehren anschließend im trainierten Algorithmus wieder. Das reicht sogar bis in den Bereich der Semantik; bis zu den subtilen Nuancen, welche Begriffe positiv oder negativ besetzt sind, das hat vor kurzem ein Artikel im Fachblatt “Science” gezeigt: Noch nicht einmal unsere Sprache selbst ist objektiv.

App “Justice”, University of Utah

Wer einmal Richter spielen möchte und nachprüfen will, nach welchen Kriterien man selbst urteilen und Strafen verhängen würde, kann das mit der App “Justice” ausprobieren – die man dabei auch gleichzeitig trainiert, diese Kriterien ebenfalls zu übernehmen. Ob 50 (bzw. 45, anschließend “verurteilt” Justice selbst…) Versuche tatsächlich ausreichen, um alle möglichen Parameter für ein “unconscious bias” zuverlässig zu identifizieren, das bezweifle ich allerdings einmal. Auch die  recht happigen (Minimal-) Strafmaße bei vielen Delikten machen die App für europäische Anwender vielleicht etwas unrealistisch bzw. dürften die Ergebnisse verzerren.

Für einen kurzen Test und eine kurze Erkenntnis reicht das Programm aber allemal: Die KI ist so subjektiv wie wir selbst.

Deutschlandfunk Nova · Justice-App: Selbst-Check von unbewussten Vorurteilen

Deutschlandfunk Nova – Hielscher oder Haase vom 02.05.2017 (Moderation: Diane Hielscher)

Raider heißt jetzt Twix, DRadio Wissen heißt jetzt Deutschlandfunk Nova

Und sonst ändert sich nix.

Außer die Webseiten, Social-Media-Accounts (beides durch teilweise heroische Aufopferungs- und Eigeninitiativmaßnahmen von Mitarbeitern und Mitarbeiterinnen vor fremden Troll-Zugriffen für den Sender gesichert 🙂 …), außer die Briefbögen und Visitenkarten, die internen und externen Werbe- und Identity-Claims bzw. -Beschriftungen auf Plakaten, Türen (da sind wir noch ganz am Anfang… 🙂 ) und Digital-Radios 🙂 … Außer die neuen Audio-Jingles und Trailer, die manche Leute ganz toll und manche Leute ganz toll retro finden.

Aber insofern gebe ich den Marketing-Experten mal recht – die “Marke” “Deutschlandfunk” ist einfach die bekannteste und die mit dem besten Re­nom­mee (als ich noch bei der DW, der Deutschen Welle gearbeitet habe, traten da auch schon diese nutzbringenden Verwechslungen bei angefragten Interviewpartnern auf…). Insofern also: Wir haben auch bisher schon versucht, trotz aller jugendlicher Lockerheit journalistisch seriös rüberzukommen. Ab jetzt also mit dem Qualitäts-Label “Deutschlandfunk”. Raider heißt jetzt Twix.

Deutschlandfunk bleibt übrigens Deutschlandfunk. OK – neue Jingles gibt es da auch 🙂 …