Genau eine Woche ist es her, da haben wir in „Hielscher oder Haase“ den größten Hype ausgelöst, der jemals das deutsche Netz durchfegt hat. Pokemon Go. Keine Ahnung, warum die Kollegen und Kolleginnen in allen anderen Redaktionen so enthusiastisch darauf eingestiegen sind. Ist ja auch egal – Hauptsache, wir haben unsere Provision bekommen; das war diesmal wirklich ein guter Deal. Und eigentlich war ja letzte Woche auch schon alles gesagt. Wir bringen trotzdem nochmal ein Update. Ein Hype ist eben ein Hype.
DRadio Wissen – Hielscher oder Haase vom 18.07.2016 (Moderation: Diane Hielscher)
P.S. @Onliner: Wie erwähnt hat der Pokemon-Hasser in Texas nicht nur gedroht, er wolle Pokemon-Sammler „zusammenschlagen“, sondern eliminieren, ausradieren, wegsäubern. („purge“) – hab ich selbst falsch gesagt in der Live-Sendung 🙂
Wer allen Ernstes zuhause im Wohnzimmer eine Dauerlausch-Einrichtung a la Amazon Echo, Google Home oder Apple Siri installiert (die ja möglicherweise demnächst auch noch dauerglotzt, wer gerade da ist und welchen Gesichtsausdruck der oder die macht…), ist ohnehin fest in der Post-Privacy-Sphäre verankert. Wobei die Sprachassistenzsysteme ja in gewissen Situationen durchaus ihre Berechtigung haben – etwa im Auto, wenn man beide Hände am Lenkrad braucht; oder wenn man gerade ein Baby wiederbelebt…
Aber ganz ohne Zweifel wird das Geplauder und Assistieren nicht mehr aufzuhalten sein – da ist es doch schon wieder im Sinne eines kurzen Realitätschecks didaktisch wertvoll, wenn auch Hacker sich den neuen Kommunikationskanal zunutze machen und mit verzerrten Borg-Kommandos unterhalb der menschlichen Verständnisschwelle, aber sehr wohl oberhalb der des Gerätes akustisch Sand ins Getriebe streuen. Die ganze Sache klingt momentan noch etwas skurril – aber dass es wie üblich genügend Spaßvögel, Trolle und Ganoven geben wird, die das Voice-Hacken mal ausprobieren, das ist klar.
Vielleicht wird man (bzw. eben nicht man selbst, sondern der Personal Assistent in der Jackentasche…) ja demnächst im Gedränge von Werbeheinis angesprochen oder in der Fußgängerzone mit Megaphonen überfallen. Oder für das Radio wär das natürlich auch etwas, um schlagartig die Klickzahlen für die Homepage oder den Social-Media-Channel nach oben zu boosten.
Als vor ein paar Tagen in den USA ein Schwarzer bei einer Polizeiaktion erschossen wurde, als danach die Proteste starteten, die Demonstration in Dallas, dann dort die Schüsse auf die Polizei – da zeigte sich wieder einmal, dass eigentlich mittlerweile im Netz – über Twitter oder Facebook; über die Live-Postings von Bildern und Videoclips – eine Live-Dauerschalte läuft. Und zwar zu allen Orten und Themen gleichzeitig, von belanglosem bis hin zum dramatischen. Da kommt natürlich immer wieder die Idee auf den Schirm, ob man nicht aus diesem Informationsdauerfeuer im Netz ablesen kann, was gerade passiert – oder besser noch, was gleich passieren wird. Der US-amerikanische Hacker „Jester“ hat eine Seite ins Web gestellt, die genau so etwas verspricht.
Das InternetAWACS ist allerdings momentan noch eine Beta-Version, die offenbar auch gar nicht ständig „scharfgeschaltet“ ist – das dürfte nicht zuletzt mit den Kosten zu tun haben, die ein möglichst globales Abgreifen und Auswerten von Tweets verursachen würde. So etwas kann man sich auch als Privatperson etwa in einer AWS-Instanz bei Amazon einrichten – allerdings nicht in einer der Billigversionen. Die übrigen Komponenten von iAWACS sind in der jetzigen Form nicht viel mehr als Gimmicks – das Flugbewegungs-Overlay macht optisch etwas her, dürfte aber in den allermeisten Fällen wenig Informationsgewinn bringen, die Watson-KI ist nicht integriert, sondern kann nur gesondert aufgerufen werden.
Man darf aber getrost davon ausgehen, dass bei NSA und Konsorten die „Profiversionen“ eines Netz-Frühwarnsystems im Einsatz sind – nur ob sie da schon irgendwelche sinnvollen Ergebnisse bringen, darf bislang bezweifelt werden. Und selbstverständlich – auch wir Journalisten hätten gern so ein Tool. Im Grunde gilt aber unser methodisches Dilemma dann auch wieder für die Schlapphut-Branche (und auch für „Cyber-Vigilanten“ 🙂 ): Eine Netzquelle, die sich nicht verifizieren lässt, ist in Prinzip völlig wertlos. Oder schlimmer; Bullshit, Fake und Desinformation.
Dass die Leute im richtigen Leben nicht mehr so ernsthaft anwesend, sondern stattdessen im Cyberspace unterwegs sind, das ist ja mittlerweile völlig normal. Also zumindest in dem gewohnten Ausmaß – wenn sie whatsappen, twittern oder navigieren. Aber wenn nun massenhaft an sich harmlos aussehende Zeitgenossen auf Plätzen herumlungern oder komisch hin und her laufen, hinter Bushalte-Wartehäuschen gucken, in trostlose Sackgassen hineinspazieren oder auf Privatgrundstücke vordringen, immer mit starrem Blick auf das Smartphone-Display, und wenn sie dabei ab und zu rasche Wischbewegungen machen – dann ist das keine neue Zombie-Seuche, sondern „nur“ Pokemon Go.
Aber all das kann einem richtigen Hype natürlich nichts, aber auch rein gar nichts anhaben. Ob auch IS-Kämpfer schon den possierlichen Tierchen nachjagen, ist bislang nicht bekannt, vor Ort sind die Monster aber schon allemal.
Es gibt ein erstes Todesopfer in einem Auto mit eingeschaltetem Autopiloten, einem Tesla. Der Fall ereignete sich bereits im Mai, das Unternehmen gab den Vorfall nun mit dem Ausdruck des tiefsten Bedauerns bekannt. Und man darf wohl annehmen, dass jedenfalls einigen Insidern und Silicon-Valley-Nachbarn von Tesla das Unglück schon bekannt war, während sie in dieser Woche auf der Fachmesse ConCarExpo 2016 in Düsseldorf ungebrochenen Technik-Optimismus verbreiteten.
Möglicherweise ja vielleicht sogar zurecht – denn das Argument lautet schlicht und ergreifend: In der Gesamtbilanz werden selbstfahrende Autos (mit assistierenden Autopiloten wie im Fall Tesla oder eben als nächste Perspektive völlig autonom agierende Vehikel…) die Zahl der Unfälle und Opfer senken.
Vortrag „Impact Assessment Methods for Automated Driving with regard to Road Safety“, 29.6.2016
Was nicht heißt, dass es nicht ab und zu tödlich verlaufende Crash-Szenarien geben könnte und weiter geben wird – sei es durch Soft- oder Hardware-Unzulänglichkeiten, sei es in tatsächlich „ausweglosen“ Situationen, in denen der Algorithmus nur noch zwischen zwei Übeln wählen bzw. abwägen kann.
Das kürzlich in „Science“ noch einmal prominent dargestellte ethische Dilemma spielte auch auf der ConCarExpo eine Rolle – immerhin beschäftigten sich mehrere Vorträge im Konferenzprogramm mit dem Thema. Einer der Referenten war Jason Millar, der Philosophie (mit dem Schwerpunkt Technik- und Robotik-Ethik) an der Carleton-Universität im kanadischen Ottawa lehrt. Eine „Patentlösung“ hat natürlich auch Millar nicht anzubieten – er plädiert aber ganz klar für maximale Transparenz, wie Algorithmus-Entscheidungen eigentlich zustande kommen. (Eine besondere Herausforderung, wenn neuronale Netzwerke und Deep Learning mit im Spiel sind…)
Und dann müsse eine politisch-demokratische Diskussion und Konsens- (oder zumindest Mehrheits-) findung einsetzen und Regeln festlegen. Wie bei allen Regeln oder Gesetzen mit eventuellen Härten für Einzelne, aber mit einer grundsätzlichen Akzeptanz durch die Gesellschaft.
At least if regulators are making decisions about how these problems get solved in engineering, people can make choices whether they participate in using this type of technology, they can feedback into the legislation or regulation process and provide their input. As the sense right now companies are doing this behind closed doors. So we don’t really know how they are thinking about solving these problems. And we do know that they are thinking about solving these problems.
Wenn der Gesetzgeber hier Entscheidungen trifft, wie diese Probleme in der technischen Entwicklung gelöst werden sollen, dann können die Leute zumindest ihre Wahl treffen, ob sie eine solche Technologie nutzen wollen. Sie können auf den Gesetzgebungs- oder Regulierungsprozess reagieren und ihre Argumente vorbringen. Momentan läuft das Ganze bei den Firmen hinter verschlossenen Türen ab. Wir wissen nicht genau, was sie denken, wie sie diese Probleme lösen wollen. Wir wissen aber, dass sie schon konkret darüber nachdenken.
Sowohl das ausweglose-Situation-Dilemma als auch der aktuelle Todesfall (bei dem die „Schuld“ ohnehin zu einem erheblichen Teil auch beim verunglückten Fahrer liegen dürfte, weil das Tesla-System ja kein wirklicher „Autopilot“ ist, sondern immer noch die menschliche „Hand am Lenkrad“ und den Fuß an den Pedalen voraussetzt…) zeigen aber in den Reaktionen eines doch sehr deutlich: Wir Menschen sterben „lieber“ durch den Fehler oder durch die Unzulänglichkeit eines anderen Menschen als durch den Fehler oder die Unzulänglichkeit einer Software oder eines Roboters. Jedenfalls zur Zeit noch.
Der Kotflügel im Hochregal bei VW, der Stromzähler an der Wohnungstür, die Milchtüte im Kühlschrank: Im Internet der Dinge greift alles effizient ineinander – da bestellen sich Artikel automatisch nach, wenn sie zur Neige gehen, Maschinen gehen an, wenn der Strompreis gerade billig ist. Und die Windel meldet sich, wenn das Baby reingemacht hat. Laut übereinstimmender Diagnose aller interessierter Kreise ist Industrie 4.0 (dabei sind die .nuller-Releases doch bekanntlich immer buggy!) und das IoT bzw. IdD absolut unverzichtbar und der absolute Mega-Bringer. (Zumindest für alle interessierten Kreise…)
Wäre nur auch schön, wenn die (ökonomisch…) interessierten Hersteller das gleiche Interesse auch für die banalsten Sicherheitsbelange ihrer Kunden aufbrächten. Die ja gar nicht auf die Idee kommen, dass jetzt plötzlich in jedem Kühlschrank oder Fernseher Gefahren lauern. Von Seiten wiederum interessierter Kreise, die entweder nur ihr Mütchen kühlen, oder aber ganz schmerz- und moralfrei Kohle abzocken wollen. Und schließlich sind auch interessiert die Anbieter von Sicherheitssoftware und -lösungen, die Good Guys, die die Angriffe der bösen Buben abwehren helfen. Eine Win-Win-Win-Situation also.
Nur ob der Zahlmeister, der Endkunde das ganze Zeugs eigentlich wirklich völlig unverzichtbar braucht, das ist noch die Frage. Die stellt sich aber nur für die Ewiggestrigen, versteht sich.
Tapfere Wüstenkrieger im vollen Galopp, in der rechten Hand den Säbel oder die grüne Fahne des Propheten – das Ganze gibt’s natürlich auch in der modernen Version mit dahinbrausenden Pick-Up-Kleinlastern und Kalaschnikoff statt Schwert: Die Werbevideos des „Islamischen Staates“ und anderer Extremistengruppen sind für manch einen jungen Mann der Auslöser, sich aufzumachen in den „heiligen Krieg“; entweder im Nahen Osten oder halt direkt zuhause. Kein Wunder also, dass Facebook und YouTube unter einigem Druck stehen, solches Material möglichst schnell zu erkennen und nach einem Upload wieder zu löschen.
Wie Reuters berichtet, haben beide Plattformen jetzt offenbar einen Algorithmus eingeführt, der extremistische Videos automatisch blockt – und technisch gesehen funktioniert der allem Anschein nach ähnlich wie beim Aussieben von „urheberrechtlich geschützten Material“ oder von Kinderpornografie. Zwei Probleme gibt es allerdings dabei: Zum einen liefert der „Islamische Staat“ im Gegensatz zur Content-Industrie die digitalen Fingerabdrücke, die Hash-Werte den Internetplattformen nicht frei Haus, zum anderen ist die manuelle Einstufung „was ist extremistisch, was nur problematisch, aber noch von der Meinungsfreiheit gedeckt?“ äußerst heikel.
Elegant, sinnvoll und auch theoretisch möglich wäre natürlich auch die automatische Detektion oder Klassifizierung von Terror-Videos – aber ob so etwas beim Facebook- und Google-Verfahren derzeit schon zum Einsatz kommt, darüber schweigen sich die Anbieter mit gutem Grund aus. Zum einen wollen sie den extremistischen Uploadern keinen Hinweis geben, wie die Blockade zu umgehen ist, zum anderen den „lupenreinenDemokraten“ dieser Welt auch keine Blaupause an die Hand geben, wie sie missliebige Stimmen der Opposition mit einem Mausklick (bzw. eben einem Algorithmus im eigenen Netz-Herrschaftsbereich…) mundtot machen können.
Im Moment, da gondelt ein Google-Prototyp durch Kalifornien – einen kleinen Blechschaden hat das Auto-Auto ja schon verursacht. Wobei – da war noch ein Fahrer mit an Bord; für den Notfall. So ähnlich ist das auch bei den streng kontrollierten Experimenten anderer Hersteller. Im Moment ist also die ganze Diskussion noch ein Gedankenspiel. Aber eigentlich auch schon nicht mehr – denn die Software, die Steuerungs-Algorithmen für selbstfahrende Fahrzeuge werden ja jetzt gerade entwickelt. Und in ein ein paar Jahren wird das Ganze kommen. Definitiv.
Denn völlig klar: selbstfahrende Autos (also richtige Autos…) sparen jede Menge Ressourcen. Sie sind in einem optimierten Tempo unterwegs, in optimierten Abständen zu anderen Fahrzeugen (was z.B. Staus zu vermeiden hilft…). Der Passagier oder die Passagiere können die Transferzeit zu sinnvolleren Dingen nutzen, als sich auf den Verkehr zu konzentrieren. Sie können arbeiten, entspannen, schlafen. Wie mit einem Chauffeur halt. Und wenn dazu dann ein Car-Sharing-Modell kommt, dann haben die Vehikel auch eine vernünftige Nutzungsfrequenz und stehen nicht nur teuer herum.
Ein menschlicher Chauffeur allerdings lenkt sich selbst und seinen Chef eher nicht vor eine Betonwand, wenn unverhofft Fußgänger die Fahrbahn betreten und ein Bremsen nicht mehr möglich ist. Wenn es also darum geht, Entscheidungen zu treffen: Leben gegen Leben, Gesamtschaden gegen Gesamtschaden. Soll ein autonomes Vehikel seinen Fahrgast/seine Fahrgäste um jeden Preis schützen und dann im Zweifelsfall eine Mehrzahl anderer Leben auslöschen? Oder „nüchtern“ kalkulieren und dann im Zweifelsfall den eigenen Passagier oder die Passagiere opfern (solange das Ding kein eigenes Bewusstsein hat, ist der eigene Exitus ja kein Problem…) für die bessere Gesamtbilanz?
Ja, sagen Testpersonen in einem Experiment von Wissenschaftlern, das in der aktuellen Ausgabe von „Science“ veröffentlicht ist; die Schadensabwägung ist grundsätzlich ethisch plausibel und wünschenswert. Nur – wenn die Befragten selbst in dem fraglichen Vehikel sitzen würden, oder ihre Verwandten oder Freunde? Dann fällt die Entscheidung plötzlich anders aus. Wie völlig heikel die Abwägungen sind, die der Algorithmus in jedem selbstfahrenden Vehikel treffen muss, das lässt sich sehr eindrucksvoll selbst nachvollziehen – auf der Website moralmachine.mit.edu. Dass man normalerweise drei Hunde eher „opfern“ würde als drei Menschen, ist klar. Aber lieber Männer oder Frauen? Alte oder junge Personen? Eine Schwangere eher als einen Alten-Sack-Einzelfahrer?
Das Ganze ist keine technische, sondern eine ausschließlich moralisch-ethische Frage und vielleicht trotzdem der Knackpunkt, ob und wie schnell sich die (im Sinne der Ressourcen-Gesamtbilanz…) wünschenswerte Innovation durchsetzen kann. Regulative, gesetzgeberische Vorgaben in Richtung „Schadensgesamtbetrachtung“ wären kontraproduktiv, sagen die Wissenschaftler: Zumindest nach der Tendenz der Befragten würden Autos, die im Zweifelsfall ihre Eigner opfern (müssen…) schlichtweg nicht gekauft. Möglicherweise aber verändert sich diese Perspektive, wenn Autos nicht mehr Privatbesitz, Statussymbol oder Liebesobjekt sind, sondern nur noch gesharetes Transportvehikel.
Und noch ein Gedanke, der in dem Experiment nicht vorkam: Was ist eigentlich mit einer eventuellen Schuldfrage? Sollte es für den Algorithmus nicht (ebenso wie zurzeit bei posthum-Gerichtsverhandlungen…) eine Rolle spielen, ob die Todeskandidaten ihr Ableben durch Fahrlässigkeit und Regelüberschreitung selbst herbeigeführt haben? Die bei-Rot-über-die-Ampel-Renner und die aufs-Smartphone-Starrer – soll ich als Insasse eines selbstfahrenden Vehikels für die sterben müssen, wenn die gerade in der Mehrzahl, aber eigentlich nur schlicht zu blöd zum Überleben sind?
Fragen über Fragen. Da kommt dann auch noch die Haftung eines Vehikel-Herstellers mit ins Spiel. Ist alles momentan ein Gedankenexperiment. Aber – so schreiben das auch die Forscher: Eines, das von fundamentaler Bedeutung ist. Auch für andere Gebiete, wo Algorithmen zu Akteuren werden.
DRadio Wissen – Schaum oder Haase vom 24.06.2016 (Moderation: Thilo Jahn)
Mittlerweile ist der Spruch ja quasi das Grundgesetz des Internets: „Wenn Du nichts für einen Dienst zahlst, dann bist Du nicht der Kunde – dann bist Du das Produkt.“ Beziehungsweise eben die vom User produzierten Daten sind das Produkt, über das sich Werbeindustrie, Scoringunternehmen und Versicherungen begierig hermachen. Im Zweifelsfall interessieren sich auch Finanzämter, Behörden oder Geheimdienste für die Sachen, die man so freigiebig ins Netz herausposaunt.
Auf der Entwicklerkonferenz WWDC hat Apple – etwas überraschend – eine Alternative vorgestellt. „Differential Privacy“ heißt die, und das Konzept dabei: Daten auswerten, aber die Privatsphäre trotzdem bewahren. Etwas überraschend, weil Apple sich ja bislang ganz ausdrücklich als Gralshüter der User-Privatsphäre darstellt. Und im Gegensatz zu Google oder Facebook postuliert: Unser Geschäftsmodell besteht im Geräteverkauf, nicht in der Auswertung der Userdaten – bei uns ist der Kunde Kunde und nicht Produkt.
Aber ein Argument bei der Big Data-Auswertung, das auch die anderen Firmen immer gerne bringen, ist ja: Die Datenanalyse kann dem User einen echten Mehrwert bieten – von der Stauwarnung aufs Handy über den Filmtipp bis hin zur individuell angepassten Software. „User Experience“ heißt das Stichwort (das immer auch jede Menge Bullshit-Bingo-Punkte bringt…); und im ersten Schritt will Apple erst einmal klein und bescheiden anfangen: Bei der Eingabehilfe QuickType, bei Vorschlägen für Emojis, bei Suchvorschlägen in Spotline und Notes…
Aber ist das nicht schon der Sündenfall? Da gehen ja doch Infos über das Nutzungsverhalten und bestimmte Nutzerinteressen an Apple und verlassen das Gerät – wie soll da trotzdem die Privatsphäre gewahrt bleiben? Das ist sozusagen das Ausgangsparadoxon und die mathematisch-algorithmische Herausforderung; Apple beschreibt das selbst auch so: Man will bestimmte Muster bei einer großen Anzahl von Personen erkennen bzw. entdecken – ohne aber die individuelle Aktion wieder einer individuellen Person zuordnen zu können.
Und dafür gibt es die verschiedenen „Differential Privacy“- Bestandteile, wie sie auch Apples Software-Vizepräsident Craig Federighi bei seiner Keynote auf der WWDC vorgestellt hat: „Hashing“ – da verwendet man also quasi eine kryptografisch ermittelte Quersumme statt der eigentlichen Werte, „Subsampling“, da nimmt man bewusst nur einen kleinen Teil der Daten und „Noise Injection“, da fügt man Datenrauschen hinzu, um die kritischen Infos zu verschleiern.
Alles keine Neuerfindungen von Apple – und alles auch Konzepte, die durch fehlerhafte Implementierungen schiefgehen können und in der Vergangenheit auch schon schiefgegangen sind. Das Unternehmen hat jedenfalls die für iOS 10 vorgesehenen Algorithmen im Vorfeld Experten der University of Pennsylvania vorgelegt: Und laut deren ersten Begutachtung ist „alles ok“. Wenn „Differential Privacy“ allerdings in weiteren Apps oder Szenarien kommen sollte, muss man das Ganze noch einmal sehr aufmerksam anschauen. Das mit der „User Experience“ ist halt sehr stark Bullshit-Bingo-verdächtig – den Gral sollte man dafür nicht leichtfertig webkippen. 🙂
DRadio Wissen – Schaum oder Haase vom 14.06.2016 (Moderation: Till Haase)
Das Ganze sei eine „Win-Win-Situation für Mitarbeiter, Aktionäre und Endkunden beider Unternehmen“, man sehe „langfristig signifikante Umsatz- und Gewinnmöglichkeiten für unsere Aktionäre“, und schon relativ kurzfristig „Synergieeffekte von 600 Millionen US-Dollar“, so der Microsoft-Chef.
Ach nein – jetzt bin ich doch tatsächlich versehentlich ins Jahr 2013 gerutscht; mittlerweile heißt der Boss in Redmond ja nicht mehr Steve Ballmer, sondern Satya Nadella, und übernommen wird ja auch nicht Nokia, sondern LinkedIn. Nach dem Griff ins Klo mit dem einst so stolzen Schwan der Handybranche ist ja vor elf Monaten endgültig der Deckel zugeklappt worden. Aber wie prominent LinkedIn, das Social Network für die Anzug-und-Schlips- bzw. die Kostümchenträger(innen) eigentlich dasteht im Universum des Geschäfts mit Usern und deren Daten, das ist auch noch nicht ganz erwiesen.
LinkedIn-CEO Jeff-Weiner, Microsoft-Boss Satya Nadella und der LinkedIn-Verwaltungsratsvorsitzende Reid Hoffmann. (Bild: Microsoft)
Immerhin, es ist erst mal ein Social Network, und Microsoft hat ja noch keins. Die Nutzer sind möglicherweise auch etwas solventer als ein durchschnittlicher WhatsApp-User. Aber auf der Timeline von LinkedIn kommen ja normalerweise (oder jedenfalls ist es genau das, worauf die User hoffen…) tolle neue Jobangebote rein. Und da werden sich ja Firmen, bei denen Office365 installiert ist, in Zukunft ganz bestimmt auch riesig freuen, wenn ihre Angestellten da während der Arbeit drauf gucken und klicken, während gerade parallel die internen Worddokumente, Excelsheets, Powerpoint-Präsentationen und Project-Planungen an LinkedIn rausgehen und dort kontextsensitiv für eben diese Timeline (oder für Headhunter oder für die interessierte Konkurrenz…) ausgewertet werden.
Also mir leuchtet das noch nicht so ganz ein, wie die Verzahnung da konkret funktionieren soll – aber ich bin schließlich auch kein hochbezahlter Visionär. Sobald man mich entsprechend hoch bezahlt, bekomme ich sofort ebenfalls einen sehr optimistischen Gesichtsausdruck. Versprochen.