Archiv des Autors: mgessat

iAWACS: Hacker versucht Krisen-Vorhersage am heimischen PC

Als vor ein paar Tagen in den USA ein Schwarzer bei einer Polizeiaktion erschossen wurde, als danach die Proteste starteten, die Demonstration in Dallas, dann dort die Schüsse auf die Polizei – da zeigte sich wieder einmal, dass eigentlich mittlerweile im Netz – über Twitter oder Facebook; über die Live-Postings von Bildern und Videoclips – eine Live-Dauerschalte läuft. Und zwar zu allen Orten und Themen gleichzeitig, von belanglosem bis hin zum dramatischen. Da kommt natürlich immer wieder die Idee auf den Schirm, ob man nicht aus diesem Informationsdauerfeuer im Netz ablesen kann, was gerade passiert – oder besser noch, was gleich passieren wird. Der US-amerikanische Hacker „Jester“ hat eine Seite ins Web gestellt, die genau so etwas verspricht.

Das InternetAWACS ist allerdings momentan noch eine Beta-Version, die offenbar auch gar nicht ständig „scharfgeschaltet“ ist – das dürfte nicht zuletzt mit den Kosten zu tun haben, die ein möglichst globales Abgreifen und Auswerten von Tweets verursachen würde. So etwas kann man sich auch als Privatperson etwa in einer AWS-Instanz bei Amazon einrichten – allerdings nicht in einer der Billigversionen. Die übrigen Komponenten von iAWACS sind in der jetzigen Form nicht viel mehr als Gimmicks – das Flugbewegungs-Overlay macht optisch etwas her, dürfte aber in den allermeisten Fällen wenig Informationsgewinn bringen, die Watson-KI ist nicht integriert, sondern kann nur gesondert aufgerufen werden.

Man darf aber getrost davon ausgehen, dass bei NSA und Konsorten die „Profiversionen“ eines Netz-Frühwarnsystems im Einsatz sind – nur ob sie da schon irgendwelche sinnvollen Ergebnisse bringen, darf bislang bezweifelt werden. Und selbstverständlich – auch wir Journalisten hätten gern so ein Tool. Im Grunde gilt aber unser methodisches Dilemma dann auch wieder für die Schlapphut-Branche (und auch für „Cyber-Vigilanten“ 🙂 ): Eine Netzquelle, die sich nicht verifizieren lässt, ist in Prinzip völlig wertlos. Oder schlimmer; Bullshit, Fake und Desinformation.

Terrorgefahr: Hacker versucht Krisen-Vorhersage am heimischen PC – SPIEGEL ONLINE

Spiegel Online – Netzwelt vom 12.07.2016

DRadio Wissen – Hielscher oder Haase vom 11.07.2016 (Moderation: Till Haase)

Pokémon Go: Monsterhype mit kleinen Kollateralschäden

Dass die Leute im richtigen Leben nicht mehr so ernsthaft anwesend, sondern stattdessen im Cyberspace unterwegs sind, das ist ja mittlerweile völlig normal. Also zumindest in dem gewohnten Ausmaß – wenn sie whatsappen, twittern oder navigieren. Aber wenn nun massenhaft an sich harmlos aussehende Zeitgenossen auf Plätzen herumlungern oder komisch hin und her laufen, hinter Bushalte-Wartehäuschen gucken, in trostlose Sackgassen hineinspazieren oder auf Privatgrundstücke vordringen, immer mit starrem Blick auf das Smartphone-Display, und wenn sie dabei ab und zu rasche Wischbewegungen machen – dann ist das keine neue Zombie-Seuche, sondern „nur“ Pokemon Go.

Ein „Augmented Reality Game“, ein Spiel also, in dem die künstliche in die reale Welt eingeblendet wird – und schon ein paar Tage nach dem Launch steht fest: Der Erfolg toppt alles dagewesene, auch den Erfolg des beliebten AR-Vorgängers Ingress. Beim an sich lobenswerten und potentiell gesundheitsfördernden Herumwandern auf der Suche nach virtuellen Monstern und Monsterfang-Bällen (oder nach sonst was…) lauern allerdings überall reale Gefahren: Knochenbrüche, Leichenfunde, Autocrashs, Überfälle und vielleicht sogar schießwütige Hauseigner (oder Rassisten…) – daneben nehmen sich die üblichen Abzocker und Malware-Verbreiter schon wieder harmlos aus. Selbstverständlich 🙂 treibt das Spiel auch Schindluder mit der Gamer-Sicherheit und -Privacy.

Aber all das kann einem richtigen Hype natürlich nichts, aber auch rein gar nichts anhaben. Ob auch IS-Kämpfer schon den possierlichen Tierchen nachjagen, ist bislang nicht bekannt, vor Ort sind die Monster aber schon allemal.

Pokémon Go: Monsterhype um Pikachu und Co · DRadio Wissen

DRadio Wissen – Hielscher oder Haase vom 11.07.2016 (Moderation: Till Haase)

Verschlüsselung bei Android-Geräten mit Qualcomm-Chip lässt sich aushebeln

Wenn ein Unbefugter erst einmal physischen Zugriff auf einen Computer hat, dann steht es schlecht um die heiklen Daten des Eigners – und naturgemäß ist es bei einem Mobilgerät sehr viel wahrscheinlicher als beim PC daheim, dass dieser Fall eintritt; sei es durch einen Diebstahl oder Verlust des Gerätes, sei es bei einer Durchsuchung durch Behörden. Das Mittel der Wahl ist also Verschlüsselung – und aus Nutzersicht wäre es natürlich schön, wenn auf die entsprechenden Features des Betriebssystems dann auch wirklich Verlass wäre. Ganz anders sehen dies wiederum die erwähnten „Autoritäten“ – und fordern wie auch immer geartete Zweitschlüssel, Hinter- oder Vordertüren.

Eine bewusste, eingebaute Schwächung des Sicherheitskonzepts geht letztendlich immer nach hinten los, lautet das Gegenargument von Kryptografieexperten und Firmen wie Apple. Eine hübsche, für Android-Nutzer allerdings unerfreuliche Demonstration dafür liefert der israelische IT-Experte Gal Beniamini – offenbar haben die Programmierer der Full-Disk-Encryption-Umsetzung in Geräten mit Qualcomms Snapdragon-Plattform bewusst darauf verzichtet, beim Verschlüsselungsprozess einen individuellen Hardware-Schlüssel unmittelbar einzubinden. Stattdessen laufen die Schlüsselerzeugung und -management in einem speziellen Bereich, dem „Qualcomm Secure Execution Environment“ (QSEE) ab, was möglicherweise mehr Flexibilität bei der Kommunikation mit Apps und Gerätefunktionen schafft, aber einen gewaltigen Nachteil hat: Das „Allerheiligste“ der Verschlüsselung liegt in Software, nicht in Hardware vor – und lässt sich per Softwarezugriff aus dem Gerät extrahieren.

Wie Beniamini plausibel mutmaßt, könnte es für die konzeptuelle Schwäche einen einfachen Grund geben: Sie eröffnet die Möglichkeit, wenn nicht für Qualcomm selbst, so doch für die OEM-Hersteller, Behörden notfalls bei der Entschlüsselung eines gesperrten Gerätes behilflich zu sein. Eine potentielle Hintertür also, die sich dummerweise aber auch von Hackern aufsperren lässt. Das QSEE ist fehlerhaft implementiert und lässt sich per manipulierter App und Rechte-Ausweitung knacken – damit hat man Zugriff auf den Masterkey und muss diesen lediglich noch per Brute-Force entschlüsseln. Für Behörden eh kein Problem, für Privatleute in Zeiten von Hashcat oder Cloud-Diensten auch nicht mehr.

Auch bei dieser Lücke kommt das leidige Android-Updateproblem verschärfend hinzu – wer Wert auf die Sicherheit seiner Mobilgerätdaten legt, ist wahrscheinlich mit einem Apple-Produkt besser bedient. Wobei ganz klar gesagt werden muss – es ist ja auch für einen Android-Hersteller nicht grundsätzlich unmöglich, die Schotten dicht(er) zu machen. Man muss es aber auch wollen (und dürfen 🙂 )…

Android: Full-Disk-Verschlüsselung lässt sich aushebeln – SPIEGEL ONLINE

Spiegel Online – Netzwelt vom 04.07.2016

Ungebrochener Technik-Optimismus auf der ConCarExpo

Der erste tödliche Unfall mit einem PKW, der mit eingeschaltetem „Autopilotsystem“ unterwegs war – auf der ConCarExpo, wo sich alles um vernetzte Fahrzeuge und Mobilitätssysteme der Zukunft drehte, spielte er zumindest an den beiden offiziellen Messetagen noch keine Rolle. Aber natürlich dürften einige Insider von dem fatalen Ereignis gewusst haben, dass auch  – wie Experten anschließend offen zugaben – „irgendwann zu erwarten“ gewesen war. Möglicherweise wussten Insider und Experten dann auch schon Bescheid über eine eventuelle Mitschuld des verunglückten Fahrers und waren sich auch der konzeptuellen Unterschiede zwischen teil- und vollautonomem Fahren bewusst. Zumindest in der Darstellung nach außen herrschte in Düsseldorf jedenfalls völlig ungebrochener Technik-Optimismus – das sah am Freitag, als BMW seine Pläne für ein selbstfahrendes Modell vorstellte, schon deutlich anders aus.

ConCarExpo 2016 - der Eingangsbereich mit der Start-Up-Booth

ConCarExpo 2016 – der Eingangsbereich mit der Start-Up-Booth

Bei BMW ist Intel mit im Boot, bei anderen Herstellern Nvidia – in Assistenzsystemen und den Steuerungen für autonome Vehikel haben die Prozessorschmieden nun einen neuen, potentiell sehr lukrativen Absatzmarkt für ihre CPUs, vor allem aber für ihre GPUs in Sicht. Und der dürfte sehr viel höhere Umsatzzahlen versprechen als das Geschäft mit Gaming-PCs, Workstations oder auch die immerhin prestigeträchtige Supercomputing-Sparte. Wobei die Automobilbranche bekanntermaßen sehr spitz kalkuliert, wenn sie Komponenten zukauft – beim Steuerungssystem aber doch hoffentlich mit sehr viel Augenmaß; hier geht es nun einmal um Leben und Tod.

Nvidias „Drive PX“-Steuerungssystem beruht auf „Deep Learning“ und neuronalen Netzen – das eröffnet einerseits einen Weg, der Maschine menschliches Fahr-Know-How einzupflanzen, bietet andererseits auch zumindest theoretisch die Chance, im Fahrbetrieb laufend dazuzulernen – und vielleicht von einer anfangs sehr defensiven Strategie zu einer flüssigeren Fahrweise überzugehen, die immer noch sicher ist. Aber die Kehrseite der Medaille ist natürlich die potentielle Intransparenz, was in den Schichten des neuronalen Netzes eigentlich vor sich geht und wie der Algorithmus eigentlich letztlich entscheidet – im „worst case“ eben mit fatalen Konsequenzen. Da dürften sich wie beim ganzen Thema „autonomes Fahren“ im Zweifelsfall allerhand Fragen stellen – grundsätzliche in Richtung Ethik; und ganz pragmatische in Richtung „wer haftet eigentlich“?

Keine "Black Box", sagt der Leiter der Automotive-Sparte von Nvidia, Danny Shapiro: Die Drive-PX-2-Steuerungseinheit von Nvidia

Keine „Black Box“, sagt der Leiter der Automotive-Sparte von Nvidia, Danny Shapiro: Die Drive-PX-2-Steuerungseinheit von Nvidia

Danny Shapiro von Nvidia sieht hier die Verantwortung erst einmal beim Autohersteller, der Komponenten und Algorithmen zu einem Endprodukt zusammenstellt – man liefere mit einem Steuerungssystem wie dem „Drive PX“ keinesfalls eine „Black Box“ aus. Ob die Hersteller allerdings schon so weit sind, und die zu ihrem klassischen Metier hinzugekommene Welt „IT und Software“ tatsächlich adäquat im Griff haben, das kann man mit Fug und Recht bezweifeln. Im Konferenzprogramm der ConCarExpo ging es in vielen Vorträgen um die vielen neuen Fallstricke – da versuchen offenbar die Ingenieure mancher Autohersteller, beim Design ihrer Software das Rad neu erfinden und machen Anfänger-Fehler. Da schotten sich die Firmen argwöhnisch von der Konkurrenz ab, wo doch vielleicht eher eine gemeinsame Standard-Entwicklung, möglicherweise nach dem Open-Source-Prinzip, allen mehr Sicherheit bringen würde.

Denn natürlich lauern wie in der herkömmlichen IT-Welt Hacker auf die Schwachstellen in den Produkten, vom Autoklau bis zum tödlichen Eingriff in den Straßenverkehr ist alles drin. Und angesichts von Visionen einiger Firmenvertreter, wonach die Kunden dann später die On-Air-Updates für die Steuerungen ihrer teil- oder vollautonomen Fahrzeuge als begeisternde User-Experience-Erweiterungen aufnehmen werden, kommt einem das Grausen – für einen kurzen Realitätscheck würde es ja schon einmal genügen, sich klarzumachen, wie fehlerhaft Software auf PC und Smartphones ausgeliefert wird. Nur das ein Blue Screen oder App-Absturz halt noch keinen Exitus bedeutet. Im selbstfahrenden Auto könnte das anders sein.

Hinter der Euphorie stecken natürlich Geschäftshoffnungen und Gewinnabsicht. Und mit nüchterner Ökonomie wird wahrscheinlich auch die Kosten-Nutzen-Bilanz von eventuellen Opfern autonomer Fahrzeuge und im Gegenzug von vermiedenen Unfälle kalkuliert werden. So dass vielleicht am Ende das letzte Wort, wie die automobile Welt der Zukunft aussehen soll, weder bei Ingenieuren noch Ethikern noch Politikern liegen wird – sondern bei den Risikomanagern und Mathematikern in den Versicherungen.

Verkehrskonzepte – Ohne Stau und Stress

Deutschlandfunk – Computer und Kommunikation vom 02.07.2016 (Moderation: Manfred Kloiber)

Wenn Software über Leben und Tod entscheidet

Es gibt ein erstes Todesopfer in einem Auto mit eingeschaltetem Autopiloten, einem Tesla. Der Fall ereignete sich bereits im Mai, das Unternehmen gab den Vorfall nun mit dem Ausdruck des tiefsten Bedauerns bekannt. Und man darf wohl annehmen, dass jedenfalls einigen Insidern und Silicon-Valley-Nachbarn von Tesla das Unglück schon bekannt war, während sie in dieser Woche auf der Fachmesse ConCarExpo 2016 in Düsseldorf ungebrochenen Technik-Optimismus verbreiteten.

Möglicherweise ja vielleicht sogar zurecht – denn das Argument lautet schlicht und ergreifend: In der Gesamtbilanz werden selbstfahrende Autos (mit assistierenden Autopiloten wie im Fall Tesla oder eben als nächste Perspektive völlig autonom agierende Vehikel…) die Zahl der Unfälle und Opfer senken.

IMG_0787

Vortrag „Impact Assessment Methods for Automated Driving with regard to Road Safety“, 29.6.2016

Was nicht heißt, dass es nicht ab und zu tödlich verlaufende Crash-Szenarien geben könnte und weiter geben wird – sei es durch Soft- oder Hardware-Unzulänglichkeiten, sei es in tatsächlich „ausweglosen“ Situationen, in denen der Algorithmus nur noch zwischen zwei Übeln wählen bzw. abwägen kann.

Das kürzlich in „Science“ noch einmal prominent dargestellte ethische Dilemma spielte auch auf der ConCarExpo eine Rolle – immerhin beschäftigten sich mehrere Vorträge im Konferenzprogramm mit dem Thema. Einer der Referenten war Jason Millar, der Philosophie (mit dem Schwerpunkt Technik- und Robotik-Ethik) an der Carleton-Universität im kanadischen Ottawa lehrt. Eine „Patentlösung“ hat natürlich auch Millar nicht anzubieten – er plädiert aber ganz klar für maximale Transparenz, wie Algorithmus-Entscheidungen eigentlich zustande kommen. (Eine besondere Herausforderung, wenn neuronale Netzwerke und Deep Learning mit im Spiel sind…)

Und dann müsse eine politisch-demokratische Diskussion und Konsens- (oder zumindest Mehrheits-) findung einsetzen und Regeln festlegen. Wie bei allen Regeln oder Gesetzen mit eventuellen Härten für Einzelne, aber mit einer grundsätzlichen Akzeptanz durch die Gesellschaft.

At least if regulators are making decisions about how these problems get solved in engineering, people can make choices whether they participate in using this type of technology, they can feedback into the legislation or regulation process and provide their input. As the sense right now companies are doing this behind closed doors. So we don’t really know how they are thinking about solving these problems. And we do know that they are thinking about solving these problems.

Wenn der Gesetzgeber hier Entscheidungen trifft, wie diese Probleme in der technischen Entwicklung gelöst werden sollen, dann können die Leute zumindest ihre Wahl treffen, ob sie eine solche Technologie nutzen wollen. Sie können auf den Gesetzgebungs- oder Regulierungsprozess reagieren und ihre Argumente vorbringen. Momentan läuft das Ganze bei den Firmen hinter verschlossenen Türen ab. Wir wissen nicht genau, was sie denken, wie sie diese Probleme lösen wollen. Wir wissen aber, dass sie schon konkret darüber nachdenken.

Sowohl das ausweglose-Situation-Dilemma als auch der aktuelle Todesfall (bei dem die „Schuld“ ohnehin zu einem erheblichen Teil auch beim verunglückten Fahrer liegen dürfte, weil das Tesla-System ja kein wirklicher „Autopilot“ ist, sondern immer noch die menschliche „Hand am Lenkrad“ und den Fuß an den Pedalen voraussetzt…) zeigen aber in den Reaktionen eines doch sehr deutlich: Wir Menschen sterben „lieber“ durch den Fehler oder durch die Unzulänglichkeit eines anderen Menschen als durch den Fehler oder die Unzulänglichkeit einer Software oder eines Roboters. Jedenfalls zur Zeit noch.

Algorithmus soll über Leben und Tod entscheiden · DRadio Wissen

DRadio Wissen – Grünstreifen vom 01.07.2016 (Moderation: Steffi Orbach)

Einreise in die USA: Behörden wollen Social-Media-Accounts abfragen

Fällt demnächst der Urlaub in den Staaten flach, wenn man nicht ein unverdächtiges Facebook- oder Twitter-Konto vorweisen kann? Eine geplante Erweiterung des berüchtigten Einreisefragebogens sorgt für Aufregung.

Einreise in die USA: Behörden wollen Social-Media-Accounts abfragen – SPIEGEL ONLINE

Spiegel Online – Netzwelt vom 27.06.2016

Eine hübsche, poetische Bullshit-Uhr

Ich habe heute eine Email bekommen. Von „Sidd“ aus dem „ThePresent Team“.

Hope this email finds you well. I noticed you have covered some Innovative Products in the past and I think you will find our product very Interesting
Our Product „Today“ is a 24-hour timepiece beautifully designed to change the way you see your day.
Please see link below for our Kickstarter campaign.
https://www.kickstarter.com/projects/scottthrift/today
I think this can be a great product for your audience.  Let me know if you need any additional information from our side.
Look forward to hearing from you.
Sidd

Die Leute haben eine revolutionäre neue Uhr erfunden. Die zeigt nicht mehr irgendwelche Ziffern und Uhrzeiten an, sondern orientiert sich an den Farben und Helligkeitsabstufungen des Sonnenlichts – vom Morgengrauen über den Mittag über den Abend bis hin zur wohligen, beruhigenden Dunkelheit der Nacht. Total entspannend, bewusstseinerweiternd und irgendwie Zen.

Aber wtf – für wen soll das denn sein?? Ich lebe ja schon etwas zuviel vor der Tastatur, aber zum Glück noch nicht in einem hermetisch abgeschotteten Raum. Dass es draußen duster ist und ich allmählich in die Heia gehen sollte, das bekomme ich auch so noch mit. Ich gehe ja auch normalerweise irgendwann in die Heia; außer, es gibt halt einen plausiblen Grund, aufzubleiben. Und wenn ich zur Arbeit muss oder sonst irgendeinen Termin hab (und sei es nur der Bus, der alle 30 Minuten fährt…), dann hilft mir irgendeine Farbstimmung auch nicht so richtig weiter. Weil sonst bräuchte ich ja auch gar keine Uhr, sondern würde einfach aus dem Fenster gucken. Wie Chingachcook, der letzte Mohikaner. (Also der guckt natürlich nicht aus dem nicht vorhandenen Fenster, sondern einfach so in die urwüchsige, aber auch zuweilen grausame Welt…)

Zwischen 1816 und 2016 habe sich am Uhren-Design nichts geändert, liest und guckt man da auf der Kickstarterseite von ThePresent Team. Das hat aber auch einen guten Grund: Weil das alte Design schon quasi optimal war!!! Und altes und neues Design sieht ja auch schon klasse aus!!! Aber was rede ich denn da, das ist natürlich wieder mal total von vorgestern. Also: Die tolle neue Uhr kostet ab 88$ (plus Spesen bzw. Steuer…) – und richtig geeignet ist sie vor allem für die, die nach einer erfolgreichen Kickstarter-Aktion nicht mehr arbeiten müssen, sondern zeitlos-esoterisch durchs Leben schweben können. Deswegen auch aus Bambus. Wegen dem Zen.

Internet der Dinge – Internet der Sicherheitslücken

Der Kotflügel im Hochregal bei VW, der Stromzähler an der Wohnungstür, die Milchtüte im Kühlschrank: Im Internet der Dinge greift alles effizient ineinander – da bestellen sich Artikel automatisch nach, wenn sie zur Neige gehen, Maschinen gehen an, wenn der Strompreis gerade billig ist. Und die Windel meldet sich, wenn das Baby reingemacht hat. Laut übereinstimmender Diagnose aller interessierter Kreise ist Industrie 4.0 (dabei sind die .nuller-Releases doch bekanntlich immer buggy!) und das IoT bzw. IdD absolut unverzichtbar und der absolute Mega-Bringer. (Zumindest für alle interessierten Kreise…)

Wäre nur auch schön, wenn die (ökonomisch…) interessierten Hersteller das gleiche Interesse auch für die banalsten Sicherheitsbelange ihrer Kunden aufbrächten. Die ja gar nicht auf die Idee kommen, dass jetzt plötzlich in jedem Kühlschrank oder Fernseher Gefahren lauern. Von Seiten wiederum interessierter Kreise, die entweder nur ihr Mütchen kühlen, oder aber ganz schmerz- und moralfrei Kohle abzocken wollen. Und schließlich sind auch interessiert die Anbieter von Sicherheitssoftware und -lösungen, die Good Guys, die die Angriffe der bösen Buben abwehren helfen. Eine Win-Win-Win-Situation also.

Nur ob der Zahlmeister, der Endkunde das ganze Zeugs eigentlich wirklich völlig unverzichtbar braucht, das ist noch die Frage. Die stellt sich aber nur für die Ewiggestrigen, versteht sich.

Internet der Dinge – Internet der Sicherheitslücken · DRadio Wissen

DRadio Wissen – Schaum oder Haase vom 27.06.2016 (Moderation: Till Haase)

Facebook und Youtube wollen extremistische Videos automatisch löschen

Tapfere Wüstenkrieger im vollen Galopp, in der rechten Hand den Säbel oder die grüne Fahne des Propheten – das Ganze gibt’s natürlich auch in der modernen Version mit dahinbrausenden Pick-Up-Kleinlastern und Kalaschnikoff statt Schwert: Die Werbevideos des „Islamischen Staates“ und anderer Extremistengruppen sind für manch einen jungen Mann der Auslöser, sich aufzumachen in den „heiligen Krieg“; entweder im Nahen Osten oder halt direkt zuhause. Kein Wunder also, dass Facebook und YouTube unter einigem Druck stehen, solches Material möglichst schnell zu erkennen und nach einem Upload wieder zu löschen.

Wie Reuters berichtet, haben beide Plattformen jetzt offenbar einen Algorithmus eingeführt, der extremistische Videos automatisch blockt – und technisch gesehen funktioniert der allem Anschein nach ähnlich wie beim Aussieben von „urheberrechtlich geschützten Material“ oder von Kinderpornografie. Zwei Probleme gibt es allerdings dabei: Zum einen liefert der „Islamische Staat“ im Gegensatz zur Content-Industrie die digitalen Fingerabdrücke, die Hash-Werte den Internetplattformen nicht frei Haus, zum anderen ist die manuelle Einstufung „was ist extremistisch, was nur problematisch, aber noch von der Meinungsfreiheit gedeckt?“ äußerst heikel.

Elegant, sinnvoll und auch theoretisch möglich wäre natürlich auch die automatische Detektion oder Klassifizierung von Terror-Videos – aber ob so etwas beim Facebook- und Google-Verfahren derzeit schon zum Einsatz kommt, darüber schweigen sich die Anbieter mit gutem Grund aus. Zum einen wollen sie den extremistischen Uploadern keinen Hinweis geben, wie die Blockade zu umgehen ist, zum anderen den „lupenreinen Demokratendieser Welt auch keine Blaupause an die Hand geben, wie sie missliebige Stimmen der Opposition mit einem Mausklick (bzw. eben einem Algorithmus im eigenen Netz-Herrschaftsbereich…) mundtot machen können.

DRadio Wissen · Neue Software: Youtube will automatisch extremistische Videos löschen

DRadio Wissen – Schaum oder Haase vom 27.06.2016 (Moderation: Till Haase)

Selbstfahrende Autos – wen soll der Algorithmus sterben lassen?

Im Moment, da gondelt ein Google-Prototyp durch Kalifornien – einen kleinen Blechschaden hat das Auto-Auto ja schon verursacht. Wobei – da war noch ein Fahrer mit an Bord; für den Notfall. So ähnlich ist das auch bei den streng kontrollierten Experimenten anderer Hersteller. Im Moment ist also die ganze Diskussion noch ein Gedankenspiel. Aber eigentlich auch schon nicht mehr – denn die Software, die Steuerungs-Algorithmen für selbstfahrende Fahrzeuge werden ja jetzt gerade entwickelt. Und in ein ein paar Jahren wird das Ganze kommen. Definitiv.

Denn völlig klar: selbstfahrende Autos (also richtige Autos…) sparen jede Menge Ressourcen. Sie sind in einem optimierten Tempo unterwegs, in optimierten Abständen zu anderen Fahrzeugen (was z.B. Staus zu vermeiden hilft…). Der Passagier oder die Passagiere können die Transferzeit zu sinnvolleren Dingen nutzen, als sich auf den Verkehr zu konzentrieren. Sie können arbeiten, entspannen, schlafen. Wie mit einem Chauffeur halt. Und wenn dazu dann ein Car-Sharing-Modell kommt, dann haben die Vehikel auch eine vernünftige Nutzungsfrequenz und stehen nicht nur teuer herum.

Ein menschlicher Chauffeur allerdings lenkt sich selbst und seinen Chef eher nicht vor eine Betonwand, wenn unverhofft Fußgänger die Fahrbahn betreten und ein Bremsen nicht mehr möglich ist. Wenn es also darum geht, Entscheidungen zu treffen: Leben gegen Leben, Gesamtschaden gegen Gesamtschaden. Soll ein autonomes Vehikel seinen Fahrgast/seine Fahrgäste um jeden Preis schützen und dann im Zweifelsfall eine Mehrzahl anderer Leben auslöschen? Oder „nüchtern“ kalkulieren und dann im Zweifelsfall den eigenen Passagier oder die Passagiere opfern (solange das Ding kein eigenes Bewusstsein hat, ist der eigene Exitus ja kein Problem…) für die bessere Gesamtbilanz?

Ja, sagen Testpersonen in einem Experiment von Wissenschaftlern, das in der aktuellen Ausgabe von „Science“ veröffentlicht ist; die Schadensabwägung ist grundsätzlich ethisch plausibel und wünschenswert. Nur – wenn die Befragten selbst in dem fraglichen Vehikel sitzen würden, oder ihre Verwandten oder Freunde? Dann fällt die Entscheidung plötzlich anders aus. Wie völlig heikel die Abwägungen sind, die der Algorithmus in jedem selbstfahrenden Vehikel treffen muss, das lässt sich sehr eindrucksvoll selbst nachvollziehen – auf der Website moralmachine.mit.edu. Dass man normalerweise drei Hunde eher „opfern“ würde als drei Menschen, ist klar. Aber lieber Männer oder Frauen? Alte oder junge Personen? Eine Schwangere eher als einen Alten-Sack-Einzelfahrer?

Das Ganze ist keine technische, sondern eine ausschließlich moralisch-ethische Frage und vielleicht trotzdem der Knackpunkt, ob und wie schnell sich die (im Sinne der Ressourcen-Gesamtbilanz…) wünschenswerte Innovation durchsetzen kann. Regulative, gesetzgeberische Vorgaben in Richtung „Schadensgesamtbetrachtung“ wären kontraproduktiv, sagen die Wissenschaftler: Zumindest nach der Tendenz der Befragten würden Autos, die im Zweifelsfall ihre Eigner opfern (müssen…) schlichtweg nicht gekauft. Möglicherweise aber verändert sich diese Perspektive, wenn Autos nicht mehr Privatbesitz, Statussymbol oder Liebesobjekt sind, sondern nur noch gesharetes Transportvehikel.

Und noch ein Gedanke, der in dem Experiment nicht vorkam: Was ist eigentlich mit einer eventuellen Schuldfrage? Sollte es für den Algorithmus nicht (ebenso wie zurzeit bei posthum-Gerichtsverhandlungen…) eine Rolle spielen, ob die Todeskandidaten ihr Ableben durch Fahrlässigkeit und Regelüberschreitung selbst herbeigeführt haben? Die bei-Rot-über-die-Ampel-Renner und die aufs-Smartphone-Starrer – soll ich als Insasse eines selbstfahrenden Vehikels für die sterben müssen, wenn die gerade in der Mehrzahl, aber eigentlich nur schlicht zu blöd zum Überleben sind?

Fragen über Fragen. Da kommt dann auch noch die Haftung eines Vehikel-Herstellers mit ins Spiel. Ist alles momentan ein Gedankenexperiment. Aber – so schreiben das auch die Forscher: Eines, das von fundamentaler Bedeutung ist. Auch für andere Gebiete, wo Algorithmen zu Akteuren werden.

DRadio Wissen – Schaum oder Haase vom 24.06.2016 (Moderation: Thilo Jahn)