Archiv für den Monat: April 2017

Amazons “Echo Look” gibt Stylingtipps

Es gibt ja den alten Witz, in dem die böse Königin vor das Zaubermöbel tritt und die berühmten Worte spricht: “Spieglein, Spieglein an der Wand, wer ist die Schönste im ganzen Land?” – “Geh mal einen Schritt zur Seite, ich kann sonst nichts sehen.” Mittlerweile sind zuhörende und quatschende Spiegel natürlich nichts märchenhaftes mehr, sondern knallharte digitale Realität. Datenschutz-Bedenkenträgern wie mir sind ja schon die bisher auf dem Markt erhältlichen Assistenz-Abhörwanzen ein Greuel – die Kamera im neuen “Echo Look” geht da noch einmal einen logischen Schritt weiter.

Dass das Gadget dann auch noch für den “Style Check” im Schlaf- oder Ankleidezimmer stehen soll, macht die Sache noch aparter. Aber eines steht fest: Die Home-Assist-Systeme und die damit einhergehenden neuen Möglichkeiten der gezielten Kundenanalyse und Werbeansprache versprechen der Branche schönste Umsatzperspektiven. Bei der Vorstellung der Quartalszahlen nannte Amazon sein Sprachsystem Alexa schon ausdrücklich als signifikant positiven Faktor für das Geschäftsergebnis; dazu passt auch bestens das Update für die digitale Einflüsterin:

Ab sofort wird Alexa viel natürlicher klingen – mit einer frei gestaltbaren Sprachmelodie, mit betonten oder geflüsterten Worten. Konkurrent Google stellt sein Assist-System ab sofort für fremde Hardware-Hersteller zur Verfügung, und dass auch Apples Siri bald in einem Hardware-Device Einzug in unsere Wohnstuben halten will, gilt unter Tech-Auguren als ausgemacht. Da bahnt sich ohne jeden Zweifel ein weiterer Privacy-Paradigmenwechsel an: Wer in absehbarer Zeit nicht einen der Assistenten zu Hause rumstehen, rumlauschen oder rumglotzen hat, der hat bestimmt etwas zu verbergen.

Deutschlandfunk Nova · Amazons “Echo Look”: Alexas Schlafzimmerblick

Deutschlandfunk Nova – Hielscher oder Haase vom 28.04.2017 (Moderation: Till Haase)

Freischwebender Bullshit: Facebook will Gedanken lesen

Die Gedanken sind frei. Sich Irgendwas ausdenken, oder mal irgendwie über die Zukunft nachdenken, das wird man doch wohl noch dürfen. Oder mal die Gedanken schweifen lassen. Ganz frei, völlig losgelöst von irgendwelchen Realitäten. Alles ist erlaubt bei einem Brainstorming. Auch totaler Bullshit.

Facebook will demnächst irgendwann mal Gedanken lesen, bzw. Gedanken als Input-Channel nutzen für – ja was denn eigentlich? Für ein tastaturloses Katzenbildposting, für ein Liken des gerade vertilgten Burgers oder ein prospektives Ändern des Beziehungsstatus (“im Moment bin ich gerade mit der langweiligen und bei Licht besehen doch nicht so attraktiven X – was besseres war aber gerade nicht im Angebot – liiert, denke aber, dass ich eigentlich lieber die scharfe Y als Freundin hätte…”  Oder zum Steuern von Autos??

“Würde Facebook das Projekt gelingen, könnte das Problem der Spracherkennung ausgeschaltet werden. Wenn ich dann denke, dass ich im Auto rechts abbiegen will, erkennt mein Navi das automatisch”, sagt Klaus Heblich von der SWR-Wissenschaftsredaktion.

“Solche Technologie existiert heute nicht. Wir werden sie erfinden müssen”, hat Facebook-Managerin Regina Dugan am Mittwoch auf der Facebook-Entwicklerkonferenz F8 gesagt. Stimmt. Der Warp-Antrieb existiert auch noch nicht, aber wenn sich 60 Leute beim milliardenschweren Werbe- und Selbstvergewisserungskonzern von Herrn Zuckerberg dransetzen, dann müsste das doch eigentlich auch zu schaffen sein. Dran arbeiten am neu erfinden kann man ja mal. Oder das planen, aber jetzt schon mal rausposaunen – in die dankbare Presselandschaft.

Embed from Getty Images

 

Die greift solch futuristische Pläne ja gerne auf und diskutiert die dann auch ganz ernsthaft mit “Experten”. Wenn Facebook an sowas arbeitet, muss das ja irgendwie realistisch sein. Oder aber total spekulative Zukunftsvision, die man einfach mal als kommerzieller Akteur im Markt freischwebend daherpinseln und -schwafeln kann. Im Klartext: Bullshit, jedenfalls auf sehr lange Sicht hin. Schauen wir doch mal ganz kurz auf die Fakten: Die bisherigen Ansätze zum Abgreifen von irgendwelchen motorischen oder intellektuellen Absichten (Ja – Nein, Cursor nach rechts oder links…) sind von der Praxistauglichkeit (Elektroden im Gehirn…) oder der Geschwindigkeit äußerst bescheiden.

Natürlich ist es eine großartige Sache, wenn Leute mit Locked-In-Syndrom (oder mit anderen Behinderungen; das Paradebeispiel ist vielleicht Stephen Hawking…) einen (bislang sehr mühsamen…) Weg bekommen, sich zu artikulieren. Aber das ist auch schon das einzige relevante Szenario für die “Gedanken-Lese-Technologie”, jedenfalls für die nächsten 20, 30, 40 Jahre (mit Prognosen soll man ja vorsichtig sein, vor allem, wenn sie die Zukunft betreffen…). Es gibt nicht den allergeringsten Anhaltspunkt, wie ein “Abgreifen” komplexerer Gedanken als “Ja-Nein”, “Cursor nach rechts, Cursor nach links” oder “vorgegebene Auswahlmöglichkeit auswählen” zuverlässig funktionieren soll.

Wie die Facebook-Evangelisten (oder die Presse oder die befragten Experten…) auf die Idee kommen, die herbeiphantasierte Technologie könne sinnvoll die (ja auch noch gar nicht zuverlässig und ansatzweise befriedigend umgesetzte…) Spracherkennung ablösen oder ersetzen, das ist mir völlig schleierhaft. Nehmen wir mal das bei Tagesschau.de erwähnte Szenario: “Ich denke jetzt mal, dass ich rechts abbiegen will. Ach nee, doch nicht, ich würde zwar eigentlich gerne, aber da ist ja ein Lastwage…”  Die Handlungsweisen, ethischen Aspekte und Haftungsfragen bei eventuell eingebundenen KI-Assistenz-Systemen sind auch noch völlig ungeklärt, um mal ein eventuelles Gegenargument gleich einzubeziehen.

Oder die anderen Beispiele:

So könnte der Gedanke an eine Tasse direkt mit dem entsprechenden Fremdwort in Spanisch oder Chinesisch umgesetzt werden, sagte die Facebook-Managerin. “Eines nicht so fernen Tages könnte es sein, dass ich auf Chinesisch denke und sie es sofort auf Spanisch fühlen.”

Hatte ich gerade gedacht – der hat nicht mehr alle Tassen im Schrank; oder mit dem würde ich gern eine Tasse Tee trinken? Natürlich “gehe es nicht darum, wahllos Gedanken zu lesen”. (z.B. um dann direkt Burger- oder Porno-Werbung einzublenden…) “Nur solche Gedanken, die an das Sprachzentrum weitergeleitet würden, seien gemeint.” Und wie soll das gehen, diese Differenzierung??? “War dieser Gedanke von dir gerade zur Weiterleitung an das Sprachzentrum gedacht? Denke bitte Ja oder Nein.” “Meintest Du gerade Porno oder Burger, denke bitte P oder B.” Bist Du sicher? Denke Ja oder Nein”. Ich setze mir zur Klärung dieser Feinheiten aber erst mal ein Elektroden-Mützchen auf. (Seid ihr wahnsinnig, ihr Vollhorste ???)

Fazit: Die Facebook-Ankündigung ist die größte Luftnummer, die ich in den vergangenen Jahrzehnten (ok, sagen wir mal seit Duke Nukem…) gelesen habe. Irgendwann wird so was natürlich mal kommen. Irgendwann werden wir den Gehirnerweiterungs-Chip implantiert haben. Irgendwann werden wir wirkliche von implantierten Erinnerungen nicht mehr unterscheiden können, irgendwann werden wir den Warp-Antrieb haben – oder denken, wir hätten ihn. Vielleicht steht da sogar dann “Facebook Virtual Reality” drauf. Momentan ist das aber alles totaler Bullshit. Oder halt eine sehr völlig freischwebende Vision. Da wäre ich ja der letzte, der das verbieten wollte. Man muss das nur auch Bullshit nennen dürfen.

(Nachklapp 27.04.2017:) Wired sieht Facebooks Visionen ähnlich kritisch wie ich.

Der “Facebook-Mord”: Wie umgehen mit Gewaltvideos?

Der “mutmaßliche Mörder”, wie es so schön und offiziell heißt nach den Richtlinien des deutschen Journalismus, ist tot. Der “mutmaßliche Mörder” hatte allerdings die Ankündigung seiner Tat, den abartigen Mord an einem Zufallsopfer – einem Großvater auf dem Rückweg vom Osteressen; ein Schwarzer übrigens genauso wie der Täter –  und anschließend das “Geständnis” samt wirrer, narzisstischer “Erläuterungen” dazu bei Facebook gepostet; und war daher nicht mehr so besonders mutmaßlich. Ich muss gestehen: Ich war und bin wütend, nachdem ich das Ereignis zur Kenntnis genommen habe – und den lächerlichen, erbärmlichen, feigen und verabscheuungswürdigen Gedanken des Täters:

“Mein eigenes Leben bzw. mein individuelles Wohlbefinden ist gerade so schrecklich verletzt, dass ich jetzt mal irgendeinen unbeteiligten Schwächeren killen muss.” Dass das in den USA dadurch begünstigt wird, dass alle Leute legal oder faktisch ungehindert mit Wummen durch die Gegend laufen – geschenkt. Dass der Mörder von Cleveland im Gegensatz zu Herrn Lubitz nur einen Unschuldigen getötet hat, bevor er auf die – so denkt man unmittelbar – wesentlich bessere Idee kam, sich doch mal selbst zu töten; alleine bitte schön – geschenkt. Und hier kann man schon allmählich einmal die Wut- und Emotionsbremse ziehen:

Am besten wäre es natürlich, wenn Menschen wie Herr Lubitz und Herr Stephens nicht andere Leute und am Ende auch sich selbst killen, sondern vielleicht Hilfe suchen; wenn sie ihren eigenen Schmerz und ihre eigenen Verwundungen mit anderen besprechen. Und zwar mit konkreten Menschen, nicht mit einer amorphen, dem Verwundungs-Narzissmus Auftrieb gebenden virtuellen “Öffentlichkeit”. Dieser Gedanke ist allerdings etwas naiv heutzutage: Natürlich funktioniert das Versprechen und das Grundprinzip von Facebook und aller Sozialen Netzwerke bei einem psychisch verwundeten potentiellen Mörder oder IS-Attentäter genauso wie bei einem Katzenvideo-Poster, der auch nicht mehr alle Tassen im Schrank hat:

“Du, deine eigentlich erbärmliche und vollkommen nichtsbedeutende Existenz, deine Belanglosigkeit und Gewöhnlichkeit und deine belanglosen, feigen, erbärmlichen und perversen Taten werden irgendwie bedeutend – weil sie bei uns im Netz stehen. Und weil irgendwelche ebenso unbedeutende Leute, die Du nicht kennst und die Dich nicht kennen, deine Postings (vermeintlich…) zur Kenntnis nehmen und weiterverbreiten. Ist zwar alles nur ein Mausklick und ein großer Bedeutungs-Fake, aber immerhin. Außerdem verdienen wir dran.”

Embed from Getty Images

 

Wer das pervers und abartig findet, hat recht. Wer findet, dass wir durch die nur einen Mausklick entfernte Zur-Kenntnis-Nahme von abartigen Gewaltdarstellungen von Irren, Mördern und (angeblich…) religiös Verzückten psychisch schwerst verletzt werden, hat recht. Wer findet, dass der Ersatz normaler zwischenmenschlicher Kommunikation durch den Social-Media und Smartphone-Umweg pervers ist, dass Trennungen per WhatsApp-Message, dass Stalking und Sexting unter 13jährigen Schülern nicht in Ordnung, sondern abartig sind, hat recht.

Und trotzdem: Das ist die Welt, in der wir leben. Die Welt, die nicht zurückzudrehen sein wird. Die Welt, in der wir den ganzen Tag auf unsere Screens glotzen, und vielleicht (noch…) die Möglichkeit haben, selbst zu entscheiden, welchen Scheiß, welche Perversität wir uns da anschauen. Von daher – das Problem liegt wahrscheinlich wirklich nicht bei Facebook und schon gar nicht bei den armen Typen, die den jede Sekunde reinströmenden perversen Scheiß für Facebook sichten und (schätzungsweise nach einer Entscheidungs-Spanne von 5-10 Sekunden…) blocken oder freigeben müssen. Das Problem liegt bei uns selbst.

(Aber ok – vielleicht sollte Mark Zuckerberg den Scheiß-Job mit dem Scheiße-Erkennen mal selber machen – so zwischendurch, als kleine Kompensation für die Milliarden.)

Es gibt natürlich ein paar Stellschrauben, die auch anlässlich des aktuellen Falls mal wieder genannt werden: Ein Live-Streaming erst ab einer bestimmten Zahl von Abonnenten oder Followern zu erlauben, ist wahrscheinlich eine gute Idee. Aber der “Facebook-Mord” selbst wurde ja gar nicht live gestreamt. Die ganze Sache “Gewaltdarstellung in Social Media”, die Verantwortung und die Filterungsmöglichkeiten der Betreiber sind am Ende gar keine moralische Abwägung, sondern – und hier kann man dann einmal getrost kotzen – eine wirtschaftliche. 🙁

Facebook: Wie umgehen mit Gewaltvideos? · DRadio Wissen

DRadio Wissen – Hielscher oder Haase vom 18.04.2017 (Moderation: Diane Hielscher)

Nordkorea feiert Geburtstag

Auch wenn es nach dem Fall der Deutschen Demokratischen Republik und nach der Verweichlichung und dem Niedergang der UdSSR und ihrer Nachfolgestaaten keine andere Macht auf der Welt – außer eben Nordkorea – mehr gibt, die den guten alten Stechschritt noch wirklich mustergültig performen lassen kann –

Embed from Getty Images

 

mit ruckartigem Herumgelatsche …

Embed from Getty Images

 

…so sieht da natürlich etwas besser aus 🙂 …

Embed from Getty Images

 

oder so…

 

oder so…

 

…aber auch mit “gegen-die-Panzer-Oberkante-Knallschutz-Mützchen”, die nur in der hinteren Seitwärtsperspektive…

Nordkoreanische Soldaten marschieren am Samstag zur Feier des 105. Geburtstags des Staatsgründers Kim Il-sung in Pjöngjang auf. © dpa

…ein bisschen an Cyborg-Bataillone erinnern, gewinnt man noch keine Kriege.

https://youtu.be/ZQxW_ipxEEo?t=3151

Der Ausgang des Konfliktes zwischen dem mopsigen Oberschergen aus dem Reich des Bösen und dem ebenfalls etwas aufgedunsenen und erratisch agierenden Vorkämpfer der freien westlichen Welt lässt sich aber auch mit einem möglichst rationalen Vergleich der problematischen Frisuren…

Embed from Getty Images

 

beider beteiligten Akteure…

Embed from Getty Images

 

nicht vollständig abschätzen.

 

P.S. Aber etwas anderes steht fest: Deutsche Autos sind nun mal die besten der Welt.

Burger King-Werbung “hackt” Google Assistant und Wikipedia

Keine Ahnung, woran es liegt – aber momentan erleben wir gerade eine richtig epische Serie – eine Serie von PR-Desastern nämlich. Letzte Woche dieser Werbespot von Pepsi mit dem Model Kendall Jenner, der auf peinlichste Weise auf die Black-Lives-Matter-Demonstrationen anspielte und nach einem Proteststurm sofort zurückgezogen werden musste. Dann die Passagier-wird aus-Flugzeug-geschleift-Geschichte und die zunächst sehr suboptimalen Statements des United-Airlines-Chefs dazu. Und jetzt hat sich Burger King gewaltig in die Nesseln gesetzt. Wieder mal mit einer Werbung, die super-pfiffig sein wollte.

https://youtu.be/U_O54le4__I

„You are watching a 15-second Burger King ad, which is unfortunately not enough time to explain all of the fresh ingredients in the whopper sandwich. … But I got an idea.  … OK, Google: What is the Whopper Burger?”

Wer – hierzulande ja noch etwas avantgardistisch – ein Google-Home-System als Dauerlauscher und Assistant-on-Demand herumstehen hat, oder aber die Google-App auf seinem Smartphone oder Tablet per Sprachfunktion bedient, weiß Bescheid: „OK Google“ ist der Aufweckbefehl, und danach versucht die “KI” das Kommando auszuführen oder eine gestellte Frage zu beantworten. Die präferierte Faktenbasis ist hier bei Google der Wikipedia-Eintrag. Den gibt es ja praktisch zu allem, auch zum Whopper – und listigerweise hatten die Burger-King-Werber den passend zum Launch ihres Spots ein klein wenig angepasst.

Auf per TV- oder Radio-Spot hereingeschmuggelte Sprachbefehle reagieren die meisten Home-Assistent-Besitzer aber wenig amüsiert (obwohl das Voice-Hacking ja eigentlich vielleicht auch nur den grundsätzlichen Irrsinn des dauerlauschenden Gerätes illustriert…). Und für Wikipedianer sind Artikeltrollerei und erst recht solche mit Werbe-Absicht ein rotes Tuch. Aber die ursprüngliche Werbe-Absicht funktionierte ja nur ganz kurz, danach wurde zurückgetrollt – nicht jeder liebt den Whopper. Mittlerweile hat Google dafür gesorgt, dass die Frage mit der Originalstimme aus dem Werbespot keine Aktion mehr auslöst. Wer seinen Assistant aber selbst fragt, bekommt weiter tiefschürfende Informationen über das Hackbrötchen geliefert – jetzt wieder in der geprüften und ungetrollten Wikipedia-Qualität 🙂 .

DRadio Wissen · Burger King: PR-Panne mit Wikipedia

DRadio Wissen – Hielscher oder Haase vom 13.04.2017 (Moderation: Till Haase)

Microsoft-Sicherheitslücke: Word braucht ein Update!

Das Update auf das aktuelle Major-Release von Windows 10 (“Creators Update”) ist ja bekanntlich eine komplette Neuinstallation des Betriebssystems – da kann ja theoretisch auch richtig etwas schiefgehen. Ich hatte das also schon am Montag vorsichtshalber “per Hand” gestartet, damit mir Update, Neustart des Systems und eventuelles Desaster nicht in einem unpassenden Moment – bei der Vorbereitung der Frühsendung zum Beispiel 🙂 – hineingrätscht. Hat aber alles geklappt, den “Windows.old”-Ordner habe ich auch schon gelöscht inzwischen. Am Dienstag war dann der turnusmäßige Microsoft-“Patchday” – der neben dem “Creators Update” auch wieder mal ein paar Sicherheitslücken stopfen sollte.

Embed from Getty Images

 

Ganz oben auf der Dringlichkeitsliste – ein Flicken für das am Wochenende bekannt gewordene OLE-Problem bei Word. Aber heute morgen saß ich dann doch etwas verwirrt vor dem Bildschirm – war der Patch jetzt bei mir automatisch installiert worden oder nicht? Im “Updateverlauf” war nichts zu Word oder Office zu lesen – ein Klick auf “neue Updates suchen” brachte tatsächlich noch drei bereitstehende Flicken zutage; ob da der für Word dabei war, blieb unklar. Microsoft hat, wie “The Register” maliziös titelt, “feige die kritischen Patches” in ein harmlos aussehendes Paket “begraben”; “gefällig eingepackt” könnte man das natürlich auch nennen. Wer die Sicherheits-Fixes manuell installieren will, findet das “kumulative Update” hier.

Auch Ars technica bemängelt die ziemlich intransparente Dokumentation – und die Tatsache, dass Microsoft für zwei weitere (wenn auch nicht so brisante…) Lücken in Word “zur Zeit” noch keine Lösung parat hat.

Microsoft-Sicherheitslücke: Word braucht ein Update! · DRadio Wissen

DRadio Wissen – Hielscher oder Haase vom 12.04.2017 (Moderation: Till Haase)

(Nachklapp 27.04.2017) Microsoft hat die Sicherheitslücke offenbar erst neun Monate nach der Entdeckung gestopft – in der Zwischenzeit haben “gut informierte Kreise” das offene Einfallstor bereits ebenso gezielt wie erfolgreich ausgenutzt.

Elite-Dating-App “Highblood”: Marketing-Gag oder rassistischer Schund?

Die Überschrift klang ja ganz interessant bei Medium.com: “Ein einziger Facebook-Post hat meinem Startup-Unternehmen weltweit virale Aufmerksamkeit gebracht.” Schreibt Herbert Eng, Erfinder der Dating-App “Highblood”. Die virale Aufmerksamkeit war allerdings ein veritabler Shitstorm, auch wenn er bei seinem Lostreten, Mitte März, an mir vorübergegangen ist – trotz der durchaus zahlreichen und reputablen berichtenden Medien. Also: Konfliktscheu, pflegeleicht und politisch korrekt dürfe man nicht sein, wenn man als Firmengründer oder sonstwie öffentlich Aktiver eine maximale Resonanz erreichen wolle – da hat Eng ja so unrecht nicht; so funktionieren ja schließlich auch Boulevardzeitungen, Alt-Right-, Verschwörungstheorie- und Clickbait-Plattformen im Netz.

Embed from Getty Images

 

Und diskriminierend sind Wisch-und-Weg-Apps wie Tinder ja per se, tatsächlich werden die allermeisten Menschen auch bei ihrer Partnersuche einer gewissen Präferenz folgen, die dann auch eine Präferenz für einen bestimmten optischen und u.U. ethnischen Phänotyp beinhalten kann – so irgendwie argumentiert Herbert Eng nicht ganz zu unrecht. Was Bildung und Einkommen angeht: Das gute alte “Elitepartner” bei uns hier in Deutschland klang ja auch immer schon reichlich schräg, da kann man je nach persönlichem Humor und Skurrilitäts-Akzeptanzrate sagen – “ok, was soll’s”, oder eben “geht gar nicht”. Also die Publicity hat Herr Eng schon mal, den Shitstorm auch – ob “Highblood” bei seiner Zielgruppe in Singapur auch wirklich auf zahlreichen und zahlungskräftigen Zuspruch treffen wird, das schauen wir noch mal in einem Jahr nach.

Elite-Dating-App “Highblood”: Marketing-Gag oder rassistischer Schund? · DRadio Wissen

DRadio Wissen – Schaum oder Haase vom 11.04.2017 (Moderation: Till Haase)

Sensible Plaudertaschen: PIN-Klau per Bewegungssensor

Desktop-Computer sind ja mittlerweile ziemlich out – heutzutage kommt man bestens mit Tablet und Smartphone aus. Und macht darüber dann alles im Netz, was man so macht: Online-Banking, alle möglichen Accounts aufrufen, Passwörter eingeben. Da gibt es allerdings einen kleinen Haken, und der heißt „Bewegungssensor“. Der steckt in allen Mobilgeräten drin und ist sehr feinfühlig – so feinfühlig, dass er wirklich alle Bewegungen mitbekommt. Auch, wie man gerade die PIN für das Konto eingebt. Britische Forscher haben jetzt noch einmal auf ein altbekanntes Problem aufmerksam gemacht.

Böswillige Apps nämlich, die den Bewegungssensor abgreifen und übers Netz ausplaudern, gab es als “proof of concept” oder vielleicht auch in freier Wildbahn schon länger – die muss man sich allerdings auch erst einmal gutgläubig und freiwillig installieren. Der viel heiklere Angriffsvektor, so Maryam Mehrnezhad von der Newcastle University, liegt in einem “drive-by”, einem schlichten Webseitenaufruf mit dem Mobilgerät. Dann wird nämlich auf einer “bösartigen” Website oder bei einem “bösartigen” Werbebanner JavaScript-Code ausgeführt, der den Bewegungssensor abfragt – im Unterschied etwa zum Geolokalisation-Tracking ohne das Einholen einer Genehmigung des Users.

Embed from Getty Images

 

Die Sensor-Abfrage ist in den W3C-Standards vorgesehen und ja auch als Feature für bestimmte Zwecke sinnvoll (Bewegungs-, Gesundheits- oder Schlaf-Tracker z.B. ) – tatsächlich haben Browser-Hersteller in Zusammenarbeit mit den Forschern auch schon nachgebessert: So wird mittlerweile die Sensordaten-Übermittlung geblockt, wenn die ursprünglich abfragende Webseite nicht mehr im Vordergrund angezeigt wird. Auch eine Reduzierung der Sensor-Samplingrate, der übermittelten Genauigkeit also, kann die Rekonstruktion von PIN- oder Passworteingaben erschweren oder unmöglich machen.

Und so merkwürdig das klingt – beim derzeitigen Stand könnte es sinnvoll sein. das Mobilgerät bei allen “heiklen” Aktionen nicht in der Hand zu halten, sondern auf den Tisch zu legen. 🙂

P.S. – Für die sensible Plaudertasche an Bord gibt es ja auch sehr lehrreiche Anwendungen wie PhyPhox von der RWTH Aachen.

PIN-Klau per Bewegungssensor: Sensible Plaudertaschen · DRadio Wissen

DRadioWissen – Hielscher oder Haase vom 10.04.2017 (Moderation: Till Haase)

P.S. 15.04.2017 – Mein Kollege Manfred Kloiber hat das Thema auch heute in der Sendung Computer & Kommunikation noch einmal beleuchtet und ein Interview mit der Studienautorin geführt.

Journalist erklärt Farbverwirrung mit Bildschirm-Kalibrierung

Ich habe ja schon damals die Original-Aufregung um das weiß-goldene bzw. blau-schwarze Kleid (#dressgate) nicht so recht nachvollziehen können. Wahrscheinlich hatte ich aber an den entsprechenden Tagen keinen Netzreporter-Dienst, sonst hätte ich das Thema ja sicher behandelt, obwohl es nicht so recht radiophon ist 🙂 …

Embed from Getty Images

(Das Kleid der Herzogin von Cambridge ist eindeutig blau…)

Jetzt haben Forscher die “Farbverwirrung mit Schlafvorlieben” erklärt, so lese ich bei meinen geschätzten Kollegen von Spiegel Online. Zuerst habe ich den Artikel auf meinem Desktop und dem angeschlossenen Samsung-Bildschirm zur Kenntnis genommen – und da sehe ich das Kleid in Hellblau (was man noch als Ergebnis eines Farbstiches mit sehr viel Fantasie in “Weiß” uminterpretieren könnte…), und die Streifen in Gold.  Aber ganz ehrlich: Ich falle da schon in die Minderheitsgruppe und sage eigentlich “hellblau-gold”.

Auf meinem iPad Pro hingegen (zur Stunde noch nicht im Schlaf- bzw. Blauanteil-herausfilter-Modus; aber das ändert ulkigerweise gar nicht viel am Ergebnis…) sieht das Kleid eindeutig blau-schwarz aus. (Blaue Grundfarbe, schwarze Streifen…) Hier mal ein Foto, aufgenommen mit meinem iPhone – und das bringt zur weiteren Erheiterung noch wieder einen gewaltigen Gelbstich (jedenfalls im oberen Teil des Bildes, wo die fossile Glühbirne an meiner Zimmerdecke hineinstrahlt…) mit ins Spiel; aber den Unterschied sieht man trotzdem noch (vermute ich mal, wobei ich natürlich nicht weiß, mit welchem Gerät Sie diesen Artikel jetzt lesen 🙂  )

 

Ich schätze mal, 95% der ganzen #dressgate-Diskussion, die sich ja aufgrund einer Online-Rezeption des Fotos online abgespielt hat, geht auf das Konto Bildschirm-Kalibrierung. Den Forschern im zitierten Artikel ist das Problem grundsätzlich klar:

First, our data were logged online, which is inherently problematic; we do not know what screens or screen settings our participants used when they viewed the dress stimulus originally. However, this lack of controlled viewing conditions might be less troubling than usual in this particular case for several reasons. First, we tried to account for the divergent phenomenological experience of our participants when first encountering the dress—whatever the viewing conditions. This divergence is the key issue at hand that made this phenomenon interesting; it neither relies on nor is created by particular viewing conditions. Second, the fact that it is possible to find consistent and statistically reliable responses highlights the robustness of these effects; they do not rely on carefully controlled viewing conditions unlike so many effects in vision science that do. Indeed, Chetverikov and Ivanchei (2016) show that the percept of an individual is rather stable with no statistically reliable effect of image size or device type. Third, we conceptually replicate other findings by authors who did aim to control viewing conditions, e.g., Chebichevski and Ivanchei, so we are somewhat confident that the novel findings we report are also not artifactual.

Ich bin angesichts des Erscheinungsdatums jetzt nicht so sicher, ob die aktuelle Studie mit den Lerchen und Eulen ganz erst gemeint ist – auf jeden Fall: alle Bewertungen des Fotos “online”, also aufgrund individuell kalibrierter (oder eben nicht kalibrierter…) Bildschirme (auf Desktops, Handys oder Tablets…) kann man definitiv in der Pfeife rauchen oder ins Klo spülen oder in die Tonne kloppen. 🙂 Das Foto hier ist eindeutig blau-schwarz/gold – oder haben Sie etwa Tomaten auf den Augen (oder einen anders kalibrierten Monitor) ???

Die im SPON-Artikel verlinkten Erdbeer-Fotos sind allerdings nett; klarer Fall, der Background-Farbwert (und unsere normale Farberwartung…) spielt eine entscheidende Rolle…