Schlagwort-Archive: Deutschlandfunk

Pilotprojekt “Smart City” in Bonn – Wenn der Glascontainer “voll” meldet

Bekanntlich bin ich nicht per se ein glühender Anhänger der Idee, alles zu vernetzen und ins Internet (“der Dinge”…) zu bringen – und dann davon auszugehen, dass allein diese Aktion die Welt automatisch in ein Paradies voller glücklich umherstapfender, bestens informierter und vor lauter tollem “Benutzererlebnis” 🙂  fortwährend jubilierender neuer, smarter und stets wohlwollender Menschen verwandelt. In Wirklichkeit ist das IoT eher ein Albtraum von billigst zusammengestoppelten China-Devices mit Backdoors, Sicherheitslücken und niemals erfolgenden Updates 🙂 … Und die Menschen bleiben natürlich genau so, wie sie halt sind. Es gibt nette, intelligente Leute. Und Vollidioten und Arschlöcher.

Da betrifft auch technische Visionen. In einer idealen Welt oder einem Science-Fiction-Film laufen attraktive Menschen in einem weißen Hosenanzug durch gestylte Wohnwelten und wischen und tippen über smarte Monitore und pseudo-Graffitti-Betonwände. In Wirklichkeit versuchen schlechtgekleidete Spaßvögel und Trolle, Sand ins Getriebe zu streuen – aus purer Lust am Destruktiven; oder weil es ja auch vielleicht auch wirklich ein Stück weit lustig ist, eine vermeintlich tolle Vision mal kurz und schmerzhaft auf den Boden der analogen Wirklichkeit zurückzuholen. Auf jeden Fall: vernetzte Zukunftsideen und “smarte Sensorik” müssen unter diesem Aspekt einigermaßen robust konzipiert sein – sonst pulverisiert sich der erhoffte “Benefit” ganz schnell wegen ein paar Einzelaktionen von “unsmarten” Zeitgenossen.

Aber natürlich wird sich das “Kosten-Nutzen-Verhältnis” zwischen Infrastruktur-Betreibern und IoT-Providern einpendeln; und natürlich werden in zehn Jahren IoT-Dienste und Dienstleistungen selbstverständlich sein, die heute noch experimentell sind. Und möglicherweise ist das dann auch alles smart, klimafreundlich und energiesparend. An der Abwägung: Was bringt mir meine Investition in einigermaßen absehbarer Zeit? – ändert das jedenfalls momentan nichts. Solange die Kommunen nicht einmal das Geld haben, um die allerschlimmsten Schlaglöcher in den Straßen auszubessern, steht die flächendeckende “smarte Stadt-Infrastruktur” wahrscheinlich noch nicht ganz oben auf der Prioritäten-Liste 🙂

Pilotprojekt “Smart City” in Bonn – Wenn der Glascontainer “voll” meldet

Deutschlandfunk – Computer und Kommunikation vom 18.11.2017 (Moderation: Maximilian Schönherr)

Algorithmus knackt Captchas nach menschlichem Vorbild

Das Wort „Captcha“ ist ein Akronym – ins Deutsche übersetzt steht es für „vollautomatischer öffentlicher Turing-Test zur Unterscheidung von Computern und Menschen“. Die Idee, so einen Mensch-Maschine-Test als Zugangskontrolle für Webseiten zu verwenden, stammt aus dem Jahr 2000; der Informatik-Professor Luis von Ahn gilt als der Erfinder. Und seit dem Jahr 2000 läuft ein sehr interessantes Wettrennen: Auf der einen Seite gibt es immer wieder neue Ansätze, Captchas automatisch zu knacken – und ebenso findige Experten sorgen anschließend im Gegenzug dafür, die gefundenen Schwachstellen auszubügeln.

Textbasierte Captchas, also die mit krakeliger, verzerrter Schrift sind nach wie vor die häufigsten – und bei einem Teil von ihnen erfüllt man als menschlicher Entzifferer ja sogar eine sinnvolle Aufgabe und hilft OCR-Algorithmen bei der Digitalisierung von Büchern oder der Erschließung von StreetMap-Bildern auf die Sprünge. Als besonders verlässlicher Mensch-Maschine-Test gelten die Text-Captchas aber schon seit Jahren nicht mehr – da automatische Bot-Scripte die Zugangshürden von Webseiten ja in einem massiven Dauerfeuer attackieren, reicht den Algorithmen schon eine niedrige Erkennungsrate aus, um genügend oft “durchzukommen”.

Die KI-Experten beim Venturekapital-Unternehmen “Vicarious” hatten übrigens selbst schon 2013 den Erfolg ihres “Recursive Cortical Networks” (RCN) beim Knacken von textbasierten Captchas vermeldet – damals aber noch ohne nähere Details zu nennen, wie das Ganze im Detail funktioniert. Das hatte verschiedene Motive, wie der Gründer von Vicarious, Dileep George, auf Anfrage erläutert: Zum einen habe man damals die Einzelheiten in Hinsicht auf die Sicherheitsauswirkungen im Netz zurückgehalten, zum anderen sei man seinerzeit noch ein sehr kleines Team gewesen und habe sich mehr Zeit bei der Entwicklung des Algorithmus und der Firma nehmen wollen.

A representation of the letter A. [Credit: Vicarious AI]

Nicht ganz unwichtig dürfte dabei auch gewesen sein, dass das “Recursive Cortical Network”-Konzept praktisch das algorithmische “Kronjuwel” von Vicarious ist, das die Firma in den kommenden Jahren in einer Vielzahl von Bereichen, vor allem auf dem Feld der “Robotics” einsetzen und vermarkten will. Das wissenschaftliche Paper in “Science” mit den technischen Details reichte das Team also aus nachvollziehbaren Gründen erst ein, nachdem eine Reihe von Patenten auf RCN erteilt und veröffentlicht worden waren.

Wie gravierend die direkten Auswirkungen auf die noch vorhandene oder ohnehin schon nicht mehr vorhandene Sicherheit von Text-Captchas in der Praxis sind, darüber kann man streiten. Das Vicarious-Team betont die wesentlich höhere Effizienz seines RCN-Ansatzes im Vergleich zu herkömmlichen “Brute-Force-Deep-Learning”-Angriffen. Ein Gegenargument lautet: Die wesentlich höheren Ressourcen-Anforderungen beim “Deep Learning” sind kein großes Problem, sie stehen allseits zur Verfügung – und wenn nötig, lässt sich menschliche Hilfe beim Annotieren von Trainingsmaterial sehr billig einkaufen; bei Crowdworking-Diensten wie “Amazon Mechanical Turk”. (Dass sich Menschen ja ohnehin im Zweifelsfall auch gratis für das Lösen der Zugangs-Rätsel einspannen lassen, das haben wir schon einmal vor sehr langer Zeit beleuchtet 🙂 )

In comparison to RCNs, a deep neural network required a 50,000-fold larger training set to recognize a style of CAPTCHAs, and its accuracy deteriorated rapidly with even minor perturbations to the spacing of characters. [Credit: Vicarious AI]

Wie sowohl Prof. Marc Fischlin von der TU Darmstadt, Google und ja auch die Studienautoren bei Vicarious selbst betonen – für die Zugangskontrolle auf Webseiten stehen mittlerweile Alternativen wie bildbasierte oder verhaltensbasierte Captchas zur Verfügung, die auch noch ein Weilchen der KI-Weiterentwicklung trotzen dürften.

Aber letztlich geht es natürlich bei RCN überhaupt nicht konkret um das Knacken von Captchas. Der Algorithmus setzt ähnlich wie die Handschrift-Erkennung aus einem früheren Science-Paper auf Generalisierung, auf ein Konzept, das sich in Jahrmillionen bei der Evolution biologischer neuronaler Strukturen bis hin zum menschlichen Gehirn herausgebildet und bewährt hat. Und insofern ist es ja schon eine philosophische Frage von allerhöchstem Interesse, welche Methode sich in künftigen KI- und Roboter-Entwicklungen durchsetzen wird. Wahrscheinlich wird die Antwort aber ganz pragmatisch sein: Wie die “Intelligenz” zustande kommt, ist sekundär. Haupsache, sie funktioniert in der konkreten Aufgabensituation.

Deutschlandfunk – Computer und Kommunikation vom 28.10.2017 (Moderation: Manfred Kloiber)

Bayerischer Rundfunk – BR5 Computermagazin vom 5.11.2017 (Moderation: Christian Sachsinger)

 

Kohlmeisen-Evolution: Füttern macht die Schnäbel länger

Die zufällig auftretenden “Webfehler” im Erbgut, die Mutationen, sind sozusagen die Lose in der Lotterie des Lebens. Sie machen es überhaupt erst möglich, dass sich Arten auf bestimmte ökologische Nischen spezialisieren oder an Veränderungen ihrer Umwelt anpassen können. Wie Evolution und Selektion auf biochemischer Ebene funktionieren, darüber wissen wir heute natürlich sehr viel mehr als seinerzeit Charles Darwin. Aber den direkten Zusammenhang zwischen einer Modifikation im Genotyp und seinen Auswirkungen im Phänotyp, also im äußeren Erscheinungsbild des betroffenen Lebewesens oder in seinem Verhalten herstellen zu können, das bleibt auch im Zeitalter von DNA-Sequenzierung und Snip-Markern eine Herausforderung.

Bei den meisten phänotypischen Veränderungen sind nämlich gleich eine ganze Reihe von Genen beteiligt, und auch der Selektionsauslöser, der Umweltfaktor also, für den sich die phänotypische Veränderung im Glücksfall als vorteilhaft erweist, kann in Wirklichkeit ein Bündel von Einzelfaktoren sein. Die Forscher aus England und den Niederlanden sind sich bei ihrer in Science veröffentlichten Studie trotzdem sehr sicher: Sie haben der Evolution “in Echtzeit” über die Schulter schauen können, haben eine genotypische und phänotypische Modifikation im Erbgut einer Kohlmeisenpopulation beobachten und den dazu gehörigen Auslöser identifizieren können – den Menschen nämlich, genauer gesagt: Den britischen Vogelfreund.

Kohlmeise (Parus major) auf einem Zweig. Bild: Dennis van de Water, dvdwphotography.com

 

Nun wäre es natürlich sehr schön, auch gleich eine “passende” Erklärung zu haben, analog zu den von Darwin beschriebenen Beispielen für die Spezialisierung von Vogelschnäbeln – nach dem Motto: eine bestimmte Form ist optimal dafür, die Kerne aus Pinienzapfen herauszubekommen. Aber leider: So eine schöne, naheliegende Erklärung gibt es im Falle der britischen Futterhäuschen und der längeren Schnäbel der Kohlmeisen-Stammgäste eben nicht. Dass die paar Millimeter Längenzuwachs es einfacher machen, an das Futter heranzukommen, könnte zwar sein, ist aber absolut nicht zwingend. Der bessere Fortpfanzungserfolg der britischen Meisen mit längerem Schnabel bzw. der charakteristischen Genveränderung beruht auch keineswegs darauf, dass sie ihrem Nachwuchs direkt mehr Vogelfutter in die hungrigen Mäuler stopfen können als ihre Artgenossen in Holland – die Meisen suchen nämlich die Futterstellen im Winter auf, die Brutaufzucht findet im Frühjahr statt.

Letztlich könnte es sogar sein, dass die phänotypisch sichtbare Schnabelverlängerung ein “Fehlsignal” ist und der offenbar vorhandene Selektionsvorteil und “Fitness-Faktor” irgendwo anders liegt – da steht den Biologen noch eine Menge Arbeit bevor, geeignete Kontrollexperimente zu konzipieren und durchzuführen.

Kohlmeisen-Evolution – Füttern macht die Schnäbel länger

Deutschlandfunk – Forschung aktuell vom 20.10.2017 (Moderation: Ralf Krauter)

Alpha Go Zero: Das menschliche Know-How ist suboptimal

Bislang war es eigentlich ein Standard-Ansatz beim Einsatz von KI, von “Künstlicher Intelligenz” – ob mit oder ohne neuronale Netze: Auf die Spur gebracht wurde der Algorithmus erst einmal mit Trainingsdaten, die auf menschlicher Expertise beruhten. Und das war ja immerhin ein kleiner Trost für “homo sapiens” selbst dann noch, wenn das Resultat; ein Poker– oder Go-spielendes Programm  anschließend eine “superhuman performance” zeigte, den menschlichen Experten anschließend gnadenlos “plattmachen” konnte. Beim jüngsten Produkt aus der Kaderschmiede des Google-Tochterunternehmens “DeepMind” fällt selbst dieser kleine Trost weg.

Alpha Go Zero fängt bei Null an, kennt nur die Go-Regeln – und bringt sich das Spiel (im Spiel gegen sich selbst…) selbst bei. Bis es vom “Affen” zum unschlagbaren Experten wird, dauert es ein paar Stündchen länger als bei den Vorversionen. Menschliche Züge kann es auch nicht mehr so gut vorhersagen wie seine Vorläufer – aber die in Jahrtausenden herauskristallisierten Go-Strategien sind ja offenbar eh: suboptimal. Immerhin: die Expertise von Alpha Go Zero ist eng begrenzt, auch der Ansatz “von Null an beginnen” liefert noch keine universelle Welterklärungs-Maschine.

Im Gegenteil – die Experten bei DeepMind sind sich des Problems wohl bewusst, dass sie momentan noch nicht erklären können, wie ihr Algorithmus genau zu seinen Ergebnissen kommt. Und wenn es nicht “nur” um ein Spiel, sondern um das richtige Leben geht – dann würde man diese Entscheidungskriterien doch ganz gern etwas genauer nachvollziehen können.

Deutschlandfunk – Forschung aktuell vom 19.10.2017 (Moderation: Monika Seynsche)

Der WLAN-Standard WPA2 hat gravierende Sicherheitslücken

Es gibt ja immer mehr freie drahtlose Internetzugänge in Deutschland; in Cafes, in Geschäften und im Zug. Und so schön offenes WLAN auch ist – das Funknetz zuhause oder im Betrieb, über das man Onlinebanking macht und über das Login-Daten und vertrauliche Dateien hin und her gesendet und empfangen werden; das sollte tunlichst nicht offen sein, sondern verschlüsselt und mit einem Passwort geschützt. Das Standardprotokoll für diese Verschlüsselung heißt WPA2, wird allseits empfohlen und eingerichtet und gilt als sicher. Bisher.

In gut informierten Kreisen wusste man schon seit geraumer Zeit, dass in Sachen WPA2 etwas im Busch war- und dass heute, am 16.10.2017 eine wahrscheinlich ziemlich spektakuläre Enthüllung bevorstand. Mit Selbst-Marketing, wie das die dpa-Agenturmeldung suggeriert, hat das Prozedere und das Timing übrigens nichts zu tun. Mathy Vanhoef von der Universität Leuwen hatte vorweg über hundert Hersteller und die Internet-Sicherheitswarnstellen, die CERTs über die gefundenen Lücken unterrichtet. Die Warnung unter Stillhaltepflicht bis zu einem bestimmten Publikationsdatum dient dazu, dass Bugfixes möglichst flächendeckend vorbereitet werden können.

Embed from Getty Images

 

Prescht nämlich ein Betroffener vor und und sichert sein Produkt oder Betriebssystem ab, können Experten und Hacker aus dem Vorher-Nachher-Vergleich auf die Sicherheitslücke schließen und die Produkte der Hersteller angreifen, die mit dem Nachbessern noch nicht fertig sind. So richtig detailliert wussten aber offenbar auch Stellen, die “eigentlich” gut informiert sein sollten, bis zum Mittag nicht Bescheid. Und im Bericht bei ArsTechnica waren mehrere Fehler: Bei Sven Schäge von der Ruhr-Universität Bochum etwa stand das Telefon nicht mehr still, dummerweise war der deutsche Experte zwar auch zeitgleich mit Mathy Vanhoef auf der BlackHat-Konferenz gewesen, hatte aber mit der WPA2-Analyse nichts zu tun.

Auch die Information, WPA2 sei von den gleichen Experten “geknackt” worden, die Jahre zuvor das Vorgänger-Protokoll WEP obsolet gemacht hatten, erwies sich mit der Freischaltung der Website krackattacks.com als falsch, sogar der in dem wissenschaftlichen Paper als Co-Autor genannte Frank Piessens war nur als “Supervisor” “ehrenhalber erwähnt” worden. Die übrigen vorab durchgesickerten Dinge stimmen aber 🙂 … Das Problem ist äußerst gravierend, auch wenn Router-Hersteller und die WiFi-Alliance darauf hinweisen, dass ein Angriff ja nur aus unmittelbare Nähe möglich ist und “bislang keine tatsächlich erfolgten Angriffe bekannt” seien. Betroffen ist letztlich jedes WLAN-Device, vom Smartphone über Webcams bis hin zum “intelligenten” Türschloss.

In der Pflicht sind zuallererst die Betriebssystem-Hersteller, für Windows, OSX, iOS, Linux und Android muss der WLAN-Protokoll-Stack nachgebessert werden. Schon jetzt ist klar, dass das bei vielen IoT-Devices niemals passieren wird. WLAN-Router können, müssen aber nicht betroffen sein. Auch hier ist dringlichst anzuraten, bis zur erfolgreichen Installation von etwaigen Firmware-Updates einstweilen wie in offenen WLANs zu verfahren und VPNs zu nutzen.

 

WLAN-Verschlüsselung WPA2 ist offenbar geknackt · Deutschlandfunk Nova

Deutschlandfunk Nova – Hielscher oder Haase vom 16.10.2017 (Moderation: Diane Hielscher)

WPA2-Verschlüsselung – Gravierende Sicherheitslücke bei WLAN-Verschlüsselung

Deutschlandfunk – Forschung aktuell vom 16.10.2017 (Moderation: Arndt Reuning)

 

P.S. 17.10.2017 – Mittlerweile trudeln die ersten Patches oder zumindest Patch-Ankündigungen ein 🙂 … Einen Überblick gibt es bei Heise.

Wie praxisrelevant oder tatsächlich gefährlich die ungestopfte Lücke ist, darüber kann man unterschiedlicher Meinung sein. Natürlich – wenn man immer ein VPN benutzt, besteht kein Anlass zur Panik, nur welcher Laie macht das schon? Die BSI-Warnung war schon richtig und genau das, was ich ja auch gesagt habe: Man sollte sich wie in einem offenen WLAN verhalten. Die Mitteilung von AVM in Sachen Fritzbox ist, was die weit verbreiteten Geräte betrifft, eine gute Nachricht. Die im heimischen Wohnzimmer unrealistische Voraussetzung, dass der Angreifer-AP näher am Client sein muss als der legitime Router sieht in Firmen, Cafes oder Bahnhöfen schon wieder viel realistischer aus. Und dass sich der Client “freiwillig” ummelden muss, ist normaler als es klingt, schließlich beginnen ja viele Angriffe damit, die bestehende Verbindung mal eben abzuschießen 🙂

Smartphone-App als Schuldbeweis? Die Nutzer von ByLock gelten in der Türkei als Terroristen

Auch ein Jahr nach dem gescheiterten Militärputsch herrscht in der Türkei der Ausnahmezustand. Und nach wie vor kommt es zu Massenentlassungen und Verhaftungswellen – der Vorwurf an die Betroffenen: Sie seien Anhänger der Gülen-Bewegung, oder wie es im Sprachgebrauch von türkischer Regierung, von Behörden und der regierungsnahen Presse heißt, sie seien Mitglieder der FETÖ, der „Fethullah-Gülen-Terrororganisation“ und hätten den Putschversuch unterstützt. Eine zentrale Rolle dabei spielt eine außerhalb der Türkei praktisch völlig unbekannte Smartphone-App. „ByLock“ heißt die – und wer die auf seinem Handy installiert hat, gilt in der Türkei als Terror- oder Putsch-Unterstützer.

ByLock galt einmal in der Türkei als ganz toller Geheimtipp für vertrauliche, End-zu-End-verschlüsselte Kommunikation. Bedarf dafür gab/gibt es ja im Reich des in irgendwelchen nationalistischen, religiösen oder vielleicht auch nur in Wirklichkeit ganz pragmatisch gewinnorientierten Sphären schwebenden Ministerpräsidenten/Präsidenten/nach einer kleinen Umgestaltung der türkischen Verfassung 🙂 wieder “Reis” Recep Taijip Erdogan genug. Peinlicherweise war ByLock entweder ein Programmier-Desaster oder eine besonders gelungene Honeypot-Aktion des türkischen Geheimdienstes.

Von außen, mit “normalen” journalistischen Methoden lässt sich zur Zeit nicht seriös klären, was eigentlich bei ByLock losgewesen ist. Offizielle türkische Quellen und regierungsnahe türkische Medien sind momentan – vorsichtig ausgedrückt – etwas einseitig. 🙂 Bei den betroffenen ByLock-Beschuldigten geht es – kein Spaß – um die Lebensexistenz. Aber natürlich ist auch, trotz der bislang von türkischer Seite nicht nachgewiesenen Verantwortung der Gülen-Organisation für den Putschversuch, die Gülen-Bewegung kein richtig guter Auskunftsgeber. Dass sie zielgerichtet versucht hat, ihre Anhänger in Schlüsselpositionen in der türkischen Verwaltung; in Justiz, Polizei und Militär zu bringen, das darf man wohl als gesichert ansehen. Nur war das ja genau der Masterplan auch der AKP- in den Zeiten der sehr engen Verbindung zwischen Recep Taijip Erdogan und Fetullah Gülen.

Walter McDaniel, Journalist und Freelance-Autor für diverse Online-Medien hat in seinem “ByLock Report” einmal sehr ausführlich die im Netz rekonstruierbare Historie des unglückseligen Messengers recherchiert und aufgelistet; insbesondere räumt er hier auch mit den in verschiedenen türkischen Medien referierten angeblichen “Besonderheiten” von ByLock auf, die angeblich die “verschwörerische Natur” von ByLock beweisen könnten. Worauf er allerdings nicht eingeht: Angeblich soll es – laut einem Untersuchungsbericht türkischer Oppositionsparteien – wobei “Opposition” hier auch wiederum nicht im landläufigen Sinne zu verstehen ist 🙂 – ByLock-Versionen gegeben haben, die ab einem bestimmten Zeitpunkt nur noch “per Hand” innerhalb der Gülen-Bewegung verteilt worden sind. Und angeblich sollen hier auch die berüchtigten Ein-Dollar-Noten eine Rolle gespielt haben, als Zugangscode für ByLock +++

Klingt reichlich abstrus. Fazit auf jeden Fall: Wer einmal irgendwann – aus welchen Gründen auch immer – ByLock auf seinem Smartphone installiert hatte, sollte dieses auf gar keinen Fall bei einer eventuellen Einreise in die Türkei mitnehmen. Ein für diesen Zweck gebraucht gekauftes Gerät ist auch eine ganz schlechte Idee. Und selbst ein Billig-Neugerät birgt Risiken: Es soll nämlich Smartphone-Produzenten in China geben, die Bauteile aus ausgedienten Geräten wiederverwenden – mit sehr viel Pech könnte man sich damit ebenfalls ByLock-Spuren einhandeln. Auch so eine Falsch-Beschuldigung würde sich mit einer sehr diffizilen forensischen Untersuchung ausräumen lassen. Wenn die – sicherlich völlig unabhängig agierenden türkischen Gerichte 🙂 – nach einem dreijährigen Bearbeitungsstau und entsprechender Untersuchungshaft-Dauer diesem Experten-Gutachten dann auch folgen.

Oder man lässt sich einfach momentan etwas Zeit mit der Türkei; wenn als Außenstehender möglich. Herr Erdogan ist ja gerade etwas erregt und lässt weltweit verhaften.

Deutschlandfunk – Computer und Kommunikation vom 19.08.2017 (Moderation: Manfred Kloiber)

Cyberwährung Bitcoin wird aufgespalten in “Classic” und “Cash”

In der normalen Welt wäre das ja eine ziemlich angenehme Vision: Man hat da ein paar Euro in seiner Geldbörse, und plötzlich liegt da zusätzlich eine neue Münze drin. Eine Münze, die auch etwas wert ist, auch wenn noch nicht ganz klar ist, wieviel; und welches Geschäft die dann auch tatsächlich als Zahlungsmittel annimmt. Genau so ist die Situation momentan beim Bitcoin – alle bisherigen Besitzer der Cyberwährung – zumindest die, die ihre digitale Geldbörse selbst verwalten – haben nun auch noch die gleiche Menge “Bitcoin Cash” in ihrer Wallet.

Die Ursache für den wundersamen Geldzuwachs: Die Bitcoin-Community konnte sich nicht auf ein allgemeines technisches Protokoll einigen, wie man die Cyberwährung modernisieren wollte. Dass modernisiert werden musste, war unstrittig: Mit den bislang 1 Megabyte großen Blöcken des dezentral verteilten “Orderbuches”, der Blockchain, konnte man nur eine begrenzte Zahl von Transaktionen pro Zeiteinheit bewältigen – und das stellte die Akteure vor die unangenehme Wahl: Entweder schnelle Vorzugsbehandlung gegen hohe Gebühren – oder geduldig abwarten; bis zu 24 Stunden.

Bei der Abspalter-Version Bitcoin Cash wird die Blockgröße gleich auf 8MB erhöht, bei der weiterbestehenden “klassischen” Bitcoin nur auf 2MB – dafür werden aber dort die Signatur-Komponenten in einen sozusagen separaten Zusatzblock ausgelagert. Das sind Feinheiten, die wahrscheinlich die allerwenigsten Bitcoin-User oder Bitcoin-Zocker auch nur ansatzweise technisch nachvollziehen können. Und trotzdem – der Teil der Community mit Durchblick hat die Abwägungen und die letztendliche Entscheidung für die eine oder andere Variante treffen können und auch getroffen – das ist, anders als von der “analogen” Welt geprägte Beobachter vermuten, gerade kein Zeichen für Chaos und fehlende Verlässlichkeit, sondern genau das revolutionäre Element bei Cyberwährungen: Hier entscheidet keine Notenbank, keine Regierung, was richtig und falsch ist, hier entscheiden die Besitzer der Währung selbst.

Zugegeben – die Sache ist unglaublich kompliziert. Zu den technischen Feinheiten kommen ja auch noch die ökonomischen hinzu. In der “analogen” Welt entspräche der Bitcoin-Fork ein Aktien-Split in zwei neue börsennotierte Unternehmen oder der Hinzubuchung von Bezugsrechten – wie etwa 2004 bei der Ausgliederung der Chemie-Sparte Lanxess aus dem Bayer-Konzern. In der normalen, analogen Welt und der analogen Ökonomie-Logik (die ja schon widersprüchlich und erratisch genug ist…) fällt “eigentlich” der Wert der Haupt-Aktie um den Wert der ausgegliederten Tochter oder der Bezugsrechte; beide zusammen sollten “eigentlich” genau soviel kosten wie vorher das “Gesamtpaket”.

 

Bei Bitcoin und Bitcoin Cash ist das nicht der Fall, hier hat anscheinend tatsächlich eine Bereicherung der bisherigen Besitzer stattgefunden (verdammt, warum habe ich das Zeug auch nach Jahren der Berichterstattung nicht gekauft? 🙂 …) – ökonomisch scheint das unsinnnig, Voodoo oder eine Blase zu sein. Aber es gibt genug plausible Erklärungen. Zum einen: Ja, die bisherigen Notierungen von Bitcoin Cash – der Kurs ist übrigens gerade noch einmal explodiert – sind sehr spekulativ, weil bislang wenige tatsächliche Transaktionen stattgefunden haben. Wenn alle Bitcoin Cash-Neubesitzer ihren unverhofften Neuzugang verkaufen wollen, schmiert der Kurs ab.

Aber im Bitcoin Cash-Kurs steckt natürlich auch andererseits wieder – wie bei einer Aktie oder einer Landeswährung auch – eine Zukunftserwartung, wie sich der zugrundeliegende Wert entwickeln wird. Wenn Bitcoin Cash der “Bitcoin Classic” – was nicht zu erwarten, aber ja theoretisch möglich ist, den (Beliebtheits-)Rang ablaufen wird, dann werden sich die Kursnotierungen entsprechend “umdrehen” – und die Bitcoin Cash-Fans hätten ein gigantisches Geschäft gemacht. Bei all diesen marktwirtschaftlichen Verrücktheiten: Nein, als “normaler Mensch” brauchen Sie da nicht zwangsläufig mitzumachen. Die ganze Cyberwährungs-Kiste ist immer noch im Beta-Stadium.

Ab und zu passieren Software-Katastrophen, und ein paar Millionen Euro/Dollar/Renmimbi sind weg. Oder irgendwelche Betrüger hacken/kompromittieren beliebte Cyberwährungs-Börsen, und zocken mal eben dreistellige Millionensummen ab. Aber Betrüger und Zocker, im Nadelstreifenanzug und mit gehämmerten Visitenkarten gibt es ja in der analogen Finanzwelt auch.  Fazit: Der Bitcoin-Fork hat offenbar geklappt. Von Chaos keine Spur.

Deutschlandfunk Nova · Cyberwährung: Bitcoins gibt es jetzt auch als “Cash”

Deutschlandfunk Nova – Hielscher oder Haase vom 02.08.2017 (Moderation: Till Haase)

 

Deutschlandfunk – Computer und Kommunikation vom 05.08.2017 (Moderation: Manfred Kloiber)

Neue Geigen sind besser als alte? So einfach ist die Sache nicht.

Wenn man die Veröffentlichungen von Claudia Fritz, Akustikerin am Nationalen Forschungszentrum CNRS in Paris, mitverfolgt – oder vielmehr die Schlagzeilen, die dann in der medialen Abbildung der “Blind-Spiel- oder Hörtests” geschrieben werden, dann ist die Diagnose eindeutig. Das Geheimnis der Stradivaris: gibt es gar nicht. Weder für die Spieler selbst, noch für die Hörer. Der Nimbus der alten Instrumente, die hohen Preise für die wenigen am Markt verfügbaren Exemplare aus der Glanzzeit Cremonas: ein Marketing-Gag und Abzockerei. Das ganze Suchen, Testen, Eintauschen und Sich-Hocharbeiten von Instrument zu Instrument bei zehntausenden von Profi-Musikern: alles Selbsttäuschung und Akustik-Voodoo.

 

Als Musiker sage ich einfach einmal: Das glaube ich nicht. Als Sänger sage ich einfach mal: Das für den Laien potentiell nach Voodoo klingende psycho-akustische Phänomen der “Tragfähigkeit”, dass eine Stimme oder auch eine Geige beim Musiker selbst, am Mund oder am Kinn laut klingen kann und dann aber nur bis zur vierten Reihe im Saal reicht, das ist Realität. Anders herum funktioniert das genauso – eine an sich “kleine Stimme”, die aber “über das Orchester kommt” und letztendlich die vermeintliche Super-Wuchtbrummen-Kollegin “plattmacht” – auch das ist Realität und völliger “Common Sense” bei allen Experten und im Musikgeschäft an Opern oder bei Orchestern Beteiligten – und nach dem Kriterium werden halt u.a. Stellen besetzt.

Die “Tragfähigkeit” hat etwas mit Formanten zu tun, die – so sagt das auch Claudia Fritz – bei Stimmen und Blasinstrumenten noch etwas anders funktionieren als bei Geigen; und sich bei Geigen im Vergleich zu Stimmen oder Blasinstrumenten auch schlechter identifizieren oder quantifizieren lassen. Claudia Fritz ist auch mit der Bewertung ihrer Experimente im Gespräch sehr viel zurückhaltender als die Schlagzeilen in der Presse suggerieren – strenggenommen haben die Versuche aus allen drei Veröffentlichungen nämlich nur eine sehr, sehr begrenzte Aussagekraft:

Die Ergebnisse gelten nur für die jeweiligen Instrumente, die jeweiligen Räume und die jeweiligen Spieler. Das Argument von mit alten Instrumenten vertrauten Geigern, dass eben auch eine einstündige Beschäftigung mit einem unbekannten Instrument nicht ausreicht, dessen akustische Finessen zu ergründen bzw. mit dem eigenen Spiel-Stil in Übereinkunft zu bringen, ist unbedingt ernstzunehmen. Zu den – im Beitrag erwähnten – individuellen Spieltechniken kommen auch noch regionale Vorlieben dazu: In Amerika werden die Instrumente vorzugsweise “härter”, mit einem brillanteren Ton eingestellt (z.B. über die Stimmstock-Position oder die Besaitung…) In Europa sieht man das anders. Wie der Klang “sein soll”, hängt auch vom gespielten Repertoire oder der Situation ab – Solokonzert oder Streichquartett?

Fazit: Wenn die Experimente von Claudia Fritz und ihren Kollegen dazu beitragen, dass sich Musiker und Geigenbauer vorurteilslos darüber klar werden, was sie eigentlich wollen, dann ist das natürlich zu begrüßen. Und eigentlich alle befragten Geiger sagen: Natürlich gibt es auch ausgezeichnete moderne Instrumente, die möglicherweise auch nach einer gewissen Zeit vollkommen an die alten heranreichen. Aber ein Satz wie “Stradivari-Geigen halten dem Vergleich mit modernen Violinen nicht stand” – sorry, liebe Kollegen – ist einfach nur Bullshit von Ahnungslosen.

Quelle: Akustik – Zuhörer bevorzugen den Klang moderner Geigen

Deutschlandfunk – Forschung aktuell vom 16.05.2017 (Moderation: Uli Blumenthal)

Künstliche Intelligenz “Libratus” schlägt Pokerprofis

Poker: Das ist doch Zockerei, ein Glücksspiel. Von wegen – das denken nur Leute, die keine Ahnung haben. Oder die eine politische oder “moralische” Agenda verfolgen, denn kurioserweise hat die Einstufung ja gravierende Konsequenzen: Auf der einen Seite sagen Rechtspolitiker oder Juristen: “Glücksspiel; also ist das nach den und den Gesetzen verboten”. Dann wären allerdings konsequenterweise auch erzielte Gewinne steuerfrei. Oder anders herum, wenn der Staat Kohle sehen will, dann sind Gewinne aus Pokerturnieren plötzlich doch wieder steuerpflichtig – dann ist Poker also ein Geschicklichkeitsspiel oder ein Denksport.

 

Und da kann man nur sagen – das letztere stimmt. Natürlich gibt es beim Poker eine Zufallskomponente, die gemischten und verteilten Karten. Aber über eine große Anzahl von Spielen, von gespielten Händen, wie man sagt – da ist das Können der Spieler entscheidend, da setzt sich der Meister gegen den Patzer, den „Fisch“ durch – und zwar todsicher, mit einer kalkulierbaren Marge. Genau das war also auch der Grund, warum das „Brain versus AI Poker tournament“ im Rivers Casino in Pittsburgh über 20 Tage und 120.000 gespielte Hände ging – um das Kartenglück zu neutralisieren und am Ende einen klaren Sieger zu haben, möglichst mit eindeutiger statistischer Signifikanz.

Ein weiterer Anti-Glückseffekt-Korrekturfaktor: Dong Kim, Jimmy Chou, Daniel McAulay und Jason Les traten ja “Heads up”, also jeder für sich allein gegen die “Künstliche Intelligenz” Libratus an – und da bekamen jeweils zwei Menschen genau die Karten gegen den Computer, die der Computer gegen die beiden anderen Menschen spielen musste. Am Ende war das Resultat völlig klaralle Profis waren geschlagen; die Überlegenheit war nicht nur statistisch signifikant, sondern überwältigend – eindeutig eine “super human performance”, wie es Programmierer Tuomas Sandholm ausdrückt.

The Brains vs Artificial Intelligence competition at the Rivers Casino in Pittsburgh. Photograph: Carnegie Mellon University

Fast schon überraschenderweise nutzt Libratus keine neuronalen Netze – Sandholm missfällt nämlich, dass es beim “Deep Learning” keine Garantien für die Güte einer Problemlösung gibt, keine Garantien dafür, dass bei einer leichten Modifikation des Problems (hier also der Spielweise der Poker-Gegner…) immer noch ein gutes Ergebnis erzielt wird, keine Garantien dafür, dass nicht irgendwo in der “Black Box” der neuronalen KI der Faktor Zufall sein Unwesen treibt. Die verbesserten Algorithmen, die in Libratus zum Einsatz kommen, konvergieren hingegen mathematisch nachweisbar zum spieltheoretischen Optimum, dem Nash-Equilibrium; und das sogar mit einem klar benennbaren Gütefaktor.

Das ist zumindest ein bemerkenswerter Ansatz – für Sandholm ist nämlich Poker und Libratus nur ein “proof of concept”, ein “Showcase”. Und auch in der “realen Welt” lassen sich viele vermeintlich komplexere Konstellationen auf die “Heads up”-Pokersituation “Spiel mit zwei nicht-kooperativen Gegnern und nicht vollständiger Information” eindampfen:

A lot of real world situations are two player, like most military settings are two player games. Cyber security is typically a two player setting – and by player I mean that there can be multiple hackers, but conceptually it’s like “hacker versus defenders”; so it is a two player setting even if there are multiple hackers, maybe even multiple defenders.

Libratus lief während des Matches auf einem Supercomputer – noch steht also die Rechen- und Spielpower nicht für “jedermann” zur Verfügung. Trotzdem ist es wahrscheinlich nur eine Frage der Zeit, bis das Online-Pokerspielen um Geld sinnlos bzw. hoffnungslos wird – auch jetzt sind ja Bots schon ein ernstes Problem. Stephan Kalhamer, Diplom-Mathematiker, ehemaliger Poker-Profi und Präsident des “Deutschen Poker Sportbunds” weist darauf hin, dass die Komplexität am “vollbesetzten” Pokertisch, also vor dem Eintreten der “Heads up”-Situation, ja noch einmal deutlich komplizierter ist.

In der Tat haben Libratus bzw. sein Schöpfer Tuomas Sandholm dafür noch gar kein Konzept.

We are not really working on multi player, because it’s not even clear what you would want to compute there. One option would have to say, it’s okay, you want to compute a Nash equilibrium strategy. But in multi player games that is not safe. So it’s not clear that you would even want that, even if you had an oracle for immediately computing one. So it’s more a conceptual problem, or what the goal even is in those games. And while in two player settings – two players who are in some games like “Heads up Poker”, there it’s very clear that Nash equilibrium is safe.

Abgezockt vom Computer – Künstliche Intelligenz schlägt Pokerprofis

Deutschlandfunk – Forschung aktuell vom 09.02.2017 (Moderation: Ralf Krauter)

…zum gleichen Thema der Artikel bei Spiegel Online:

Poker Mensch gegen Maschine: Libratus, der Gangster – SPIEGEL ONLINE

Spiegel Online – Netzwelt vom 08.02.2017

 

…und das Gespräch bei DRadio Wissen am 20.01. – da war das Match “Mensch gegen Maschine” noch nicht entschieden…

DRadio Wissen – Grünstreifen vom 20.01.2017 (Moderation: Dominik Schottner)

Forscher weisen erstmals vektorbasierte Navigations-Neuronen nach

Photo of an Egyptian fruit bat. Sarel et al. report on a new functional class of hippocampal neurons in bats, which encode the direction and distance to spatial goals – suggesting a novel neural mechanism for vector-based goal-directed navigation. [Credit: Steve Gettle]

Wenn Zugvögel zielsicher ihr Winterquartier aufsuchen und anschließend über tausende von Kilometern an ihre Brutplätze zurückkehren, wenn Bienen eine Wiese mit pollenreichen Blumen ansteuern und danach ebenso zielsicher wieder in den Stock zurückfliegen, wenn wir selbst – auch ohne Smartphone und GPS – täglich problemlos zur Arbeit und danach wieder nach Hause finden – dann ist dies alles das Werk von speziellen Neuronen in unseren Gehirnen. Wie die funktionieren, ist zum Teil schon bekannt; 2014 gab es dafür den Medizin- bzw. Physiologie-Nobelpreis. Im Fachblatt „Science“ weisen israelische Forscher bei Flughunden nun erstmals eine wichtige weitere Variante dieser Navigations-Neuronen nach.

Wie komme ich zuverlässig von Ort A zu Ort B und danach wieder zurück? Navigation ist eine der lebenswichtigen Hauptaufgaben für praktisch jedes Lebewesen – kein Wunder, dass sich die Evolution da ein paar sehr ausgeklügelte und bewährte Mechanismen hat einfallen lassen – egal, ob wir jetzt als Fledermaus, Biene oder Mensch unterwegs sind. Bislang konnten Forscher zwei Typen von Navigations-Neuronen identifizieren, sagt Nachum Ulanovsky vom Weizman Institute of Science in Rehovot:

Die „Ortszellen“ sagen ‘Ich bin hier am Punkt A’, und die „Rasterzellen“ sagen mir wie bei einem Millimeterpapier etwas über Entfernungen und absolute Richtungen. Aber – ich sitze jetzt hier in meinem Büro im Institut – ich weiß, wo die Cafeteria ist, auch wenn ich sie nicht sehe. Ich habe also in meinem Gehirn eine Repräsentation vom Ziel, vom Punkt B. Aber wie die im Detail funktioniert, war bislang unklar – das lässt sich mit dem bislang bekannten Konzept von Orts- und Rasterzellen nur schwer verstehen.    

Ulanovsky und seinen Mitarbeitern – allen voran seine Doktorandin Ayelet Sarel, die Hauptautorin der Science-Studie – gelang es, die Gehirn-Aktivitäten von Nilflughunden (Rousettus aegyptiacus) aufzuzeichnen, während diese zu einem zuvor antrainierten Rast- und Fressplatz im Labor der Wissenschaftler flogen. Dazu hatten die Forscher den Tieren Messsonden implantiert. Die registrierten die elektrischen Signale in der für die Navigation zuständigen Hirnregion, im Hippocampus – aufgelöst bis hin zum Feuern von einzelnen Nervenzellen.

Das technisch Neue dabei ist: Wir haben diese Sonden in den letzten Jahren so weiterentwickelt und verkleinert, dass wir drahtlos, ohne Kabel aufzeichnen können – also wirklich bei den fliegenden Tieren.       

Photo of an Egyptian fruit bat. Sarel et al. report on a new functional class of hippocampal neurons in bats, which encode the direction and distance to spatial goals – suggesting a novel neural mechanism for vector-based goal-directed navigation. [Credit: Haim Ziv]

Wie sich die Fledertiere im Raum bewegten, protokollierten die Forscher mit zwei Kameras. Und anschließend analysierten sie mit Computerhilfe, ob es einen systematischen Zusammenhang zwischen den Positionsdaten und den Gehirnaktivitäten gab.

Dabei haben wir herausgefunden: Da sind tatsächlich Neuronen im Hippocampus, die den jeweiligen Winkel relativ zum Ziel repräsentieren. Also ein bestimmtes Neuron ist aktiv, wenn die Fledermaus genau auf das Ziel zufliegt, Winkel 0 Grad; ein anderes Neuron ist aktiv, wenn das Ziel rechts ist, also Winkel 90 Grad – und so weiter.

Damit gab es also erstmals einen Beleg für eine seit langer Zeit diskutierte und auch aufgrund von Verhaltensexperimenten naheliegende Hypothese:

Fast 20 Prozent der Neuronen im Hippocampus zeigten eine Repräsentation des Ziels, also wirklich eine große Anzahl. Einige Neuronen haben die Entfernung zum Ziel codiert, einige die Richtung, einige beides. Richtung und Entfernung zusammen bezeichnet man auch als Vektor – was wir also herausgefunden haben: Es gibt eine vektorbasierte Repräsentation eines Navigationsziels im Hippocampus der Fledertiere.

Dass es sich bei den entdeckten Neuronen wirklich um einen anderen Typ handelt als die bekannten Orts- und Rasterzellen, konnten die Forscher mit zwei Modifikationen ihres Experimentes zeigen.

Wir haben das Ziel einfach verschoben. Und dann haben die Neuronen, die auf die alte, trainierte Position ausgerichtet waren, aufgehört zu feuern. Und andere Neuronen passend zur neuen Position wurden aktiv – das ist also wirklich spezifisch auf den aktuellen Zielort bezogen.

In der zweiten Variante verhüllten die Wissenschaftler das Ziel mit einem Vorhang, der den Landeplatz auch für das Ultraschall-Sonar der Flughunde unsichtbar werden ließ. Davon ließen sich die Tiere aber nicht beirren, die Winkel- oder Vektor-Neuronen blieben weiterhin auf das zuvor trainierte Ziel hin ausgerichtet und aktiv:

Das zeigt, diese Repräsentation ist eine mentale, eine Gedächtnisleistung, sie basiert nicht einfach auf Sinneseindrücken – das ist großartig, denn das ist in der Tat genau das, was man für eine Navigation ohne Sicht zum Ziel braucht.

Wie das Ganze auf anatomischer Ebene funktioniert – ob die beteiligten Neuronen von ihrer Bauart her speziell konstruiert sind oder eben “speziell verschaltet” – bei solchen Fragen müssen die Forscher momentan noch passen. Als nächstes wollen Nachum Ulanovsky und seine Mitarbeiter komplexere Navigations-Szenarien an den Flughunden erforschen – was ist, wenn es mehrere Ziele gibt, was, wenn das Tier seine Entscheidung für ein Ziel revidiert? Auf jeden Fall ist sich das Team ziemlich sicher, dass auch andere Lebewesen die vektorbasierten Neuronen im Hippocampus haben und vektorbasiert navigieren.

Möglicherweise wäre das in Jahrmillionen der Evolution erprobte Konzept auch etwas für Roboter:

Es gibt schon eine Reihe von Roboterwissenschaftlern, die Algorithmen implementiert haben nach dem Vorbild von Orts- und Rasterzellen. Das ist interessant für autonome Fahrzeuge oder auch für Büro-Roboter. Bislang hat natürlich noch niemand die ziel-orientierten, vektorbasierten Neuronen umgesetzt, die haben wir ja jetzt gerade erst publiziert. Aber auf jeden Fall sind solche biologisch inspirierten Algorithmen grundsätzlich sehr vielversprechend.

Deutschlandfunk – Forschung aktuell vom 13.01.2017 (Moderation: Lennart Pyritz)