Schlagwort-Archive: Deutschlandfunk

DeepMind-KI spielt erfolgreich Multiplayer-Shooter

“Quake 3” war einer der letzten “Ego-Shooter” (zurecht oder zu unrecht 🙂 besorgte Zeitgenossen sprechen ja auch von “Killer-Spielen”…), die ich sehr ausgiebig und auch einigermaßen gut gespielt habe. Das ging damals (1999…) eben noch mit meinem heiß geliebten und sehr soliden Joystick, bei dem eine der Funktionstasten fĂŒr das “strafen”; das seitliche Ausweichen bei feindlichem Beschuss zustĂ€ndig war. Danach kam dann die kombinierte Steuerung durch Maus (fĂŒr das Rumgucken…) und Tastatur (fĂŒr das Laufen, Schleichen, HĂŒpfen oder Ducken) in Mode, und das hat meine koordinativen FĂ€higkeiten dann schnell ĂŒberfordert. Tja, man wird Ă€lter 🙂 …

“Capture the Flag”, also das bis auf den heutigen Tag beliebte Multiplayer-Game hab ich auch nicht versucht; ich hab mir höchstens mit meiner damaligen Freundin im 2-PC-Netzwerk KettensĂ€gen-Duelle geliefert, oder wir sind gemeinsam gegen die im Spiel eingebaute Monsterhorde angetreten. Aber natĂŒrlich ist das “Capture the Flag”-Multiplayer-Game die wesentlich anspruchsvollere Variante bei Ego-Shootern – zumindest wenn man ĂŒber den ganz primitiven Impuls “auf alles ballern, was sich bewegt” hinausgeht. Das Multiplayer-Game erfordert Kooperation und Koordination und irgendwelche Strategien.

Ist es z.B. eine gute Idee, hinter einem Team-Kollegen hinterher zu laufen, den ggf. gegen Feinde zu unterstĂŒtzen und im Falle seines Ablebens die vakante Fahne zu ergreifen? Sollte man die eigene Basis gegen feindliche Angriffe verteidigen, oder vielleicht im verlassenen gegnerischen Camp ausharren, bis dort die Fahne eines hingemetzelten FahnentrĂ€gers wieder auftaucht? Die Deep-Mind-Programmierer haben ihre “Agents”, ihre auf neuronalen Netzen basierenden Algorithmen genauso wie bei Schach, Go oder StarCraft nach dem “Reinforcement Learning”-Prinzip trainiert.

Der Algorithmus/das neuronale Netzwerk weiß erst einmal nichts. Es spielt drauflos und lernt durch Erfolg oder Misserfolg. Beim aktuellen Quake-Experiment hatten die “Agents” auch nur exakt die Teil-Information ĂŒber die Spielsituation, wie sie auch ein menschlicher Spieler hat: Das “Sichtfeld”, also die in der Ego-Perspektive sichtbaren Pixel. Und den Punktestand, also den eigenen “Gesundheits”- und “Erfolgs”-Status und den des Teams. Wie die verschiedenen Iterationen der neuronalen Netzwerks “trainiert werden” bzw. “lernen”, ist sehr komplex – professionell Interessierten empfehle ich da dringend einen Blick ins Original-Paper und in das Supplement. 🙂

(Quelle: DeepMind)

Aber das Resultat ist klar: Die besten der trainierten “Agenten”/neuronalen Netzwerke spielen Quake 3 CTF mit einer ĂŒbermenschlichen “superhuman Performance”. Tröstlicherweise können versierte menschliche Spieler die Agents immer noch “exploiten”, also ihre Strategien durchschauen und ausnutzen, wenn ein gegebenes Spiel-Szenario gleich bleibt. Und fĂŒr die Experten: Der Vorsprung der KI bleibt auch erhalten, wenn die etwas schnellere Reaktionszeit der KI-Bots auf das Erscheinen eines Feindes durch eine menschen-Ă€hnlich verzögerte Reaktionszeit angeglichen wird.

Über die Übertragbarkeit des DeepMind-Quake 3-CTF-Algorithmus auf realistischere Szenarien kann man nur spekulieren. Aber der Ansatz “Reinforcement Learning” und neuronales Generalisieren von unbekannten Szenarien scheint sehr erfolgversprechend zu sein. DarĂŒber kann man sich perspektivisch freuen (etwa irgendwann einmal bei Rettungs-EinsĂ€tzen von Robotern; oder bei echtzeit-kritischen Weltraum-Missionen…) oder Ă€rgern (etwa beim autonomen Agieren von Killer-Drohnen oder -Robotern bei kriegerischen Auseinandersetzungen…

Reinforcement Learning – KI kann auch „Killer-Spiele“

Deutschlandfunk – Forschung aktuell vom 31.05.2019 (Moderation: Arndt Reuning)

Zellsimulation mit “transparentem” neuronalen Netz

Über den “großen Haken” beim Paradepferd der modernen Informatik, den “KĂŒnstlichen Neuronalen Netzen” haben wir schon des öfteren gesprochen: So beeindruckend die Ergebnisse auch sind – wie die Algorithmen letztlich zu ihren Resultaten kommen und was in den internen Schichten genau ablĂ€uft, das können selbst die jeweiligen Programmierer nicht genau sagen. In vielen Szenarien reicht der pragmatische Ansatz “Hauptsache, das Ergebnis ist gut” ja auch; in vielen anderen aber auch nicht. (Wobei eine gewisse sehr problematische Tendenz unverkennbar ist, die Resultate einer vermeintlich objektiven “KĂŒnstlichen Intelligenz” eben nicht zu hinterfragen.)

Aber dieses „Black Box“-Konzept ist ohnehin nicht alternativlos, das zeigen amerikanische Wissenschaftler jetzt im Fachblatt „Nature Methods“.

Screenshot from d-cell.ucsd.edu, where researchers can use DCell, a new virtual yeast cell developed at UC San Diego School of Medicine.

Bei “DCell”, dem “Visible neural network” von Trey Idecker von der University of California San Diego, organisieren sich die internen Schichten (“Layer”) und ihre VerknĂŒpfungen im Gegensatz zu herkömmlichen neuronalen Netzen nicht einfach im Training selbst, (als letztlich rein statistisches “Fitting” zwischen einem “Input” und einem “Output”-Wert), ihre Architektur ist von vornherein in den wesentlichen Strukturen vorgegeben. Den Bauplan fĂŒr “DCell” liefert der bestens erforschte Modellorganismus der Molekularbiologen, die Bierhefe (Saccharomyces cerevisiae).

Die erste, die Eingangsschicht entspricht den einzelnen Genen und ihren Mutationen; und die letzte, die Ausgangsschicht entspricht dem Verhalten der Zelle, nĂ€mlich wie schnell sie wĂ€chst. Und die Schichten dazwischen, das sind praktisch die physikalischen GrĂ¶ĂŸenordnungen in der Zelle, jede folgende Schicht entspricht einer grĂ¶ĂŸeren, komplexeren Strukturebene.   

Die ersten Schichten des Neuronalen Netzes bilden also den Nanometerbereich ab, wo ein Gen den Bauplan fĂŒr ein Protein liefert. Die spĂ€teren Schichten reprĂ€sentieren dann Strukturen wie Membranen, die letzten die grĂ¶ĂŸeren Einheiten wie Zellkern oder Mitochondrien. Damit ist das „Visible Neural Network“ im Grunde die digitale Simulation einer kompletten Zelle, die sich nun mit Trainingsdaten fĂŒttern lĂ€sst. Und die gibt es im Falle der Bierhefe reichlich:

Es gab so viele Studien in den letzten zehn Jahren – wir haben Daten ĂŒber 12 Millionen einzelne Genmutationen, und da hat jeweils jemand im Labor nachgemessen, welche Auswirkung die Mutation auf das Wachstum der Hefezelle hatte.

Mit dem trainierten Algorithmus konnten Trey Ideker und seine Kollegen anschließend nicht nur die schon bekannten Auswirkungen einzelner Mutationen wie in einem digitalen Modellbaukasten nachvollziehen, sondern sogar in den internen Schichten des Neuralen Netzes noch neue Entdeckungen machen. Es gibt nĂ€mlich offenbar selbst bei der intensiv erforschten Bierhefe Proteinkomplexe bzw. “zellulĂ€re Subsysteme”, die bislang unbekannt waren, aber durchaus Auswirkungen auf das Zellwachstum haben. Letztendlich geht es Trey Ideker aber nicht um Bierhefe – er ist Krebsforscher. Er sucht nach Wegen, das Wachstum von Tumorzellen zu verhindern. Und vielleicht könnte eine digitale Zellsimulation auch hier wichtige Erkenntnisse liefern. Was die nötigen Trainingsdaten angeht, ist Ideker recht optimistisch:

Ich schĂ€tze mal, so zu Beginn der 2020er Jahre werden wir rund eine Million Krebs-Genome öffentlich verfĂŒgbar haben, dann wĂ€re eine Big-Data-Analyse kein Problem. Aber die grĂ¶ĂŸere Herausforderung ist: Haben wir genug Wissen ĂŒber die Biologie von Krebszellen, das wir fĂŒr die Schichten in unserem Neuronalen Netz brauchen? Nein, haben wir nicht.

Trey Ideker und seine Kollegen, aber auch viele andere Forscher-Teams weltweit arbeiten deshalb intensiv daran, öffentliche Datenbanken ĂŒber die interne Funktionsweise von Tumorzellen aufzubauen. Mit einer digitalen Zellsimulation, so Idekers Vision, könnte man dann vielleicht auch ein erst in jĂŒngster Zeit erkanntes Problem in den Griff bekommen: Dass nĂ€mlich Krebs bei jedem einzelnen Patienten anders funktioniert.

Deswegen brauchen wir dieses Neuronale-Netz-Modell, weil all diese möglichen Varianten in unserem Modell abgebildet wÀren. Bei dem einen Patienten wird vielleicht die eine Route durch die Ursache-Wirkungs-Hierarchie aktiviert, bei dem zweiten eine andere. Bevor wir so ein komplettes Modell haben, können wir das nicht voraussagen.

Deutschlandfunk – Forschung aktuell vom 06.03.2018 (Moderation: Lennart Pyritz)

Gendershades: Gesichtserkennung funktioniert nahezu perfekt – bei weißen MĂ€nnern

Joy Buolamwini forscht am MIT ĂŒber die sozialen Auswirkungen von Technologie; sie ist weiblich, sie ist schwarz, und sie hat definitiv eine gesellschaftspolitische Agenda. Sehr naheliegenderweise. Denn einerseits halten in immer mehr Lebensbereichen technische Verfahren Einzug, die bestimmte Aufgaben anscheinend (oder scheinbar…) besser als jeder Mensch bewĂ€ltigen: Kreditscores berechnen, Hautkrebs diagnostizieren, weltmeisterlich Go spielen, Gesichter oder verdĂ€chtiges Verhalten erkennen.

Wir Menschen tendieren dazu, den Algorithmen oder der “KĂŒnstlichen Intelligenz” ObjektivitĂ€t zuzubilligen. Ein Computer hat doch schließlich keine Vorurteile. Stimmt – aber die Menschen, die ihn programmieren; oder die moderne “Maschinenlern-Verfahren” oder “neuronale Netze” mit Daten fĂŒttern und trainieren. Dabei klingt bei “Vorurteil” oder “Voreingenommenheit” oder “Tendenz” – im Englischen spricht man ja hier von “Bias” – schon etwas wie Absicht oder eine verquere Weltsicht mit.  Ich denke aber, dass “Bias” meist einfach durch ganz  (fĂŒr die Betroffenen natĂŒrlich nicht…) “harmlose” Gedankenlosigkeit in die Welt kommt. Beziehungsweise in die vermeintlich “objektive” Technik.

Das Problem ist – fĂŒr digitale VerhĂ€ltnisse – uralt: 2010 machten asiatische Nutzer einer Digitalkamera eine verstörende Erfahrung: der “smarte” Portrait-Assistent des Fotoapparates wollte sie gar nicht knipsen, sondern gab eine launige Warnung von sich: “Na, blinzelt da etwa jemand?” Nein, die ins Visier genommenen hatten einfach die normale asiatische Augenform; aber der Gesichtserkennungsalgorithmus der Kamera war offenbar vorwiegend mit “westlichen” (“caucasian”) Testbildern trainert worden. Es handelte sich um die Nikon Coolpix S630; das Produkt eines japanischen Herstellers 🙂 …

Bild: Joy Buolamwini/TED /Guardian

Dass im Jahr 2018 (oder 2017, wo die die Tests stattfanden…) drei Gesichtserkennungs-Softwaremodule von namhaften Herstellern ganz offenbar immer noch auf einer völlig unausgewogenen Trainingsbilder-Suite beruhen und dementsprechend bei weißen MĂ€nnern exzellente, bei schwarzen Frauen dagegen miserable Ergebnisse liefern, das ist natĂŒrlich extrem peinlich. IBM wird in KĂŒrze eine neue Version veröffentlichen, die genau wie die Testsuite des MIT auf einer möglichst ausgewogenen Bildermischung aufbaut. Angeblich erzielt diese neue Version ganz erheblich bessere Ergebnisse. Und auch Microsoft hat signalisiert, man nehme das “Bias”-Problem sehr ernst und werde keine Ausgaben scheuen, es zu beheben.

Wenn man Experten fragt: Die im MIT-Paper getesteten “Gender Classification”-Module spielen eigentlich bei zeitgemĂ€ĂŸer Gesichtserkennungs-Software gar keine Rolle mehr. Dort werden nĂ€mlich neuronale Netze verwendet; und bei denen macht einfach die Vielfalt, die QualitĂ€t und die QuantitĂ€t der Trainingsbilder den entscheidenden Unterschied: Google, Facebook und auch die chinesische Suchmaschine Baidu sind da “state-of-the art”. Die “Big Player” trainieren ihre Systeme mit tausenden von Bildern einer Person; und mit Bildern von Millionen oder gar Milliarden von Personen. Dagegen sind die Test- oder Trainingssuiten von mittelstĂ€ndischen “Sicherheitsfirmen” oder auch die als Alternative zu vorhandenen Benchmarks vorgeschlagene Testsuite der MIT-Forscher ein Witz.

Aber natĂŒrlich ist das MIT-Paper bzw. die “GenderShades”-Initiative ohnehin eher paradigmatisch zu verstehen: Der “Bias”-Effekt durch unausgewogene Trainingsdaten steckt ohne jeden Zweifel auch in zig bereits im Alltag eingesetzen Gesichtserkennungs-“Sicherheitslösungen” ; die werden aber als angeblich “objektiv” wahrgenommen oder dargestellt. Die Agenda von Joy Buolamwini ist also eindeutig berechtigt.

Deutschlandfunk – Computer und Kommunikation vom 17.02.2018 (Moderation: Manfred Kloiber)

Wie KI und Maschinelles Lernen die Arbeitswelt der Zukunft verÀndern

Wenn man als Forscher beim MIT arbeitet, dann ist es vielleicht recht naheliegend, die Auswirkungen von neuen Technologien auf die Lebenswelt kommender Generationen insgesamt eher positiv zu sehen. Dass diese Sichtweise per se auch schon stimmt, ist aber noch lange nicht erwiesen. Ich bin da z.B.  – obschon ja tendenziell Optimist und Early Adopter – ganz ernsthaft sehr skeptisch, wenn ich die absolute Smartphone-, Tablet- oder Spielkonsolen-AbhĂ€ngigkeit der Kinder meiner Verwandten und Freunde sehe. Das ist ein gravierender Kulturwandel, der definitiv auch signifikante Auswirkungen auf die Psyche, auf Denk- und Kommunikationsstrukturen hat; von eventuellen KollateralschĂ€den durch die vielleicht doch vorhandene Belastung durch elektromagnetisches Dauerfeuer mal ganz abgesehen…

Die Auswirkungen der Automatisierung in der Industrie sind ja bei uns immer noch erst in einer Anfangsphase, der sehr viel stĂ€rkere Effekt beruht auf Billigarbeit in aufstrebenden Volkswirtschaften, wo Arbeitslöhne, Arbeitszeiten und Arbeitnehmerschutz halt noch etwas rustikaler gesehen werden. Aber irgendwann werden sich die ökonomischen Bedingungen, Erwartungen und der Lebensstandard weltweit angeglichen haben. Und irgendwann werden auch die immer rasanter fortschreitenden “FĂ€higkeiten” von KI- oder Maschinenlern-Systemen Einzug in Berufsfelder halten, in denen die heute dort TĂ€tigen nicht im Traum auf die Idee kĂ€men, sie seien eines Tages “ersetzbar” oder “ĂŒberflĂŒssig”.

c’t-Schlagseite / Ritsch-Renn.com

Vielleicht gibt es ja bis dahin entsprechende gesellschaftliche Anpassungen – bedingungsloses Grundeinkommen und/oder VR-Bespaßung fĂŒr die AbgehĂ€ngten 🙂 … Ein Aspekt beim Ausblick der Forscher vom MIT in der Science-Perspektive ist ganz wichtig: Ein sehr kritischer Blick darauf, wie die spektakulĂ€ren Ergebnisse von ML und KI eigentlich zustande kommen, und wie verlĂ€sslich sie sind – der bleibt sehr ratsam. 😉

Deutschlandfunk Nova · Arbeitswelt der Zukunft: Wenn eine KI eure Jobs klaut

Deutschlandfunk Nova – Hielscher oder Haase vom 22.12.2017 (Moderation: Till Haase)

Deutschlandfunk – Forschung aktuell vom 22.12.2017 (Moderation: Ralf Krauter)

WochenrĂŒckblick: Bitcoin ist in der “ganz normalen” Finanzwelt angekommen – und steckt weiter in der Sackgasse

Seit letztem Sonntag ist die CyberwĂ€hrung Bitcoin “endgĂŒltig” in der “ganz normalen” Finanzwelt angekommen (was natĂŒrlich nicht heißt, dass nicht auch dort IrrationalitĂ€t, Spekulation, Abzockerei oder sogar Betrug völlig gang und gĂ€be sind 🙂 …) – seit Sonntag gibt es an der Optionsbörse Cboe in Chigaco ein “offizielles”, zugelassenes Derivat, einen “Future” oder auf gut Deutsch, einen “Terminkontrakt” auf den Bitcoin.

Ganz vereinfacht gesagt: Damit können nun auch alle Leute auf den Kurs der CyberwĂ€hrung wetten, die sich mit den technischen Feinheiten und potentiellen Gefahren nicht beschĂ€ftigen wollen, die bei einem direkten Einstieg in Bitcoin drohen. Der Future erlaubt natĂŒrlich auch, auf einen Crash zu setzen – aber bislang sieht es nicht so aus, als ob dies die allgemein vorherrschende Kursprognose der Anleger oder Spekulanten ist. NatĂŒrlich ist der Bitcoin-Future – (Ă€hnliche Konstruktionen an anderen Börsen werden folgen…) ein super-super-spekulatives Anlagevehikel, da ja schon der Basiswert  super-super-spekulativ und volatil ist.

Aber letztlich sorgt das Derivat nach meiner EinschĂ€tzung eigentlich fĂŒr eine weitere Konsolidierung des Bitcoin-Kurses und der Bitcoin-Werthaltigkeit. (Ich erinnere immer wieder gern daran, dass die Wertzumessung fĂŒr eine WĂ€hrung oder fĂŒr einen anderen Vermögensgegenstand (Gold, Diamanten oder Immobilien…) auch immer nur eine Frage des Vertrauens und einer impliziten Vereinbarung ist. WĂŒrden Sie zur Zeit Vertrauen in die von den Zentralbanken Venezuelas oder Simbabwes herausgegebenen WĂ€hrungen setzen? Nein. Die Bewohner der hyper-inflationĂ€ren Staaten auch nicht, fĂŒr die ist momentan der Bitcoin die “solidere” Alternative 🙂 …)

Embed from Getty Images

Das alles Ă€ndert natĂŒrlich nichts daran, dass sich ohne eine Änderung im Algorithmus (der allerdings alle Beteiligten – Bitcoin-Besitzer, CyberwĂ€hrungsbörsen und vor allem die mĂ€chtigen “Transaktions-Notare”, die “Miner” zustimmen mĂŒssten…) Bitcoin in einer ökologischen (und eigentlich, wenn wir uns die Transaktionskosten und die Transaktionsgeschwindigkeit ansehen…) auch ökonomischen Sackgasse befindet.

Ich habe mich bei der Vorbereitung des GesprĂ€chs heute im DLF “Umwelt und Verbraucher” gefragt, was eigentlich passieren wĂŒrde, wenn staatliche Akteure; China und vielleicht auch noch weitere LĂ€nder, in denen Bitcoins mit billigem Strom “geschĂŒrft” werden, den Betrieb dieser Rechen-Farmen verbieten wĂŒrden. Ein sofortiger Crash? Unwahrscheinlich, weil man ja aufgrund plötzlich fehlender Transaktions-Beglaubigungen gar nicht mehr in normalem Umfang handeln könnte. Zweitens – nach dem schlagartigen Wegfall eines Großteils der Hash- und Bitcoin-Generierungs-KapazitĂ€t wĂŒrde die Schwierigkeit der “Rechenaufgabe” zur Beglaubigung der Blockchain-Blöcke bzw. der Generierung neuer Bitcoins wieder nach unten angepasst. Und die Bitcoin-Welt wĂ€re von daher ziemlich schnell wieder “in Ordnung”.

Das sind wirklich sehr interessante Fragen bei einer wirklich sehr neuen und “prinzipiell” sehr genialen Konzeption, die alle möglichen althergebrachten “Weisheiten” in Frage stellt. Wer etwas “Spielgeld” hat, macht einfach mit. Wer auf keinen Fall einen Totalverlust des eingesetzten Kapitals verkraften kann oder mit den ökologischen KollateralschĂ€den nicht zurecht kommt (dann bitte aber auch bei Facebook und Instagram abmelden 🙂 …), lĂ€sst es besser bleiben. 🙂

Deutschlandfunk Nova – Hielscher oder Haase vom 11.12.2017 (Moderation: Diane Hielscher)

Deutschlandfunk – Umwelt und Verbraucher vom 15.12.2017 (Moderation: Jule Reimer)

 

Disclaimer: Ich selbst bin ĂŒbrigens auch seit September mit einem relativ kleinen Betrag in Bitcoin investiert (nachdem ich zuvor schon jahrelang ĂŒber die CyberwĂ€hrung berichtet, mich aber als notorischer und warnender “BedenkentrĂ€ger” immer zurĂŒckgehalten hatte… .) Allerdings noch nicht einmal direkt, sondern ĂŒber ein Zertifikat, eine “Abbildung” des Bitcoin-Kurses. Ich gehe einmal davon aus, dass meine publizistische Reichweite nicht marktbeeinflussend ist 🙂 . Ansonsten noch einmal die Warnung: Ein Investment in Bitcoin ist hochspekulativ. 🙂

Pilotprojekt “Smart City” in Bonn – Wenn der Glascontainer “voll” meldet

Bekanntlich bin ich nicht per se ein glĂŒhender AnhĂ€nger der Idee, alles zu vernetzen und ins Internet (“der Dinge”…) zu bringen – und dann davon auszugehen, dass allein diese Aktion die Welt automatisch in ein Paradies voller glĂŒcklich umherstapfender, bestens informierter und vor lauter tollem “Benutzererlebnis” 🙂  fortwĂ€hrend jubilierender neuer, smarter und stets wohlwollender Menschen verwandelt. In Wirklichkeit ist das IoT eher ein Albtraum von billigst zusammengestoppelten China-Devices mit Backdoors, SicherheitslĂŒcken und niemals erfolgenden Updates 🙂 … Und die Menschen bleiben natĂŒrlich genau so, wie sie halt sind. Es gibt nette, intelligente Leute. Und Vollidioten und Arschlöcher.

Da betrifft auch technische Visionen. In einer idealen Welt oder einem Science-Fiction-Film laufen attraktive Menschen in einem weißen Hosenanzug durch gestylte Wohnwelten und wischen und tippen ĂŒber smarte Monitore und pseudo-Graffitti-BetonwĂ€nde. In Wirklichkeit versuchen schlechtgekleidete Spaßvögel und Trolle, Sand ins Getriebe zu streuen – aus purer Lust am Destruktiven; oder weil es ja auch vielleicht auch wirklich ein StĂŒck weit lustig ist, eine vermeintlich tolle Vision mal kurz und schmerzhaft auf den Boden der analogen Wirklichkeit zurĂŒckzuholen. Auf jeden Fall: vernetzte Zukunftsideen und “smarte Sensorik” mĂŒssen unter diesem Aspekt einigermaßen robust konzipiert sein – sonst pulverisiert sich der erhoffte “Benefit” ganz schnell wegen ein paar Einzelaktionen von “unsmarten” Zeitgenossen.

Aber natĂŒrlich wird sich das “Kosten-Nutzen-VerhĂ€ltnis” zwischen Infrastruktur-Betreibern und IoT-Providern einpendeln; und natĂŒrlich werden in zehn Jahren IoT-Dienste und Dienstleistungen selbstverstĂ€ndlich sein, die heute noch experimentell sind. Und möglicherweise ist das dann auch alles smart, klimafreundlich und energiesparend. An der AbwĂ€gung: Was bringt mir meine Investition in einigermaßen absehbarer Zeit? – Ă€ndert das jedenfalls momentan nichts. Solange die Kommunen nicht einmal das Geld haben, um die allerschlimmsten Schlaglöcher in den Straßen auszubessern, steht die flĂ€chendeckende “smarte Stadt-Infrastruktur” wahrscheinlich noch nicht ganz oben auf der PrioritĂ€ten-Liste 🙂

Pilotprojekt “Smart City” in Bonn – Wenn der Glascontainer “voll” meldet

Deutschlandfunk – Computer und Kommunikation vom 18.11.2017 (Moderation: Maximilian Schönherr)

Algorithmus knackt Captchas nach menschlichem Vorbild

Das Wort „Captcha“ ist ein Akronym – ins Deutsche ĂŒbersetzt steht es fĂŒr „vollautomatischer öffentlicher Turing-Test zur Unterscheidung von Computern und Menschen“. Die Idee, so einen Mensch-Maschine-Test als Zugangskontrolle fĂŒr Webseiten zu verwenden, stammt aus dem Jahr 2000; der Informatik-Professor Luis von Ahn gilt als der Erfinder. Und seit dem Jahr 2000 lĂ€uft ein sehr interessantes Wettrennen: Auf der einen Seite gibt es immer wieder neue AnsĂ€tze, Captchas automatisch zu knacken – und ebenso findige Experten sorgen anschließend im Gegenzug dafĂŒr, die gefundenen Schwachstellen auszubĂŒgeln.

Textbasierte Captchas, also die mit krakeliger, verzerrter Schrift sind nach wie vor die hĂ€ufigsten – und bei einem Teil von ihnen erfĂŒllt man als menschlicher Entzifferer ja sogar eine sinnvolle Aufgabe und hilft OCR-Algorithmen bei der Digitalisierung von BĂŒchern oder der Erschließung von StreetMap-Bildern auf die SprĂŒnge. Als besonders verlĂ€sslicher Mensch-Maschine-Test gelten die Text-Captchas aber schon seit Jahren nicht mehr – da automatische Bot-Scripte die ZugangshĂŒrden von Webseiten ja in einem massiven Dauerfeuer attackieren, reicht den Algorithmen schon eine niedrige Erkennungsrate aus, um genĂŒgend oft “durchzukommen”.

Die KI-Experten beim Venturekapital-Unternehmen “Vicarious” hatten ĂŒbrigens selbst schon 2013 den Erfolg ihres “Recursive Cortical Networks” (RCN) beim Knacken von textbasierten Captchas vermeldet – damals aber noch ohne nĂ€here Details zu nennen, wie das Ganze im Detail funktioniert. Das hatte verschiedene Motive, wie der GrĂŒnder von Vicarious, Dileep George, auf Anfrage erlĂ€utert: Zum einen habe man damals die Einzelheiten in Hinsicht auf die Sicherheitsauswirkungen im Netz zurĂŒckgehalten, zum anderen sei man seinerzeit noch ein sehr kleines Team gewesen und habe sich mehr Zeit bei der Entwicklung des Algorithmus und der Firma nehmen wollen.

A representation of the letter A. [Credit: Vicarious AI]

Nicht ganz unwichtig dĂŒrfte dabei auch gewesen sein, dass das “Recursive Cortical Network”-Konzept praktisch das algorithmische “Kronjuwel” von Vicarious ist, das die Firma in den kommenden Jahren in einer Vielzahl von Bereichen, vor allem auf dem Feld der “Robotics” einsetzen und vermarkten will. Das wissenschaftliche Paper in “Science” mit den technischen Details reichte das Team also aus nachvollziehbaren GrĂŒnden erst ein, nachdem eine Reihe von Patenten auf RCN erteilt und veröffentlicht worden waren.

Wie gravierend die direkten Auswirkungen auf die noch vorhandene oder ohnehin schon nicht mehr vorhandene Sicherheit von Text-Captchas in der Praxis sind, darĂŒber kann man streiten. Das Vicarious-Team betont die wesentlich höhere Effizienz seines RCN-Ansatzes im Vergleich zu herkömmlichen “Brute-Force-Deep-Learning”-Angriffen. Ein Gegenargument lautet: Die wesentlich höheren Ressourcen-Anforderungen beim “Deep Learning” sind kein großes Problem, sie stehen allseits zur VerfĂŒgung – und wenn nötig, lĂ€sst sich menschliche Hilfe beim Annotieren von Trainingsmaterial sehr billig einkaufen; bei Crowdworking-Diensten wie “Amazon Mechanical Turk”. (Dass sich Menschen ja ohnehin im Zweifelsfall auch gratis fĂŒr das Lösen der Zugangs-RĂ€tsel einspannen lassen, das haben wir schon einmal vor sehr langer Zeit beleuchtet 🙂 )

In comparison to RCNs, a deep neural network required a 50,000-fold larger training set to recognize a style of CAPTCHAs, and its accuracy deteriorated rapidly with even minor perturbations to the spacing of characters. [Credit: Vicarious AI]

Wie sowohl Prof. Marc Fischlin von der TU Darmstadt, Google und ja auch die Studienautoren bei Vicarious selbst betonen – fĂŒr die Zugangskontrolle auf Webseiten stehen mittlerweile Alternativen wie bildbasierte oder verhaltensbasierte Captchas zur VerfĂŒgung, die auch noch ein Weilchen der KI-Weiterentwicklung trotzen dĂŒrften.

Aber letztlich geht es natĂŒrlich bei RCN ĂŒberhaupt nicht konkret um das Knacken von Captchas. Der Algorithmus setzt Ă€hnlich wie die Handschrift-Erkennung aus einem frĂŒheren Science-Paper auf Generalisierung, auf ein Konzept, das sich in Jahrmillionen bei der Evolution biologischer neuronaler Strukturen bis hin zum menschlichen Gehirn herausgebildet und bewĂ€hrt hat. Und insofern ist es ja schon eine philosophische Frage von allerhöchstem Interesse, welche Methode sich in kĂŒnftigen KI- und Roboter-Entwicklungen durchsetzen wird. Wahrscheinlich wird die Antwort aber ganz pragmatisch sein: Wie die “Intelligenz” zustande kommt, ist sekundĂ€r. Haupsache, sie funktioniert in der konkreten Aufgabensituation.

Deutschlandfunk – Computer und Kommunikation vom 28.10.2017 (Moderation: Manfred Kloiber)

Bayerischer Rundfunk – BR5 Computermagazin vom 5.11.2017 (Moderation: Christian Sachsinger)

 

Kohlmeisen-Evolution: FĂŒttern macht die SchnĂ€bel lĂ€nger

Die zufĂ€llig auftretenden “Webfehler” im Erbgut, die Mutationen, sind sozusagen die Lose in der Lotterie des Lebens. Sie machen es ĂŒberhaupt erst möglich, dass sich Arten auf bestimmte ökologische Nischen spezialisieren oder an VerĂ€nderungen ihrer Umwelt anpassen können. Wie Evolution und Selektion auf biochemischer Ebene funktionieren, darĂŒber wissen wir heute natĂŒrlich sehr viel mehr als seinerzeit Charles Darwin. Aber den direkten Zusammenhang zwischen einer Modifikation im Genotyp und seinen Auswirkungen im PhĂ€notyp, also im Ă€ußeren Erscheinungsbild des betroffenen Lebewesens oder in seinem Verhalten herstellen zu können, das bleibt auch im Zeitalter von DNA-Sequenzierung und Snip-Markern eine Herausforderung.

Bei den meisten phĂ€notypischen VerĂ€nderungen sind nĂ€mlich gleich eine ganze Reihe von Genen beteiligt, und auch der Selektionsauslöser, der Umweltfaktor also, fĂŒr den sich die phĂ€notypische VerĂ€nderung im GlĂŒcksfall als vorteilhaft erweist, kann in Wirklichkeit ein BĂŒndel von Einzelfaktoren sein. Die Forscher aus England und den Niederlanden sind sich bei ihrer in Science veröffentlichten Studie trotzdem sehr sicher: Sie haben der Evolution “in Echtzeit” ĂŒber die Schulter schauen können, haben eine genotypische und phĂ€notypische Modifikation im Erbgut einer Kohlmeisenpopulation beobachten und den dazu gehörigen Auslöser identifizieren können – den Menschen nĂ€mlich, genauer gesagt: Den britischen Vogelfreund.

Kohlmeise (Parus major) auf einem Zweig. Bild: Dennis van de Water, dvdwphotography.com

 

Nun wĂ€re es natĂŒrlich sehr schön, auch gleich eine “passende” ErklĂ€rung zu haben, analog zu den von Darwin beschriebenen Beispielen fĂŒr die Spezialisierung von VogelschnĂ€beln – nach dem Motto: eine bestimmte Form ist optimal dafĂŒr, die Kerne aus Pinienzapfen herauszubekommen. Aber leider: So eine schöne, naheliegende ErklĂ€rung gibt es im Falle der britischen FutterhĂ€uschen und der lĂ€ngeren SchnĂ€bel der Kohlmeisen-StammgĂ€ste eben nicht. Dass die paar Millimeter LĂ€ngenzuwachs es einfacher machen, an das Futter heranzukommen, könnte zwar sein, ist aber absolut nicht zwingend. Der bessere Fortpfanzungserfolg der britischen Meisen mit lĂ€ngerem Schnabel bzw. der charakteristischen GenverĂ€nderung beruht auch keineswegs darauf, dass sie ihrem Nachwuchs direkt mehr Vogelfutter in die hungrigen MĂ€uler stopfen können als ihre Artgenossen in Holland – die Meisen suchen nĂ€mlich die Futterstellen im Winter auf, die Brutaufzucht findet im FrĂŒhjahr statt.

Letztlich könnte es sogar sein, dass die phĂ€notypisch sichtbare SchnabelverlĂ€ngerung ein “Fehlsignal” ist und der offenbar vorhandene Selektionsvorteil und “Fitness-Faktor” irgendwo anders liegt – da steht den Biologen noch eine Menge Arbeit bevor, geeignete Kontrollexperimente zu konzipieren und durchzufĂŒhren.

Kohlmeisen-Evolution – FĂŒttern macht die SchnĂ€bel lĂ€nger

Deutschlandfunk – Forschung aktuell vom 20.10.2017 (Moderation: Ralf Krauter)

Alpha Go Zero: Das menschliche Know-How ist suboptimal

Bislang war es eigentlich ein Standard-Ansatz beim Einsatz von KI, von “KĂŒnstlicher Intelligenz” – ob mit oder ohne neuronale Netze: Auf die Spur gebracht wurde der Algorithmus erst einmal mit Trainingsdaten, die auf menschlicher Expertise beruhten. Und das war ja immerhin ein kleiner Trost fĂŒr “homo sapiens” selbst dann noch, wenn das Resultat; ein Poker– oder Go-spielendes Programm  anschließend eine “superhuman performance” zeigte, den menschlichen Experten anschließend gnadenlos “plattmachen” konnte. Beim jĂŒngsten Produkt aus der Kaderschmiede des Google-Tochterunternehmens “DeepMind” fĂ€llt selbst dieser kleine Trost weg.

Alpha Go Zero fĂ€ngt bei Null an, kennt nur die Go-Regeln – und bringt sich das Spiel (im Spiel gegen sich selbst…) selbst bei. Bis es vom “Affen” zum unschlagbaren Experten wird, dauert es ein paar StĂŒndchen lĂ€nger als bei den Vorversionen. Menschliche ZĂŒge kann es auch nicht mehr so gut vorhersagen wie seine VorlĂ€ufer – aber die in Jahrtausenden herauskristallisierten Go-Strategien sind ja offenbar eh: suboptimal. Immerhin: die Expertise von Alpha Go Zero ist eng begrenzt, auch der Ansatz “von Null an beginnen” liefert noch keine universelle WelterklĂ€rungs-Maschine.

Im Gegenteil – die Experten bei DeepMind sind sich des Problems wohl bewusst, dass sie momentan noch nicht erklĂ€ren können, wie ihr Algorithmus genau zu seinen Ergebnissen kommt. Und wenn es nicht “nur” um ein Spiel, sondern um das richtige Leben geht – dann wĂŒrde man diese Entscheidungskriterien doch ganz gern etwas genauer nachvollziehen können.

Deutschlandfunk – Forschung aktuell vom 19.10.2017 (Moderation: Monika Seynsche)

Der WLAN-Standard WPA2 hat gravierende SicherheitslĂŒcken

Es gibt ja immer mehr freie drahtlose InternetzugĂ€nge in Deutschland; in Cafes, in GeschĂ€ften und im Zug. Und so schön offenes WLAN auch ist – das Funknetz zuhause oder im Betrieb, ĂŒber das man Onlinebanking macht und ĂŒber das Login-Daten und vertrauliche Dateien hin und her gesendet und empfangen werden; das sollte tunlichst nicht offen sein, sondern verschlĂŒsselt und mit einem Passwort geschĂŒtzt. Das Standardprotokoll fĂŒr diese VerschlĂŒsselung heißt WPA2, wird allseits empfohlen und eingerichtet und gilt als sicher. Bisher.

In gut informierten Kreisen wusste man schon seit geraumer Zeit, dass in Sachen WPA2 etwas im Busch war- und dass heute, am 16.10.2017 eine wahrscheinlich ziemlich spektakulĂ€re EnthĂŒllung bevorstand. Mit Selbst-Marketing, wie das die dpa-Agenturmeldung suggeriert, hat das Prozedere und das Timing ĂŒbrigens nichts zu tun. Mathy Vanhoef von der UniversitĂ€t Leuwen hatte vorweg ĂŒber hundert Hersteller und die Internet-Sicherheitswarnstellen, die CERTs ĂŒber die gefundenen LĂŒcken unterrichtet. Die Warnung unter Stillhaltepflicht bis zu einem bestimmten Publikationsdatum dient dazu, dass Bugfixes möglichst flĂ€chendeckend vorbereitet werden können.

Embed from Getty Images

 

Prescht nĂ€mlich ein Betroffener vor und und sichert sein Produkt oder Betriebssystem ab, können Experten und Hacker aus dem Vorher-Nachher-Vergleich auf die SicherheitslĂŒcke schließen und die Produkte der Hersteller angreifen, die mit dem Nachbessern noch nicht fertig sind. So richtig detailliert wussten aber offenbar auch Stellen, die “eigentlich” gut informiert sein sollten, bis zum Mittag nicht Bescheid. Und im Bericht bei ArsTechnica waren mehrere Fehler: Bei Sven SchĂ€ge von der Ruhr-UniversitĂ€t Bochum etwa stand das Telefon nicht mehr still, dummerweise war der deutsche Experte zwar auch zeitgleich mit Mathy Vanhoef auf der BlackHat-Konferenz gewesen, hatte aber mit der WPA2-Analyse nichts zu tun.

Auch die Information, WPA2 sei von den gleichen Experten “geknackt” worden, die Jahre zuvor das VorgĂ€nger-Protokoll WEP obsolet gemacht hatten, erwies sich mit der Freischaltung der Website krackattacks.com als falsch, sogar der in dem wissenschaftlichen Paper als Co-Autor genannte Frank Piessens war nur als “Supervisor” “ehrenhalber erwĂ€hnt” worden. Die ĂŒbrigen vorab durchgesickerten Dinge stimmen aber 🙂 … Das Problem ist Ă€ußerst gravierend, auch wenn Router-Hersteller und die WiFi-Alliance darauf hinweisen, dass ein Angriff ja nur aus unmittelbare NĂ€he möglich ist und “bislang keine tatsĂ€chlich erfolgten Angriffe bekannt” seien. Betroffen ist letztlich jedes WLAN-Device, vom Smartphone ĂŒber Webcams bis hin zum “intelligenten” TĂŒrschloss.

In der Pflicht sind zuallererst die Betriebssystem-Hersteller, fĂŒr Windows, OSX, iOS, Linux und Android muss der WLAN-Protokoll-Stack nachgebessert werden. Schon jetzt ist klar, dass das bei vielen IoT-Devices niemals passieren wird. WLAN-Router können, mĂŒssen aber nicht betroffen sein. Auch hier ist dringlichst anzuraten, bis zur erfolgreichen Installation von etwaigen Firmware-Updates einstweilen wie in offenen WLANs zu verfahren und VPNs zu nutzen.

 

WLAN-VerschlĂŒsselung WPA2 ist offenbar geknackt · Deutschlandfunk Nova

Deutschlandfunk Nova – Hielscher oder Haase vom 16.10.2017 (Moderation: Diane Hielscher)

WPA2-VerschlĂŒsselung – Gravierende SicherheitslĂŒcke bei WLAN-VerschlĂŒsselung

Deutschlandfunk – Forschung aktuell vom 16.10.2017 (Moderation: Arndt Reuning)

 

P.S. 17.10.2017 – Mittlerweile trudeln die ersten Patches oder zumindest Patch-AnkĂŒndigungen ein 🙂 … Einen Überblick gibt es bei Heise.

Wie praxisrelevant oder tatsĂ€chlich gefĂ€hrlich die ungestopfte LĂŒcke ist, darĂŒber kann man unterschiedlicher Meinung sein. NatĂŒrlich – wenn man immer ein VPN benutzt, besteht kein Anlass zur Panik, nur welcher Laie macht das schon? Die BSI-Warnung war schon richtig und genau das, was ich ja auch gesagt habe: Man sollte sich wie in einem offenen WLAN verhalten. Die Mitteilung von AVM in Sachen Fritzbox ist, was die weit verbreiteten GerĂ€te betrifft, eine gute Nachricht. Die im heimischen Wohnzimmer unrealistische Voraussetzung, dass der Angreifer-AP nĂ€her am Client sein muss als der legitime Router sieht in Firmen, Cafes oder Bahnhöfen schon wieder viel realistischer aus. Und dass sich der Client “freiwillig” ummelden muss, ist normaler als es klingt, schließlich beginnen ja viele Angriffe damit, die bestehende Verbindung mal eben abzuschießen 🙂