Schlagwort-Archive: Deutschlandfunk

Zellsimulation mit “transparentem” neuronalen Netz

Über den “großen Haken” beim Paradepferd der modernen Informatik, den “Künstlichen Neuronalen Netzen” haben wir schon des öfteren gesprochen: So beeindruckend die Ergebnisse auch sind – wie die Algorithmen letztlich zu ihren Resultaten kommen und was in den internen Schichten genau abläuft, das können selbst die jeweiligen Programmierer nicht genau sagen. In vielen Szenarien reicht der pragmatische Ansatz “Hauptsache, das Ergebnis ist gut” ja auch; in vielen anderen aber auch nicht. (Wobei eine gewisse sehr problematische Tendenz unverkennbar ist, die Resultate einer vermeintlich objektiven “Künstlichen Intelligenz” eben nicht zu hinterfragen.)

Aber dieses „Black Box“-Konzept ist ohnehin nicht alternativlos, das zeigen amerikanische Wissenschaftler jetzt im Fachblatt „Nature Methods“.

Screenshot from d-cell.ucsd.edu, where researchers can use DCell, a new virtual yeast cell developed at UC San Diego School of Medicine.

Bei “DCell”, dem “Visible neural network” von Trey Idecker von der University of California San Diego, organisieren sich die internen Schichten (“Layer”) und ihre Verknüpfungen im Gegensatz zu herkömmlichen neuronalen Netzen nicht einfach im Training selbst, (als letztlich rein statistisches “Fitting” zwischen einem “Input” und einem “Output”-Wert), ihre Architektur ist von vornherein in den wesentlichen Strukturen vorgegeben. Den Bauplan für “DCell” liefert der bestens erforschte Modellorganismus der Molekularbiologen, die Bierhefe (Saccharomyces cerevisiae).

Die erste, die Eingangsschicht entspricht den einzelnen Genen und ihren Mutationen; und die letzte, die Ausgangsschicht entspricht dem Verhalten der Zelle, nämlich wie schnell sie wächst. Und die Schichten dazwischen, das sind praktisch die physikalischen Größenordnungen in der Zelle, jede folgende Schicht entspricht einer größeren, komplexeren Strukturebene.   

Die ersten Schichten des Neuronalen Netzes bilden also den Nanometerbereich ab, wo ein Gen den Bauplan für ein Protein liefert. Die späteren Schichten repräsentieren dann Strukturen wie Membranen, die letzten die größeren Einheiten wie Zellkern oder Mitochondrien. Damit ist das „Visible Neural Network“ im Grunde die digitale Simulation einer kompletten Zelle, die sich nun mit Trainingsdaten füttern lässt. Und die gibt es im Falle der Bierhefe reichlich:

Es gab so viele Studien in den letzten zehn Jahren – wir haben Daten über 12 Millionen einzelne Genmutationen, und da hat jeweils jemand im Labor nachgemessen, welche Auswirkung die Mutation auf das Wachstum der Hefezelle hatte.

Mit dem trainierten Algorithmus konnten Trey Ideker und seine Kollegen anschließend nicht nur die schon bekannten Auswirkungen einzelner Mutationen wie in einem digitalen Modellbaukasten nachvollziehen, sondern sogar in den internen Schichten des Neuralen Netzes noch neue Entdeckungen machen. Es gibt nämlich offenbar selbst bei der intensiv erforschten Bierhefe Proteinkomplexe bzw. “zelluläre Subsysteme”, die bislang unbekannt waren, aber durchaus Auswirkungen auf das Zellwachstum haben. Letztendlich geht es Trey Ideker aber nicht um Bierhefe – er ist Krebsforscher. Er sucht nach Wegen, das Wachstum von Tumorzellen zu verhindern. Und vielleicht könnte eine digitale Zellsimulation auch hier wichtige Erkenntnisse liefern. Was die nötigen Trainingsdaten angeht, ist Ideker recht optimistisch:

Ich schätze mal, so zu Beginn der 2020er Jahre werden wir rund eine Million Krebs-Genome öffentlich verfügbar haben, dann wäre eine Big-Data-Analyse kein Problem. Aber die größere Herausforderung ist: Haben wir genug Wissen über die Biologie von Krebszellen, das wir für die Schichten in unserem Neuronalen Netz brauchen? Nein, haben wir nicht.

Trey Ideker und seine Kollegen, aber auch viele andere Forscher-Teams weltweit arbeiten deshalb intensiv daran, öffentliche Datenbanken über die interne Funktionsweise von Tumorzellen aufzubauen. Mit einer digitalen Zellsimulation, so Idekers Vision, könnte man dann vielleicht auch ein erst in jüngster Zeit erkanntes Problem in den Griff bekommen: Dass nämlich Krebs bei jedem einzelnen Patienten anders funktioniert.

Deswegen brauchen wir dieses Neuronale-Netz-Modell, weil all diese möglichen Varianten in unserem Modell abgebildet wären. Bei dem einen Patienten wird vielleicht die eine Route durch die Ursache-Wirkungs-Hierarchie aktiviert, bei dem zweiten eine andere. Bevor wir so ein komplettes Modell haben, können wir das nicht voraussagen.

Deutschlandfunk – Forschung aktuell vom 06.03.2018 (Moderation: Lennart Pyritz)

Gendershades: Gesichtserkennung funktioniert nahezu perfekt – bei weißen Männern

Joy Buolamwini forscht am MIT über die sozialen Auswirkungen von Technologie; sie ist weiblich, sie ist schwarz, und sie hat definitiv eine gesellschaftspolitische Agenda. Sehr naheliegenderweise. Denn einerseits halten in immer mehr Lebensbereichen technische Verfahren Einzug, die bestimmte Aufgaben anscheinend (oder scheinbar…) besser als jeder Mensch bewältigen: Kreditscores berechnen, Hautkrebs diagnostizieren, weltmeisterlich Go spielen, Gesichter oder verdächtiges Verhalten erkennen.

Wir Menschen tendieren dazu, den Algorithmen oder der “Künstlichen Intelligenz” Objektivität zuzubilligen. Ein Computer hat doch schließlich keine Vorurteile. Stimmt – aber die Menschen, die ihn programmieren; oder die moderne “Maschinenlern-Verfahren” oder “neuronale Netze” mit Daten füttern und trainieren. Dabei klingt bei “Vorurteil” oder “Voreingenommenheit” oder “Tendenz” – im Englischen spricht man ja hier von “Bias” – schon etwas wie Absicht oder eine verquere Weltsicht mit.  Ich denke aber, dass “Bias” meist einfach durch ganz  (für die Betroffenen natürlich nicht…) “harmlose” Gedankenlosigkeit in die Welt kommt. Beziehungsweise in die vermeintlich “objektive” Technik.

Das Problem ist – für digitale Verhältnisse – uralt: 2010 machten asiatische Nutzer einer Digitalkamera eine verstörende Erfahrung: der “smarte” Portrait-Assistent des Fotoapparates wollte sie gar nicht knipsen, sondern gab eine launige Warnung von sich: “Na, blinzelt da etwa jemand?” Nein, die ins Visier genommenen hatten einfach die normale asiatische Augenform; aber der Gesichtserkennungsalgorithmus der Kamera war offenbar vorwiegend mit “westlichen” (“caucasian”) Testbildern trainert worden. Es handelte sich um die Nikon Coolpix S630; das Produkt eines japanischen Herstellers 🙂 …

Bild: Joy Buolamwini/TED /Guardian

Dass im Jahr 2018 (oder 2017, wo die die Tests stattfanden…) drei Gesichtserkennungs-Softwaremodule von namhaften Herstellern ganz offenbar immer noch auf einer völlig unausgewogenen Trainingsbilder-Suite beruhen und dementsprechend bei weißen Männern exzellente, bei schwarzen Frauen dagegen miserable Ergebnisse liefern, das ist natürlich extrem peinlich. IBM wird in Kürze eine neue Version veröffentlichen, die genau wie die Testsuite des MIT auf einer möglichst ausgewogenen Bildermischung aufbaut. Angeblich erzielt diese neue Version ganz erheblich bessere Ergebnisse. Und auch Microsoft hat signalisiert, man nehme das “Bias”-Problem sehr ernst und werde keine Ausgaben scheuen, es zu beheben.

Wenn man Experten fragt: Die im MIT-Paper getesteten “Gender Classification”-Module spielen eigentlich bei zeitgemäßer Gesichtserkennungs-Software gar keine Rolle mehr. Dort werden nämlich neuronale Netze verwendet; und bei denen macht einfach die Vielfalt, die Qualität und die Quantität der Trainingsbilder den entscheidenden Unterschied: Google, Facebook und auch die chinesische Suchmaschine Baidu sind da “state-of-the art”. Die “Big Player” trainieren ihre Systeme mit tausenden von Bildern einer Person; und mit Bildern von Millionen oder gar Milliarden von Personen. Dagegen sind die Test- oder Trainingssuiten von mittelständischen “Sicherheitsfirmen” oder auch die als Alternative zu vorhandenen Benchmarks vorgeschlagene Testsuite der MIT-Forscher ein Witz.

Aber natürlich ist das MIT-Paper bzw. die “GenderShades”-Initiative ohnehin eher paradigmatisch zu verstehen: Der “Bias”-Effekt durch unausgewogene Trainingsdaten steckt ohne jeden Zweifel auch in zig bereits im Alltag eingesetzen Gesichtserkennungs-“Sicherheitslösungen” ; die werden aber als angeblich “objektiv” wahrgenommen oder dargestellt. Die Agenda von Joy Buolamwini ist also eindeutig berechtigt.

Deutschlandfunk – Computer und Kommunikation vom 17.02.2018 (Moderation: Manfred Kloiber)

Wie KI und Maschinelles Lernen die Arbeitswelt der Zukunft verändern

Wenn man als Forscher beim MIT arbeitet, dann ist es vielleicht recht naheliegend, die Auswirkungen von neuen Technologien auf die Lebenswelt kommender Generationen insgesamt eher positiv zu sehen. Dass diese Sichtweise per se auch schon stimmt, ist aber noch lange nicht erwiesen. Ich bin da z.B.  – obschon ja tendenziell Optimist und Early Adopter – ganz ernsthaft sehr skeptisch, wenn ich die absolute Smartphone-, Tablet- oder Spielkonsolen-Abhängigkeit der Kinder meiner Verwandten und Freunde sehe. Das ist ein gravierender Kulturwandel, der definitiv auch signifikante Auswirkungen auf die Psyche, auf Denk- und Kommunikationsstrukturen hat; von eventuellen Kollateralschäden durch die vielleicht doch vorhandene Belastung durch elektromagnetisches Dauerfeuer mal ganz abgesehen…

Die Auswirkungen der Automatisierung in der Industrie sind ja bei uns immer noch erst in einer Anfangsphase, der sehr viel stärkere Effekt beruht auf Billigarbeit in aufstrebenden Volkswirtschaften, wo Arbeitslöhne, Arbeitszeiten und Arbeitnehmerschutz halt noch etwas rustikaler gesehen werden. Aber irgendwann werden sich die ökonomischen Bedingungen, Erwartungen und der Lebensstandard weltweit angeglichen haben. Und irgendwann werden auch die immer rasanter fortschreitenden “Fähigkeiten” von KI- oder Maschinenlern-Systemen Einzug in Berufsfelder halten, in denen die heute dort Tätigen nicht im Traum auf die Idee kämen, sie seien eines Tages “ersetzbar” oder “überflüssig”.

c’t-Schlagseite / Ritsch-Renn.com

Vielleicht gibt es ja bis dahin entsprechende gesellschaftliche Anpassungen – bedingungsloses Grundeinkommen und/oder VR-Bespaßung für die Abgehängten 🙂 … Ein Aspekt beim Ausblick der Forscher vom MIT in der Science-Perspektive ist ganz wichtig: Ein sehr kritischer Blick darauf, wie die spektakulären Ergebnisse von ML und KI eigentlich zustande kommen, und wie verlässlich sie sind – der bleibt sehr ratsam. 😉

Deutschlandfunk Nova · Arbeitswelt der Zukunft: Wenn eine KI eure Jobs klaut

Deutschlandfunk Nova – Hielscher oder Haase vom 22.12.2017 (Moderation: Till Haase)

Deutschlandfunk – Forschung aktuell vom 22.12.2017 (Moderation: Ralf Krauter)

Wochenrückblick: Bitcoin ist in der “ganz normalen” Finanzwelt angekommen – und steckt weiter in der Sackgasse

Seit letztem Sonntag ist die Cyberwährung Bitcoin “endgültig” in der “ganz normalen” Finanzwelt angekommen (was natürlich nicht heißt, dass nicht auch dort Irrationalität, Spekulation, Abzockerei oder sogar Betrug völlig gang und gäbe sind 🙂 …) – seit Sonntag gibt es an der Optionsbörse Cboe in Chigaco ein “offizielles”, zugelassenes Derivat, einen “Future” oder auf gut Deutsch, einen “Terminkontrakt” auf den Bitcoin.

Ganz vereinfacht gesagt: Damit können nun auch alle Leute auf den Kurs der Cyberwährung wetten, die sich mit den technischen Feinheiten und potentiellen Gefahren nicht beschäftigen wollen, die bei einem direkten Einstieg in Bitcoin drohen. Der Future erlaubt natürlich auch, auf einen Crash zu setzen – aber bislang sieht es nicht so aus, als ob dies die allgemein vorherrschende Kursprognose der Anleger oder Spekulanten ist. Natürlich ist der Bitcoin-Future – (ähnliche Konstruktionen an anderen Börsen werden folgen…) ein super-super-spekulatives Anlagevehikel, da ja schon der Basiswert  super-super-spekulativ und volatil ist.

Aber letztlich sorgt das Derivat nach meiner Einschätzung eigentlich für eine weitere Konsolidierung des Bitcoin-Kurses und der Bitcoin-Werthaltigkeit. (Ich erinnere immer wieder gern daran, dass die Wertzumessung für eine Währung oder für einen anderen Vermögensgegenstand (Gold, Diamanten oder Immobilien…) auch immer nur eine Frage des Vertrauens und einer impliziten Vereinbarung ist. Würden Sie zur Zeit Vertrauen in die von den Zentralbanken Venezuelas oder Simbabwes herausgegebenen Währungen setzen? Nein. Die Bewohner der hyper-inflationären Staaten auch nicht, für die ist momentan der Bitcoin die “solidere” Alternative 🙂 …)

Embed from Getty Images

Das alles ändert natürlich nichts daran, dass sich ohne eine Änderung im Algorithmus (der allerdings alle Beteiligten – Bitcoin-Besitzer, Cyberwährungsbörsen und vor allem die mächtigen “Transaktions-Notare”, die “Miner” zustimmen müssten…) Bitcoin in einer ökologischen (und eigentlich, wenn wir uns die Transaktionskosten und die Transaktionsgeschwindigkeit ansehen…) auch ökonomischen Sackgasse befindet.

Ich habe mich bei der Vorbereitung des Gesprächs heute im DLF “Umwelt und Verbraucher” gefragt, was eigentlich passieren würde, wenn staatliche Akteure; China und vielleicht auch noch weitere Länder, in denen Bitcoins mit billigem Strom “geschürft” werden, den Betrieb dieser Rechen-Farmen verbieten würden. Ein sofortiger Crash? Unwahrscheinlich, weil man ja aufgrund plötzlich fehlender Transaktions-Beglaubigungen gar nicht mehr in normalem Umfang handeln könnte. Zweitens – nach dem schlagartigen Wegfall eines Großteils der Hash- und Bitcoin-Generierungs-Kapazität würde die Schwierigkeit der “Rechenaufgabe” zur Beglaubigung der Blockchain-Blöcke bzw. der Generierung neuer Bitcoins wieder nach unten angepasst. Und die Bitcoin-Welt wäre von daher ziemlich schnell wieder “in Ordnung”.

Das sind wirklich sehr interessante Fragen bei einer wirklich sehr neuen und “prinzipiell” sehr genialen Konzeption, die alle möglichen althergebrachten “Weisheiten” in Frage stellt. Wer etwas “Spielgeld” hat, macht einfach mit. Wer auf keinen Fall einen Totalverlust des eingesetzten Kapitals verkraften kann oder mit den ökologischen Kollateralschäden nicht zurecht kommt (dann bitte aber auch bei Facebook und Instagram abmelden 🙂 …), lässt es besser bleiben. 🙂

Deutschlandfunk Nova – Hielscher oder Haase vom 11.12.2017 (Moderation: Diane Hielscher)

Deutschlandfunk – Umwelt und Verbraucher vom 15.12.2017 (Moderation: Jule Reimer)

 

Disclaimer: Ich selbst bin übrigens auch seit September mit einem relativ kleinen Betrag in Bitcoin investiert (nachdem ich zuvor schon jahrelang über die Cyberwährung berichtet, mich aber als notorischer und warnender “Bedenkenträger” immer zurückgehalten hatte… .) Allerdings noch nicht einmal direkt, sondern über ein Zertifikat, eine “Abbildung” des Bitcoin-Kurses. Ich gehe einmal davon aus, dass meine publizistische Reichweite nicht marktbeeinflussend ist 🙂 . Ansonsten noch einmal die Warnung: Ein Investment in Bitcoin ist hochspekulativ. 🙂

Pilotprojekt “Smart City” in Bonn – Wenn der Glascontainer “voll” meldet

Bekanntlich bin ich nicht per se ein glühender Anhänger der Idee, alles zu vernetzen und ins Internet (“der Dinge”…) zu bringen – und dann davon auszugehen, dass allein diese Aktion die Welt automatisch in ein Paradies voller glücklich umherstapfender, bestens informierter und vor lauter tollem “Benutzererlebnis” 🙂  fortwährend jubilierender neuer, smarter und stets wohlwollender Menschen verwandelt. In Wirklichkeit ist das IoT eher ein Albtraum von billigst zusammengestoppelten China-Devices mit Backdoors, Sicherheitslücken und niemals erfolgenden Updates 🙂 … Und die Menschen bleiben natürlich genau so, wie sie halt sind. Es gibt nette, intelligente Leute. Und Vollidioten und Arschlöcher.

Da betrifft auch technische Visionen. In einer idealen Welt oder einem Science-Fiction-Film laufen attraktive Menschen in einem weißen Hosenanzug durch gestylte Wohnwelten und wischen und tippen über smarte Monitore und pseudo-Graffitti-Betonwände. In Wirklichkeit versuchen schlechtgekleidete Spaßvögel und Trolle, Sand ins Getriebe zu streuen – aus purer Lust am Destruktiven; oder weil es ja auch vielleicht auch wirklich ein Stück weit lustig ist, eine vermeintlich tolle Vision mal kurz und schmerzhaft auf den Boden der analogen Wirklichkeit zurückzuholen. Auf jeden Fall: vernetzte Zukunftsideen und “smarte Sensorik” müssen unter diesem Aspekt einigermaßen robust konzipiert sein – sonst pulverisiert sich der erhoffte “Benefit” ganz schnell wegen ein paar Einzelaktionen von “unsmarten” Zeitgenossen.

Aber natürlich wird sich das “Kosten-Nutzen-Verhältnis” zwischen Infrastruktur-Betreibern und IoT-Providern einpendeln; und natürlich werden in zehn Jahren IoT-Dienste und Dienstleistungen selbstverständlich sein, die heute noch experimentell sind. Und möglicherweise ist das dann auch alles smart, klimafreundlich und energiesparend. An der Abwägung: Was bringt mir meine Investition in einigermaßen absehbarer Zeit? – ändert das jedenfalls momentan nichts. Solange die Kommunen nicht einmal das Geld haben, um die allerschlimmsten Schlaglöcher in den Straßen auszubessern, steht die flächendeckende “smarte Stadt-Infrastruktur” wahrscheinlich noch nicht ganz oben auf der Prioritäten-Liste 🙂

Pilotprojekt “Smart City” in Bonn – Wenn der Glascontainer “voll” meldet

Deutschlandfunk – Computer und Kommunikation vom 18.11.2017 (Moderation: Maximilian Schönherr)

Algorithmus knackt Captchas nach menschlichem Vorbild

Das Wort „Captcha“ ist ein Akronym – ins Deutsche übersetzt steht es für „vollautomatischer öffentlicher Turing-Test zur Unterscheidung von Computern und Menschen“. Die Idee, so einen Mensch-Maschine-Test als Zugangskontrolle für Webseiten zu verwenden, stammt aus dem Jahr 2000; der Informatik-Professor Luis von Ahn gilt als der Erfinder. Und seit dem Jahr 2000 läuft ein sehr interessantes Wettrennen: Auf der einen Seite gibt es immer wieder neue Ansätze, Captchas automatisch zu knacken – und ebenso findige Experten sorgen anschließend im Gegenzug dafür, die gefundenen Schwachstellen auszubügeln.

Textbasierte Captchas, also die mit krakeliger, verzerrter Schrift sind nach wie vor die häufigsten – und bei einem Teil von ihnen erfüllt man als menschlicher Entzifferer ja sogar eine sinnvolle Aufgabe und hilft OCR-Algorithmen bei der Digitalisierung von Büchern oder der Erschließung von StreetMap-Bildern auf die Sprünge. Als besonders verlässlicher Mensch-Maschine-Test gelten die Text-Captchas aber schon seit Jahren nicht mehr – da automatische Bot-Scripte die Zugangshürden von Webseiten ja in einem massiven Dauerfeuer attackieren, reicht den Algorithmen schon eine niedrige Erkennungsrate aus, um genügend oft “durchzukommen”.

Die KI-Experten beim Venturekapital-Unternehmen “Vicarious” hatten übrigens selbst schon 2013 den Erfolg ihres “Recursive Cortical Networks” (RCN) beim Knacken von textbasierten Captchas vermeldet – damals aber noch ohne nähere Details zu nennen, wie das Ganze im Detail funktioniert. Das hatte verschiedene Motive, wie der Gründer von Vicarious, Dileep George, auf Anfrage erläutert: Zum einen habe man damals die Einzelheiten in Hinsicht auf die Sicherheitsauswirkungen im Netz zurückgehalten, zum anderen sei man seinerzeit noch ein sehr kleines Team gewesen und habe sich mehr Zeit bei der Entwicklung des Algorithmus und der Firma nehmen wollen.

A representation of the letter A. [Credit: Vicarious AI]

Nicht ganz unwichtig dürfte dabei auch gewesen sein, dass das “Recursive Cortical Network”-Konzept praktisch das algorithmische “Kronjuwel” von Vicarious ist, das die Firma in den kommenden Jahren in einer Vielzahl von Bereichen, vor allem auf dem Feld der “Robotics” einsetzen und vermarkten will. Das wissenschaftliche Paper in “Science” mit den technischen Details reichte das Team also aus nachvollziehbaren Gründen erst ein, nachdem eine Reihe von Patenten auf RCN erteilt und veröffentlicht worden waren.

Wie gravierend die direkten Auswirkungen auf die noch vorhandene oder ohnehin schon nicht mehr vorhandene Sicherheit von Text-Captchas in der Praxis sind, darüber kann man streiten. Das Vicarious-Team betont die wesentlich höhere Effizienz seines RCN-Ansatzes im Vergleich zu herkömmlichen “Brute-Force-Deep-Learning”-Angriffen. Ein Gegenargument lautet: Die wesentlich höheren Ressourcen-Anforderungen beim “Deep Learning” sind kein großes Problem, sie stehen allseits zur Verfügung – und wenn nötig, lässt sich menschliche Hilfe beim Annotieren von Trainingsmaterial sehr billig einkaufen; bei Crowdworking-Diensten wie “Amazon Mechanical Turk”. (Dass sich Menschen ja ohnehin im Zweifelsfall auch gratis für das Lösen der Zugangs-Rätsel einspannen lassen, das haben wir schon einmal vor sehr langer Zeit beleuchtet 🙂 )

In comparison to RCNs, a deep neural network required a 50,000-fold larger training set to recognize a style of CAPTCHAs, and its accuracy deteriorated rapidly with even minor perturbations to the spacing of characters. [Credit: Vicarious AI]

Wie sowohl Prof. Marc Fischlin von der TU Darmstadt, Google und ja auch die Studienautoren bei Vicarious selbst betonen – für die Zugangskontrolle auf Webseiten stehen mittlerweile Alternativen wie bildbasierte oder verhaltensbasierte Captchas zur Verfügung, die auch noch ein Weilchen der KI-Weiterentwicklung trotzen dürften.

Aber letztlich geht es natürlich bei RCN überhaupt nicht konkret um das Knacken von Captchas. Der Algorithmus setzt ähnlich wie die Handschrift-Erkennung aus einem früheren Science-Paper auf Generalisierung, auf ein Konzept, das sich in Jahrmillionen bei der Evolution biologischer neuronaler Strukturen bis hin zum menschlichen Gehirn herausgebildet und bewährt hat. Und insofern ist es ja schon eine philosophische Frage von allerhöchstem Interesse, welche Methode sich in künftigen KI- und Roboter-Entwicklungen durchsetzen wird. Wahrscheinlich wird die Antwort aber ganz pragmatisch sein: Wie die “Intelligenz” zustande kommt, ist sekundär. Haupsache, sie funktioniert in der konkreten Aufgabensituation.

Deutschlandfunk – Computer und Kommunikation vom 28.10.2017 (Moderation: Manfred Kloiber)

Bayerischer Rundfunk – BR5 Computermagazin vom 5.11.2017 (Moderation: Christian Sachsinger)

 

Kohlmeisen-Evolution: Füttern macht die Schnäbel länger

Die zufällig auftretenden “Webfehler” im Erbgut, die Mutationen, sind sozusagen die Lose in der Lotterie des Lebens. Sie machen es überhaupt erst möglich, dass sich Arten auf bestimmte ökologische Nischen spezialisieren oder an Veränderungen ihrer Umwelt anpassen können. Wie Evolution und Selektion auf biochemischer Ebene funktionieren, darüber wissen wir heute natürlich sehr viel mehr als seinerzeit Charles Darwin. Aber den direkten Zusammenhang zwischen einer Modifikation im Genotyp und seinen Auswirkungen im Phänotyp, also im äußeren Erscheinungsbild des betroffenen Lebewesens oder in seinem Verhalten herstellen zu können, das bleibt auch im Zeitalter von DNA-Sequenzierung und Snip-Markern eine Herausforderung.

Bei den meisten phänotypischen Veränderungen sind nämlich gleich eine ganze Reihe von Genen beteiligt, und auch der Selektionsauslöser, der Umweltfaktor also, für den sich die phänotypische Veränderung im Glücksfall als vorteilhaft erweist, kann in Wirklichkeit ein Bündel von Einzelfaktoren sein. Die Forscher aus England und den Niederlanden sind sich bei ihrer in Science veröffentlichten Studie trotzdem sehr sicher: Sie haben der Evolution “in Echtzeit” über die Schulter schauen können, haben eine genotypische und phänotypische Modifikation im Erbgut einer Kohlmeisenpopulation beobachten und den dazu gehörigen Auslöser identifizieren können – den Menschen nämlich, genauer gesagt: Den britischen Vogelfreund.

Kohlmeise (Parus major) auf einem Zweig. Bild: Dennis van de Water, dvdwphotography.com

 

Nun wäre es natürlich sehr schön, auch gleich eine “passende” Erklärung zu haben, analog zu den von Darwin beschriebenen Beispielen für die Spezialisierung von Vogelschnäbeln – nach dem Motto: eine bestimmte Form ist optimal dafür, die Kerne aus Pinienzapfen herauszubekommen. Aber leider: So eine schöne, naheliegende Erklärung gibt es im Falle der britischen Futterhäuschen und der längeren Schnäbel der Kohlmeisen-Stammgäste eben nicht. Dass die paar Millimeter Längenzuwachs es einfacher machen, an das Futter heranzukommen, könnte zwar sein, ist aber absolut nicht zwingend. Der bessere Fortpfanzungserfolg der britischen Meisen mit längerem Schnabel bzw. der charakteristischen Genveränderung beruht auch keineswegs darauf, dass sie ihrem Nachwuchs direkt mehr Vogelfutter in die hungrigen Mäuler stopfen können als ihre Artgenossen in Holland – die Meisen suchen nämlich die Futterstellen im Winter auf, die Brutaufzucht findet im Frühjahr statt.

Letztlich könnte es sogar sein, dass die phänotypisch sichtbare Schnabelverlängerung ein “Fehlsignal” ist und der offenbar vorhandene Selektionsvorteil und “Fitness-Faktor” irgendwo anders liegt – da steht den Biologen noch eine Menge Arbeit bevor, geeignete Kontrollexperimente zu konzipieren und durchzuführen.

Kohlmeisen-Evolution – Füttern macht die Schnäbel länger

Deutschlandfunk – Forschung aktuell vom 20.10.2017 (Moderation: Ralf Krauter)

Alpha Go Zero: Das menschliche Know-How ist suboptimal

Bislang war es eigentlich ein Standard-Ansatz beim Einsatz von KI, von “Künstlicher Intelligenz” – ob mit oder ohne neuronale Netze: Auf die Spur gebracht wurde der Algorithmus erst einmal mit Trainingsdaten, die auf menschlicher Expertise beruhten. Und das war ja immerhin ein kleiner Trost für “homo sapiens” selbst dann noch, wenn das Resultat; ein Poker– oder Go-spielendes Programm  anschließend eine “superhuman performance” zeigte, den menschlichen Experten anschließend gnadenlos “plattmachen” konnte. Beim jüngsten Produkt aus der Kaderschmiede des Google-Tochterunternehmens “DeepMind” fällt selbst dieser kleine Trost weg.

Alpha Go Zero fängt bei Null an, kennt nur die Go-Regeln – und bringt sich das Spiel (im Spiel gegen sich selbst…) selbst bei. Bis es vom “Affen” zum unschlagbaren Experten wird, dauert es ein paar Stündchen länger als bei den Vorversionen. Menschliche Züge kann es auch nicht mehr so gut vorhersagen wie seine Vorläufer – aber die in Jahrtausenden herauskristallisierten Go-Strategien sind ja offenbar eh: suboptimal. Immerhin: die Expertise von Alpha Go Zero ist eng begrenzt, auch der Ansatz “von Null an beginnen” liefert noch keine universelle Welterklärungs-Maschine.

Im Gegenteil – die Experten bei DeepMind sind sich des Problems wohl bewusst, dass sie momentan noch nicht erklären können, wie ihr Algorithmus genau zu seinen Ergebnissen kommt. Und wenn es nicht “nur” um ein Spiel, sondern um das richtige Leben geht – dann würde man diese Entscheidungskriterien doch ganz gern etwas genauer nachvollziehen können.

Deutschlandfunk – Forschung aktuell vom 19.10.2017 (Moderation: Monika Seynsche)

Der WLAN-Standard WPA2 hat gravierende Sicherheitslücken

Es gibt ja immer mehr freie drahtlose Internetzugänge in Deutschland; in Cafes, in Geschäften und im Zug. Und so schön offenes WLAN auch ist – das Funknetz zuhause oder im Betrieb, über das man Onlinebanking macht und über das Login-Daten und vertrauliche Dateien hin und her gesendet und empfangen werden; das sollte tunlichst nicht offen sein, sondern verschlüsselt und mit einem Passwort geschützt. Das Standardprotokoll für diese Verschlüsselung heißt WPA2, wird allseits empfohlen und eingerichtet und gilt als sicher. Bisher.

In gut informierten Kreisen wusste man schon seit geraumer Zeit, dass in Sachen WPA2 etwas im Busch war- und dass heute, am 16.10.2017 eine wahrscheinlich ziemlich spektakuläre Enthüllung bevorstand. Mit Selbst-Marketing, wie das die dpa-Agenturmeldung suggeriert, hat das Prozedere und das Timing übrigens nichts zu tun. Mathy Vanhoef von der Universität Leuwen hatte vorweg über hundert Hersteller und die Internet-Sicherheitswarnstellen, die CERTs über die gefundenen Lücken unterrichtet. Die Warnung unter Stillhaltepflicht bis zu einem bestimmten Publikationsdatum dient dazu, dass Bugfixes möglichst flächendeckend vorbereitet werden können.

Embed from Getty Images

 

Prescht nämlich ein Betroffener vor und und sichert sein Produkt oder Betriebssystem ab, können Experten und Hacker aus dem Vorher-Nachher-Vergleich auf die Sicherheitslücke schließen und die Produkte der Hersteller angreifen, die mit dem Nachbessern noch nicht fertig sind. So richtig detailliert wussten aber offenbar auch Stellen, die “eigentlich” gut informiert sein sollten, bis zum Mittag nicht Bescheid. Und im Bericht bei ArsTechnica waren mehrere Fehler: Bei Sven Schäge von der Ruhr-Universität Bochum etwa stand das Telefon nicht mehr still, dummerweise war der deutsche Experte zwar auch zeitgleich mit Mathy Vanhoef auf der BlackHat-Konferenz gewesen, hatte aber mit der WPA2-Analyse nichts zu tun.

Auch die Information, WPA2 sei von den gleichen Experten “geknackt” worden, die Jahre zuvor das Vorgänger-Protokoll WEP obsolet gemacht hatten, erwies sich mit der Freischaltung der Website krackattacks.com als falsch, sogar der in dem wissenschaftlichen Paper als Co-Autor genannte Frank Piessens war nur als “Supervisor” “ehrenhalber erwähnt” worden. Die übrigen vorab durchgesickerten Dinge stimmen aber 🙂 … Das Problem ist äußerst gravierend, auch wenn Router-Hersteller und die WiFi-Alliance darauf hinweisen, dass ein Angriff ja nur aus unmittelbare Nähe möglich ist und “bislang keine tatsächlich erfolgten Angriffe bekannt” seien. Betroffen ist letztlich jedes WLAN-Device, vom Smartphone über Webcams bis hin zum “intelligenten” Türschloss.

In der Pflicht sind zuallererst die Betriebssystem-Hersteller, für Windows, OSX, iOS, Linux und Android muss der WLAN-Protokoll-Stack nachgebessert werden. Schon jetzt ist klar, dass das bei vielen IoT-Devices niemals passieren wird. WLAN-Router können, müssen aber nicht betroffen sein. Auch hier ist dringlichst anzuraten, bis zur erfolgreichen Installation von etwaigen Firmware-Updates einstweilen wie in offenen WLANs zu verfahren und VPNs zu nutzen.

 

WLAN-Verschlüsselung WPA2 ist offenbar geknackt · Deutschlandfunk Nova

Deutschlandfunk Nova – Hielscher oder Haase vom 16.10.2017 (Moderation: Diane Hielscher)

WPA2-Verschlüsselung – Gravierende Sicherheitslücke bei WLAN-Verschlüsselung

Deutschlandfunk – Forschung aktuell vom 16.10.2017 (Moderation: Arndt Reuning)

 

P.S. 17.10.2017 – Mittlerweile trudeln die ersten Patches oder zumindest Patch-Ankündigungen ein 🙂 … Einen Überblick gibt es bei Heise.

Wie praxisrelevant oder tatsächlich gefährlich die ungestopfte Lücke ist, darüber kann man unterschiedlicher Meinung sein. Natürlich – wenn man immer ein VPN benutzt, besteht kein Anlass zur Panik, nur welcher Laie macht das schon? Die BSI-Warnung war schon richtig und genau das, was ich ja auch gesagt habe: Man sollte sich wie in einem offenen WLAN verhalten. Die Mitteilung von AVM in Sachen Fritzbox ist, was die weit verbreiteten Geräte betrifft, eine gute Nachricht. Die im heimischen Wohnzimmer unrealistische Voraussetzung, dass der Angreifer-AP näher am Client sein muss als der legitime Router sieht in Firmen, Cafes oder Bahnhöfen schon wieder viel realistischer aus. Und dass sich der Client “freiwillig” ummelden muss, ist normaler als es klingt, schließlich beginnen ja viele Angriffe damit, die bestehende Verbindung mal eben abzuschießen 🙂

Smartphone-App als Schuldbeweis? Die Nutzer von ByLock gelten in der Türkei als Terroristen

Auch ein Jahr nach dem gescheiterten Militärputsch herrscht in der Türkei der Ausnahmezustand. Und nach wie vor kommt es zu Massenentlassungen und Verhaftungswellen – der Vorwurf an die Betroffenen: Sie seien Anhänger der Gülen-Bewegung, oder wie es im Sprachgebrauch von türkischer Regierung, von Behörden und der regierungsnahen Presse heißt, sie seien Mitglieder der FETÖ, der „Fethullah-Gülen-Terrororganisation“ und hätten den Putschversuch unterstützt. Eine zentrale Rolle dabei spielt eine außerhalb der Türkei praktisch völlig unbekannte Smartphone-App. „ByLock“ heißt die – und wer die auf seinem Handy installiert hat, gilt in der Türkei als Terror- oder Putsch-Unterstützer.

ByLock galt einmal in der Türkei als ganz toller Geheimtipp für vertrauliche, End-zu-End-verschlüsselte Kommunikation. Bedarf dafür gab/gibt es ja im Reich des in irgendwelchen nationalistischen, religiösen oder vielleicht auch nur in Wirklichkeit ganz pragmatisch gewinnorientierten Sphären schwebenden Ministerpräsidenten/Präsidenten/nach einer kleinen Umgestaltung der türkischen Verfassung 🙂 wieder “Reis” Recep Taijip Erdogan genug. Peinlicherweise war ByLock entweder ein Programmier-Desaster oder eine besonders gelungene Honeypot-Aktion des türkischen Geheimdienstes.

Von außen, mit “normalen” journalistischen Methoden lässt sich zur Zeit nicht seriös klären, was eigentlich bei ByLock losgewesen ist. Offizielle türkische Quellen und regierungsnahe türkische Medien sind momentan – vorsichtig ausgedrückt – etwas einseitig. 🙂 Bei den betroffenen ByLock-Beschuldigten geht es – kein Spaß – um die Lebensexistenz. Aber natürlich ist auch, trotz der bislang von türkischer Seite nicht nachgewiesenen Verantwortung der Gülen-Organisation für den Putschversuch, die Gülen-Bewegung kein richtig guter Auskunftsgeber. Dass sie zielgerichtet versucht hat, ihre Anhänger in Schlüsselpositionen in der türkischen Verwaltung; in Justiz, Polizei und Militär zu bringen, das darf man wohl als gesichert ansehen. Nur war das ja genau der Masterplan auch der AKP- in den Zeiten der sehr engen Verbindung zwischen Recep Taijip Erdogan und Fetullah Gülen.

Walter McDaniel, Journalist und Freelance-Autor für diverse Online-Medien hat in seinem “ByLock Report” einmal sehr ausführlich die im Netz rekonstruierbare Historie des unglückseligen Messengers recherchiert und aufgelistet; insbesondere räumt er hier auch mit den in verschiedenen türkischen Medien referierten angeblichen “Besonderheiten” von ByLock auf, die angeblich die “verschwörerische Natur” von ByLock beweisen könnten. Worauf er allerdings nicht eingeht: Angeblich soll es – laut einem Untersuchungsbericht türkischer Oppositionsparteien – wobei “Opposition” hier auch wiederum nicht im landläufigen Sinne zu verstehen ist 🙂 – ByLock-Versionen gegeben haben, die ab einem bestimmten Zeitpunkt nur noch “per Hand” innerhalb der Gülen-Bewegung verteilt worden sind. Und angeblich sollen hier auch die berüchtigten Ein-Dollar-Noten eine Rolle gespielt haben, als Zugangscode für ByLock +++

Klingt reichlich abstrus. Fazit auf jeden Fall: Wer einmal irgendwann – aus welchen Gründen auch immer – ByLock auf seinem Smartphone installiert hatte, sollte dieses auf gar keinen Fall bei einer eventuellen Einreise in die Türkei mitnehmen. Ein für diesen Zweck gebraucht gekauftes Gerät ist auch eine ganz schlechte Idee. Und selbst ein Billig-Neugerät birgt Risiken: Es soll nämlich Smartphone-Produzenten in China geben, die Bauteile aus ausgedienten Geräten wiederverwenden – mit sehr viel Pech könnte man sich damit ebenfalls ByLock-Spuren einhandeln. Auch so eine Falsch-Beschuldigung würde sich mit einer sehr diffizilen forensischen Untersuchung ausräumen lassen. Wenn die – sicherlich völlig unabhängig agierenden türkischen Gerichte 🙂 – nach einem dreijährigen Bearbeitungsstau und entsprechender Untersuchungshaft-Dauer diesem Experten-Gutachten dann auch folgen.

Oder man lässt sich einfach momentan etwas Zeit mit der Türkei; wenn als Außenstehender möglich. Herr Erdogan ist ja gerade etwas erregt und lässt weltweit verhaften.

Deutschlandfunk – Computer und Kommunikation vom 19.08.2017 (Moderation: Manfred Kloiber)