Schlagwort-Archive: Wissenschaft

Zellsimulation mit “transparentem” neuronalen Netz

Über den “großen Haken” beim Paradepferd der modernen Informatik, den “Künstlichen Neuronalen Netzen” haben wir schon des öfteren gesprochen: So beeindruckend die Ergebnisse auch sind – wie die Algorithmen letztlich zu ihren Resultaten kommen und was in den internen Schichten genau abläuft, das können selbst die jeweiligen Programmierer nicht genau sagen. In vielen Szenarien reicht der pragmatische Ansatz “Hauptsache, das Ergebnis ist gut” ja auch; in vielen anderen aber auch nicht. (Wobei eine gewisse sehr problematische Tendenz unverkennbar ist, die Resultate einer vermeintlich objektiven “Künstlichen Intelligenz” eben nicht zu hinterfragen.)

Aber dieses „Black Box“-Konzept ist ohnehin nicht alternativlos, das zeigen amerikanische Wissenschaftler jetzt im Fachblatt „Nature Methods“.

Screenshot from d-cell.ucsd.edu, where researchers can use DCell, a new virtual yeast cell developed at UC San Diego School of Medicine.

Bei “DCell”, dem “Visible neural network” von Trey Idecker von der University of California San Diego, organisieren sich die internen Schichten (“Layer”) und ihre Verknüpfungen im Gegensatz zu herkömmlichen neuronalen Netzen nicht einfach im Training selbst, (als letztlich rein statistisches “Fitting” zwischen einem “Input” und einem “Output”-Wert), ihre Architektur ist von vornherein in den wesentlichen Strukturen vorgegeben. Den Bauplan für “DCell” liefert der bestens erforschte Modellorganismus der Molekularbiologen, die Bierhefe (Saccharomyces cerevisiae).

Die erste, die Eingangsschicht entspricht den einzelnen Genen und ihren Mutationen; und die letzte, die Ausgangsschicht entspricht dem Verhalten der Zelle, nämlich wie schnell sie wächst. Und die Schichten dazwischen, das sind praktisch die physikalischen Größenordnungen in der Zelle, jede folgende Schicht entspricht einer größeren, komplexeren Strukturebene.   

Die ersten Schichten des Neuronalen Netzes bilden also den Nanometerbereich ab, wo ein Gen den Bauplan für ein Protein liefert. Die späteren Schichten repräsentieren dann Strukturen wie Membranen, die letzten die größeren Einheiten wie Zellkern oder Mitochondrien. Damit ist das „Visible Neural Network“ im Grunde die digitale Simulation einer kompletten Zelle, die sich nun mit Trainingsdaten füttern lässt. Und die gibt es im Falle der Bierhefe reichlich:

Es gab so viele Studien in den letzten zehn Jahren – wir haben Daten über 12 Millionen einzelne Genmutationen, und da hat jeweils jemand im Labor nachgemessen, welche Auswirkung die Mutation auf das Wachstum der Hefezelle hatte.

Mit dem trainierten Algorithmus konnten Trey Ideker und seine Kollegen anschließend nicht nur die schon bekannten Auswirkungen einzelner Mutationen wie in einem digitalen Modellbaukasten nachvollziehen, sondern sogar in den internen Schichten des Neuralen Netzes noch neue Entdeckungen machen. Es gibt nämlich offenbar selbst bei der intensiv erforschten Bierhefe Proteinkomplexe bzw. “zelluläre Subsysteme”, die bislang unbekannt waren, aber durchaus Auswirkungen auf das Zellwachstum haben. Letztendlich geht es Trey Ideker aber nicht um Bierhefe – er ist Krebsforscher. Er sucht nach Wegen, das Wachstum von Tumorzellen zu verhindern. Und vielleicht könnte eine digitale Zellsimulation auch hier wichtige Erkenntnisse liefern. Was die nötigen Trainingsdaten angeht, ist Ideker recht optimistisch:

Ich schätze mal, so zu Beginn der 2020er Jahre werden wir rund eine Million Krebs-Genome öffentlich verfügbar haben, dann wäre eine Big-Data-Analyse kein Problem. Aber die größere Herausforderung ist: Haben wir genug Wissen über die Biologie von Krebszellen, das wir für die Schichten in unserem Neuronalen Netz brauchen? Nein, haben wir nicht.

Trey Ideker und seine Kollegen, aber auch viele andere Forscher-Teams weltweit arbeiten deshalb intensiv daran, öffentliche Datenbanken über die interne Funktionsweise von Tumorzellen aufzubauen. Mit einer digitalen Zellsimulation, so Idekers Vision, könnte man dann vielleicht auch ein erst in jüngster Zeit erkanntes Problem in den Griff bekommen: Dass nämlich Krebs bei jedem einzelnen Patienten anders funktioniert.

Deswegen brauchen wir dieses Neuronale-Netz-Modell, weil all diese möglichen Varianten in unserem Modell abgebildet wären. Bei dem einen Patienten wird vielleicht die eine Route durch die Ursache-Wirkungs-Hierarchie aktiviert, bei dem zweiten eine andere. Bevor wir so ein komplettes Modell haben, können wir das nicht voraussagen.

Deutschlandfunk – Forschung aktuell vom 06.03.2018 (Moderation: Lennart Pyritz)

Überlebenshilfe für Smartphone-Zombies

Es gibt ja einige sarkastische Zeitgenossen, die halten das für einen ganz normalen evolutionären Selektions-Prozess, wenn manche ihrer Mitmenschen beim allzu eifrigen Pokemon erhaschen oder beim neue-Instagram-Likes-abchecken-im-Sekundentakt unter die Räder kommen oder in Flüsse, Seen und Abgründe stürzen. Die Forscher vom Fraunhofer-Institut für Kommunikation, Informationsverarbeitung und Ergonomie FKIE sehen das gottlob nicht so rabenschwarz – sie haben sich vielmehr Gedanken gemacht, wie man die Überlebensrate der mit starrem Blick nach unten durch unsere Metropolen streifenden Multitasker verbessern kann.

Ihre Idee – drei tempoabhängige GUI-Varianten für alle Apps – klingt zunächst einmal etwas skurril, aber angesichts der faktischen Realität (die ja ebenso skurril ist…) doch ganz brauchbar und wahrscheinlich auch relativ leicht umzusetzen. Zumindest als Opt-In-Alternative (ähnlich der iOS-Funktion “beim Autofahren nicht stören”…) könnte ich mir gut vorstellen, dass der Vorschlag umgesetzt wird – Maßnahmen wie orange Warnlichter auf dem Boden oder eben doch ein drastisches Handy-Verbot für Fußgänger bleiben um ihre Bürger besorgten Stadtoberen ja völlig unbenommen. 🙂

Fußgänger & Handy: Größerer Text statt Unfall · Dlf Nova

Deutschlandfunk Nova – Hielscher oder Haase vom 06.03.2018 (Moderation: Till Haase)

Wie KI und Maschinelles Lernen die Arbeitswelt der Zukunft verändern

Wenn man als Forscher beim MIT arbeitet, dann ist es vielleicht recht naheliegend, die Auswirkungen von neuen Technologien auf die Lebenswelt kommender Generationen insgesamt eher positiv zu sehen. Dass diese Sichtweise per se auch schon stimmt, ist aber noch lange nicht erwiesen. Ich bin da z.B.  – obschon ja tendenziell Optimist und Early Adopter – ganz ernsthaft sehr skeptisch, wenn ich die absolute Smartphone-, Tablet- oder Spielkonsolen-Abhängigkeit der Kinder meiner Verwandten und Freunde sehe. Das ist ein gravierender Kulturwandel, der definitiv auch signifikante Auswirkungen auf die Psyche, auf Denk- und Kommunikationsstrukturen hat; von eventuellen Kollateralschäden durch die vielleicht doch vorhandene Belastung durch elektromagnetisches Dauerfeuer mal ganz abgesehen…

Die Auswirkungen der Automatisierung in der Industrie sind ja bei uns immer noch erst in einer Anfangsphase, der sehr viel stärkere Effekt beruht auf Billigarbeit in aufstrebenden Volkswirtschaften, wo Arbeitslöhne, Arbeitszeiten und Arbeitnehmerschutz halt noch etwas rustikaler gesehen werden. Aber irgendwann werden sich die ökonomischen Bedingungen, Erwartungen und der Lebensstandard weltweit angeglichen haben. Und irgendwann werden auch die immer rasanter fortschreitenden “Fähigkeiten” von KI- oder Maschinenlern-Systemen Einzug in Berufsfelder halten, in denen die heute dort Tätigen nicht im Traum auf die Idee kämen, sie seien eines Tages “ersetzbar” oder “überflüssig”.

c’t-Schlagseite / Ritsch-Renn.com

Vielleicht gibt es ja bis dahin entsprechende gesellschaftliche Anpassungen – bedingungsloses Grundeinkommen und/oder VR-Bespaßung für die Abgehängten 🙂 … Ein Aspekt beim Ausblick der Forscher vom MIT in der Science-Perspektive ist ganz wichtig: Ein sehr kritischer Blick darauf, wie die spektakulären Ergebnisse von ML und KI eigentlich zustande kommen, und wie verlässlich sie sind – der bleibt sehr ratsam. 😉

Deutschlandfunk Nova · Arbeitswelt der Zukunft: Wenn eine KI eure Jobs klaut

Deutschlandfunk Nova – Hielscher oder Haase vom 22.12.2017 (Moderation: Till Haase)

Deutschlandfunk – Forschung aktuell vom 22.12.2017 (Moderation: Ralf Krauter)

Wochenrückblick: Bitcoin ist in der “ganz normalen” Finanzwelt angekommen – und steckt weiter in der Sackgasse

Seit letztem Sonntag ist die Cyberwährung Bitcoin “endgültig” in der “ganz normalen” Finanzwelt angekommen (was natürlich nicht heißt, dass nicht auch dort Irrationalität, Spekulation, Abzockerei oder sogar Betrug völlig gang und gäbe sind 🙂 …) – seit Sonntag gibt es an der Optionsbörse Cboe in Chigaco ein “offizielles”, zugelassenes Derivat, einen “Future” oder auf gut Deutsch, einen “Terminkontrakt” auf den Bitcoin.

Ganz vereinfacht gesagt: Damit können nun auch alle Leute auf den Kurs der Cyberwährung wetten, die sich mit den technischen Feinheiten und potentiellen Gefahren nicht beschäftigen wollen, die bei einem direkten Einstieg in Bitcoin drohen. Der Future erlaubt natürlich auch, auf einen Crash zu setzen – aber bislang sieht es nicht so aus, als ob dies die allgemein vorherrschende Kursprognose der Anleger oder Spekulanten ist. Natürlich ist der Bitcoin-Future – (ähnliche Konstruktionen an anderen Börsen werden folgen…) ein super-super-spekulatives Anlagevehikel, da ja schon der Basiswert  super-super-spekulativ und volatil ist.

Aber letztlich sorgt das Derivat nach meiner Einschätzung eigentlich für eine weitere Konsolidierung des Bitcoin-Kurses und der Bitcoin-Werthaltigkeit. (Ich erinnere immer wieder gern daran, dass die Wertzumessung für eine Währung oder für einen anderen Vermögensgegenstand (Gold, Diamanten oder Immobilien…) auch immer nur eine Frage des Vertrauens und einer impliziten Vereinbarung ist. Würden Sie zur Zeit Vertrauen in die von den Zentralbanken Venezuelas oder Simbabwes herausgegebenen Währungen setzen? Nein. Die Bewohner der hyper-inflationären Staaten auch nicht, für die ist momentan der Bitcoin die “solidere” Alternative 🙂 …)

Embed from Getty Images

Das alles ändert natürlich nichts daran, dass sich ohne eine Änderung im Algorithmus (der allerdings alle Beteiligten – Bitcoin-Besitzer, Cyberwährungsbörsen und vor allem die mächtigen “Transaktions-Notare”, die “Miner” zustimmen müssten…) Bitcoin in einer ökologischen (und eigentlich, wenn wir uns die Transaktionskosten und die Transaktionsgeschwindigkeit ansehen…) auch ökonomischen Sackgasse befindet.

Ich habe mich bei der Vorbereitung des Gesprächs heute im DLF “Umwelt und Verbraucher” gefragt, was eigentlich passieren würde, wenn staatliche Akteure; China und vielleicht auch noch weitere Länder, in denen Bitcoins mit billigem Strom “geschürft” werden, den Betrieb dieser Rechen-Farmen verbieten würden. Ein sofortiger Crash? Unwahrscheinlich, weil man ja aufgrund plötzlich fehlender Transaktions-Beglaubigungen gar nicht mehr in normalem Umfang handeln könnte. Zweitens – nach dem schlagartigen Wegfall eines Großteils der Hash- und Bitcoin-Generierungs-Kapazität würde die Schwierigkeit der “Rechenaufgabe” zur Beglaubigung der Blockchain-Blöcke bzw. der Generierung neuer Bitcoins wieder nach unten angepasst. Und die Bitcoin-Welt wäre von daher ziemlich schnell wieder “in Ordnung”.

Das sind wirklich sehr interessante Fragen bei einer wirklich sehr neuen und “prinzipiell” sehr genialen Konzeption, die alle möglichen althergebrachten “Weisheiten” in Frage stellt. Wer etwas “Spielgeld” hat, macht einfach mit. Wer auf keinen Fall einen Totalverlust des eingesetzten Kapitals verkraften kann oder mit den ökologischen Kollateralschäden nicht zurecht kommt (dann bitte aber auch bei Facebook und Instagram abmelden 🙂 …), lässt es besser bleiben. 🙂

Deutschlandfunk Nova – Hielscher oder Haase vom 11.12.2017 (Moderation: Diane Hielscher)

Deutschlandfunk – Umwelt und Verbraucher vom 15.12.2017 (Moderation: Jule Reimer)

 

Disclaimer: Ich selbst bin übrigens auch seit September mit einem relativ kleinen Betrag in Bitcoin investiert (nachdem ich zuvor schon jahrelang über die Cyberwährung berichtet, mich aber als notorischer und warnender “Bedenkenträger” immer zurückgehalten hatte… .) Allerdings noch nicht einmal direkt, sondern über ein Zertifikat, eine “Abbildung” des Bitcoin-Kurses. Ich gehe einmal davon aus, dass meine publizistische Reichweite nicht marktbeeinflussend ist 🙂 . Ansonsten noch einmal die Warnung: Ein Investment in Bitcoin ist hochspekulativ. 🙂

Was Sie Ihre Home-Assistentin schon immer über Sex fragen wollten, sich aber nicht getraut haben

Klar, mit irgendwelchen Fragen oder Problemen zum Thema Gesundheit oder Sex – wobei die ja von Gesundheit im engeren Sinne schnell in den Bereich “Lifestyle” changieren können – damit setzt man sich nicht ins Wartezimmer des Hausarztes und versumpft dort erstmal; man konsultiert natürlich das Netz. Nur wie? Klassisch per Webbrowser und Google, oder zeitgemäß per Sprach-Smart-Assistent auf dem Handy oder der Box im Wohnzimmer? Da gibt es durchaus Qualitätsunterschiede, das haben jetzt Wissenschaftler aus Neuseeland im renommierten Fachblatt BJM herausgefunden und publiziert.

Embed from Getty Images

Die klassische Recherche im Webbrowser liefert die besten, zutreffendsten Ergebnisse – so die Diagnose der Experten. Egal, ob es um das sachgemäße Überstreifen eines Kondoms, das Einführen von Vaginal-Eiern oder um “Trans-Health” ging – die Voice-Assistent-Systeme waren immer leicht durch den Faktor “Lost in Translation” beeinträchtigt; selbst bei einer mit fester, lauter Stimme durchgeführten Anfrage 🙂 Wer sich nach Durchsicht der Studie fragt: “jetzt wirklich?”, ist auf der richtigen Fährte: Die Weihnachts-Ausgabe des BMJ ist traditionellerweise der Platz für zwar höchst seriös daherkommende und dargestellte Studien – die aber letztlich mit einem Augenzwinkern verfasst worden sind. Umso lustiger, wenn das manche Kollegen nicht mitbekommen.

Deutschlandfunk Nova – Hielscher oder Haase vom 14.12.2017 (Moderation: Diane Hielscher)

Elon Musk gewinnt Wette – und Australien hat die größte Batterie der Welt

Strom aus Solarzellen, aus Wind- und Wasserkraft, die sogenannten erneuerbaren Energien also, haben alle möglichen Vorteile: Sie sind unbegrenzt verfügbar und nicht klimaschädlich – aber da gibt es ja leider diesen großen Haken: Die Zeiten mit der höchsten Stromproduktion, wenn die Sonne scheint und der Wind bläst, das sind nicht zwangsläufig die Zeiten mit dem höchsten Strombedarf. Und einmal weiß man also gar nicht, wohin mit der schönen Energie, und die Netze drohen zu kollabieren. Oder umgekehrt: Licht, Computer und Motoren sollen und müssen auch laufen, wenn es duster ist und Flaute herrscht. Man braucht also Strompuffer – Batterien; oder nach unserem Sprachgebrauch: Akkus.

In Südaustralien ist heute die größte Batterie/der größte Akku der Welt in Betrieb gegangen – und da kann sich einer besonders freuen: Der Chef der Elektroautofirma Tesla, Elon Musk. Der hätte nämlich die Kosten in Höhe von 50 Millionen Dollar für das Aggregat auf der Fläche eines Football-Feldes selbst zahlen müssen, wenn das Ganze nicht innerhalb von 100 Tagen nach Vertragsabschluss fertig installiert und betriebsbereit gewesen wäre – aber die (wahrscheinlich doch sehr wohlkalkulierte…) Wette hat ja gehalten, das war schon seit ein par Tagen klar. Und Elon Musk bzw. Tesla bekommt das Geld und zusätzlich den beabsichtigten PR-Effekt: Wir können kurzfristig liefern, wir sind zuverlässig, wir haben die Kapazitäten für die Akkus.

Embed from Getty Images

So ganz klar war das ja in letzter Zeit nicht, selbst für das Kerngeschäft von Tesla – die Produktion von Elektro-Autos. Ich würde sogar auch vermuten, dass das prestigeträchtige “Super-Batterie”-Projekt in Süd-Australien bei Tesla mit absoluter Top-Priorität behandelt worden ist, und dass dafür halt andere Sparten im Zweifelsfall mal etwas “leiden” mussten. Aber auch wenn das jetzt also ein etwas aufgehübschter Showcase war, der vielleicht die Frage “gibt es schon genug Kapazitäten, um das erneuerbare-Energien-Dilemma direkt und zu vertretbaren Kosten zu lösen” nicht ganz realistisch beantwortet – die Perspektive ist jedenfalls da. Und das ist ja auch notwendig – wenn z.B. ein Big Player wie Google komplett auf Solar- und Windenergie umstellt.

Deutschlandfunk Nova – Hielscher oder Haase vom 01.12.2017 (Moderation: Diane Hielscher)

Die Autos in Google Street View liefern verlässliche demographische Informationen

Eine komplette Volkszählung ist ja speziell bei uns hier in Deutschland immer noch ziemlich unpopulär – aber trotzdem ist klar: Es ist schon sehr wichtig und aufschlussreich zu wissen, wer z.B. in einem bestimmten Stadtviertel so wohnt; wie hoch da das durchschnittliche Einkommen ist, der Bildungsstand, die Arbeitslosenrate. Auch wenn man sich nur auf Stichproben stützt: Verlässliche demographische Daten zu sammeln, ist bislang ziemlich aufwendig und teuer. Es gäbe aber eine einfache und sehr billige Alternative, sagen amerikanische Wissenschaftler: Einfach bei Google Street View nachgucken, was dort, auf den Aufnahmen für Autos herumfahren und herumstehen.

Die Grundidee ist natürlich schon auf den ersten Blick einleuchtend und nachvollziehbar – wenn da in einem Stadtviertel am Straßenrand überwiegend Porsches, Mercedesse und BMWs parken, dann wohnen da wohl eher gutbetuchte Leute. Und in einem Viertel, wo uralte Schrottkarren vor sich hinrosten, da sieht es eher anders herum aus. Jetzt haben Informatiker u.a. von der Stanford University diesen intuitiven Ansatz einmal in großem Maßstab ausprobiert – natürlich automatisiert, mit sogenannter Künstlicher Intelligenz. Die Wissenschaftler haben Google-Street View-Ansichten von 200 Städten in den USA ausgewertet, insgesamt 50 Millionen Einzelbilder.

Embed from Getty Images

Dem KI-Algorithmus haben die Forscher zunächst einmal beigebracht, Automodelle (und deren Baujahre…) aus allen Perspektiven zu erkennen – dann haben sie sich für einen kleinen Teil der untersuchten Städte oder Bezirke demographische Daten aus anderen Quellen besorgt und dann ihr Deep-Learning-Programm von der Leine gelassen: Wie korrelieren denn die demographische Daten zu den auf Street View beobachteten Automodellen? Offenbar sehr gut und sehr aussagekräftig. Wohlgemerkt – das alles ist nur Statistik. Aber ab einer bestimmten größeren Zahl kommt die Statistik der Realität schon ziemlich nah. 🙂

Deutschlandfunk Nova – Hielscher oder Haase vom 29.11.2017 (Moderation: Diane Hielscher)

Der US-Wahlkampf hat 2016 das Familienfest Thanksgiving verdorben

Es ist schon erstaunlich – oder auch gruselig, was man mit den Daten herausfinden kann, die wir alle produzieren und die über uns erhältlich sind. Zum Beispiel, dass letztes Jahr in US-amerikanischen Familien mit gemischter politischer Präferenz – dort, wo es also sowohl Anhänger von Donald Trump als auch von Hillary Clinton gab, tendenziell der Haussegen schief hing: Das Dinner mit dem traditionellen “Turkey” fiel kürzer aus als sonst, und viele Leute blieben anscheinend lieber gleich zuhause – ulkigerweise war dieses “ohne mich”-Phänomen nur bei Republikaner-Wählern zu verzeichnen, die Demokraten-Anhänger machten sich immerhin auf den Weg zu ihren Lieben.

Woher Keith Chen von der University of California und Ryne Rohla von der Washington State University das so genau wissen wollen? Die beiden Wirtschaftswissenschaftler mit Faible für psychologische und soziologische Phänomene haben Smartphone-Daten ausgewertet, haben die Bewegungsmuster der Handies (bzw. deren Besitzer…) am Thanksgiving-Day 2016 nachverfolgt und mit den Daten aus 2015 verglichen. Wenn da 12 Smartphones für 3 Stunden am Abend beisammen saßen, dann war das wohl eine Familie beim Truthahn-Schmausen. Und wenn ein Teil der Handies (bzw. deren Besitzer…) in Bezirken zuhause war, in denen 75% der Stimmen für Donald Trump abgegeben worden war, und ein anderer Teil in Orten, die für Hillary Clinton gestimmt hatten – dann saßen da offenbar Verwandte mit unterschiedlicher politischer Präferenz am Tisch. Zumindest mit einer entsprechenden statistischen Wahrscheinlichkeit.

Embed from Getty Images

Außerdem haben die Forscher noch die (ebenfalls öffentlich verfügbaren…) Informationen über die geschalteten bzw. gesendeten TV-Wahlwerbespots hinzugezogen – das Ergebnis: In den Regionen mit intensiver Wahlwerbung (also insbesondere in den “Swing States”, den Bundesstaaten mit “unentschlossener” Wählerschaft war der Effekt “kürzere Thanksgiving-Dinner, weniger Anreisen” deutlich – in anderen Regionen nicht. Das spricht für eine Kausalität (und damit für einen “Erfolg” der Wahlwerbung…) – der US-Wahlkampf 2016 hat auf Polarisierung gesetzt – anscheinend haben die Russen da auch noch mal einen draufgesetzt – und der Polarisierungs-Effekt ist in den amerikanischen Familien angekommen.

Natürlich gehen bei solchen Studien immer die Alarm-Leuchten an: Ist die vermeintliche Kausalität tatsächlich haltbar? Ganz spontan fallen einem da natürlich sofort zwei andere Faktoren ein, die ebensogut wie die politischen Meinungsverschiedenheiten die Anreise-Freude oder die Verweildauer beim Truthahn-Essen hätten beeinflussen können: Das Wetter. Und eventuelle Grippe-Epidemien – theoretisch könnten solche Einflüsse zufällig exakt parallel zu der Werbespot-Intensität aufgetreten sein, und damit eine Kausalität nur vorgegaukelt haben.

Embed from Getty Images

Die Forscher haben allerdings diese Fehlerquelle sehr wohl im Auge gehabt und nach Kräften auszuschließen gesucht: Sie haben nur Familien ausgewertet, die räumlich relativ nahe beieinander gewohnt haben und keine großen Reisestrecken zurücklegen mussten – wenn es also Faktoren wie Wetter oder Grippe gegeben haben sollte, dann hätte dies Familien mit “einheitlicher” und Familien mit “gemischter” politischer Präferenz gleichermaßen betroffen. Das alles sieht also ziemlich plausibel aus. 🙂

Weniger Familientreffen: US-Wahlkampf hat Thanksgiving verdorben · Deutschlandfunk Nova

Deutschlandfunk Nova – Hielscher oder Haase vom 13.11.2017 (Moderation: Diane Hielscher)

Algorithmus knackt Captchas nach menschlichem Vorbild

Das Wort „Captcha“ ist ein Akronym – ins Deutsche übersetzt steht es für „vollautomatischer öffentlicher Turing-Test zur Unterscheidung von Computern und Menschen“. Die Idee, so einen Mensch-Maschine-Test als Zugangskontrolle für Webseiten zu verwenden, stammt aus dem Jahr 2000; der Informatik-Professor Luis von Ahn gilt als der Erfinder. Und seit dem Jahr 2000 läuft ein sehr interessantes Wettrennen: Auf der einen Seite gibt es immer wieder neue Ansätze, Captchas automatisch zu knacken – und ebenso findige Experten sorgen anschließend im Gegenzug dafür, die gefundenen Schwachstellen auszubügeln.

Textbasierte Captchas, also die mit krakeliger, verzerrter Schrift sind nach wie vor die häufigsten – und bei einem Teil von ihnen erfüllt man als menschlicher Entzifferer ja sogar eine sinnvolle Aufgabe und hilft OCR-Algorithmen bei der Digitalisierung von Büchern oder der Erschließung von StreetMap-Bildern auf die Sprünge. Als besonders verlässlicher Mensch-Maschine-Test gelten die Text-Captchas aber schon seit Jahren nicht mehr – da automatische Bot-Scripte die Zugangshürden von Webseiten ja in einem massiven Dauerfeuer attackieren, reicht den Algorithmen schon eine niedrige Erkennungsrate aus, um genügend oft “durchzukommen”.

Die KI-Experten beim Venturekapital-Unternehmen “Vicarious” hatten übrigens selbst schon 2013 den Erfolg ihres “Recursive Cortical Networks” (RCN) beim Knacken von textbasierten Captchas vermeldet – damals aber noch ohne nähere Details zu nennen, wie das Ganze im Detail funktioniert. Das hatte verschiedene Motive, wie der Gründer von Vicarious, Dileep George, auf Anfrage erläutert: Zum einen habe man damals die Einzelheiten in Hinsicht auf die Sicherheitsauswirkungen im Netz zurückgehalten, zum anderen sei man seinerzeit noch ein sehr kleines Team gewesen und habe sich mehr Zeit bei der Entwicklung des Algorithmus und der Firma nehmen wollen.

A representation of the letter A. [Credit: Vicarious AI]

Nicht ganz unwichtig dürfte dabei auch gewesen sein, dass das “Recursive Cortical Network”-Konzept praktisch das algorithmische “Kronjuwel” von Vicarious ist, das die Firma in den kommenden Jahren in einer Vielzahl von Bereichen, vor allem auf dem Feld der “Robotics” einsetzen und vermarkten will. Das wissenschaftliche Paper in “Science” mit den technischen Details reichte das Team also aus nachvollziehbaren Gründen erst ein, nachdem eine Reihe von Patenten auf RCN erteilt und veröffentlicht worden waren.

Wie gravierend die direkten Auswirkungen auf die noch vorhandene oder ohnehin schon nicht mehr vorhandene Sicherheit von Text-Captchas in der Praxis sind, darüber kann man streiten. Das Vicarious-Team betont die wesentlich höhere Effizienz seines RCN-Ansatzes im Vergleich zu herkömmlichen “Brute-Force-Deep-Learning”-Angriffen. Ein Gegenargument lautet: Die wesentlich höheren Ressourcen-Anforderungen beim “Deep Learning” sind kein großes Problem, sie stehen allseits zur Verfügung – und wenn nötig, lässt sich menschliche Hilfe beim Annotieren von Trainingsmaterial sehr billig einkaufen; bei Crowdworking-Diensten wie “Amazon Mechanical Turk”. (Dass sich Menschen ja ohnehin im Zweifelsfall auch gratis für das Lösen der Zugangs-Rätsel einspannen lassen, das haben wir schon einmal vor sehr langer Zeit beleuchtet 🙂 )

In comparison to RCNs, a deep neural network required a 50,000-fold larger training set to recognize a style of CAPTCHAs, and its accuracy deteriorated rapidly with even minor perturbations to the spacing of characters. [Credit: Vicarious AI]

Wie sowohl Prof. Marc Fischlin von der TU Darmstadt, Google und ja auch die Studienautoren bei Vicarious selbst betonen – für die Zugangskontrolle auf Webseiten stehen mittlerweile Alternativen wie bildbasierte oder verhaltensbasierte Captchas zur Verfügung, die auch noch ein Weilchen der KI-Weiterentwicklung trotzen dürften.

Aber letztlich geht es natürlich bei RCN überhaupt nicht konkret um das Knacken von Captchas. Der Algorithmus setzt ähnlich wie die Handschrift-Erkennung aus einem früheren Science-Paper auf Generalisierung, auf ein Konzept, das sich in Jahrmillionen bei der Evolution biologischer neuronaler Strukturen bis hin zum menschlichen Gehirn herausgebildet und bewährt hat. Und insofern ist es ja schon eine philosophische Frage von allerhöchstem Interesse, welche Methode sich in künftigen KI- und Roboter-Entwicklungen durchsetzen wird. Wahrscheinlich wird die Antwort aber ganz pragmatisch sein: Wie die “Intelligenz” zustande kommt, ist sekundär. Haupsache, sie funktioniert in der konkreten Aufgabensituation.

Deutschlandfunk – Computer und Kommunikation vom 28.10.2017 (Moderation: Manfred Kloiber)

Bayerischer Rundfunk – BR5 Computermagazin vom 5.11.2017 (Moderation: Christian Sachsinger)

 

Kohlmeisen-Evolution: Füttern macht die Schnäbel länger

Die zufällig auftretenden “Webfehler” im Erbgut, die Mutationen, sind sozusagen die Lose in der Lotterie des Lebens. Sie machen es überhaupt erst möglich, dass sich Arten auf bestimmte ökologische Nischen spezialisieren oder an Veränderungen ihrer Umwelt anpassen können. Wie Evolution und Selektion auf biochemischer Ebene funktionieren, darüber wissen wir heute natürlich sehr viel mehr als seinerzeit Charles Darwin. Aber den direkten Zusammenhang zwischen einer Modifikation im Genotyp und seinen Auswirkungen im Phänotyp, also im äußeren Erscheinungsbild des betroffenen Lebewesens oder in seinem Verhalten herstellen zu können, das bleibt auch im Zeitalter von DNA-Sequenzierung und Snip-Markern eine Herausforderung.

Bei den meisten phänotypischen Veränderungen sind nämlich gleich eine ganze Reihe von Genen beteiligt, und auch der Selektionsauslöser, der Umweltfaktor also, für den sich die phänotypische Veränderung im Glücksfall als vorteilhaft erweist, kann in Wirklichkeit ein Bündel von Einzelfaktoren sein. Die Forscher aus England und den Niederlanden sind sich bei ihrer in Science veröffentlichten Studie trotzdem sehr sicher: Sie haben der Evolution “in Echtzeit” über die Schulter schauen können, haben eine genotypische und phänotypische Modifikation im Erbgut einer Kohlmeisenpopulation beobachten und den dazu gehörigen Auslöser identifizieren können – den Menschen nämlich, genauer gesagt: Den britischen Vogelfreund.

Kohlmeise (Parus major) auf einem Zweig. Bild: Dennis van de Water, dvdwphotography.com

 

Nun wäre es natürlich sehr schön, auch gleich eine “passende” Erklärung zu haben, analog zu den von Darwin beschriebenen Beispielen für die Spezialisierung von Vogelschnäbeln – nach dem Motto: eine bestimmte Form ist optimal dafür, die Kerne aus Pinienzapfen herauszubekommen. Aber leider: So eine schöne, naheliegende Erklärung gibt es im Falle der britischen Futterhäuschen und der längeren Schnäbel der Kohlmeisen-Stammgäste eben nicht. Dass die paar Millimeter Längenzuwachs es einfacher machen, an das Futter heranzukommen, könnte zwar sein, ist aber absolut nicht zwingend. Der bessere Fortpfanzungserfolg der britischen Meisen mit längerem Schnabel bzw. der charakteristischen Genveränderung beruht auch keineswegs darauf, dass sie ihrem Nachwuchs direkt mehr Vogelfutter in die hungrigen Mäuler stopfen können als ihre Artgenossen in Holland – die Meisen suchen nämlich die Futterstellen im Winter auf, die Brutaufzucht findet im Frühjahr statt.

Letztlich könnte es sogar sein, dass die phänotypisch sichtbare Schnabelverlängerung ein “Fehlsignal” ist und der offenbar vorhandene Selektionsvorteil und “Fitness-Faktor” irgendwo anders liegt – da steht den Biologen noch eine Menge Arbeit bevor, geeignete Kontrollexperimente zu konzipieren und durchzuführen.

Kohlmeisen-Evolution – Füttern macht die Schnäbel länger

Deutschlandfunk – Forschung aktuell vom 20.10.2017 (Moderation: Ralf Krauter)