Schlagwort-Archive: Deutschlandfunk

Schwierige Zeiten erfordern besondere Maßnahmen. Konsultieren Sie den Zauberwirker Dr. John!!!

Die Menschen sind verunsichert. Ein Virus kursiert, von dem man noch nicht so ganz weiß, wie gefährlich es ist – sagen wir mal im Vergleich zu Ebola. Da kann man schon mal als Notenbankchef von „schöpferischer Zerstörung“ schwafeln, wenn Solo-Selbstständige oder Kleinunternehmer (mit in Normalzeiten völlig gesunden Geschäftsmodellen…) aufgrund staatlicher Anordnungen von heute auf morgen keine Einnahmen mehr haben. Hauptsache, die eigene dicke Kohle fließt weiter. (Aber aufpassen, lieber Herr Holzmann – Sie gehören zur Haupt-Corona-Zielgruppe. Es gibt eben nicht nur ökonomische, sondern auch biologische Reinigungsprozesse… 🙂 )

Da kann man auch schon mal als öffentlich-rechtlicher Arbeitgeber komplett die Solidarität mit seinen freien Mitarbeitern sausen lassen. Auch wenn man gar keine Einnahmeausfälle hat, weil die (mittlerweile gesellschaftlich ja hoch umstrittene…) Gebühren-/Beitrags-Kohle völlig ungemindert wie ursprünglich budgetiert weiterfließt. Im Gegensatz zur Situation bei Restaurants, Konzertveranstaltern, Künstlern und Taxifahrern. Auch aufpassen, liebe festangestellten und besserverdienenden Entscheidungsträger – wir sitzen alle im gleichen (bislang komfortablen…) Glashaus!

Aber was rede ich denn da? Für alle denkbaren Probleme der Welt – von Potenzschwäche bis Geldarmut – trudeln täglich viele liebe, attraktive Lösungsvorschläge in meinem Email-Postfach ein. Ich weiß gar nicht, wie viele Millionen-Vermächtnisse ich schon ungenutzt habe verfallen lassen – ich komme eben einfach vor lauter Lebensmittel-Hamstern gar nicht dazu, die alle ordnungsgemäß zu reklamieren. Heute habe ich aber einmal eine Mail bekommen, die etwas aus dem Rahmen fällt.

Embed from Getty Images
Hokus. Pokus. Fidibus!!

Denn hier wird die Problemlösung einfach einmal ganz offen, ganz ungeniert in einen wundervollen, freischwebenden Bereich transferiert: In die Welt des Zaubers. Nicht zu Harry Potter, sondern zu Dr. John. Ich möchte Ihnen daher ausnahmsweise diese Botschaft nicht vorenthalten:

Mein Leben ist zurück !!!

Nach 2 Jahren Ehe ging meine Frau zu einem anderen Mann. Ich hatte das Gefühl, mein Leben würde bald enden. Ich hätte fast Selbstmord begangen. Ich war sehr lange emotional niedergeschlagen. Dank eines Zauberwirkers namens Dr. John, den ich online kennengelernt habe, als ich im Internet surfte. Ich bin auf viele Zeugnisse über diesen Zauberwirker gestoßen. Einige Leute sagten aus, dass er ihren Ex-Liebhaber zurückgebracht habe, andere sagten aus, dass er den Mutterleib wiederhergestellt, bei Gerichtsverfahren und anderen Krankheiten geholfen und auch Zauber gewirkt habe, um Lotterie zu gewinnen und Wetten zu gewinnen, andere sagten aus, dass er einen Zauber wirken könne, um die Scheidung zu stoppen und bald. Ich stieß auch auf ein bestimmtes Zeugnis, es handelte sich um eine Frau namens Sonia, sie sagte aus, wie er ihren Ex-Liebhaber in weniger als drei Tagen zurückgebracht hatte, und am Ende ihres Zeugnisses ließ sie die Kontaktadresse von Dr. John fallen. Nachdem ich all dies gelesen hatte, beschloss ich, es auszuprobieren. Ich kontaktierte ihn und erklärte ihm mein Problem und folgte seinen Anweisungen. In nur 3 Tagen kam meine Frau zu mir zurück. Wir haben unsere Probleme gelöst und sind noch glücklicher als zuvor. Dr. John ist wirklich ein begabter Mann und ich werde nicht aufhören, ihn zu veröffentlichen, weil er ein wunderbarer Mann ist … Wenn Sie ein Problem haben und nach einem echten und echten Zauberwirker suchen, um alle Ihre Probleme für Sie zu lösen. Kontaktieren Sie ihn jederzeit, er hat die Antwort und Lösung für Ihre Probleme. Hier ist sein Kontakt: E-Mail: (zensiert)

P.S. 1: Wenn Sie die originalen Kontaktdaten zu Dr. John haben wollen – kein Problem; überweisen Sie mir einfach 1000,- Euro; ich brauche die Kohle gerade. (s.o.)

P.S. 2: Dr. John kann selbstverständlich auch gegen das Corona-Virus und gegen dessen Kollateral-Schäden helfen; sonst wäre er ja ein schlechter Zauberwirker.

DeepMind-KI spielt erfolgreich Multiplayer-Shooter

„Quake 3“ war einer der letzten „Ego-Shooter“ (zurecht oder zu unrecht 🙂 besorgte Zeitgenossen sprechen ja auch von „Killer-Spielen“…), die ich sehr ausgiebig und auch einigermaßen gut gespielt habe. Das ging damals (1999…) eben noch mit meinem heiß geliebten und sehr soliden Joystick, bei dem eine der Funktionstasten für das „strafen“; das seitliche Ausweichen bei feindlichem Beschuss zuständig war. Danach kam dann die kombinierte Steuerung durch Maus (für das Rumgucken…) und Tastatur (für das Laufen, Schleichen, Hüpfen oder Ducken) in Mode, und das hat meine koordinativen Fähigkeiten dann schnell überfordert. Tja, man wird älter 🙂 …

„Capture the Flag“, also das bis auf den heutigen Tag beliebte Multiplayer-Game hab ich auch nicht versucht; ich hab mir höchstens mit meiner damaligen Freundin im 2-PC-Netzwerk Kettensägen-Duelle geliefert, oder wir sind gemeinsam gegen die im Spiel eingebaute Monsterhorde angetreten. Aber natürlich ist das „Capture the Flag“-Multiplayer-Game die wesentlich anspruchsvollere Variante bei Ego-Shootern – zumindest wenn man über den ganz primitiven Impuls „auf alles ballern, was sich bewegt“ hinausgeht. Das Multiplayer-Game erfordert Kooperation und Koordination und irgendwelche Strategien.

Ist es z.B. eine gute Idee, hinter einem Team-Kollegen hinterher zu laufen, den ggf. gegen Feinde zu unterstützen und im Falle seines Ablebens die vakante Fahne zu ergreifen? Sollte man die eigene Basis gegen feindliche Angriffe verteidigen, oder vielleicht im verlassenen gegnerischen Camp ausharren, bis dort die Fahne eines hingemetzelten Fahnenträgers wieder auftaucht? Die Deep-Mind-Programmierer haben ihre „Agents“, ihre auf neuronalen Netzen basierenden Algorithmen genauso wie bei Schach, Go oder StarCraft nach dem „Reinforcement Learning“-Prinzip trainiert.

Der Algorithmus/das neuronale Netzwerk weiß erst einmal nichts. Es spielt drauflos und lernt durch Erfolg oder Misserfolg. Beim aktuellen Quake-Experiment hatten die „Agents“ auch nur exakt die Teil-Information über die Spielsituation, wie sie auch ein menschlicher Spieler hat: Das „Sichtfeld“, also die in der Ego-Perspektive sichtbaren Pixel. Und den Punktestand, also den eigenen „Gesundheits“- und „Erfolgs“-Status und den des Teams. Wie die verschiedenen Iterationen der neuronalen Netzwerks „trainiert werden“ bzw. „lernen“, ist sehr komplex – professionell Interessierten empfehle ich da dringend einen Blick ins Original-Paper und in das Supplement. 🙂

(Quelle: DeepMind)

Aber das Resultat ist klar: Die besten der trainierten „Agenten“/neuronalen Netzwerke spielen Quake 3 CTF mit einer übermenschlichen „superhuman Performance“. Tröstlicherweise können versierte menschliche Spieler die Agents immer noch „exploiten“, also ihre Strategien durchschauen und ausnutzen, wenn ein gegebenes Spiel-Szenario gleich bleibt. Und für die Experten: Der Vorsprung der KI bleibt auch erhalten, wenn die etwas schnellere Reaktionszeit der KI-Bots auf das Erscheinen eines Feindes durch eine menschen-ähnlich verzögerte Reaktionszeit angeglichen wird.

Über die Übertragbarkeit des DeepMind-Quake 3-CTF-Algorithmus auf realistischere Szenarien kann man nur spekulieren. Aber der Ansatz „Reinforcement Learning“ und neuronales Generalisieren von unbekannten Szenarien scheint sehr erfolgversprechend zu sein. Darüber kann man sich perspektivisch freuen (etwa irgendwann einmal bei Rettungs-Einsätzen von Robotern; oder bei echtzeit-kritischen Weltraum-Missionen…) oder ärgern (etwa beim autonomen Agieren von Killer-Drohnen oder -Robotern bei kriegerischen Auseinandersetzungen…

Reinforcement Learning – KI kann auch „Killer-Spiele“

Deutschlandfunk – Forschung aktuell vom 31.05.2019 (Moderation: Arndt Reuning)

Zellsimulation mit „transparentem“ neuronalen Netz

Über den „großen Haken“ beim Paradepferd der modernen Informatik, den „Künstlichen Neuronalen Netzen“ haben wir schon des öfteren gesprochen: So beeindruckend die Ergebnisse auch sind – wie die Algorithmen letztlich zu ihren Resultaten kommen und was in den internen Schichten genau abläuft, das können selbst die jeweiligen Programmierer nicht genau sagen. In vielen Szenarien reicht der pragmatische Ansatz „Hauptsache, das Ergebnis ist gut“ ja auch; in vielen anderen aber auch nicht. (Wobei eine gewisse sehr problematische Tendenz unverkennbar ist, die Resultate einer vermeintlich objektiven „Künstlichen Intelligenz“ eben nicht zu hinterfragen.)

Aber dieses „Black Box“-Konzept ist ohnehin nicht alternativlos, das zeigen amerikanische Wissenschaftler jetzt im Fachblatt „Nature Methods“.

Screenshot from d-cell.ucsd.edu, where researchers can use DCell, a new virtual yeast cell developed at UC San Diego School of Medicine.

Bei „DCell“, dem „Visible neural network“ von Trey Idecker von der University of California San Diego, organisieren sich die internen Schichten („Layer“) und ihre Verknüpfungen im Gegensatz zu herkömmlichen neuronalen Netzen nicht einfach im Training selbst, (als letztlich rein statistisches „Fitting“ zwischen einem „Input“ und einem „Output“-Wert), ihre Architektur ist von vornherein in den wesentlichen Strukturen vorgegeben. Den Bauplan für „DCell“ liefert der bestens erforschte Modellorganismus der Molekularbiologen, die Bierhefe (Saccharomyces cerevisiae).

Die erste, die Eingangsschicht entspricht den einzelnen Genen und ihren Mutationen; und die letzte, die Ausgangsschicht entspricht dem Verhalten der Zelle, nämlich wie schnell sie wächst. Und die Schichten dazwischen, das sind praktisch die physikalischen Größenordnungen in der Zelle, jede folgende Schicht entspricht einer größeren, komplexeren Strukturebene.   

Die ersten Schichten des Neuronalen Netzes bilden also den Nanometerbereich ab, wo ein Gen den Bauplan für ein Protein liefert. Die späteren Schichten repräsentieren dann Strukturen wie Membranen, die letzten die größeren Einheiten wie Zellkern oder Mitochondrien. Damit ist das „Visible Neural Network“ im Grunde die digitale Simulation einer kompletten Zelle, die sich nun mit Trainingsdaten füttern lässt. Und die gibt es im Falle der Bierhefe reichlich:

Es gab so viele Studien in den letzten zehn Jahren – wir haben Daten über 12 Millionen einzelne Genmutationen, und da hat jeweils jemand im Labor nachgemessen, welche Auswirkung die Mutation auf das Wachstum der Hefezelle hatte.

Mit dem trainierten Algorithmus konnten Trey Ideker und seine Kollegen anschließend nicht nur die schon bekannten Auswirkungen einzelner Mutationen wie in einem digitalen Modellbaukasten nachvollziehen, sondern sogar in den internen Schichten des Neuralen Netzes noch neue Entdeckungen machen. Es gibt nämlich offenbar selbst bei der intensiv erforschten Bierhefe Proteinkomplexe bzw. „zelluläre Subsysteme“, die bislang unbekannt waren, aber durchaus Auswirkungen auf das Zellwachstum haben. Letztendlich geht es Trey Ideker aber nicht um Bierhefe – er ist Krebsforscher. Er sucht nach Wegen, das Wachstum von Tumorzellen zu verhindern. Und vielleicht könnte eine digitale Zellsimulation auch hier wichtige Erkenntnisse liefern. Was die nötigen Trainingsdaten angeht, ist Ideker recht optimistisch:

Ich schätze mal, so zu Beginn der 2020er Jahre werden wir rund eine Million Krebs-Genome öffentlich verfügbar haben, dann wäre eine Big-Data-Analyse kein Problem. Aber die größere Herausforderung ist: Haben wir genug Wissen über die Biologie von Krebszellen, das wir für die Schichten in unserem Neuronalen Netz brauchen? Nein, haben wir nicht.

Trey Ideker und seine Kollegen, aber auch viele andere Forscher-Teams weltweit arbeiten deshalb intensiv daran, öffentliche Datenbanken über die interne Funktionsweise von Tumorzellen aufzubauen. Mit einer digitalen Zellsimulation, so Idekers Vision, könnte man dann vielleicht auch ein erst in jüngster Zeit erkanntes Problem in den Griff bekommen: Dass nämlich Krebs bei jedem einzelnen Patienten anders funktioniert.

Deswegen brauchen wir dieses Neuronale-Netz-Modell, weil all diese möglichen Varianten in unserem Modell abgebildet wären. Bei dem einen Patienten wird vielleicht die eine Route durch die Ursache-Wirkungs-Hierarchie aktiviert, bei dem zweiten eine andere. Bevor wir so ein komplettes Modell haben, können wir das nicht voraussagen.

Deutschlandfunk – Forschung aktuell vom 06.03.2018 (Moderation: Lennart Pyritz)

Gendershades: Gesichtserkennung funktioniert nahezu perfekt – bei weißen Männern

Joy Buolamwini forscht am MIT über die sozialen Auswirkungen von Technologie; sie ist weiblich, sie ist schwarz, und sie hat definitiv eine gesellschaftspolitische Agenda. Sehr naheliegenderweise. Denn einerseits halten in immer mehr Lebensbereichen technische Verfahren Einzug, die bestimmte Aufgaben anscheinend (oder scheinbar…) besser als jeder Mensch bewältigen: Kreditscores berechnen, Hautkrebs diagnostizieren, weltmeisterlich Go spielen, Gesichter oder verdächtiges Verhalten erkennen.

Wir Menschen tendieren dazu, den Algorithmen oder der „Künstlichen Intelligenz“ Objektivität zuzubilligen. Ein Computer hat doch schließlich keine Vorurteile. Stimmt – aber die Menschen, die ihn programmieren; oder die moderne „Maschinenlern-Verfahren“ oder „neuronale Netze“ mit Daten füttern und trainieren. Dabei klingt bei „Vorurteil“ oder „Voreingenommenheit“ oder „Tendenz“ – im Englischen spricht man ja hier von „Bias“ – schon etwas wie Absicht oder eine verquere Weltsicht mit.  Ich denke aber, dass „Bias“ meist einfach durch ganz  (für die Betroffenen natürlich nicht…) „harmlose“ Gedankenlosigkeit in die Welt kommt. Beziehungsweise in die vermeintlich „objektive“ Technik.

Das Problem ist – für digitale Verhältnisse – uralt: 2010 machten asiatische Nutzer einer Digitalkamera eine verstörende Erfahrung: der „smarte“ Portrait-Assistent des Fotoapparates wollte sie gar nicht knipsen, sondern gab eine launige Warnung von sich: „Na, blinzelt da etwa jemand?“ Nein, die ins Visier genommenen hatten einfach die normale asiatische Augenform; aber der Gesichtserkennungsalgorithmus der Kamera war offenbar vorwiegend mit „westlichen“ („caucasian“) Testbildern trainert worden. Es handelte sich um die Nikon Coolpix S630; das Produkt eines japanischen Herstellers 🙂 …

Bild: Joy Buolamwini/TED /Guardian

Dass im Jahr 2018 (oder 2017, wo die die Tests stattfanden…) drei Gesichtserkennungs-Softwaremodule von namhaften Herstellern ganz offenbar immer noch auf einer völlig unausgewogenen Trainingsbilder-Suite beruhen und dementsprechend bei weißen Männern exzellente, bei schwarzen Frauen dagegen miserable Ergebnisse liefern, das ist natürlich extrem peinlich. IBM wird in Kürze eine neue Version veröffentlichen, die genau wie die Testsuite des MIT auf einer möglichst ausgewogenen Bildermischung aufbaut. Angeblich erzielt diese neue Version ganz erheblich bessere Ergebnisse. Und auch Microsoft hat signalisiert, man nehme das „Bias“-Problem sehr ernst und werde keine Ausgaben scheuen, es zu beheben.

Wenn man Experten fragt: Die im MIT-Paper getesteten „Gender Classification“-Module spielen eigentlich bei zeitgemäßer Gesichtserkennungs-Software gar keine Rolle mehr. Dort werden nämlich neuronale Netze verwendet; und bei denen macht einfach die Vielfalt, die Qualität und die Quantität der Trainingsbilder den entscheidenden Unterschied: Google, Facebook und auch die chinesische Suchmaschine Baidu sind da „state-of-the art“. Die „Big Player“ trainieren ihre Systeme mit tausenden von Bildern einer Person; und mit Bildern von Millionen oder gar Milliarden von Personen. Dagegen sind die Test- oder Trainingssuiten von mittelständischen „Sicherheitsfirmen“ oder auch die als Alternative zu vorhandenen Benchmarks vorgeschlagene Testsuite der MIT-Forscher ein Witz.

Aber natürlich ist das MIT-Paper bzw. die „GenderShades“-Initiative ohnehin eher paradigmatisch zu verstehen: Der „Bias“-Effekt durch unausgewogene Trainingsdaten steckt ohne jeden Zweifel auch in zig bereits im Alltag eingesetzen Gesichtserkennungs-„Sicherheitslösungen“ ; die werden aber als angeblich „objektiv“ wahrgenommen oder dargestellt. Die Agenda von Joy Buolamwini ist also eindeutig berechtigt.

Deutschlandfunk – Computer und Kommunikation vom 17.02.2018 (Moderation: Manfred Kloiber)

Wie KI und Maschinelles Lernen die Arbeitswelt der Zukunft verändern

Wenn man als Forscher beim MIT arbeitet, dann ist es vielleicht recht naheliegend, die Auswirkungen von neuen Technologien auf die Lebenswelt kommender Generationen insgesamt eher positiv zu sehen. Dass diese Sichtweise per se auch schon stimmt, ist aber noch lange nicht erwiesen. Ich bin da z.B.  – obschon ja tendenziell Optimist und Early Adopter – ganz ernsthaft sehr skeptisch, wenn ich die absolute Smartphone-, Tablet- oder Spielkonsolen-Abhängigkeit der Kinder meiner Verwandten und Freunde sehe. Das ist ein gravierender Kulturwandel, der definitiv auch signifikante Auswirkungen auf die Psyche, auf Denk- und Kommunikationsstrukturen hat; von eventuellen Kollateralschäden durch die vielleicht doch vorhandene Belastung durch elektromagnetisches Dauerfeuer mal ganz abgesehen…

Die Auswirkungen der Automatisierung in der Industrie sind ja bei uns immer noch erst in einer Anfangsphase, der sehr viel stärkere Effekt beruht auf Billigarbeit in aufstrebenden Volkswirtschaften, wo Arbeitslöhne, Arbeitszeiten und Arbeitnehmerschutz halt noch etwas rustikaler gesehen werden. Aber irgendwann werden sich die ökonomischen Bedingungen, Erwartungen und der Lebensstandard weltweit angeglichen haben. Und irgendwann werden auch die immer rasanter fortschreitenden „Fähigkeiten“ von KI- oder Maschinenlern-Systemen Einzug in Berufsfelder halten, in denen die heute dort Tätigen nicht im Traum auf die Idee kämen, sie seien eines Tages „ersetzbar“ oder „überflüssig“.

c’t-Schlagseite / Ritsch-Renn.com

Vielleicht gibt es ja bis dahin entsprechende gesellschaftliche Anpassungen – bedingungsloses Grundeinkommen und/oder VR-Bespaßung für die Abgehängten 🙂 … Ein Aspekt beim Ausblick der Forscher vom MIT in der Science-Perspektive ist ganz wichtig: Ein sehr kritischer Blick darauf, wie die spektakulären Ergebnisse von ML und KI eigentlich zustande kommen, und wie verlässlich sie sind – der bleibt sehr ratsam. 😉

Deutschlandfunk Nova · Arbeitswelt der Zukunft: Wenn eine KI eure Jobs klaut

Deutschlandfunk Nova – Hielscher oder Haase vom 22.12.2017 (Moderation: Till Haase)

Deutschlandfunk – Forschung aktuell vom 22.12.2017 (Moderation: Ralf Krauter)

Wochenrückblick: Bitcoin ist in der „ganz normalen“ Finanzwelt angekommen – und steckt weiter in der Sackgasse

Seit letztem Sonntag ist die Cyberwährung Bitcoin „endgültig“ in der „ganz normalen“ Finanzwelt angekommen (was natürlich nicht heißt, dass nicht auch dort Irrationalität, Spekulation, Abzockerei oder sogar Betrug völlig gang und gäbe sind 🙂 …) – seit Sonntag gibt es an der Optionsbörse Cboe in Chigaco ein „offizielles“, zugelassenes Derivat, einen „Future“ oder auf gut Deutsch, einen „Terminkontrakt“ auf den Bitcoin.

Ganz vereinfacht gesagt: Damit können nun auch alle Leute auf den Kurs der Cyberwährung wetten, die sich mit den technischen Feinheiten und potentiellen Gefahren nicht beschäftigen wollen, die bei einem direkten Einstieg in Bitcoin drohen. Der Future erlaubt natürlich auch, auf einen Crash zu setzen – aber bislang sieht es nicht so aus, als ob dies die allgemein vorherrschende Kursprognose der Anleger oder Spekulanten ist. Natürlich ist der Bitcoin-Future – (ähnliche Konstruktionen an anderen Börsen werden folgen…) ein super-super-spekulatives Anlagevehikel, da ja schon der Basiswert  super-super-spekulativ und volatil ist.

Aber letztlich sorgt das Derivat nach meiner Einschätzung eigentlich für eine weitere Konsolidierung des Bitcoin-Kurses und der Bitcoin-Werthaltigkeit. (Ich erinnere immer wieder gern daran, dass die Wertzumessung für eine Währung oder für einen anderen Vermögensgegenstand (Gold, Diamanten oder Immobilien…) auch immer nur eine Frage des Vertrauens und einer impliziten Vereinbarung ist. Würden Sie zur Zeit Vertrauen in die von den Zentralbanken Venezuelas oder Simbabwes herausgegebenen Währungen setzen? Nein. Die Bewohner der hyper-inflationären Staaten auch nicht, für die ist momentan der Bitcoin die „solidere“ Alternative 🙂 …)

http://gty.im/874784226

Das alles ändert natürlich nichts daran, dass sich ohne eine Änderung im Algorithmus (der allerdings alle Beteiligten – Bitcoin-Besitzer, Cyberwährungsbörsen und vor allem die mächtigen „Transaktions-Notare“, die „Miner“ zustimmen müssten…) Bitcoin in einer ökologischen (und eigentlich, wenn wir uns die Transaktionskosten und die Transaktionsgeschwindigkeit ansehen…) auch ökonomischen Sackgasse befindet.

Ich habe mich bei der Vorbereitung des Gesprächs heute im DLF „Umwelt und Verbraucher“ gefragt, was eigentlich passieren würde, wenn staatliche Akteure; China und vielleicht auch noch weitere Länder, in denen Bitcoins mit billigem Strom „geschürft“ werden, den Betrieb dieser Rechen-Farmen verbieten würden. Ein sofortiger Crash? Unwahrscheinlich, weil man ja aufgrund plötzlich fehlender Transaktions-Beglaubigungen gar nicht mehr in normalem Umfang handeln könnte. Zweitens – nach dem schlagartigen Wegfall eines Großteils der Hash- und Bitcoin-Generierungs-Kapazität würde die Schwierigkeit der „Rechenaufgabe“ zur Beglaubigung der Blockchain-Blöcke bzw. der Generierung neuer Bitcoins wieder nach unten angepasst. Und die Bitcoin-Welt wäre von daher ziemlich schnell wieder „in Ordnung“.

Das sind wirklich sehr interessante Fragen bei einer wirklich sehr neuen und „prinzipiell“ sehr genialen Konzeption, die alle möglichen althergebrachten „Weisheiten“ in Frage stellt. Wer etwas „Spielgeld“ hat, macht einfach mit. Wer auf keinen Fall einen Totalverlust des eingesetzten Kapitals verkraften kann oder mit den ökologischen Kollateralschäden nicht zurecht kommt (dann bitte aber auch bei Facebook und Instagram abmelden 🙂 …), lässt es besser bleiben. 🙂

Deutschlandfunk Nova – Hielscher oder Haase vom 11.12.2017 (Moderation: Diane Hielscher)

Deutschlandfunk – Umwelt und Verbraucher vom 15.12.2017 (Moderation: Jule Reimer)

 

Disclaimer: Ich selbst bin übrigens auch seit September mit einem relativ kleinen Betrag in Bitcoin investiert (nachdem ich zuvor schon jahrelang über die Cyberwährung berichtet, mich aber als notorischer und warnender „Bedenkenträger“ immer zurückgehalten hatte… .) Allerdings noch nicht einmal direkt, sondern über ein Zertifikat, eine „Abbildung“ des Bitcoin-Kurses. Ich gehe einmal davon aus, dass meine publizistische Reichweite nicht marktbeeinflussend ist 🙂 . Ansonsten noch einmal die Warnung: Ein Investment in Bitcoin ist hochspekulativ. 🙂

Pilotprojekt „Smart City“ in Bonn – Wenn der Glascontainer „voll“ meldet

Bekanntlich bin ich nicht per se ein glühender Anhänger der Idee, alles zu vernetzen und ins Internet („der Dinge“…) zu bringen – und dann davon auszugehen, dass allein diese Aktion die Welt automatisch in ein Paradies voller glücklich umherstapfender, bestens informierter und vor lauter tollem „Benutzererlebnis“ 🙂  fortwährend jubilierender neuer, smarter und stets wohlwollender Menschen verwandelt. In Wirklichkeit ist das IoT eher ein Albtraum von billigst zusammengestoppelten China-Devices mit Backdoors, Sicherheitslücken und niemals erfolgenden Updates 🙂 … Und die Menschen bleiben natürlich genau so, wie sie halt sind. Es gibt nette, intelligente Leute. Und Vollidioten und Arschlöcher.

Da betrifft auch technische Visionen. In einer idealen Welt oder einem Science-Fiction-Film laufen attraktive Menschen in einem weißen Hosenanzug durch gestylte Wohnwelten und wischen und tippen über smarte Monitore und pseudo-Graffitti-Betonwände. In Wirklichkeit versuchen schlechtgekleidete Spaßvögel und Trolle, Sand ins Getriebe zu streuen – aus purer Lust am Destruktiven; oder weil es ja auch vielleicht auch wirklich ein Stück weit lustig ist, eine vermeintlich tolle Vision mal kurz und schmerzhaft auf den Boden der analogen Wirklichkeit zurückzuholen. Auf jeden Fall: vernetzte Zukunftsideen und „smarte Sensorik“ müssen unter diesem Aspekt einigermaßen robust konzipiert sein – sonst pulverisiert sich der erhoffte „Benefit“ ganz schnell wegen ein paar Einzelaktionen von „unsmarten“ Zeitgenossen.

Aber natürlich wird sich das „Kosten-Nutzen-Verhältnis“ zwischen Infrastruktur-Betreibern und IoT-Providern einpendeln; und natürlich werden in zehn Jahren IoT-Dienste und Dienstleistungen selbstverständlich sein, die heute noch experimentell sind. Und möglicherweise ist das dann auch alles smart, klimafreundlich und energiesparend. An der Abwägung: Was bringt mir meine Investition in einigermaßen absehbarer Zeit? – ändert das jedenfalls momentan nichts. Solange die Kommunen nicht einmal das Geld haben, um die allerschlimmsten Schlaglöcher in den Straßen auszubessern, steht die flächendeckende „smarte Stadt-Infrastruktur“ wahrscheinlich noch nicht ganz oben auf der Prioritäten-Liste 🙂

Pilotprojekt „Smart City“ in Bonn – Wenn der Glascontainer „voll“ meldet

Deutschlandfunk – Computer und Kommunikation vom 18.11.2017 (Moderation: Maximilian Schönherr)

Algorithmus knackt Captchas nach menschlichem Vorbild

Das Wort „Captcha“ ist ein Akronym – ins Deutsche übersetzt steht es für „vollautomatischer öffentlicher Turing-Test zur Unterscheidung von Computern und Menschen“. Die Idee, so einen Mensch-Maschine-Test als Zugangskontrolle für Webseiten zu verwenden, stammt aus dem Jahr 2000; der Informatik-Professor Luis von Ahn gilt als der Erfinder. Und seit dem Jahr 2000 läuft ein sehr interessantes Wettrennen: Auf der einen Seite gibt es immer wieder neue Ansätze, Captchas automatisch zu knacken – und ebenso findige Experten sorgen anschließend im Gegenzug dafür, die gefundenen Schwachstellen auszubügeln.

Textbasierte Captchas, also die mit krakeliger, verzerrter Schrift sind nach wie vor die häufigsten – und bei einem Teil von ihnen erfüllt man als menschlicher Entzifferer ja sogar eine sinnvolle Aufgabe und hilft OCR-Algorithmen bei der Digitalisierung von Büchern oder der Erschließung von StreetMap-Bildern auf die Sprünge. Als besonders verlässlicher Mensch-Maschine-Test gelten die Text-Captchas aber schon seit Jahren nicht mehr – da automatische Bot-Scripte die Zugangshürden von Webseiten ja in einem massiven Dauerfeuer attackieren, reicht den Algorithmen schon eine niedrige Erkennungsrate aus, um genügend oft „durchzukommen“.

Die KI-Experten beim Venturekapital-Unternehmen „Vicarious“ hatten übrigens selbst schon 2013 den Erfolg ihres „Recursive Cortical Networks“ (RCN) beim Knacken von textbasierten Captchas vermeldet – damals aber noch ohne nähere Details zu nennen, wie das Ganze im Detail funktioniert. Das hatte verschiedene Motive, wie der Gründer von Vicarious, Dileep George, auf Anfrage erläutert: Zum einen habe man damals die Einzelheiten in Hinsicht auf die Sicherheitsauswirkungen im Netz zurückgehalten, zum anderen sei man seinerzeit noch ein sehr kleines Team gewesen und habe sich mehr Zeit bei der Entwicklung des Algorithmus und der Firma nehmen wollen.

A representation of the letter A. [Credit: Vicarious AI]

Nicht ganz unwichtig dürfte dabei auch gewesen sein, dass das „Recursive Cortical Network“-Konzept praktisch das algorithmische „Kronjuwel“ von Vicarious ist, das die Firma in den kommenden Jahren in einer Vielzahl von Bereichen, vor allem auf dem Feld der „Robotics“ einsetzen und vermarkten will. Das wissenschaftliche Paper in „Science“ mit den technischen Details reichte das Team also aus nachvollziehbaren Gründen erst ein, nachdem eine Reihe von Patenten auf RCN erteilt und veröffentlicht worden waren.

Wie gravierend die direkten Auswirkungen auf die noch vorhandene oder ohnehin schon nicht mehr vorhandene Sicherheit von Text-Captchas in der Praxis sind, darüber kann man streiten. Das Vicarious-Team betont die wesentlich höhere Effizienz seines RCN-Ansatzes im Vergleich zu herkömmlichen „Brute-Force-Deep-Learning“-Angriffen. Ein Gegenargument lautet: Die wesentlich höheren Ressourcen-Anforderungen beim „Deep Learning“ sind kein großes Problem, sie stehen allseits zur Verfügung – und wenn nötig, lässt sich menschliche Hilfe beim Annotieren von Trainingsmaterial sehr billig einkaufen; bei Crowdworking-Diensten wie „Amazon Mechanical Turk“. (Dass sich Menschen ja ohnehin im Zweifelsfall auch gratis für das Lösen der Zugangs-Rätsel einspannen lassen, das haben wir schon einmal vor sehr langer Zeit beleuchtet 🙂 )

In comparison to RCNs, a deep neural network required a 50,000-fold larger training set to recognize a style of CAPTCHAs, and its accuracy deteriorated rapidly with even minor perturbations to the spacing of characters. [Credit: Vicarious AI]

Wie sowohl Prof. Marc Fischlin von der TU Darmstadt, Google und ja auch die Studienautoren bei Vicarious selbst betonen – für die Zugangskontrolle auf Webseiten stehen mittlerweile Alternativen wie bildbasierte oder verhaltensbasierte Captchas zur Verfügung, die auch noch ein Weilchen der KI-Weiterentwicklung trotzen dürften.

Aber letztlich geht es natürlich bei RCN überhaupt nicht konkret um das Knacken von Captchas. Der Algorithmus setzt ähnlich wie die Handschrift-Erkennung aus einem früheren Science-Paper auf Generalisierung, auf ein Konzept, das sich in Jahrmillionen bei der Evolution biologischer neuronaler Strukturen bis hin zum menschlichen Gehirn herausgebildet und bewährt hat. Und insofern ist es ja schon eine philosophische Frage von allerhöchstem Interesse, welche Methode sich in künftigen KI- und Roboter-Entwicklungen durchsetzen wird. Wahrscheinlich wird die Antwort aber ganz pragmatisch sein: Wie die „Intelligenz“ zustande kommt, ist sekundär. Haupsache, sie funktioniert in der konkreten Aufgabensituation.

Deutschlandfunk – Computer und Kommunikation vom 28.10.2017 (Moderation: Manfred Kloiber)

Bayerischer Rundfunk – BR5 Computermagazin vom 5.11.2017 (Moderation: Christian Sachsinger)

 

Kohlmeisen-Evolution: Füttern macht die Schnäbel länger

Die zufällig auftretenden „Webfehler“ im Erbgut, die Mutationen, sind sozusagen die Lose in der Lotterie des Lebens. Sie machen es überhaupt erst möglich, dass sich Arten auf bestimmte ökologische Nischen spezialisieren oder an Veränderungen ihrer Umwelt anpassen können. Wie Evolution und Selektion auf biochemischer Ebene funktionieren, darüber wissen wir heute natürlich sehr viel mehr als seinerzeit Charles Darwin. Aber den direkten Zusammenhang zwischen einer Modifikation im Genotyp und seinen Auswirkungen im Phänotyp, also im äußeren Erscheinungsbild des betroffenen Lebewesens oder in seinem Verhalten herstellen zu können, das bleibt auch im Zeitalter von DNA-Sequenzierung und Snip-Markern eine Herausforderung.

Bei den meisten phänotypischen Veränderungen sind nämlich gleich eine ganze Reihe von Genen beteiligt, und auch der Selektionsauslöser, der Umweltfaktor also, für den sich die phänotypische Veränderung im Glücksfall als vorteilhaft erweist, kann in Wirklichkeit ein Bündel von Einzelfaktoren sein. Die Forscher aus England und den Niederlanden sind sich bei ihrer in Science veröffentlichten Studie trotzdem sehr sicher: Sie haben der Evolution „in Echtzeit“ über die Schulter schauen können, haben eine genotypische und phänotypische Modifikation im Erbgut einer Kohlmeisenpopulation beobachten und den dazu gehörigen Auslöser identifizieren können – den Menschen nämlich, genauer gesagt: Den britischen Vogelfreund.

Kohlmeise (Parus major) auf einem Zweig. Bild: Dennis van de Water, dvdwphotography.com

 

Nun wäre es natürlich sehr schön, auch gleich eine „passende“ Erklärung zu haben, analog zu den von Darwin beschriebenen Beispielen für die Spezialisierung von Vogelschnäbeln – nach dem Motto: eine bestimmte Form ist optimal dafür, die Kerne aus Pinienzapfen herauszubekommen. Aber leider: So eine schöne, naheliegende Erklärung gibt es im Falle der britischen Futterhäuschen und der längeren Schnäbel der Kohlmeisen-Stammgäste eben nicht. Dass die paar Millimeter Längenzuwachs es einfacher machen, an das Futter heranzukommen, könnte zwar sein, ist aber absolut nicht zwingend. Der bessere Fortpfanzungserfolg der britischen Meisen mit längerem Schnabel bzw. der charakteristischen Genveränderung beruht auch keineswegs darauf, dass sie ihrem Nachwuchs direkt mehr Vogelfutter in die hungrigen Mäuler stopfen können als ihre Artgenossen in Holland – die Meisen suchen nämlich die Futterstellen im Winter auf, die Brutaufzucht findet im Frühjahr statt.

Letztlich könnte es sogar sein, dass die phänotypisch sichtbare Schnabelverlängerung ein „Fehlsignal“ ist und der offenbar vorhandene Selektionsvorteil und „Fitness-Faktor“ irgendwo anders liegt – da steht den Biologen noch eine Menge Arbeit bevor, geeignete Kontrollexperimente zu konzipieren und durchzuführen.

Kohlmeisen-Evolution – Füttern macht die Schnäbel länger

Deutschlandfunk – Forschung aktuell vom 20.10.2017 (Moderation: Ralf Krauter)

Alpha Go Zero: Das menschliche Know-How ist suboptimal

Bislang war es eigentlich ein Standard-Ansatz beim Einsatz von KI, von „Künstlicher Intelligenz“ – ob mit oder ohne neuronale Netze: Auf die Spur gebracht wurde der Algorithmus erst einmal mit Trainingsdaten, die auf menschlicher Expertise beruhten. Und das war ja immerhin ein kleiner Trost für „homo sapiens“ selbst dann noch, wenn das Resultat; ein Poker– oder Go-spielendes Programm  anschließend eine „superhuman performance“ zeigte, den menschlichen Experten anschließend gnadenlos „plattmachen“ konnte. Beim jüngsten Produkt aus der Kaderschmiede des Google-Tochterunternehmens „DeepMind“ fällt selbst dieser kleine Trost weg.

Alpha Go Zero fängt bei Null an, kennt nur die Go-Regeln – und bringt sich das Spiel (im Spiel gegen sich selbst…) selbst bei. Bis es vom „Affen“ zum unschlagbaren Experten wird, dauert es ein paar Stündchen länger als bei den Vorversionen. Menschliche Züge kann es auch nicht mehr so gut vorhersagen wie seine Vorläufer – aber die in Jahrtausenden herauskristallisierten Go-Strategien sind ja offenbar eh: suboptimal. Immerhin: die Expertise von Alpha Go Zero ist eng begrenzt, auch der Ansatz „von Null an beginnen“ liefert noch keine universelle Welterklärungs-Maschine.

Im Gegenteil – die Experten bei DeepMind sind sich des Problems wohl bewusst, dass sie momentan noch nicht erklären können, wie ihr Algorithmus genau zu seinen Ergebnissen kommt. Und wenn es nicht „nur“ um ein Spiel, sondern um das richtige Leben geht – dann würde man diese Entscheidungskriterien doch ganz gern etwas genauer nachvollziehen können.

Deutschlandfunk – Forschung aktuell vom 19.10.2017 (Moderation: Monika Seynsche)