Schlagwort-Archive: Biologie

Es ist Sommer. Das Fenster ist auf. Und eine neue Töpfer-Wespe ist da.

Irgendwie denkt man ja: so mitten in der Stadt, oder sagen wir mal am südlichen Rand der Stadt – da hat man mit irgendwelchen Auswirkungen oder Wundern der Natur nicht so wahnsinnig viel zu tun. Stimmt aber gar nicht. Wir haben jetzt ja gerade seit ein, zwei Wochen wirklich stabil schönes Wetter und hohe Temperaturen. Das macht sich in meiner Dachgeschoss-Wohnung deutlich bemerkbar. (Gottlob kümmert sich ja jetzt unser Bundesgesundheitsminister auch um das Problem.)

Mein Lösungsansatz in langen Jahren: Relativ locker oder gar nicht bekleidet hier rumsitzen im Arbeitszimmer. Und zweitens: Die Fenster aufmachen. Auflassen. Durchzug erzeugen, unterstützt von einem Ventilator. Das permanent offene Fenster führt nun allerdings zu einer zunächst unverhofften; inzwischen regelmäßigen Begegnung mit der Natur. Ganz am Anfang, vor Jahren, hab das überhaupt nicht gerafft.

Da kam in gewissen Abständen so ein sirrendes Geräusch irgendwo aus meinem Bücherregal, wie ein durchbrennendes elektronisches Bauteil. Ganz genau zu orten war das nicht. Aber dann nach näherem Hinhören doch nicht mechanisch, sondern eher organisch – ein Insekt. Und dazu passte dann auch, dass da eine Wespe immer in mein Zimmer reinflog und wieder rausflog. Was erstmal nicht so spektakulär war – am Dach vor meinem Fenster war/ist eh ein Wespennest. Manchmal tauchen auch Hornissen auf, die ja bekanntlich wiederum die Wespen fressen.

Aber die in meinem Zimmer war keine gewöhnliche Wespe, sondern irgendwie so ein sehr schlankes, irgendwie auch eher fliegenhaftes Exemplar. Die flog offenbar immer wieder zu dieser erst mal gar nicht identifizierten Stelle im Bücherregal, und dann wieder zum Fenster hinaus. Und wenn das mal zu war, versuchte sie eifrig und immer wieder eifrig von außen reinzukommen. Oder wenn sie drin war und das Fenster zu, rauszukommen.

Embed from Getty Images

Welche genaue Unterart bei mir ihr Unwesen treibt, weiß ich natürlich nicht – sachdienliche Hinweise nehme ich gerne entgegen…

Irgendwann hatte ich dann entdeckt, was die da im Regal getrieben bzw. vielmehr gebaut hatte – ein Gefäß, eine Art Kokon aus Lehm. Ich hatte das damals beim ersten Mal angeschaut und dann geöffnet – und war Zeuge eines Dramas: Da war eine kleine tote Wespe drin – aber auch irgendwelche Spinnen. Offenbar war die arme Wespe von den Spinnen aufgefressen worden. Pustekuchen. ich hab das dann mal gegoogelt und gelernt – das ist genau anders rum. Die Töpferwespe baut einen Brut-Kokon aus Lehm, legt darin ein Ei ab und fängt dann bestimmte kleine Spinnen, lähmt die mit einem Stich und packt die als lebendige Nahrung für die sich entwickelnde Larve in den Ton-Kokon.

Wenn alles glatt läuft, frisst die sich entwickelnde Wespe die gelähmten Spinnen, öffnet im Frühjahr das Ton-Gefäß und fliegt in die Welt hinein. Hat bei mir – aus welchen Gründen auch immer – bislang offenbar eher nicht geklappt. Weil das Fenster zu ist, weil die Biester vielleicht vorher austrocknen – keine Ahnung. Jetzt ist also aber trotzdem wieder eine neue Mutter-Wespe bei mir am Werk. Keine Ahnung, ob die von ihrer Mutter oder auf der Töpfer-Wespen-Schule gelernt hat – flieg mal in das Arbeitszimmer von Michael Gessat rein, und dann irgendwo ins Regal – da ist ein Top-Standort.

Das Biest ist auf jeden Fall sehr hartnäckig und zielstrebig. Wenn mein Fenster mal zu ist, dann schwirrt sie draußen vorwurfsvoll rum und schmeißt sich verständnislos gegen die Scheibe. Bis ich die wieder aufmache. Ich überleg immer – was denkt die eigentlich dabei? Die hat offenbar einen ganz genauen Handlungs- und Orts-Plan, und plötzlich knallt die gegen was durchsichtiges festes? Was wäre eigentlich, wenn ich ihr den Kokon/das Ton-Gefäß wegnehme – baut die dann ungerührt ein neues, oder ist die verzweifelt und traumatisiert?

Das sind keine abstrakten Überlegungen. Schon Aristoteles hat sich ja über Schlupfwespen und ihr in Jahrmillionen entwickeltes und erprobtes Fortpflanzungs-Schema Gedanken gemacht, im Mittelalter und bei Charles Darwin war das sogar – nachvollziehbar – Anlass für Theodizee-Spekulationen. Insofern überlege ich ja auch – soll ich die Wespe promoten und schützen, oder der Einhalt gebieten und damit ihren armen unschuldigen Spinnen-Opfern nutzen? Aber wer weiß, was die wiederum fressen.

Es ist so schwer. Und so unfassbar komplex. Dass so ein kleines Tierchen, das wir gar nicht ernsthaft wahrnehmen, ein so ausgekügeltes Verhaltensmuster einprogrammiert hat und das gegen alle Widrigkeiten umsetzt – dass das wiederum, wie bei den anderen Schlupf- oder parasitären Wespen, so ausgeklügelt oder eben einfach über Jahrmillionen evolutiv optimiert an das Leben und Sterben anderer „Wirts“-Arten angepasst ist – das zeigt doch einfach: ???

Keine Ahnung. Dass das Leben unfassbar komplex und selbst-austarierend funktioniert. Ohne einen Gott übrigens, das ist so meine bescheidene Einschätzung. Vielleicht gibt es auch Szenarien, wo so ein System zusammenbrechen kann. Vielleicht bei einer extern ausgelösten Katastrophe wie einem Asteroiden-Einschlag.. Aber ansonsten ist das sehr stabil. Nicht nach menschlichen Maßstäben, aber nach Maßstäben des Lebens.

Ich lass die Töpferwespe mal weiterbauen.

P.S. Kleider- und Nahrungsmittel-Motten werden aber bei mir trotz aller philosophischen bzw. naturkundlichen Überlegungen gnadenlos gekillt. Und Mücken, falls ich die erwische.

Zellsimulation mit „transparentem“ neuronalen Netz

Über den „großen Haken“ beim Paradepferd der modernen Informatik, den „Künstlichen Neuronalen Netzen“ haben wir schon des öfteren gesprochen: So beeindruckend die Ergebnisse auch sind – wie die Algorithmen letztlich zu ihren Resultaten kommen und was in den internen Schichten genau abläuft, das können selbst die jeweiligen Programmierer nicht genau sagen. In vielen Szenarien reicht der pragmatische Ansatz „Hauptsache, das Ergebnis ist gut“ ja auch; in vielen anderen aber auch nicht. (Wobei eine gewisse sehr problematische Tendenz unverkennbar ist, die Resultate einer vermeintlich objektiven „Künstlichen Intelligenz“ eben nicht zu hinterfragen.)

Aber dieses „Black Box“-Konzept ist ohnehin nicht alternativlos, das zeigen amerikanische Wissenschaftler jetzt im Fachblatt „Nature Methods“.

Screenshot from d-cell.ucsd.edu, where researchers can use DCell, a new virtual yeast cell developed at UC San Diego School of Medicine.

Bei „DCell“, dem „Visible neural network“ von Trey Idecker von der University of California San Diego, organisieren sich die internen Schichten („Layer“) und ihre Verknüpfungen im Gegensatz zu herkömmlichen neuronalen Netzen nicht einfach im Training selbst, (als letztlich rein statistisches „Fitting“ zwischen einem „Input“ und einem „Output“-Wert), ihre Architektur ist von vornherein in den wesentlichen Strukturen vorgegeben. Den Bauplan für „DCell“ liefert der bestens erforschte Modellorganismus der Molekularbiologen, die Bierhefe (Saccharomyces cerevisiae).

Die erste, die Eingangsschicht entspricht den einzelnen Genen und ihren Mutationen; und die letzte, die Ausgangsschicht entspricht dem Verhalten der Zelle, nämlich wie schnell sie wächst. Und die Schichten dazwischen, das sind praktisch die physikalischen Größenordnungen in der Zelle, jede folgende Schicht entspricht einer größeren, komplexeren Strukturebene.   

Die ersten Schichten des Neuronalen Netzes bilden also den Nanometerbereich ab, wo ein Gen den Bauplan für ein Protein liefert. Die späteren Schichten repräsentieren dann Strukturen wie Membranen, die letzten die größeren Einheiten wie Zellkern oder Mitochondrien. Damit ist das „Visible Neural Network“ im Grunde die digitale Simulation einer kompletten Zelle, die sich nun mit Trainingsdaten füttern lässt. Und die gibt es im Falle der Bierhefe reichlich:

Es gab so viele Studien in den letzten zehn Jahren – wir haben Daten über 12 Millionen einzelne Genmutationen, und da hat jeweils jemand im Labor nachgemessen, welche Auswirkung die Mutation auf das Wachstum der Hefezelle hatte.

Mit dem trainierten Algorithmus konnten Trey Ideker und seine Kollegen anschließend nicht nur die schon bekannten Auswirkungen einzelner Mutationen wie in einem digitalen Modellbaukasten nachvollziehen, sondern sogar in den internen Schichten des Neuralen Netzes noch neue Entdeckungen machen. Es gibt nämlich offenbar selbst bei der intensiv erforschten Bierhefe Proteinkomplexe bzw. „zelluläre Subsysteme“, die bislang unbekannt waren, aber durchaus Auswirkungen auf das Zellwachstum haben. Letztendlich geht es Trey Ideker aber nicht um Bierhefe – er ist Krebsforscher. Er sucht nach Wegen, das Wachstum von Tumorzellen zu verhindern. Und vielleicht könnte eine digitale Zellsimulation auch hier wichtige Erkenntnisse liefern. Was die nötigen Trainingsdaten angeht, ist Ideker recht optimistisch:

Ich schätze mal, so zu Beginn der 2020er Jahre werden wir rund eine Million Krebs-Genome öffentlich verfügbar haben, dann wäre eine Big-Data-Analyse kein Problem. Aber die größere Herausforderung ist: Haben wir genug Wissen über die Biologie von Krebszellen, das wir für die Schichten in unserem Neuronalen Netz brauchen? Nein, haben wir nicht.

Trey Ideker und seine Kollegen, aber auch viele andere Forscher-Teams weltweit arbeiten deshalb intensiv daran, öffentliche Datenbanken über die interne Funktionsweise von Tumorzellen aufzubauen. Mit einer digitalen Zellsimulation, so Idekers Vision, könnte man dann vielleicht auch ein erst in jüngster Zeit erkanntes Problem in den Griff bekommen: Dass nämlich Krebs bei jedem einzelnen Patienten anders funktioniert.

Deswegen brauchen wir dieses Neuronale-Netz-Modell, weil all diese möglichen Varianten in unserem Modell abgebildet wären. Bei dem einen Patienten wird vielleicht die eine Route durch die Ursache-Wirkungs-Hierarchie aktiviert, bei dem zweiten eine andere. Bevor wir so ein komplettes Modell haben, können wir das nicht voraussagen.

Deutschlandfunk – Forschung aktuell vom 06.03.2018 (Moderation: Lennart Pyritz)

Kohlmeisen-Evolution: Füttern macht die Schnäbel länger

Die zufällig auftretenden „Webfehler“ im Erbgut, die Mutationen, sind sozusagen die Lose in der Lotterie des Lebens. Sie machen es überhaupt erst möglich, dass sich Arten auf bestimmte ökologische Nischen spezialisieren oder an Veränderungen ihrer Umwelt anpassen können. Wie Evolution und Selektion auf biochemischer Ebene funktionieren, darüber wissen wir heute natürlich sehr viel mehr als seinerzeit Charles Darwin. Aber den direkten Zusammenhang zwischen einer Modifikation im Genotyp und seinen Auswirkungen im Phänotyp, also im äußeren Erscheinungsbild des betroffenen Lebewesens oder in seinem Verhalten herstellen zu können, das bleibt auch im Zeitalter von DNA-Sequenzierung und Snip-Markern eine Herausforderung.

Bei den meisten phänotypischen Veränderungen sind nämlich gleich eine ganze Reihe von Genen beteiligt, und auch der Selektionsauslöser, der Umweltfaktor also, für den sich die phänotypische Veränderung im Glücksfall als vorteilhaft erweist, kann in Wirklichkeit ein Bündel von Einzelfaktoren sein. Die Forscher aus England und den Niederlanden sind sich bei ihrer in Science veröffentlichten Studie trotzdem sehr sicher: Sie haben der Evolution „in Echtzeit“ über die Schulter schauen können, haben eine genotypische und phänotypische Modifikation im Erbgut einer Kohlmeisenpopulation beobachten und den dazu gehörigen Auslöser identifizieren können – den Menschen nämlich, genauer gesagt: Den britischen Vogelfreund.

Kohlmeise (Parus major) auf einem Zweig. Bild: Dennis van de Water, dvdwphotography.com

 

Nun wäre es natürlich sehr schön, auch gleich eine „passende“ Erklärung zu haben, analog zu den von Darwin beschriebenen Beispielen für die Spezialisierung von Vogelschnäbeln – nach dem Motto: eine bestimmte Form ist optimal dafür, die Kerne aus Pinienzapfen herauszubekommen. Aber leider: So eine schöne, naheliegende Erklärung gibt es im Falle der britischen Futterhäuschen und der längeren Schnäbel der Kohlmeisen-Stammgäste eben nicht. Dass die paar Millimeter Längenzuwachs es einfacher machen, an das Futter heranzukommen, könnte zwar sein, ist aber absolut nicht zwingend. Der bessere Fortpfanzungserfolg der britischen Meisen mit längerem Schnabel bzw. der charakteristischen Genveränderung beruht auch keineswegs darauf, dass sie ihrem Nachwuchs direkt mehr Vogelfutter in die hungrigen Mäuler stopfen können als ihre Artgenossen in Holland – die Meisen suchen nämlich die Futterstellen im Winter auf, die Brutaufzucht findet im Frühjahr statt.

Letztlich könnte es sogar sein, dass die phänotypisch sichtbare Schnabelverlängerung ein „Fehlsignal“ ist und der offenbar vorhandene Selektionsvorteil und „Fitness-Faktor“ irgendwo anders liegt – da steht den Biologen noch eine Menge Arbeit bevor, geeignete Kontrollexperimente zu konzipieren und durchzuführen.

Kohlmeisen-Evolution – Füttern macht die Schnäbel länger

Deutschlandfunk – Forschung aktuell vom 20.10.2017 (Moderation: Ralf Krauter)

Arbeit ist nicht mal das Viertelleben – von wegen!

Mit Statistik kann man sich ja alles zurechtbiegen.

Wussten Sie schon: Ihr tägliches Rumgejammere ist völlig Weichei-mäßig und unberechtigt. Ihr Eindruck, mit Ihrem Vollzeitjob in einem Hamsterrad rumzutreten und irgendwie überhaupt keine Zeit mehr zu haben – das ist eine totale Illusion. Blödsinn. Ihnen geht’s prima. Sie haben in Wirklichkeit jede Menge Zeit. Freizeit. Zeit für ihr Life. Ihre Life-Work-Balance ist wahrscheinlich völlig in Ordnung, Sie Weichei. Jedenfalls statistisch gesehen.

Den täglichen nächtlichen Schlaf haben Sie doch hoffentlich schon auf der Haben/Life-Seite verbucht? Mit der täglichen Pendelei zur Arbeitsstätte sind Sie auch nicht allzu pedantisch?

Gut. Wenn Sie es nämlich überhaupt bis zu Ihrem Renteneintrittsalter schaffen – danach wird sich Ihre Life-Work-Balance total zum Besseren wandeln. Das Leben ist schön und gar nicht so anstrengend! Sie Weichei, Sie!

Das ist alles rein rechnerisch sehr schön. Nur ein paar kleine Haken: In der Phase, in der wir überhaupt über das Problem Work-Life-Balance nachdenken, also vor unserer Rente – da sieht die Sache natürlich wesentlich ungünstiger aus. Rechnen wir mal nach und nehmen erst mal der Einfachheit halber wie im Artikel 8 Stunden Arbeit und 8 Stunden Schlaf (schön wärs…). Der Schlaf: 365×8/24 macht 122 Tage. Die Arbeit: 246 (ungefähre Arbeitstage pro Jahr…) minus 31 Tage Urlaub – 215×8/24 macht 72 Tage. Nun ist der Schlaf zwar notwendig und vielleicht teilweise auch von schönen Träumen begleitet – vielleicht aber auch von bösen. Aber natürlich ist das keine erlebbare oder gestaltbare Zeit – den können wir also komplett aus der ganzen Rechnung abziehen. Und dann sind die 8 Stunden in Wirklichkeit 8,5 plus für viele Leute locker 2 Stunden täglich An- und Abfahrtszeiten; auch das hastige Frühstück am Morgen wird man nicht zwangsläufig als Life, sondern eher als notwendige Vorbereitung für Work empfinden. Wenn wir dann noch die Zeiten für Haushalt, Einkaufen, Essen und Trinken (womit ja nicht jedes Mal der Besuch beim Sterne-Restaurant gemeint ist..) und andere Kleinigkeiten („For example, the time distribution for parents looks different from the distribution for those who never have kids.“) abziehen, dann sind wir genau bei unserem normalen, täglichen Eindruck.

Embed from Getty Images

 

Nach dem Renteneintritt wird es dann besser mit der „Balance“, das kippt dann die Gesamtbilanz. Die dann körperlich und geistig angeschlagenen, die Siechen und Dementen sind aber auch drin in der tollen Statistik. Die haben dann noch ein paar Jahre eine ganz tolle Work-Life-Balance. Jedenfalls statistisch gesehen.

 

Disclaimer: Ich möchte hiermit natürlich keinem lebensfrohen Rentner mit einer positiv empfundenen Work-Life-Balance zu nahe treten.

Embed from Getty Images

 

Freischwebender Bullshit: Facebook will Gedanken lesen

Die Gedanken sind frei. Sich Irgendwas ausdenken, oder mal irgendwie über die Zukunft nachdenken, das wird man doch wohl noch dürfen. Oder mal die Gedanken schweifen lassen. Ganz frei, völlig losgelöst von irgendwelchen Realitäten. Alles ist erlaubt bei einem Brainstorming. Auch totaler Bullshit.

Facebook will demnächst irgendwann mal Gedanken lesen, bzw. Gedanken als Input-Channel nutzen für – ja was denn eigentlich? Für ein tastaturloses Katzenbildposting, für ein Liken des gerade vertilgten Burgers oder ein prospektives Ändern des Beziehungsstatus („im Moment bin ich gerade mit der langweiligen und bei Licht besehen doch nicht so attraktiven X – was besseres war aber gerade nicht im Angebot – liiert, denke aber, dass ich eigentlich lieber die scharfe Y als Freundin hätte…“  Oder zum Steuern von Autos??

„Würde Facebook das Projekt gelingen, könnte das Problem der Spracherkennung ausgeschaltet werden. Wenn ich dann denke, dass ich im Auto rechts abbiegen will, erkennt mein Navi das automatisch“, sagt Klaus Heblich von der SWR-Wissenschaftsredaktion.

„Solche Technologie existiert heute nicht. Wir werden sie erfinden müssen“, hat Facebook-Managerin Regina Dugan am Mittwoch auf der Facebook-Entwicklerkonferenz F8 gesagt. Stimmt. Der Warp-Antrieb existiert auch noch nicht, aber wenn sich 60 Leute beim milliardenschweren Werbe- und Selbstvergewisserungskonzern von Herrn Zuckerberg dransetzen, dann müsste das doch eigentlich auch zu schaffen sein. Dran arbeiten am neu erfinden kann man ja mal. Oder das planen, aber jetzt schon mal rausposaunen – in die dankbare Presselandschaft.

Embed from Getty Images

 

Die greift solch futuristische Pläne ja gerne auf und diskutiert die dann auch ganz ernsthaft mit „Experten“. Wenn Facebook an sowas arbeitet, muss das ja irgendwie realistisch sein. Oder aber total spekulative Zukunftsvision, die man einfach mal als kommerzieller Akteur im Markt freischwebend daherpinseln und -schwafeln kann. Im Klartext: Bullshit, jedenfalls auf sehr lange Sicht hin. Schauen wir doch mal ganz kurz auf die Fakten: Die bisherigen Ansätze zum Abgreifen von irgendwelchen motorischen oder intellektuellen Absichten (Ja – Nein, Cursor nach rechts oder links…) sind von der Praxistauglichkeit (Elektroden im Gehirn…) oder der Geschwindigkeit äußerst bescheiden.

Natürlich ist es eine großartige Sache, wenn Leute mit Locked-In-Syndrom (oder mit anderen Behinderungen; das Paradebeispiel ist vielleicht Stephen Hawking…) einen (bislang sehr mühsamen…) Weg bekommen, sich zu artikulieren. Aber das ist auch schon das einzige relevante Szenario für die „Gedanken-Lese-Technologie“, jedenfalls für die nächsten 20, 30, 40 Jahre (mit Prognosen soll man ja vorsichtig sein, vor allem, wenn sie die Zukunft betreffen…). Es gibt nicht den allergeringsten Anhaltspunkt, wie ein „Abgreifen“ komplexerer Gedanken als „Ja-Nein“, „Cursor nach rechts, Cursor nach links“ oder „vorgegebene Auswahlmöglichkeit auswählen“ zuverlässig funktionieren soll.

Wie die Facebook-Evangelisten (oder die Presse oder die befragten Experten…) auf die Idee kommen, die herbeiphantasierte Technologie könne sinnvoll die (ja auch noch gar nicht zuverlässig und ansatzweise befriedigend umgesetzte…) Spracherkennung ablösen oder ersetzen, das ist mir völlig schleierhaft. Nehmen wir mal das bei Tagesschau.de erwähnte Szenario: „Ich denke jetzt mal, dass ich rechts abbiegen will. Ach nee, doch nicht, ich würde zwar eigentlich gerne, aber da ist ja ein Lastwage…“  Die Handlungsweisen, ethischen Aspekte und Haftungsfragen bei eventuell eingebundenen KI-Assistenz-Systemen sind auch noch völlig ungeklärt, um mal ein eventuelles Gegenargument gleich einzubeziehen.

Oder die anderen Beispiele:

So könnte der Gedanke an eine Tasse direkt mit dem entsprechenden Fremdwort in Spanisch oder Chinesisch umgesetzt werden, sagte die Facebook-Managerin. „Eines nicht so fernen Tages könnte es sein, dass ich auf Chinesisch denke und sie es sofort auf Spanisch fühlen.“

Hatte ich gerade gedacht – der hat nicht mehr alle Tassen im Schrank; oder mit dem würde ich gern eine Tasse Tee trinken? Natürlich „gehe es nicht darum, wahllos Gedanken zu lesen“. (z.B. um dann direkt Burger- oder Porno-Werbung einzublenden…) „Nur solche Gedanken, die an das Sprachzentrum weitergeleitet würden, seien gemeint.“ Und wie soll das gehen, diese Differenzierung??? „War dieser Gedanke von dir gerade zur Weiterleitung an das Sprachzentrum gedacht? Denke bitte Ja oder Nein.“ „Meintest Du gerade Porno oder Burger, denke bitte P oder B.“ Bist Du sicher? Denke Ja oder Nein“. Ich setze mir zur Klärung dieser Feinheiten aber erst mal ein Elektroden-Mützchen auf. (Seid ihr wahnsinnig, ihr Vollhorste ???)

Fazit: Die Facebook-Ankündigung ist die größte Luftnummer, die ich in den vergangenen Jahrzehnten (ok, sagen wir mal seit Duke Nukem…) gelesen habe. Irgendwann wird so was natürlich mal kommen. Irgendwann werden wir den Gehirnerweiterungs-Chip implantiert haben. Irgendwann werden wir wirkliche von implantierten Erinnerungen nicht mehr unterscheiden können, irgendwann werden wir den Warp-Antrieb haben – oder denken, wir hätten ihn. Vielleicht steht da sogar dann „Facebook Virtual Reality“ drauf. Momentan ist das aber alles totaler Bullshit. Oder halt eine sehr völlig freischwebende Vision. Da wäre ich ja der letzte, der das verbieten wollte. Man muss das nur auch Bullshit nennen dürfen.

(Nachklapp 27.04.2017:) Wired sieht Facebooks Visionen ähnlich kritisch wie ich.

Journalist erklärt Farbverwirrung mit Bildschirm-Kalibrierung

Ich habe ja schon damals die Original-Aufregung um das weiß-goldene bzw. blau-schwarze Kleid (#dressgate) nicht so recht nachvollziehen können. Wahrscheinlich hatte ich aber an den entsprechenden Tagen keinen Netzreporter-Dienst, sonst hätte ich das Thema ja sicher behandelt, obwohl es nicht so recht radiophon ist 🙂 …

Embed from Getty Images

(Das Kleid der Herzogin von Cambridge ist eindeutig blau…)

Jetzt haben Forscher die „Farbverwirrung mit Schlafvorlieben“ erklärt, so lese ich bei meinen geschätzten Kollegen von Spiegel Online. Zuerst habe ich den Artikel auf meinem Desktop und dem angeschlossenen Samsung-Bildschirm zur Kenntnis genommen – und da sehe ich das Kleid in Hellblau (was man noch als Ergebnis eines Farbstiches mit sehr viel Fantasie in „Weiß“ uminterpretieren könnte…), und die Streifen in Gold.  Aber ganz ehrlich: Ich falle da schon in die Minderheitsgruppe und sage eigentlich „hellblau-gold“.

Auf meinem iPad Pro hingegen (zur Stunde noch nicht im Schlaf- bzw. Blauanteil-herausfilter-Modus; aber das ändert ulkigerweise gar nicht viel am Ergebnis…) sieht das Kleid eindeutig blau-schwarz aus. (Blaue Grundfarbe, schwarze Streifen…) Hier mal ein Foto, aufgenommen mit meinem iPhone – und das bringt zur weiteren Erheiterung noch wieder einen gewaltigen Gelbstich (jedenfalls im oberen Teil des Bildes, wo die fossile Glühbirne an meiner Zimmerdecke hineinstrahlt…) mit ins Spiel; aber den Unterschied sieht man trotzdem noch (vermute ich mal, wobei ich natürlich nicht weiß, mit welchem Gerät Sie diesen Artikel jetzt lesen 🙂  )

 

Ich schätze mal, 95% der ganzen #dressgate-Diskussion, die sich ja aufgrund einer Online-Rezeption des Fotos online abgespielt hat, geht auf das Konto Bildschirm-Kalibrierung. Den Forschern im zitierten Artikel ist das Problem grundsätzlich klar:

First, our data were logged online, which is inherently problematic; we do not know what screens or screen settings our participants used when they viewed the dress stimulus originally. However, this lack of controlled viewing conditions might be less troubling than usual in this particular case for several reasons. First, we tried to account for the divergent phenomenological experience of our participants when first encountering the dress—whatever the viewing conditions. This divergence is the key issue at hand that made this phenomenon interesting; it neither relies on nor is created by particular viewing conditions. Second, the fact that it is possible to find consistent and statistically reliable responses highlights the robustness of these effects; they do not rely on carefully controlled viewing conditions unlike so many effects in vision science that do. Indeed, Chetverikov and Ivanchei (2016) show that the percept of an individual is rather stable with no statistically reliable effect of image size or device type. Third, we conceptually replicate other findings by authors who did aim to control viewing conditions, e.g., Chebichevski and Ivanchei, so we are somewhat confident that the novel findings we report are also not artifactual.

Ich bin angesichts des Erscheinungsdatums jetzt nicht so sicher, ob die aktuelle Studie mit den Lerchen und Eulen ganz erst gemeint ist – auf jeden Fall: alle Bewertungen des Fotos „online“, also aufgrund individuell kalibrierter (oder eben nicht kalibrierter…) Bildschirme (auf Desktops, Handys oder Tablets…) kann man definitiv in der Pfeife rauchen oder ins Klo spülen oder in die Tonne kloppen. 🙂 Das Foto hier ist eindeutig blau-schwarz/gold – oder haben Sie etwa Tomaten auf den Augen (oder einen anders kalibrierten Monitor) ???

Die im SPON-Artikel verlinkten Erdbeer-Fotos sind allerdings nett; klarer Fall, der Background-Farbwert (und unsere normale Farberwartung…) spielt eine entscheidende Rolle…

Navi-Benutzung schaltet unser Gehirn ab – oder doch nicht?

In den Presse-Vorankündigungen hatte das auch erst einmal meine Aufmerksamkeit erregt: „Satnavs ’switch off‘ parts of the brain“ – so lautete die Schlagzeile bei Eurekalert. Und die Anführungszeichen, das wissen wir spätestens seit den Abhör-Vorwürfen von Donald Trump, die sind sehr wichtig 🙂 …Beim Blick auf das Abstract fand ich die Geschichte ganz nett, aber letztlich nicht so überraschend, als dass ich sie am nächsten Morgen thematisiert hätte. Insgesamt war die Presseresonanz aber ganz ausgezeichnet – und zwar, so kritisiert Dean Burnett vom Guardian, weil die Titelzeile schon reichlich „aufgesext“ und letztlich irreführend war.

This map shows the ‚degree centrality‘ of all the streets in central London. This reflects how many other streets are connected to each street, with blue representing simple streets with few connecting streets and red representing complex streets with many connecting streets. Credit: Joao Pinelo Silva

Zwar hatten die Forscher vom University College London explizit darauf hingewiesen, dass sich aus ihrem Navigations-Experiment im fMRI-„Hirnscanner“ keine Aussagen über irgendwelche Langzeitfolgen ableiten lassen würden – die Presse brachte dann aber doch „intuitiv“ naheliegende, aber falsche „Schlussfolgerungen“ wie: „Warum sich die Millenium-Generation immer verläuft“ oder „Navis lassen uns verdummen“ oder „Fahrer mit Navis erinnern sich nicht mehr an Straßen“. Aber wie Dean Burnett ja sehr schön als Beispiel anführt: Wenn ich keinen erhöhten Puls habe, bedeutet das noch nicht, dass mein Herz zu schlagen aufgehört hat oder „abgeschaltet“ ist – das Ausbleiben einer erhöhten Aktivität (und die ohnehin bekannten „Unschärfen“ bei allen Kernspintomograph-Hirnuntersuchungen haben wir da auch noch im Hinterkopf…) bedeutet nicht das „aktiv negative“ „Abschalten“ einer Funktion.

Ein vermeintlich sehr subtiler Unterschied, aber in Wahrheit ein eminent wichtiger.

DRadio Wissen – Hielscher oder Haase vom 24.03.2017 (Moderation: Diane Hielscher)

Forscher weisen erstmals vektorbasierte Navigations-Neuronen nach

Photo of an Egyptian fruit bat. Sarel et al. report on a new functional class of hippocampal neurons in bats, which encode the direction and distance to spatial goals – suggesting a novel neural mechanism for vector-based goal-directed navigation. [Credit: Steve Gettle]

Wenn Zugvögel zielsicher ihr Winterquartier aufsuchen und anschließend über tausende von Kilometern an ihre Brutplätze zurückkehren, wenn Bienen eine Wiese mit pollenreichen Blumen ansteuern und danach ebenso zielsicher wieder in den Stock zurückfliegen, wenn wir selbst – auch ohne Smartphone und GPS – täglich problemlos zur Arbeit und danach wieder nach Hause finden – dann ist dies alles das Werk von speziellen Neuronen in unseren Gehirnen. Wie die funktionieren, ist zum Teil schon bekannt; 2014 gab es dafür den Medizin- bzw. Physiologie-Nobelpreis. Im Fachblatt „Science“ weisen israelische Forscher bei Flughunden nun erstmals eine wichtige weitere Variante dieser Navigations-Neuronen nach.

Wie komme ich zuverlässig von Ort A zu Ort B und danach wieder zurück? Navigation ist eine der lebenswichtigen Hauptaufgaben für praktisch jedes Lebewesen – kein Wunder, dass sich die Evolution da ein paar sehr ausgeklügelte und bewährte Mechanismen hat einfallen lassen – egal, ob wir jetzt als Fledermaus, Biene oder Mensch unterwegs sind. Bislang konnten Forscher zwei Typen von Navigations-Neuronen identifizieren, sagt Nachum Ulanovsky vom Weizman Institute of Science in Rehovot:

Die „Ortszellen“ sagen ‘Ich bin hier am Punkt A’, und die „Rasterzellen“ sagen mir wie bei einem Millimeterpapier etwas über Entfernungen und absolute Richtungen. Aber – ich sitze jetzt hier in meinem Büro im Institut – ich weiß, wo die Cafeteria ist, auch wenn ich sie nicht sehe. Ich habe also in meinem Gehirn eine Repräsentation vom Ziel, vom Punkt B. Aber wie die im Detail funktioniert, war bislang unklar – das lässt sich mit dem bislang bekannten Konzept von Orts- und Rasterzellen nur schwer verstehen.    

Ulanovsky und seinen Mitarbeitern – allen voran seine Doktorandin Ayelet Sarel, die Hauptautorin der Science-Studie – gelang es, die Gehirn-Aktivitäten von Nilflughunden (Rousettus aegyptiacus) aufzuzeichnen, während diese zu einem zuvor antrainierten Rast- und Fressplatz im Labor der Wissenschaftler flogen. Dazu hatten die Forscher den Tieren Messsonden implantiert. Die registrierten die elektrischen Signale in der für die Navigation zuständigen Hirnregion, im Hippocampus – aufgelöst bis hin zum Feuern von einzelnen Nervenzellen.

Das technisch Neue dabei ist: Wir haben diese Sonden in den letzten Jahren so weiterentwickelt und verkleinert, dass wir drahtlos, ohne Kabel aufzeichnen können – also wirklich bei den fliegenden Tieren.       

Photo of an Egyptian fruit bat. Sarel et al. report on a new functional class of hippocampal neurons in bats, which encode the direction and distance to spatial goals – suggesting a novel neural mechanism for vector-based goal-directed navigation. [Credit: Haim Ziv]

Wie sich die Fledertiere im Raum bewegten, protokollierten die Forscher mit zwei Kameras. Und anschließend analysierten sie mit Computerhilfe, ob es einen systematischen Zusammenhang zwischen den Positionsdaten und den Gehirnaktivitäten gab.

Dabei haben wir herausgefunden: Da sind tatsächlich Neuronen im Hippocampus, die den jeweiligen Winkel relativ zum Ziel repräsentieren. Also ein bestimmtes Neuron ist aktiv, wenn die Fledermaus genau auf das Ziel zufliegt, Winkel 0 Grad; ein anderes Neuron ist aktiv, wenn das Ziel rechts ist, also Winkel 90 Grad – und so weiter.

Damit gab es also erstmals einen Beleg für eine seit langer Zeit diskutierte und auch aufgrund von Verhaltensexperimenten naheliegende Hypothese:

Fast 20 Prozent der Neuronen im Hippocampus zeigten eine Repräsentation des Ziels, also wirklich eine große Anzahl. Einige Neuronen haben die Entfernung zum Ziel codiert, einige die Richtung, einige beides. Richtung und Entfernung zusammen bezeichnet man auch als Vektor – was wir also herausgefunden haben: Es gibt eine vektorbasierte Repräsentation eines Navigationsziels im Hippocampus der Fledertiere.

Dass es sich bei den entdeckten Neuronen wirklich um einen anderen Typ handelt als die bekannten Orts- und Rasterzellen, konnten die Forscher mit zwei Modifikationen ihres Experimentes zeigen.

Wir haben das Ziel einfach verschoben. Und dann haben die Neuronen, die auf die alte, trainierte Position ausgerichtet waren, aufgehört zu feuern. Und andere Neuronen passend zur neuen Position wurden aktiv – das ist also wirklich spezifisch auf den aktuellen Zielort bezogen.

In der zweiten Variante verhüllten die Wissenschaftler das Ziel mit einem Vorhang, der den Landeplatz auch für das Ultraschall-Sonar der Flughunde unsichtbar werden ließ. Davon ließen sich die Tiere aber nicht beirren, die Winkel- oder Vektor-Neuronen blieben weiterhin auf das zuvor trainierte Ziel hin ausgerichtet und aktiv:

Das zeigt, diese Repräsentation ist eine mentale, eine Gedächtnisleistung, sie basiert nicht einfach auf Sinneseindrücken – das ist großartig, denn das ist in der Tat genau das, was man für eine Navigation ohne Sicht zum Ziel braucht.

Wie das Ganze auf anatomischer Ebene funktioniert – ob die beteiligten Neuronen von ihrer Bauart her speziell konstruiert sind oder eben „speziell verschaltet“ – bei solchen Fragen müssen die Forscher momentan noch passen. Als nächstes wollen Nachum Ulanovsky und seine Mitarbeiter komplexere Navigations-Szenarien an den Flughunden erforschen – was ist, wenn es mehrere Ziele gibt, was, wenn das Tier seine Entscheidung für ein Ziel revidiert? Auf jeden Fall ist sich das Team ziemlich sicher, dass auch andere Lebewesen die vektorbasierten Neuronen im Hippocampus haben und vektorbasiert navigieren.

Möglicherweise wäre das in Jahrmillionen der Evolution erprobte Konzept auch etwas für Roboter:

Es gibt schon eine Reihe von Roboterwissenschaftlern, die Algorithmen implementiert haben nach dem Vorbild von Orts- und Rasterzellen. Das ist interessant für autonome Fahrzeuge oder auch für Büro-Roboter. Bislang hat natürlich noch niemand die ziel-orientierten, vektorbasierten Neuronen umgesetzt, die haben wir ja jetzt gerade erst publiziert. Aber auf jeden Fall sind solche biologisch inspirierten Algorithmen grundsätzlich sehr vielversprechend.

Deutschlandfunk – Forschung aktuell vom 13.01.2017 (Moderation: Lennart Pyritz)

Affen könnten sprechen – wenn auch das Gehirn mitspielen würde

Gerade stand es in der neuen Ausgabe von „Science“: Zebrafinken haben offenbar von Geburt an ein neuronales Regelsystem, das ihnen dabei hilft, „gelungene“ von „schiefen“ Gesangs- bzw. Zwitscherstrophen zu unterscheiden. Ein Papagei kann problemlos Peinlichkeiten nach- oder ausplaudern oder die Feuerwehr bestellen, und selbst ein Seehund oder ein Beluga kann menschliche Sprache imitieren. Nur ausgerechnet Affen können uns Menschen nicht „nachäffen“, zumindest nicht vokal – und eine eigene Sprache mit Worten, Sätzen oder einer Grammatik haben sie im Verlauf der Evolution erst recht nicht entwickelt; trotz aller unbezweifelbarer Intelligenz.

Warum Wale, Elefanten oder Singvögel uns Menschen bei der spezifischen Fähigkeit zur vokalen Imitation, dem „call production learning“ näher sind, als unsere evolutionsbiologisch engsten Verwandten, darüber kann auch Prof. Tecumseh Fitch, Leiter der Abteilung Kognitionsbiologie an der Universität Wien, nur spekulieren. An grundsätzlichen und unüberwindbaren anatomischen Beschränkungen ihres Stimmapparates, ihres Vokaltraktes liegt es jedenfalls nicht – das ist das Ergebnis seiner in „Science Advances“ veröffentlichten Studie. Fitch und seine Kollegen knüpfen mit ihren neuen Experimenten an die paradigmatische Untersuchung von Philip Lieberman aus dem Jahr 1969 an.

Embed from Getty Images

 

Dessen Ergebnisse seien aber erstens aufgrund schwächerer Eingangsdaten zustande gekommen – nämlich aufgrund einer Modellierung des Vokaltraktes eines toten Makaken – zweitens habe man anschließend Liebermans Schlussfolgerungen auch noch missverstanden oder fehlinterpretiert, so sieht es Tecumseh Fitch.  Sein Fazit: Makaken – und wahrscheinlich auch andere Primaten haben einen „sprechbereiten“ Stimmapparat – das Problem sind fehlende Steuerungs-Schaltkreise im Affengehirn. Völlig unumstritten sind die Schlussfolgerungen von Fitch und seinen Ko-Autoren noch nicht:

Die „New York Times“ zitiert die Sprachwissenschaftlerin Anna Barney von der Universität Southhampton – ihr zufolge blieben in Fitch’s Studie Fragen offen, etwa die, ob Makaken neben unterscheidbaren Vokalen auch die nötigen Konsonanten produzieren könnten. Da ist sich der Kognitionsbiologe allerdings recht sicher:

What we know for sure is that things like “pa, ba, ma, na”, all of those would be no problem as would “ha”; some version of “ka” and “ga” should be no problem. I think it would be extreme to say that monkeys could make all human consonants. But the point is they could easily make enough consonants to generate with this number of vowels to make thousands of words. I think the consonants have never been postulated to be to a large problem, a large limitation. The debate has always been about the vowels.

Und auch der mittlerweile emeritierte Philip Lieberman selbst meldet sich in der NYT und im „Christian Science Monitor“ noch einmal zu Wort – er ist nach wie vor der Meinung, dass bei der Evolution der menschlichen Sprache sowohl neuronale Veränderungen im Gehirn als auch anatomische im Vokaltrakt eine Rolle gespielt haben. Vielleicht klärt sich ja irgendwann durch genetische Eingriffe in das Erbgut von Affen, wer recht hat: Wenn durch einen wohl plazierten CRISPR-Schnipsel im Gehirn-Sprachkontrollzentrum Makaken oder Schimpansen plötzlich zu plaudern anfangen, war es Tecumseh Fitch. Wenn erst durch einen anderen Schnipsel der Kehlkopf anatomisch tiefer gelegt werden muss, war es Lieberman. 🙂

Sprachlose Primaten – Fehlende Kontrolle über Stimmtrakt

Deutschlandfunk – Forschung aktuell vom 12.12.2016 (Moderation: Arndt Reuning)

Paradoxes Hormon – Testosteron macht aggressiv, aber auch großzügig

Das Sexualhormon Testosteron hat einen ziemlich zweifelhaften Ruf. Fest steht: es ist essentiell bei der Entstehung und Aufrechterhaltung von männlichen Körpermerkmalen, bei der Spermienproduktion und dem Aufbau von Muskelmasse. Und es hat unzweifelhaft einen Einfluss auf das männliche Verhalten – auf den Geschlechtstrieb nämlich. Und jetzt wird es kontrovers: Testosteron macht aggressiv, es führt zu antisozialem Verhalten, das gilt fast schon als Allgemeinwissen. Aber so einfach ist die Sache nicht – wie eigentlich immer, wenn man evolutionsbiologische Erkenntnisse und menschliches Verhalten in einen Topf wirft und dann durch eine politische oder ideologische Brille draufschaut 🙂 .

Natürlich ist auch der Mensch von seinem evolutionsbiologischen Erbe noch stark beeinflusst – aber mit einem ganz einfachen Testosteron-Bashing a la Gender-Theorie tut man/frau selbst der Affenhorde unrecht. Vielleicht kann man es einfach erst einmal neutral so sagen: Testosteron hat den „Sinn“ oder die Funktion, den Fortpflanzungserfolg eines Männchens zu fördern. Und dazu gehört einerseits aggressives Verhalten – also dem Konkurrenten um das Weibchen eins auf die Birne zu geben. Und zwar im direkten Wettbewerb um ein konkretes Weibchen, oder im Streben nach Status – der wiederum den Erfolg bei den Weibchen eindeutig positiv beeinflusst 🙂 …

Status lässt sich aber auch durch nicht-aggressives Verhalten gewinnen – durch besondere Fähigkeiten, durch Mut oder Klugheit. Oder eben auch durch Großzügigkeit; wenn man es etwas kritischer benennen will: durch protzen oder „ganz entspannt einen auf dicke Hose machen“. Was im Grunde in der intuitiven Beobachtung menschlichen Miteinanders schon relativ plausibel erscheint, lässt sich offensichtlich auch experimentell nachweisen. Vollständig bewiesen ist die These „Testosteron fördert das Streben nach Status“ vielleicht noch nicht – aber die Indizien passen schon recht gut zusammen.

Wie Matthias Wibral anmerkt, ist der Titel der aktuellen PNAS-Studie (Testosterone causes both prosocial and antisocial status-enhancing behaviors in human males) eigentlich nicht ganz zutreffend: Dass Testosteron antisoziales Verhalten hervorruft, belegt die Untersuchung bzw. das Studiendesign nämlich nicht:

Also in der Literatur zu Bestrafung oder zum Ultimatum-Spiel oder auch in Public-good-Spielen, da bezeichnet man so eine Art von Bestrafung, wenn ich also jemand bestrafe, der besonders wenig gibt, eher im Gegenteil als prosozial.

Diesen Einwand konnte Jean-Claude Dreher auf Nachfrage sogar nachvollziehen. Gezeigt habe sein Experiment tatsächlich nur eine verstärkte „reaktive Aggression“. Und eben – als entscheidenden Punkt – eine kausal durch Testosteron verstärkte Großzügigkeit.

Paradoxes Hormon – Testosteron macht aggressiv, aber auch großzügig

Deutschlandfunk – Forschung aktuell vom 04.11.2016 (Moderation: Ralf Krauter)