Category: Biologie

Hilft Sport gegen Alzheimer?

Alzheimer – die gefürchtete Krankheit lässt Nervenzellen im Hirn absterben, kappt ihre Verbindungen untereinander und führt schließlich ins “Große Vergessen”. Die gute Nachricht: Wer regelmäßig Sport macht, kann den Beginn der Krankheit hinauszögern und ihren Verlauf abbremsen. Warum das so ist, wissen Forscher jetzt ein klein wenig besser. Sie wollen dieses Wissen nutzen, um neue Therapien zu finden.

Sportliche Menschen bekommen im Schnitt fast zehn Jahre später Alzheimer als unsportliche. Schon das alleine sollte jeden aufs Fahrrad jagen (oder in die Laufschuhe). Für Sportmuffel gibt es jedoch auch ein wenig Hoffnung: Wissenschaftler versuchen, den Effekt eines gesunden Lebensstils durch Medikamente nachzuahmen und können einen Erfolg verbuchen.

Wie hilft Bewegung dem Gehirn?

Bisher wusste man zwar, dass körperliche Betätigung gut ist gegen Alzheimer, aber nicht warum. Forscher aus verschiedenen Instituten in den USA haben die Ursache dieses Phänomens erforscht und folgendes herausgefunden:

  1. Sport regt die Bildung neuer Nervernzellen an.
  2. Er erhöht die Anzahl der Verbindungen zwischen Nervenzellen (Synapsen).
  3. Außerdem hält er den Blutkreislauf gesund  – das ist wichtig für die Sauerstoffversorgung des Gehrins.
  4. Und er erhöht den Gehalt eines Proteins namens brain-derived neurotrophic factor (BDNF).

Und genau dieses BDNF ist der Knackpunkt. Es sorgt nämlich dafür, dass Nervenzellen im Gehirn länger überleben. Denn als die Wissenschaftler Mäusen mit Alzheimer nur ein Präparat gaben, wodurch die Mäuse mehr Nervenzellen im Gehirn bildeten, verbesserte sich ihr Gedächtnis nicht. Zusammen mit BDNF aber linderten sich die Symptome von Alzheimer in Mäusen. Das berichten die Forscher in einer gemeinsamen Studie in der Zeitschrift Science. Ihre Ergebnisse machen Hoffnung, dass man in (ferner) Zukunft vielleicht ein Medikament gegen Alzheimer entwickeln kann. Allerdings wurde diese Studie in Mäusen angefertigt und Ergebnisse aus Tiermodellen sind nicht immer ohne Weiteres auf den Menschen übertragbar. Und selbst wenn es in diesem Fall so ist – diese Studie ist nur ein erster Hinweis, es muss noch viel mehr geforscht werden.

Sport ist die beste Medizin

Wer jetzt denkt, “Na gut, dann mache ich halt Sport, wenn ich älter werde”, den muss ich leider enttäuschen: Je später man anfängt, desto weniger nützt es. Das Gehirn von Menschen, die bereits Alzheimer haben, profitiert gar nicht mehr von Bewegung (Ihnen könnte jedoch irgendwann das eben erwähnte Medikament helfen).

Ein Medikament – falls und wenn es irgendwann erhältlich ist – löst übrigens auch nicht alles. Denn wer sich nicht bewegt, hat bekanntlich mehr Probleme als nur Alzheimer. Herz-Kreislauf-Erkrankungen bringen Dich um, bevor Du überhaupt alt genug bist, um dement zu werden.

Also hopp, hopp, Sportklamotten an und los geht’s!

 

Die Original-Studie: Choi, et al.: Combined adult neurogenesis and BDNF mimic exercise effects on cognition in an Alzheimer’s mouse model. Science 2018 (leider nur für Abonnenten)

Ein frei zugänglicher Artikel zur Studie (auf englisch): How does exercise keep your brain young? | Science

 

 

Pilze – wollen sie uns alle umbringen?

Ist es eine Pflanze? Ist es ein Tier? Nein, es ist ein Pilz!
Pilze bilden eine Gruppe ganz für sich, auch wenn viele denken, es seien Pflanzen. Manchmal sind Pilze nett und helfen im Waldboden bei der Zersetzung von totem Material, womit dem natürlichen Kreislauf wieder Nährstoffe zugeführt werden. Oft aber haben sie es auf die totale Herrschaft abgesehen. Sie dringen in Pflanzen und Tiere ein und toben sich dort aus – nicht selten ohne Rücksicht auf das Leben ihres Wirtes. So gibt es eine parasitische Pilzart, die Insekten zu willenlosen Zombies macht. Einige Pilze wachsen sogar in Menschen.

Pilze, das sind doch die lustigen Dinger mit Stiel und Hut, die romantisch im Wald rumstehen und deren Daseinszweck darin besteht, von Touristen in knallbunten Regenjacken in die Pfanne gehauen zu werden, oder? Ähm, nein. Pilze sind oft miese kleine Parasiten, die nur sich selbst dienen. Und in den seltensten Fällen sind sie so freundlich, sich als Abendessen zu eignen. Aber fangen wir erst einmal mit den nützlichen Pilzen an.

Geneigte Pilzsammler werden wissen, dass bestimmte Pilze bevorzugt unter ausgesuchten Bäumen wachsen – der Birkenpilz unter Birken, der Steinpilz unter anderem in der Nähe von Fichten, und so weiter. Das liegt an einer uralten Partnerschaft zwischen Pflanzen und Pilzen, der sogenannten „Mykorrhiza“. Das Wort setzt sich zusammen aus den griechischen Wörtern mykos (Pilz) und rhiza (Wurzel). Dabei geht eine Pilzart eine unterirdische Verbindung mit der Pflanzenwurzel ein. Aber nicht nur Bäume haben solche Pilzpartner – etwa 80 % aller Landpflanzen haben so eine Mykorrhiza. Doch wozu brauchen Pflanzen Pilze – und umgekehrt?

Eine Mykorrhiza ist eine sogenannte Symbiose, eine enge Partnerschaft zwischen zwei unterschiedlichen Lebewesen, die beiden Vorteile bringt. Die Pflanze erhält vom Pilz Mineralstoffe wie Stickstoff und Phosphor, die im Boden in Verbindungen vorliegen, die nur der Pilz aufschließen und verarbeiten kann. Im Gegenzug erhält der Pilz von der Pflanze Nährstoffe in Form von Zuckern. Wie tauschen die beiden sich aus? Nun, Pilze bestehen nicht nur aus einem Stiel und einem Hut, ganz im Gegenteil. Dieser Teil beherbergt lediglich die Fortpflanzungsorgane. Das ist richtig, wir essen die Geschlechtsorgane von Pilzen. (Kriegt euch wieder ein, es schreit ja auch keiner „Iiiiih, Geschlechtsorgane!“, wenn er eine Blume sieht.) Der eigentliche „Körper“ des Pilzes ist ein weit verzweigtes unterirdisches Netz von sehr, sehr dünnen Fäden, für das bloße Auge praktisch unsichtbar. Dieses Netz heißt „Myzel“ (das spricht man „Mühzeel“), ein einzelner Faden ist eine „Hyphe“ (das wird wie „Hüfe“ ausgesprochen).

Die Hyphen wachsen unter der Erde vor sich hin, bis sie auf eine geeignete Pflanzenwurzel treffen. Die Pflanze sendet sogar chemische Stoffe aus, um die Pilzhyphen anzulocken. Hat eine Hyphe Kontakt zu einer Wurzel aufgenommen, bildet sie eine spezielle Struktur, mit der sie sich durch die Außenwand der Wurzel bohrt. Dazu kann die Hyphe an der Kontaktstelle einen unglaublich hohen Druck aufbauen. Experimente habe gezeigt, dass dieser Druck bis zu 100 bar betragen kann. Zum Vergleich: In einem Autoreifen herrscht ein Luftdruck von 2 bis 2,5 bar, ein richtig knallhart aufgepumpter Rennradreifen kann es schon mal auf 10 bar bringen. Immer noch kein Vergleich zum Pilz! Der baut diesen Druck jedoch nur an einem mikroskopisch kleinen Punkt auf. Das reicht aber locker, um sich in die Pflanzenwurzel zu bohren. Zusätzlich sind außerdem Enzyme im Einsatz, die die Zellwände der Pflanzenwurzel ein bisschen durchlässiger machen. Die Hyphe wächst dann innerhalb der Zellen der Pflanzenwurzel und bildet dort stark verzweigte Strukturen. Dadurch haben Pilzhyphe und Pflanzenzellen eine große Oberfläche zur Verfügung, über die sie nun die besagten Stoffe austauschen können. So brutal der ganze Vorgang klingt, die Pflanze nimmt den Pilz bereitwillig auf, sie organisiert sogar die Zellen um, in die der Pilz vorgedrungen ist, um das Meiste aus der Partnerschaft zu machen.

Klingt doch alles ganz toll, oder? Der Pilz tut der Pflanze doch einen Gefallen? Jein. So bereitwillig die Pflanze ihre äußeren Wurzelzellen für den Pilz einrichtet, so sehr muss sie Strukturen weiter innen vor ihm schützen. In der Mitte der Pflanzenwurzel liegt der sogenannte Zentralzylinder, durch den die Pflanze Wasser und Nährstoffe
transportiert – quasi die Blutbahn der Pflanzen. In die würde der Pilz zu gerne eindringen, um direkt an die Zuckerlösung zu kommen, die ihm die Pflanze im Rahmen der Mykorrhiza nur rationiert zukommen lässt. Doch dagegen wehrt sich die Pflanze, indem sie Lignin, den „Holzstoff“, in die Zellen einlagert, die den Zentralzylinder umgeben. Damit weist die Pflanze den Pilz in seine Schranken und erhält die Partnerschaft halbwegs freundlich und zum gegenseitigen Nutzen.

Doch das Lignin schützt nicht vor allen Pilzen! Eine Pflanze geht nämlich nicht nur mit einem Pilz so eine Verbindung ein, sondern meist mit mehreren. Genauso interagiert ein- und derselbe Pilz mit mehreren Pflanzenpartnern. Die beiden führen also eine sehr, sehr offene Beziehung. Der Vorteil davon: Die Mykorrhiza vernetzt mehrere Pflanzen miteinander, die so auch untereinander kommunizieren und Stoffe austauschen können. Außerdem kann die Pflanze von den unterschiedlichen Eigenschaften verschiedener Pilze profitieren (und umgekehrt). Der Nachteil: Pilze, die es gar nicht so gut meinen, können sich unter den echten Symbiosepartnern einschleichen. Die nehmen genauso Kontakt auf wie die „guten“ Pilzpartner, saugen dann aber schamlos Zucker aus der Pflanze, ohne etwas dafür zurückzugeben. Noch schlimmere Zeitgenossen unter den Pilzen tun ebenfalls so, als wollten sie eine Mykorrhiza bilden, wachsen dann aber tief in die Wurzel und schaffen es, in den Zentralzylinder vorzudringen, von wo aus sie sich in der gesamten Pflanzen verbreiten, diese von innen durchwuchern und förmlich auffressen. Nett, oder? Immerhin gibt es einige Pflanzen, die ein bisschen Rache nehmen: Sie bilden Mykorrhizzen und lassen sich gemütlich mit Mineralstoffen beliefern, knausern aber kräftig mit dem Zucker. Einige Orchideenarten sind da gut drin. Ein bisschen Gerechtigkeit muss sein.

Verlassen wir das Pflanzenreich und begeben uns zu den Tieren (darauf habt ihr doch nur gewartet!). Wenn man „Pilze“ hört, denkt man meist erstmal an Basidiomyzeten. Woran bitte? Ok, das Wort „Basidiomyzeten“ (zu Deutsch „Ständerpilze“ – haha, ich weiß) kommt wohl nur Wenigen in den Sinn. Eher hat man ein Bild von einem netten Pilz zwischen Moos und Laub vor Augen, vielleicht sitzt da noch ein Heinzelmännchen drauf. So ein Pilz ist, wie schon erwähnt, das Fortpflanzungsorgan, der sogenannte „Fruchtkörper“ eines Basidiomyzeten. Es gibt aber noch massenhaft andere Pilzarten, die nicht diese uns wohlbekannten Fruchtkörper bilden. Die haben entweder ganz anders aussehende oder gar keine spezialisierten Fruchtkörper. Das unterirdische Myzel-Netzwerk ist ihnen aber fast allen gemein. Doch lange nicht jeder Pilz ist so freundlich, sein Myzel friedlich im Waldboden zu bilden. Manche wachsen innerhalb von Insekten. Oder Menschen.

Da hätten wir zum Beispiel Ophiocordyceps unilateralis, eine parasitische Pilzart, deren Sporen auf den Panzern von Ameisen auskeimen und dann in den Körper der Ameise hineinwachsen. Dort befällt der Pilz das Nervensystem der Ameise und manipuliert ihr Verhalten. Die Ameise hört auf, für ihre Kolonie zu arbeiten und macht sich stattdessen auf den Weg zu einem Blatt oder der Baumrinde – sie wird zum willenlosen Zombie, der nur noch dem Pilz dient. Bei Blatt oder Rinde angekommen, beißt die Ameise sich fest und stirbt. Der Pilz bildet nun einen keulenförmigen Fruchtkörper, der aus dem Hirn der Ameise herauswächst wie eine kleine Antenne. In dem untenstehenden Video, einem Ausschnitt aus der englischen BBC-Serie Planet Earth, seht ihr das Ganze in Echt. Ophiocordyceps unilateralis hat mit dieser gruseligen Fortpflanzungsstrategie schon Computerspiele und Science-Fiction-Romane inspiriert.

Zombie-Ameisen sind schon ein bisschen gruselig, aber irgendwie auch faszinierend. Wenn so ein Pilz allerdings in uns Menschen wächst, hört der Spaß auf. Ausgerechnet ein Vertreter der Hefepilze kann uns mächtig zu schaffen machen. Ein bestimmter Hefepilz, die Bierhefe, auch Bäckerhefe genannt, ist dem Menschen seit Jahrtausenden zu Diensten. Auch in der Wissenschaft wird dieser Hefepilz sehr verbreitet genutzt. Auf Schlau heißt diese Pilzart Saccharomyces cerevisiae. Gebäck und Gesöff – wer wollte ohne sie leben? Allerdings findet man selbst im Weißbier keine Myzel-Netzwerke, höchstens ein bisschen pudrigen Bodensatz. Das liegt daran, dass Hefepilze oft kein Myzel bilden, sondern als einzelne, winzige Pilzzellen durch die Gegend schwimmen. Auch Nicht-Hefepilze (wie die erwähnten Ständerpilze) bilden in manchen Lebensstadien einzelne Zellen, die dann zu Ehren der einzelligen Hefen als „Hefestadium“ oder „Hefeform“ bezeichnet werden.

Doch bei Weitem nicht alle Hefen finden ihre Erfüllung darin, uns Menschen mit Gebäck und Gesöff zu versorgen. Ein ziemlich gemeiner Vertreter der Hefepilze ist die Gattung Candida, vor allem die Art Candida albicans. Und ich habe eine schlechte Nachricht: Diesen Pilz tragen etwa 70 bis 75 Prozent von uns in sich. Die gute Nachricht: Meistens ist er harmlos. Meistens.

Candida albicans lebt bei gesunden Menschen im Darm und auf Schleimhäuten im Gleichgewicht mit all den anderen Mikroorganismen, die sich dort tummeln, etwa Milchsäurebakterien. Gerät das Gleichgewicht aber aus der Balance, kann der Pilz die Überhand bekommen und zu einer Erkrankung werden. Das kann etwa passieren, wenn man eine Antibiotikatherapie macht. Dabei werden nämlich nicht nur die krankmachenden Bakterien abgetötet, sondern alle Bakterien, die man im Körper trägt, auch die guten. Darauf hat der Pilz gewartet – die Milchsäurebakterien, die mit ihm um Platz und Nahrung konkurrieren, sind weg, und los geht’s mit der Pilzinfektion! Candida kann im Prinzip den ganzen Körper befallen, häufig sind die Mundhöhle (das nennt man dann „Soor“) und der weibliche Genitalbereich.

ACHTUNG! Das heißt NICHT, dass Antibiotikatherapien automatisch schlecht sind! Oft sind sie die letzte Rettung, denn auch Bakterieninfektionen können sehr gefährlich sein für Leib und Leben! Wenn ihr Antibiotika verschrieben bekommt, nehmt IMMER die ganze Packung bis zum Ende, genau, wie eure Ärztin oder euer Arzt es verschrieben hat! Auch, wenn es euch schon eher besser geht. Sonst züchtet ihr multiresistente Bakterien in eurem Körper, die ihr womöglich nie wieder loswerdet! (Ok, der Belehrungsmodus geht jetzt wieder aus)

Ein Tip für die Mädels: Wenn ihr wisst, dass ihr während einer Antibiotikakur zu Scheidenpilz neigt, kauft in der Apotheke Milchsäurezäpfchen (ja, für die Mumu). Die helfen dabei, die Scheidenflora bakterienfreundlich zu halten und können so einer Pilzinfektion entgegenwirken.

Solche oberflächlichen Pilzinfektionen sind trotzdem noch vergleichsweise harmlos und meist gut zu behandeln. Candida ist allerdings auch dazu in der Lage, in die Blutbahn vorzudringen und von da aus den gesamten Körper von innen zu befallen. Daran kann man sterben. Das passiert unter normalen Umständen nicht oft. Wer ab und zu Fußpilz hat, muss also keine Angst haben. In Krankenhäusern ist Candida allerdings oftmals ein Problem, da vor allem sehr geschwächte Personen anfällig sind für so eine systemische Pilzinfektion – Candida steht inzwischen auf Platz vier der gefährlichsten Krankenhauskeime.

Jetzt muss ich die Behlerungskeule doch noch mal rausholen: Solltet ihr eine Pilzinfektion haben, probiert bitte nicht mit Hausmitteln oder Homöopathie herum, sondern geht sofort zum Arzt. Der wird euch antimykotische Arzneimittel verschreiben, die den Pilz meist innerhalb weniger Tage ausmerzen. So lange kann selbst der überzeugteste Anhänger des Paläo-Lifestyles ein paar künstlich hergestellte chemische Stoffe aushalten. Je länger der Pilz wuchert, desto höher ist nämlich die Wahrscheinlichkeit, dass er doch seinen Weg in die Blutbahn findet. Und dann geht man wirklich ganz authentisch den Weg des ach-so-natürlich lebenden Höhlenmenschen, der seinerzeit an heutzutage völlig harmlosen Infektionen meist starb.

Wir Menschen können leider wenig nutzen aus Pilzen ziehen, die in unseren Körper eindringen, so wie Pflanzen das können. Wir können nur über das Pilzreich triumphieren, indem wir einige seiner Vertreter aufessen.

Die Angst vorm Essen

Als ob es nicht schon genug Artikel, Dokufilme, Blogs und Diskussionsrunden über die “richtige” Ernährung gäbe. Es sind abnorm viele. Und alle behaupten etwas anderes. Wie soll man da noch ruhigen Gewissens essen? Kann man nicht, habe ich festgestellt. Doch ich habe eine wunderbar einfache Lösung gefunden, mit der ich persönlich sehr gut klarkomme: Ignorieren. Einfach alles ignorieren.

Ok, so ein paar Kleinigkeiten kann man sich vielleicht doch zu Herzen nehmen. Aber darum soll es heute gar nicht vordergründig gehen.

Ich bin über ein paar interessante Sachen zum Thema moderne Ernährung gestolpert, die ich mit euch teilen möchte. Um zu sehen, wann der Hype um Superfoods, glutenfrei und Co. losging, habe ich ein lustiges Spielzeug ausprobiert: Google Trends. Da kann man schauen, welche Wörter in einem bestimmten Land über einen frei wählbaren Zeitraum wie häufig gegoogelt wurden, und sie mit anderen Wörtern vergleichen. Schauen wir doch mal nach dem zeitlosen Wort „Diät“:

Das erfuhr innerhalb der letzten zehn Jahre recht stabiles Interesse. Lustig: Immer im Januar (ich hab bei ein paar Jahren Pfeile an diesen Monat gemacht) schießen die Suchzahlen in die Höhe, kurz vor dem Sommer auch noch mal. Danach geht es rapide bergab (Tschüss, gute Vorsätze!)

Werden wir konkreter: „Superfoods“ (damit meint die Ernährungs- und Fitnessindustrie all diese sündhaft teuren exotischen Früchtchen wie Acai- und Gojibeeren, Chiasamen, Kokosöl, etc.) wurde ab 2013 zum Thema, 2016 war das Jahr für diesen Trend. Inzwischen lässt das Interesse schon wieder nach.

Gegen die neuen allergrößten Feinde der gesunden Ernährung allerdings stinken die Superfoods ab – Gluten (Weizenkleber) und Laktose (Milchzucker) begannen im Jahr 2011, der Menschheit Angst und Schrecken einzujagen.

Bleiben wir da mal stehen. Ist die Angst vor Laktose und Gluten begründet?

Neulich fragte ich einen Bekannten, warum er keine Kuhmilchprodukte zu sich nimmt. Seine Antwort: „Ich habe da mal einen Vortrag drüber gehört und der hat mich sehr überzeugt.“
Ich: „Welche Argumente haben Dich denn so überzeugt?“
Er: „Das weiß ich nicht mehr. Aber es war sehr überzeugend.“

Beim Thema Laktose gibt es keine Antwort, die für alle gilt

Die Angst vor Milch ist diffus. Das beste Argument, was ich kenne, ist, dass Erwachsene theoretisch keine Laktose verdauen können. Das ist quasi der Urzustand.

Aber von vorne: Laktose ist ein Zweifachzucker (Disaccharid) aus Glukose (Traubenzucker) und Galaktose (Schleimzucker). Diese beiden Einfachzucker können Menschen problemlos verdauen. Die Verbindung, die die beiden in der Laktose zusammenhält, muss dafür jedoch erst einmal gespalten werden, dafür braucht der Organismus das Enzym Laktase. Im Darm neugeborener Säugetiere wird dieses Enzym freigesetzt, da Muttermilch, auch die der Menschen, Laktose enthält. Hört das Junge auf zu säugen, stoppt auch die Produktion der Laktase. Alle Menschen haben also ein Gen, das den Bauplan für das Enzym Laktase trägt. Dieses Gen wird jedoch nur nach der Geburt eingeschaltet und nach dem Ende der Säugezeit wieder ausgeschaltet – was es dann für den Rest des Lebens eigentlich auch bleibt. Eigentlich. Denn vor etwa 9.000 Jahren begannen die Menschen, Rinder zu halten. Zunächst wegen ihres Fleisches, später entdeckten die Menschen auch den Nährwert der Kuhmilch. In einigen Regionen Afrikas und Asiens geschah etwas Ähnliches mit Ziegen und Schafen. Vor etwa 3.000 Jahren begannen erwachsene Menschen in diesen Weltregionen also, laktosehaltige Milch zu sich zu nehmen. Zunächst werden sie davon mächtig Bauchschmerzen und Blähungen bekommen haben, verursacht durch ihre Darmbakterien, die die unverdaute Laktose verstoffwechselten und dabei reichlich Gase produzierten. Einige dieser Menschen trugen wahrscheinlich eine Mutation, die verhinderte, dass das Laktase-Gen ausgeschaltet wurde und vertrugen die Milch daher problemlos. Diese Mutation verbreitete sich dann im Laufe der Generationen in diesen Völkern. Ich nehme an, dass die Leute, die keine Bauchschmerzen hatten, mehr Bock auf Fortpflanzung hatten und ihre Gene darum viel öfter weitergegeben haben als diejenigen, die sich aufgebläht und pupsend auf ihrem Schlaflager krümmten. So sind heutzutage etwa 80 Prozent der Europäer und einige Völker in Asien und Afrika dazu im Stande, Laktose zu verdauen. In den anderen Regionen gehörte Trinkmilch nicht zur täglichen Nahrung, darum gab es keinen „Evolutionsdruck“, also den Druck, sich genetisch anzupassen. Wer keine Probleme mit Laktose hat, muss darum nicht unbedingt zu laktosefreien Nahrungsmitteln greifen. Die schaden aber auch nicht. Der Sender arte hat eine gut recherchierte, unaufgeregte und differenzierte Doku zum Thema Milch produziert, die ihr hier anschauen könnt. Sie heißt “Milch – ein Glaubenskrieg”. Das Fazit (Achtung Spoiler!): Was man von der Milch halten soll, ist davon abhängig, welcher Studie, welchem Arzt, Lebenscoach oder Ernährungsguru man glauben schenken möchte. Es gibt keine Antwort, die für alle gilt.

Der schlimmste Feind des modernen Nahrungsaufnehmers scheint aber das Gluten zu sein (Ich habe übrigens erst, als das Thema aufkam, gelernt, dass man es Gluteeeen ausspricht, nicht wie in „die flammenden Gluten“. Ups). Bei diesem Zeug handelt es sich um eine Mischung aus verschiedenen Eiweißstoffen, die in den Körnern einiger Getreidearten vorkommen. Man nennt es manchmal auch „Weizenkleber“, weil es den Brotteig quasi zusammenhält. Ohne Gluten läuft einem das Brot im Ofen zu einem Fladen auseinander. Gluten hat in den letzten Jahren einen furchtbar schlechten Ruf bekommen. Warum? Bei Menschen, die an der Krankheit Zöliakie, also einer echten Gluten-Unverträglichkeit leiden, kommt es zu chronischen Entzündungen im Dünndarm. Im Rahmen des Ernährungs-Hypes kam naturgemäß dem Darm auch wachsende Aufmerksamkeit zu, schließlich verdaut er den Großteil unserer Nahrung und nimmt die meisten Nährstoffe auf. „Entzündungen im Darm“ wurden zunehmend für viele verschiedene Leiden verantwortlich gemacht und entwickelten sich zu einem geflügelten Konzept. Ich spreche hier nicht vom Morbus Crohn oder Colitis ulcerosa, die sehr deutliche und unangenehme Symptome verursachen. Ich meine diese Bewegung, die sich in vielen Internetforen abzeichnete: „Du bist übergewichtig? Du hast bestimmt Entzündungen im Darm.“ „Du bist oft müde? Du hast bestimmt Entzündungen im Darm!“ „Du bist manchmal niedergeschlagen und antriebslos? Du hast…“ Und so weiter. Parallel schossen reichlich „Therapien“ mit Probiotika, entgiftenden Salzen, Fastenkuren, etc. aus dem Boden – viele davon in ihrer Wirksamkeit fragwürdig, aber alle mehr oder weniger teuer. Und weil Gluten bei Patienten mit Zöliakie nun einmal Entzündungen im Darm auslöst, wurde Gluten auch für viele dieser anderen diffusen Leiden, die angeblich auf Darmentzündungen zurückgingen, verantwortlich gemacht. Ohne Nachweis, dass diese Menschen solche Entzündungen überhaupt haben, geschweige denn, dass ihre Beschwerden auf Gluten zurückzuführen sind.

Normalerweise bin ich ja nicht so drauf, dass ich hier allzu tief in die harte Wissenschaft eintauche. Aber gegen die in Dauerschleife wiederholten Behauptungen selbsternannter Ernährungsgurus über das böse Gluten auf tausenden Webseiten und in Millionen Forenposts weiß ich mich einfach nicht anders zu wehren. Also, schnallt euch an, jetzt kommt knallharte Wissenschaft! (Wer nur hier ist, um meine schnoddrige Meinung zu lesen, der kann bis zur gestrichelten Linie überspringen).

Was macht eine „echte“ Zöliakie eigentlich aus? Bei dieser Krankheit reagiert der Dünndarm überempfindlich gegen einige Eiweißstoffe im Gluten. Diese Stoffe werden vom Darm aufgenommen und dann durch ein Enzym namens Tissue-Transglutaminase (tTG) verändert. Die veränderten Stoffe aktivieren dann das körpereigene Immunsystem, das die Schleimhautzellen des Dünndarms zerstört. Der Körper wendet sich also gegen sich selbst, die Zöliakie gehört damit zu den Autoimmunkrankheiten. Ob jemand Zöliakie hat, kann man nachweisen, indem man misst, ob der Patient Antikörper gegen sein eigenes tTG bildet. Dieser Nachweis ist allerdings nicht ganz zuverlässig. Um sicher zu gehen, testet man zusätzlich noch, ob im Körper des Patienten auch Antikörper gegen sein Endomysium zu finden sind, einem Bindegewebe in unmittelbarer Nähe zum Dünndarm. Nur Zöliakie-Patienten haben solche Endomysium-Antikörper (EMA).

Hat Zöliakie zugenommen? Ich zweifle daran

Eine Studie aus dem Jahr 2009 hat ermittelt, wie viele Menschen in verschiedenen europäischen Ländern tatsächlich von Zöliakie betroffen sein könnten [1]. Dazu wurden fast 30.000 Studienteilnehmer aus Finnland, Deutschland und Italien untersucht. Das Ergebnis: Im Durchschnitt haben ein Prozent der Teilnehmer die Voraussetzung, an Zöliakie zu erkranken oder waren bereits erkrankt. Die Finnen scheinen besonders anfällig zu sein, bei ihnen waren 2,4 Prozent betroffen, in Italien waren es 0,7 Prozent – und in Deutschland sage und schreibe 0,3 Prozent. Drei Menschen von 1000. Die Zahlen schwanken je nach Studie, doch weltweit sind weniger als ein Prozent betroffen.

Ich höre auch immer wieder das Argument, Zöliakie habe in den letzten Jahren dramatisch zugenommen. Das scheint eine Studie aus den USA, ebenfalls aus dem Jahr 2009, zu bestätigen [2]: Dort wurden gefrorene Blutproben aus den 1950-er Jahren mit aktuellen Proben verglichen. Die Proben aus den 50-ern stammten von jungen, männlichen Soldaten der Air Force (die Luftwaffe der USA), die aktuellen Proben entweder von Männern derselben Geburtsjahrgänge wie die Soldaten oder von jungen Männern, die zum Zeitpunkt der Studie im selben Alter waren wie die Soldaten damals. Die Forscher fanden heraus, dass bei den Soldaten 0,2 Prozent Zöliakie hatten, während bei den jungen Männern von heute etwa 0,9 Prozent positiv auf Zöliakie getestet wurden. Bei Männern derselben Geburtsjahrgänge, die nun also etwa 75 Jahre alt sind, hatten 0,8 Prozent Anzeichen für Zöliakie. Alles in allem werden heutzutage also viermal so viele Leute mit Zöliakie diagnostiziert wie noch vor 50 Jahren, sagen die Autoren.

Mit dieser Studie habe ich ein kleines Problem: In die US Air Force kamen und kommen nur die besten, fittesten, gesündesten jungen Männer (und inzwischen auch Frauen). Schon,wer eine Brille trägt, wird ausgemustert. Da Symptome der Zöliakie sich oft bereits im Kindesalter zeigen, kamen junge Männer mit Zöliakie vielleicht erst gar nicht so weit, sich für die Air Force zu bewerben. Diese Menschengruppe ist also schon auf Gesundheit „vorsortiert“. Die 0,2 Prozent, die in der Studie doch gefunden wurden, waren vermutlich gegen die Folgen der Krankheit weniger empfindlich und entwickelten kaum Symptome (das gibt es auch).

Zu ähnlichen Ergebnissen wie die amerikanischen Wissenschaftler kamen aber auch Forscher aus Finnland, die Blutproben aus den Jahren 1978 bis 1980 mit Proben aus den Jahren 2000 bis 2001 verglichen [3]. Diese Untersuchungen waren nicht auf bestimmte Bevölkerungsgruppen beschränkt. Die Finnen fanden heraus, dass in den etwa 20 Jahren zwischen den beiden Datenerhebungen das Vorkommen von Zöliakie in der finnischen Bevölkerung von einem auf zwei Prozent angestiegen sei.

An dieser Studie fielen mir einige merkwürdige Dinge auf: In den älteren Blutproben wurden bei mehr als acht Prozent der Teilnehmer tTG-Antikörper gefunden, in den Proben von 2000 und 2001 nur bei zwei Prozent. Die Wissenschaftler mutmaßen dazu, dass die Konzentration in den alten Proben vielleicht mit der Zeit zugenommen hat, sagen aber nicht eindeutig, warum sie das glauben. Noch dazu wurden in den Proben von 1978 bis 1980 nur in etwa 12 Prozent der tTG-positiven Proben auch EMA gefunden, in den neueren Proben sind über 70 Prozent der Teilnehmer sowohl für tTG als auch für EMA positiv (unten mal ein Bildchen, um die Zahlen deutlicher zu machen). Nur, wer beide Antikörper hat, wird als Zöliakie-Betroffener angesehen. Warum sind die EMA-Konzentrationen in den alten Proben so niedrig? Wenn die Konzentrationen zunehmen würden, wie die Wissenschaftler es für tTG-Antikörper annahmen, dürfte das nicht passieren. Diese Diskrepanz erwähnen die Forscher aber gar nicht.

In der finnischen Studie über die (angebliche) Zunahme der Zöliakie fielen mir einige Diskrepanzen auf, die die Wissenschaftler nicht erklären.

Zu guter Letzt wird auch eine Hautkrankheit, Dermatitis herpetiformis, in dieser Studie als Symptom für Zöliakie mitgezählt. Das ist an sich kein Problem, da fast jeder Fall dieser Hautkrankheit auf Zöliakie zurückzuführen ist. Allerdings heißt es in dieser Veröffentlichung, dass die Teilnehmer in den Jahren 2000 und 2001 spezifisch nach Dermatitis herpetiformis gefragt wurden, während sie 1978 bis 1980 anscheinend nur gefragt wurden, ob sie an chronischen Krankheiten litten.

Insgesamt hat diese Studie einige wissenschaftliche Schwächen und kehrt manche Ungereimtheiten unter den Teppich, darum würde ich ihren Ergebnissen schlichtweg nicht trauen.

Aber nehmen wir einfach mal an, dass Zöliakie tatsächlich zugenommen hat – woran könnte das liegen? Viele behaupten, es sei die viel höhere Gluten-Konzentration, die der moderne, hochgezüchtete Weizen gegenüber dem Weizen von vor einigen Jahrzehnten hat. Dafür gibt es allerdings keine Beweise. Es gibt auch keine Beweise dagegen, weil zu wenige Daten vorhanden sind. Eine Veröffentlichung, die aufgrund dieser wenigen Daten sehr vorsichtig geschrieben ist, kommt zu dem Schluss, dass es zwar jährliche Schwankungen der Glutenkonzentration im Weizen gibt, aber keinen Aufwärtstrend im Laufe der letzten Jahrzehnte [4]. Dieselbe Studie gibt aber auch zu bedenken, dass reines Gluten immer öfter als Zusatz in Fertignahrungsmitteln und Gebäck verwendet wird, um dessen Eigenschaften zu verbessern – noch weicher, noch fluffiger! Der Autor schätzt, dass die Leute heutzutage dreimal mehr Gluten zu sich nehmen als noch vor 40 Jahren. Bei Menschen, die zu Zöliakie neigen, könnte die Krankheit aus diesem Grund ausbrechen. Wenn diese Menschen “normale” Mengen an Gluten essen würden, hätten sie vielleicht keine Symptome.

Noch ein Letztes, dann ist das Thema Gluten für mich für immer gegessen (Haha, gegessen!): Vor Kurzem wurden auf einer Konferenz Ergebnisse vorgestellt, die Wissenschaftler der Universität Harvard aus den Daten von fast 200.000 Menschen gewannen, die im Laufe von 30 Jahren erfasst wurden. Aus diesen Daten scheint hervorzugehen, dass das Risiko, später im Leben an Diabetes Typ 2 zu erkranken umso höher ist, je weniger (!) glutenhaltige Nahrungsmittel man zu sich nimmt. Die Menschen, die täglich mehr als 20 Gramm Gluten zu sich nahmen, hatten ein 13 Prozent geringeres Risiko als die, die weniger als vier Gramm aßen. Zugegeben, 13 Prozent ist nicht sehr viel. Aber immerhin zeigt die Studie, dass Gluten gute Seiten hat. Allerdings könnte dieses Ergebnis auch damit zusammenhängen, dass Getreideprodukte viel Gluten enthalten und eine glutenarme Ernährung zugleich eine getreide- und somit ballaststoffarme Ernährung bedeutet (Vor allem vor 20, 30 Jahren, als es noch nicht trendy war, kein Gluten zu essen). Ballaststoffe sind für uns unverdauliche Stoffe, die die Aufnahme von Kohlenhydraten (also einfachen und mehrfachen Zuckern) im Darm verlangsamen. Dadurch steigt auch der Blutzuckerspiegel nur langsam an und man fühlt sich länger satt – wodurch man nicht so schnell wieder etwas isst und darum ein geringeres Diabetesrisiko hat.

——————————————————————————————————————–

Die Ernährungsindustrie schürt unsere Angst vorm Sterben, um uns etwas zu verkaufen

Abgesehen von alledem sind glutenfreie Nahrungsmittel auch nicht unbedingt der Gipfel der gesunden Ernährung. Um dieselbe Konsistenz etwa bei Backwaren zu erhalten, wird häufig alles mögliche reingepanscht, das man auch nicht wirklich essen möchte. Ein ähnliches Problem habe ich mit Soja-Joghurt und Konsorten. Die Produzenten versuchen, Milchjoghurt täuschend echt nachzuahmen und müssen dafür in aufwendigen Produktionsvorgängen alles mögliche zusetzen. Nein, danke, für mich nicht.

Fazit: Fertigfutter mit vielen Zusatzstoffen meiden, vor reinem Getreide braucht man sich aber nicht zu fürchten. Vor zehn Jahren war das noch selbstverständlich. Heutzutage muss man einen unglaublich langen Blogartikel schreiben, um sich argumentativ gegen die Besseresser durchzusetzen. Puh!

Insgesamt sehe ich den deutlichen Trend, einen uralten Marketingtrick anzuwenden, um uns angeblich gesundes Essen zu verkaufen: Rede den Menschen ein, dass sie ein furchtbares Problem haben. Mach ihnen so richtig Angst. Und dann präsentiere ihnen sofort die perfekte Lösung, für die sie nun dankbar tief in die Tasche greifen. Während viele Verkaufsstrategien uns bei unserer Sehnsucht, nicht allein zu sein packen – Rauchen macht gesellig, Klamotten machen cool, Dünnsein macht sexy – greift die Ernährungsindustrie uns auf einer viel existenzielleren Ebene an, nämlich unserer Angst vorm Sterben. Umweltgifte! Hormone und Antibiotika im Fleisch! Pflanzenschutzmittel am Getreide! Es kann einem Himmelangst werden. Genau darum geht es auch. Und viele Internetseiten, die uns scheinbar wohlmeinend über diese schrecklichen Gefahren informieren, haben zufällig einen kleinen Onlineshop für Biofutter. Oder einen Link zu einem bestimmten Mixer. Oder bieten eine Ausbildung zum Ernährungscoach an. Auch die alternative Ernährungsindustrie ist eben genau
das – eine Industrie. Sie muss und will genauso Geld verdienen wie alle anderen. Ihre Werbetricks und Marketingstrategien sind nicht weniger perfide als die der anderen auch. Nur, dass sie uns versucht weiszumachen, sie würde uns aus der Güte ihres Herzens wohlwollend aufklären, statt uns geschickt zu manipulieren.

Leider werden die meisten Menschen nicht dafür bezahlt, sich trendig zu ernähren

Meine persönliche Lösung, so banal es klingt: Alles in Maßen. Wer viele verschiedene Dinge und damit wenig von einer bestimmten Sache isst, verteilt sein Risiko und nimmt von jedem Schadstoff – sei es eine künstliche Chemikalie oder ein natürlicher Inhaltsstoff – nur wenig auf. Der Stress, den es mir bereiten würde, auf jede Regel zu achten, jede Gefahr zu vermeiden, würde mir mehr Lebenszeit rauben als ein paar gering dosierte Giftstoffe im Essen. Mal ganz abgesehen davon, dass ich ständig damit beschäftigt wäre, von Bioladen zu Bioladen zu rennen.

Zum Schluss noch unsere „Superfoods“ – Acaibeeren, Aroniasaft, Chiasamen, Mandelmehl und wie sie alle heißen. Sie sollen wundersame Kombinationen an unglaublich vielen Nähr- und Mineralstoffen sowie Vitaminen enthalten und damit nicht nur super-nahrhaft sein, sondern sogar Krankheiten heilen (allen voran wahrscheinlich nicht diagnostizierte Darmentzündungen). Ich streite nicht ab, dass die Superfoods gesund sind. Oder zumindest nicht schädlich. Aber teuer sind sie. Wenn ich meinen Tag mit Superfoods bestreiten müsste, wäre ich in wenigen Wochen pleite. Erschwerend kommt hinzu, dass ich sowieso nicht arbeiten gehen könnte, weil ich den ganzen Tag damit zu tun hätte, frische Wildkräuter zu sammeln, Traubenkerne zu mahlen und Smoothie-Zutaten zu schnippeln. Hin und wieder liest man Artikel von Journalistinnen (seltener Journalisten), die völlig begeistert von ihrem Zwei-Wochen-Paläodiät-Experiment schreiben. Einmal las ich am Ende eines solchen Artikels diese Sätze:
„Ich stand täglich fünf Stunden in der Küche und musste mehrmals am Tag abwaschen – aber es geht mir so viel besser, das ist die Mühe allemal wert! Ich kann es jedem nur empfehlen!“
Ist ja toll. Leider werden die meisten Menschen nicht dafür bezahlt, sich trendig zu ernähren. Wir Normalsterblichen müssen das irgendwie in unserer Freizeit hinkriegen.

Wer nicht auf Superfoods verzichten möchte, ohne dafür einen Kredit aufnehmen zu müssen, hier sind ein paar Tips: schwarze Johannisbeeren statt Acai, Leinsamen statt Chia, Rosinen statt Gojibeeren. Gibts alle schon ewig in unseren Breiten, enthalten fast dieselben Stoffe, sind aber leider total unsexy. Damit müssen wir Normalos wohl leben lernen.

Zitierte Quellen:
[1] K. Mustalahti, et al.: The prevalence of celiac disease in Europe: Results
of a centralized, international mass screening project. Annals of Medicine, 42
(2010) doi:http://dx.doi.org/10.3109/07853890.2010.505931

[2] A. Rubio-Tapia, et al.: Increased Prevalence and Mortality in Undiagnosed Celiac Disease. Gastroenterology, 137 (2009)
doi:http://dx.doi.org/10.1053/j.gastro.2009.03.059

[3] S. Lohi, et al.: Increasing prevalence of coeliac disease over time. Alimentary Pharmacology & Therapeutics, 26 (2007) doi:10.1111/j.1365-2036.2007.03502.x

[4] D. D. Kasarda: Can an Increase in Celiac Disease Be Attributed to an Increase in the Gluten Content of Wheat as a Consequence of Wheat Breeding? Journal of Agricultural and Food Chemistry, 61 (2013) doi:10.1021/jf305122s

Affen, die Gedanken lesen

Streiche spielen – eine beliebte Beschäftigung bei Kindern. Zum Beispiel Sachen verstecken, die den Eltern irgendwie wichtig zu sein scheinen (Geldbörse, Autoschlüssel, sich selbst) und sich dann einen abfreuen, wenn die Eltern panisch danach suchen: “Hier hatte ich es doch hingelegt!” So nervig solche Situationen sein können – man sollte doch die Leistung des kindlichen Gehirns würdigen, die dahintersteckt. Um jemandem einen Streich zu spielen, muss man sich nämlich in ihn hineinversetzen können – die Welt durch die Augen des anderen sehen, um vorhersagen zu können, dass derjenige eine amüsante Reaktion zeigen wird. Nur sehr wenige Tiere können sich in ihr Gegenüber hineinversetzten – wir Menschen gehören dazu, aber auch viele Affen.

In dem Versuch, der in diesem Video der Wissenschaftszeitschrift Science gezeigt wird, beobachten verschiedene Menschenaffen (Schimpansen, Orang-Utans und Bonobos) eine Szene, die von Menschen gespielt wird. Dabei verfolgen Wissenschaftler die Augenbewegungen der Affen, um zu sehen, wo sie während der Szene hinschauen. Damit die Tiere dabei ihren Kopf möglichst stillhalten, ist direkt vor ihnen ein Trinkhalm installiert, aus dem Orangensaft tröpfelt.

Eine der Szenen läuft wie folgt ab: Ein Mensch hat einen Pflasterstein, im Raum liegen außerdem zwei umgestülpte Kartons. Ein als Affe verkleideter Mensch kommt hinzu und ist sehr aufgeregt über den Stein (dieser Part ist wohl dazu da, dem beobachtenden Menschenaffen klarzumachen, das der Stein sehr wichtig ist – so wie die Geldbörse für Papa wichtig ist, und daher ein attraktives “Streichspielobjekt”). Dann versteckt der Verkleidete den Stein im Beisein des Menschen unter dem linken Karton. Der Mensch verlässt den Raum – woraufhin der Verkleidete den Stein erst unter den rechten Karton legt, dann ganz wegnimmt und den Raum verlässt. Der Mensch kommt zurück, um den Stein zu holen, und nun passiert etwas interessantes: Der beobachtende Menschenaffe schaut zum linken Karton, wo der Stein ja nicht mehr ist. Daraus schließen die Wissenschaftler, dass der Affe sich in die Perspektive des Menschen hineinversetzen kann. Denn obwohl der Menschenaffe weiß, dass es das falsche Versteck ist, nimmt er an, dass der Mensch dort nachsieht – der weiß es schließlich nicht besser.

Auch andere Primaten zeigen eine gewisse Fähigkeit, die Gedanken ihrer Artgenossen nachzuvollziehen. In diesem Video aus der Doku “Clever Monkeys” des britischen Senders BBC nutzt ein Kapuzineraffe den Alarmschrei, der seine Kollegen eigenltich vor Fressfeinden warnen soll, um sie alle in die Flucht zu jagen – und dann das beste Futter für sich alleine zu haben. Dank der strengen Hierarchien bei Kapuzineraffen wird ihm das nämlich normalerweise von Ranghöheren abgenommen. (Der Sprecher in dieser Doku ist übrigens einer meiner persönlichen Helden: David Attenborough, ein britischer Naturforscher, der seit vielen Jahrzehnten an wundervollen und informativen Naturdokumentationen mitwirkt. In Deutschland werden die meist im ZDF ausgestrahlt, allerdings natürlich mit einem Synchronsprecher.)

Vor einigen Jahren habe ich eine deutsche Doku über die kindliche Gehirnentwicklung gesehen, wo ein ähnliches Experiment mit Kindern verschiedenen Alters durchgeführt wurde: Im Beisein des Kindes und seiner Mutter wurde ein Malstift in einem Karton versteckt. Dann verließ die Mutter den Raum und der Versuchsleiter nahm den Stift aus dem Karton und versteckte ihn woanders. Das Kind sah das. Der Versuchsleiter fragte dann das Kind, wo Mama den Stift suchen würde, wenn sie wieder hineinkam. Kinder über vier Jahre sagten, sie würde im Karton suchen, wo die den Stift ja zuletzt gesehen hatte. Jüngere Kinder aber glaubten, sie würde im zweiten Versteck suchen – sie konnten sich noch nicht in die Perspektive ihre Mutter hineinversetzen. (Leider weiß ich nicht mehr, wie diese Sendung hieß und finde auch das Video nicht.)

Wenn eure Kiddies sich also gegenseitig mit der Sandkastenschaufel verkloppen, liegt es nicht daran, dass sie kleine Teufelsbratzen sind. Ihr Gehirn hat schlichtweg die Verbindungen noch nicht geknüpft, die dafür zuständig sind, die Welt durch die Augen des Gegenübers zu sehen.

 

Nobler Griff ins Klo

medailleDie Verkündung der Nobelpreise 2016 ist durch. Dieses Jahr wurden Forschungsthemen geehrt, die die Menschheit vielleicht nicht viel, aber doch ein bisschen weiterbringen – solide und skandalfrei. Das war schon mal anders. Hier sind ein paar Erkenntnisse und Menschen, deren Auszeichnung mit dem wichtigsten Wissenschaftspreis inzwischen umstritten ist.

Es gab zum Beispiel einige Nobelpreise für Erkenntnisse, die sich später als falsch herausstellten. Johannes Fibiger etwa gewann 1926 für die Entdeckung des winzigen parasitischen Rundwurmes Spiroptera carcinoma, der laut Fibiger Krebs auslöste. In seinen Experimenten fütterte er Ratten mit Kakerlaken, die mit dem Wurm infiziert waren. Die Ratten entwickelten Darmtumore. Wie sich später herausstellte, war daran aber nicht direkt der Parasit Schuld – die Ratten litten aufgrund des einseitigen Futters an einem Vitamin A-Mangel, der die Darmzellen extrem empfindlich machte. Der Parasit reizte die Zellen dann so sehr, dass sie sich zu Krebszellen entwickelten – jeder Reiz hätte also Krebs ausgelöst. Der Wurm wurde inzwischen umbenannt in Gongylonema neoplasticum. Fibiger war aber nicht komplett auf dem Holzweg – es gibt durchaus parasitische Würmer, die Krebs verursachen können. Fibiger ist übrigens ironischerweise an Darmkrebs gestorben.

Die Leukotomie des zwölfjährigen Howard Dully. Für die Operation wird ein Metallstab oberhalb des Augapfels ins Gehirn gehämmert und dort mehrmals kräftig hin und herbewegt, um das Gewebe zu zerstören. Die ganze Sache dauert nur zehn Minuten. (Bild: George Washington University Gelman Library)

Manchmal wurden auch Dinge geehrt, die heutzutage ethisch gar nicht mehr gehen. 1949 erhielt António Egas Moniz den Nobelpreis für die Technik der präfrontalen Leukotomie. Dabei wurden die Nervenverbindungen getrennt, die den präfrontalen Kortex an den Rest des Gehirns koppeln. Das sollte Menschen mit schweren psychiatrischen Erkrankungen wie manischer Depression oder Schizophrenie heilen. Wenn man bedenkt, dass es damals keine Medikamente gegen psychische Störungen gab, kann man es noch nachvollziehen, dass solche Operationen durchgeführt wurden. Es gibt tatsächlich einige Fälle, in denen die Leukotomie das Befinden des Patienten deutlich besserte. Moniz nutzte als Testobjekte allerdings Frauen in einem „Irrenhaus“, wie es damals noch hieß, in Lissabon. Die hatten keine Chance, die Operation abzulehnen, sie wurden vermutlich nicht wirklich gefragt. Der präfrontale Kortex ist unter anderem zuständig für die emotionale Bewertung der Umwelt – nicht verwunderlich also, dass die Patienten nach der OP zu emotionalen Zombies wurden. Fraglich ist auch, ob die Leukotomie immer notwendig war. Sie wurde in großem Stil an „hysterischen“ Frauen, Homosexuellen und sogar Kindern durchgeführt. Der jüngste Patient war 12 Jahre alt. Seine Stiefmutter wollte, dass er eine Leukotomie erhielt, da er sich manchmal weigerte, ins Bett zu gehen und öfter tagträumte.

File:Esther Lab.jpg
Esther Lederberg im Labor an der Stanford University

Ein häufiges Symptom männlicher Nobelpreisträger – und des Nobelpreiskommittees – ist die fröhliche Ignoranz gegenüber Frauen, die die mit dem Preis ausgezeichnete Arbeit wesentlich vorangebracht haben. Joshua Lederberg beispielsweise erhielt den Nobelpreis für seine Entdeckungen von Viren, die Bakterienzellen infizieren. Solche Viren nennt man „Phagen“, und der von Lederberg entdeckte erhielt den Namen „Lambda“ (λ) – und Lederberg den Nobelpreis. Blöd nur, dass seine Frau Esther Lederberg den Phagen eigentlich entdeckt, erstmals isoliert und beschrieben hatte. Joshua aber bekam dafür den Nobelpreis und erwähnte seine Frau genau einmal in seiner Nobelpreisvorlesung. (In der deutschen Wikipedia gibt es nicht einmal einen Artikel über Esther Lederberg!)

Rosalind Franklin 2 photo dna.jpg
Das Röntgenbeugungsbild der DNA-Doppelhelix von Rosalind Franklin

James Watson und Francis Crick, die 1962 gemeinsam mit Maurice Wilkins den Nobelpreis für die Aufklärung der Doppelhelix-Struktur der DNA bekamen, drückten sich komplett darum, ihre Kollegin Rosalind Franklin zu erwähnen. Sie hatte die Experimente entwickelt und durchgeführt, die letztlich die Aufklärung der DNA-Struktur zur Folge hatten. Anhand dieser Daten hatte sie selbst die Struktur beinahe vollständig aufgeklärt. Watson und Crick hatten wohl ohne Franklins Wissen Einsicht in ihre Ergebnisse. In ihrer Nobelpreisrede erwähnten die Herren Rosalind Franklin gar nicht. James Watson wunderte sich in seiner Erzählung „Die Doppelhelix“ nur darüber, dass Franklin sich so unweiblich kleidete und kein Make-Up benutzte. Naja, derselbe Typ hat ein paar Jahrzehnte später einige extrem fragwürdige Aussagen über den Zusammenhang zwischen Rasse und Intelligenz gemacht und dann seine Nobelpreismedaille verkauft, weil er im Zuge des politischen Skandals seinen Job verloren hatte.

Vielleicht hat das Nobelpreiskomitee darum dieses Jahr nur Erkenntnisse geehrt, die schon einige Jahrzehnte alt sind. Da ist die Wahrscheinlichkeit gering, dass sich über die ausgezeichneten Arbeiten jetzt noch jemand aufregt. Nummer Sicher.

Von der Schrotflinte zum Präzisionsgewehr (mit Laser und Zielfernrohr)

CRISPR-Cas9Morgen wird verkündet, wer den Nobelpreis für Chemie bekommt. Und CRISPR-Cas9, die “Genschere” steht ganz hoch im Kurs. Aber was hat es damit auf sich – und warum verdient die Technik einen Nobelpreis?

Mit CRISPR-Cas9 können Wissenschaftler erstmals ganz gezielt und mit hoher Erfolgsrate Mutationen herstellen. Warum wollen wir das? Beim Wort “Mutation” denkt man ja meist erstmal an Monster oder die X-Men oder sowas. Mutationen sind aber meist ganz unspektulär: Es sind schlichtweg Veränderungen in Genen, die mal gute, mal schlechte, mal gar keine Effekte auf den Körper haben. Ist ein Gen mutiert, so funktioniert das Protein, dessen Bauplan in dem Gen gespeichert ist, nämlich möglicherweise anders oder gar nicht mehr. Im Labor macht man sich darum Mutationen zu Nutze, um die Funktion eines Gens herauszufinden. Man schaltet das Gen also aus und schaut dann, was im Organismus nicht mehr funktioniert. Daraus kann man dann Rückschlüsse auf die Funktion des Gens und des von ihm codierten Proteins schließen. Im Prinzip kann man sich diese Vorgehensweise vorstellen wie eine Maschine, bei der man ein Teil ausbaut und dann guckt, was an der Maschine nicht mehr funktioniert.

Gene sind allerdings ziemlich klein und darum sehr schwierig “auszubauen”. In der Vergangenheit war das ein größeres Problem – es war praktisch unmöglich, ein bestimmtes Gen gezielt auszuschalten. Begeben wir uns also auf eine kleine Zeitreise:

Ab den 1920er Jahren – die Schrotschuss-Methode

Flinte: Ve1wab, Creative Commons License CC BY-SA 4.0

 

Damals haben Wissenschaftler Zellen mit mutagenen (=Mutationen erzeugenden) Chemikalien oder UV-Licht behandelt und gehofft, dass dabei ein interessantes Gen beschädigt wird. Das ist so ähnlich, als ob man aus einer Dosenpyramide genau eine Dose herausschießen will, aber leider nur ein Schrotgewehr zur Verfügung hat. Dementsprechend dauerte es oft Jahre, ehe man eine interessante Mutation erzeugt hatte. Es ging aber auch gar nicht anders, denn man wusste damals noch nicht, welche oder wieviele Gene das Lebewesen, mit dem man da als Wissenschaftler arbeitete, überhaupt hatte. Von der vollständigen DNA-Sequenz des Lebewesens konnte man nur träumen – die Struktur der DNA war ja nicht einmal bekannt. Man wusste gerade eben, dass Gene existierten und dass sie erbliche Eigenschaften von Lebewesen bestimmen. Das wars. Wenn man also die Dosenpyramide nicht sieht, kann man eben einfach nur in die ungefähre Richtung schießen und das beste hoffen.

Ab den 1980er Jahren – der Federball

Der Federball
Später konnte man dann etwas gezielter vorgehen, mithilfe der “homologen Rekombination”, die funktioniert so (siehe auch Abbildung weiter unten): Forscher stellen ein relativ kurzes Stück DNA her, das dem Gen, das sie mutieren wollen, vollkommen gleicht – mit einem wichtigen Unterschied: Es enthält die Mutation, die die Forscher in dem gewünschten Gen erzeugen wollen. Entscheidend sind die sogenannten “Homologie-Arme”. Dort ist die Sequenz der hergestellten DNA exakt dieselbe wie im ursprünglichen (“Wildtyp”-)Gen, das sich in der DNA der Zelle oder des Lebewesens befindet, das die Wissenschaftler erforschen. So kann man also ganz gezielt entscheiden, wo die Mutation stattfinden und wie sie aussehen soll. Die hergestellte DNA mit der gewünschten Mutation bringen die Forscher nun in die Zelle oder das Lebewesen ein. Mit den Homologie-Armen kann die hinzugefügte DNA in die Wildtyp-DNA eindringen und einen der beiden ursprünglichen DNA-Stränge verdrängen. Der Vorgang heißt dementsprechend auch “Strang-Invasion”. Der verdrängte, ursprüngliche Strang wird abgebaut und der noch vorhandene Wildtyp-Strang wird so verändert, dass er nun zu dem mutierten Strang passt. Voilà, die Mutante ist perfekt.

die homologe Rekombination

Wenn es denn klappen würde. Dass der hergestellte Strang tatsächlich in die Wildtyp-DNA eindringt, ist nicht gesagt. Wenn man richtig viel Glück hat, klappt es nach 200 Versuchen – mit Pech allerdings erst nach 100.000 Versuchen. Warum ich es “Federball” nenne? Mit einem Federball kann man ziemlich gezielt auf eine bestimmte Dose werfen, aber der Federball ist auch so leicht, dass er die Dose oftmals nicht umschmeißt.

Seit 2015: Das High-Tech-Präzisionsgewehr

Gewehr: Tactical Operations Inc., Creative Commons License CC BY-SA 4.0

Nun gibt es endlich eine Lösung für fast alle Mutagenese-Probleme: CRISPR-Cas9. Und das hat sich die Natur ganz alleine ausgedacht. Es ist eigentlich das “Immunsystem” bestimmter Bakterien. Die erkennen eindringende Viren und haben ein Enzym, nämlich Cas9, mit dem sie die DNA des Eindringlings kurzerhand zerschneiden. Wie erkennen sie den Eindringling? Dafür gibt es bestimmte kurze RNAs in den Bakterienzellen, die dieselbe Sequenz habe wie die DNA des Virus. Die kurze RNA lagert sich an die Viren-DNA an. Sie hat außerdem ein “Schwänzchen”, das dann Cas9 anlockt. Schließlich schneidet Cas9 die von der kurzen RNA markierte Viren-DNA einfach kaputt. Aufgrund ihrer Eigenschaft, Cas9 zu seinem Einsatzort zu leiten, wurde diese RNA “short guide RNA”, kurz sgRNA genannt. Und dieses System aus sgRNA und DNA-Schneideenzym hat man schlichtweg für die Anwendung im Labor angepasst. Die sgRNA kann man so gestalten, das sie eine beliebige, genau definierte Stelle in der DNA jedes beliebigen Lebewesens erkennt und Cas9 dorthin dirigiert. Cas9 schneidet dann dort die DNA kaputt. Darauf reagiert die Zelle, indem sie die DNA repariert, allerdings fast immer ungenau. Bei dieser Reparatur werden entweder ein paar Basenpaare der DNA  gelöscht oder einige hinzugefügt – es entsteht also eine Mutation genau da, wo man sie haben will. Im Idealfall mit einer Erfolgsrate von 100 %. Doch CRISPR-Cas9 kann noch mehr: Es erhöht die Erfolgsrate der homologen Rekombination nämlich extrem. Die Zelle ist viel eher geneigt, eine von außen zugegebene DNA einzubauen, wenn die entsprechenden Stelle in der Wildtyp-DNA kaputt ist. So kann man die DNA also gezielt aufschneiden und der Zelle auch gleich eine Vorlage für die Reparatur anbieten, die sie meist dankbar annimmt. Auf diese Weise kann man lange DNA-Abschnitte, sogar ganz neue Gene in Zellen einbringen.

Die Anwendungsmöglichkeiten sind gewaltig – im Labor lassen sich die Aufgaben von Genen und Proteinen viel schneller erforschen und in der Biotechnolgie kann man Bakterien genetisch so verändern, dass sie noch effizienter wichtige Stoffe wie Insulin herstellen. Eines Tages können wir die Technik vielleicht sogar in der Gentherapie einsetzen, um Krebs und andere Krankheiten zu heilen. Doch auch die Kehrseite muss man betrachten – wenn die Technik extrem viel weiterentwickelt wird, könnte man damit eines Tages Dinge genetisch verändern, die nicht unbedingt notwendig sind. Kritiker fürchten, dass wir bald “Designerbabys” herstellen. Dafür wissen wir aber noch viel, viel zu wenig darüber, wie unsere DNA funktioniert, das ist also sicherlich ferne Zukunftsmusik.

Nicht ganz so fern ist die Verkündung des Nobelpreisses – morgen wissen wir mehr. Dann wird vielleicht die spannende Frage beantwortet, wen das Nobelkommittee für die wichtigsten Wegbereiter von CRISPR-Cas9 hält, über diese Frage flogen nämlich in den letzten Monaten die Fetzen. Ich bin gespannt.

Tuberkulose, Pest und Cholera – alles eine Frage der Faltung

File:Yersinia pestis Bacteria.jpg
Der Erreger der Pest, Yersinia pestis, (gelb) auf einem Floh (violett). Raster-elektronenmikroskopische Aufnahme, nächträglich eingefärbt. (Foto: National Institute of Allergy and Infectious Diseases, USA)

Während es mit der Karriere der Pest seit dem 14. Jahrhundert rapide bergab ging, stellen Cholera und vor allem Tuberkulose die Welt noch immer vor große Probleme. Dank der vereinten Mühen von Forscherteams aus Bochum, Leipzig und Braunschweig verstehen wir jetzt besser, wie die Bakterien, die diese Krankheiten verursachen, ihren Angriff auf unser Leib und Leben starten.

Wenn es in unserem Körper demokratisch zuginge, hätten wir jeden Tag Stichwahl: Etwa 40 Billionen (eine 4 mit 13 Nullen) eigene Körperzellen besitzen wir – und etwa genausoviele Bakterien tummeln sich auf unserer Haut, unseren Schleimhäuten und im Darm. Eklig? Keineswegs! Ohne Bakterien könnten wir nicht überleben: Sie wehren Krankheitserreger ab und helfen uns bei der Nahrungsverdauung. Da sie viel kleiner sind als unsere eigenen Körperzellen, fallen sie uns (zum Glück) nicht weiter auf. Aber wehe, eine nicht so wohlmeinende Bakterienzelle dringt ein!

Zu den fiesesten Vertretern der bakteriellen Krankheitserreger gehören Yersinia pestis, Yersinia pseudotuberculosis und Vibrio cholerae – die Namen sind Programm. Die Pest weckt heutzutage höchstens noch geistige Bilder von gruseligen mittelalterlichen Gemälden – sie ist inzwischen relativ harmlos und gut behandelbar. Tuberkulose und Cholera sorgen aber nach wie vor für hohe Todeszahlen, vor allem in ärmeren Ländern mit schlechter Trinkwasserversorgung. Um diese Krankheiten bekämpfen zu können, hilft es ungemein, zu verstehen, wie die Bakterien sie auslösen.

Das haben Forscher um Franz Narberhaus von der Ruhr-Uni Bochum jetzt zumindest teilweise aufgeklärt: Yersinia pestis, Yersinia pseudotuberculosis und Vibrio cholerae enthalten “molekulare Thermometer”. Einfach gesagt sind das Moleküle, die bei kühleren Temperaturen anders aussehen als bei höheren. Dringen die Bakterien in unseren Körper ein, erwärmen sie sich schnell auf unsere Körpertemperatur, also 37 °C. Die Thermometer-Moleküle ändern daraufhin ihre Gestalt und das ist das Angriffssignal – die Pest bricht in uns aus!

Wie funktioniert das genau? Bei den Thermometer-Molekülen handelt es sich um RNA. Das sind Kopien von Genen, die auf der DNA liegen. Die Gene auf unserer DNA stellen Baupläne für Proteine dar. So ein Bauplan darf aber nicht im Original, also als Gen selbst, verwendet werden, sondern es wird eine Kopie gemacht, eben die RNA. Der Bauplan auf der RNA wird von einem Enzym abgelesen, das nach dieser Info dann das Protein herstellt. Dabei kann eine RNA hunderte Male hintereinander abgelesen werden, um viele Exemplare eines Proteins herzustellen. Dasselbe passiert auch in den Bakterien, wenn sie Krankheiten auslösen: Die Bakterien brauchen die Proteine, die so hergestellt werden, um unseren Körper zu befallen. Die RNA für diese Proteine kann nun in zwei Zuständen vorliegen: offen und bereit für die Proteinproduktion oder zusammengefaltet und damit unzugänglich für das Enzym, das sie abliest. Und ihr habt es sicher schon erraten, bei Temperaturen um die 37 °C ist die RNA offen, bei niedrigeren Temperaturen ist sie zusammengefaltet. So wird das Bakterium erst so richtig aktiv, nachdem es in unseren Körper gelangt ist. Die Faltung erfolgt durch Verbindungen, die einzelne Wasserstoffatome innerhalb der selben RNA miteinander schließen. Bei höheren Temperaturen werden diese Verbindungen instabil und die RNA schmilzt regelrecht auf.

Die Frage aller Fragen: Kann man das für Medikamente benutzen? Zwei Antworten: “Ja” und “Noch nicht”. Prinzipiell ist es nicht schwierig, Wirkstoffe herzustellen, die das Aufschmelzen der RNA verhindern und damit die Bakterien zur Untätigkeit zwingen. Das Problem ist jedoch, diese Wirkstoffe halbwegs gezielt durch den Körper zu den Bakterien zu bringen. Und dann müssen sie ihn auch noch aufnehmen. Das ist gar nicht so einfach, eine Bakterienzelle – so wie alle Zellen aller Lebwesen – nehmen nicht einfach so irgendeinen Stoff auf, der gerade vorbeischwimmt. Er könnte ja giftig sein. Was in diesem Fall genau der Zweck wäre. Aber um herauszufinden, wie man die Bakterien so auszutricksen kann, dass die so ein Medikament aufnehmen, müssen Wissenschaftler noch ein bisschen weiterforschen. Immerhin, ein Anfang ist gemacht!

Für die Streber unter uns gibt es hier die Original-Publikation (leider nur, wenn man registriert ist): www.pnas.org/content/early/2016/06/10/1523004113.abstract
Righetti F, et al. Proc Natl Acad Sci USA. (2016 Jun 13)

Jedem Tierchen seinen Star

Wissenschaftler haben ein bisschen Hollywood in der Welt der Gliederfüßer – Spinnen, Insekten und Krebse – gebracht. Man sollte denken, dass es eine Ehre ist, wenn eine neu entdeckte Tierart nach einem benannt wird. Doch bei so manchen dieser kleinen Kreaturen fragt man sich, ob ihr unfreiwilliger Namenspate wohl so begeistert ist…

Aleiodes_shakirae_gr
Bild: commons.wikimedia.org, Lizenz CC BY-SA4.0

Die Wespe Aleiodes shakirae etwa legt ihre Eier in lebenden Raupen einer bestimmten Schmetterlingsart ab. Schlüpfen die Wespenlarven, fressen sie die Raupe von innen auf – erst die weniger lebenswichtigen Teile, sodass die Raupe noch eine Weile lebt. Kurz vor ihrem Tod wackelt die Raupe dann mit dem Unterleib hin und her. Anscheinend tut sie das derart gekonnt, dass die Entdecker sich an Shakiras Bauchtanzkünste erinnert fühlten und der Wespe, die die arme Raupe so tanzen lässt, den Namen der Sängerin verpassten.

Captia (Plinthina) beyonceae 1_th
Bild: Bryan Lessard, scienceimage.csiro.au

 

Ebenfalls für guten Gesang und ihre bemerkenswerte untere Körperhälfte bekannt ist Beyoncé. Das nach Ihr benannte Insekt kommt ihr sogar in Sachen Eleganz ein wenig nahe: Die Fliege Scaptia beyonceae hat einen golden glänzenden Hinterleib. Dessen Ausmaße waren es angeblich auch, die den Entdecker der Fliege inspirierten, sie nach Beyoncé zu benennen…

 

 

vaderi
www.wibnet.nl

Und dann wäre da noch Agathidium vaderi, ein Vertreter aus der Familie der Schwammkugelkäfer. Den Wissenschaftlern, die ihn bennenen durften, fiel sofort seine schwarzglänzende Panzerung auf. Kommt die jemandem irgendwie bekannt vor? Aus so einer Filmreihe, Ende der Siebziger, Anfang der Achtziger, mit Raumschiffen und Laserschwertern und so? Der Name “Schwammkugelkäfer” kommt übrigens daher, dass diese Käfer Pilze fressen (in einigen Landstrichen auch “Schwamme” genannt). Drei Vertreter, die sich speziell von Schleimpilzen ernähren, wurden nach amerikanischen Präsidenten benannt. Bush ist auch dabei. Strikt ehrenhalber, natürlich!

Auch Barack Obama musste seinen Namen hergeben, für die Spinne Aptostichus barackobamai. Zwei andere Spinnen derselben Gattung wurden nach dem Comedien Stephen Colbert beziehungsweise nach Angelina Jolie benannt.

Kurzer Klugscheißer-Exkurs an dieser Stelle: Die wissenschaftlichen Namen eines Tieres oder einer Pflanzen bestehen meistens aus zwei, manchmal aus drei Teilen. Der erste Teil, also zum Beispiel “Aptostichus”, bezeichnet die Gattung. Innerhalb einer Gattung kann es mehrere Arten geben, wie bei diesen Spinnen der Fall. Die einzelnen Arten kriegen dann entsprechend unterschiedliche zweite Namensteile, die dann die Spezies bezeichnen. Wenn noch ein drittes Wort dasteht, ist das die Unterart. Findet man eine neue Art, muss man sie gründlich untersuchen, meist wird auch die DNA (zumindest teilweise) sequenziert. Dadurch kann man die Art oft in eine schon bestehende Gattung einordnen und ist damit bei der Namensgebung beim ersten Wort festgelegt. Der Artname kann jedoch beliebig gewählt werden – wie hier eindrücklich demonstriert. So, Exkurs vorbei.

Die meisten tollen Tiere wurden bereits vor langer Zeit gefunden, beschrieben und benamst. Neu benannt werden darum heutzutage fast nur kleine, schwer zu findende Krabbeltierchen, über die Forscher erst jetzt stolpern. Jennifer Lopez hatte ein bisschen Pech, dass eine Gruppe Marinebiologen ihrem Album lauschte, während sie eine Ozeanmilbe beschrieben. Wer will seinen Namen schon mit einer Milbe in Verbindung bringen? Bob Marley hat es allerdings noch schlimmer erwischt – Gnathia marleyi ist ein blutsaugender, parasitisch lebender Mini-Krebs.

Hollywoods Stars sollten besser hoffen, dass demnächst eine neue Dinosaurierspezies benannt wird. Oder wenn es schon ein Insekt oder so etwas sein muss, dann doch wenigstens ein Schmetterling.

 

 

Blasen im MRT

Sprechen_MRT_ScreenshotDie Abkürzung “MRT” hat jeder bestimmt schonmal gehört. Die drei Buchstaben stehen für das Wort “Magnetresonanztomografie”.Bei einem Magnetresonanztomografen handelt es sich um eine der berüchtigten “Röhren”, in die man geschoben wird, wenn die Ärzte nicht so richtig wissen, was man hat. Anders als die Computertomografie – auch so eine “Röhre” im Krankenhaus – arbeitet die MRT nicht mit eventuell schädlicher Röntgenstrahlung, sondern mit Magnetfeldern. In der folgenden Box könnt ihr nachlesen, wie MRT funktioniert.



Box: So funktioniert MRT

Die Technik der Magnetresonanztomografie macht sich drei Eigenschaften der Wasserstoff-Atomkerne in unserem Körper zu Nutze: 1) Wasserstoff-Atome kommen in jedem unserer Organe vor. 2) Wasserstoff-Atomkerne drehen sich um sich selbst, wie ein Kreisel. Das nennet man “Spin” oder auch “Kernspin”. 3) Durch diesen Spin haben Wasserstoff-Atomkerne ein kleines Magentfeld um sich herum.
Wird der Körper nun einem statischen (feststehenden) Magnetfeld ausgesetzt, wie es im MRT geschieht, richten die eigenen Magnetfelder der Atomkerne sich in diesem umgebenden Magnetfeld aus. Wenn nun zusätzlich ein kurzer magnetischer Impuls gegeben wird, der eine andere Richtung als das statische Magnetfeld hat, fangen die sich drehenden Atomkerne mit ihrem winzigen Magnetfeld an zu “eiern”. Man kann es sich so vorstellen, als ob man zwei Magnete an einen Kreisel klebt, einmal mit dem Pluspol nach außen und einmal mit dem Minuspol nach außen. Man bringt den Kreisel in Drehung – das ist der Spin – und nähert sich dann ganz kurz mit einem weiteren Magneten dem Kreisel an. Die Magnete am Kreisel werden durch den sich nähernden Magneten angezogen oder abgestoßen und der Kreisel gerät kurz ins Eiern.

Abb1

Dieses “Eiern” – der korrekte Ausdruck ist “Präzession” – unserer Atomkerne verursacht eine kleine elektrische Spannung, die gemessen werden kann. Aus diesen Messungen wird schließlich das endgültige Bild errechnet. Doch wozu braucht man das statische Magentfeld, wenn der kurze magnetische Impuls das Entscheidende ist? Ganz einfach. Stellt euch vor, ihr habt viele Kreisel, die sich alle drehen. Aber die Magnete aller Kreisel sind nicht zur selben Zeit am selben Ort. Wenn ihr euch jetzt mit einem großen Magneten allen Kreiseln zugleich nähert, werden sie zwar eiern (“präzedieren”), aber alle in unterschiedliche Richtungen. Und im MRT müssen alle Atomkerne gleichzeitig kurz in dieselbe Richtung präzedieren. Durch das statische Magnetfeld werden die Magnetfelder der Atomkerne also alle gleich ausgerichtet, damit sie dann durch den hinzugegebenen kurzen magnetischen Impuls alle zur selben Zeit in dieselbe Richtung eiern.Abb2



Wenn man aus der “Röhre” wieder rauskommt, hat der Arzt ein Graustufen-Bild auf dem Computerbildschirm, das einen Schnitt durch den Körper zeigt. Dafür ist ein MRT also nützlich – es zeigt das Körperinnere, ohne, dass man unters Messer muss. Eine klassische MRT-Aufnahme dauert mehrere Sekunden. Da der Arzt viele Aufnahmen machen muss, um zu sehen, was mit einem los ist, liegt man teilweise ganz schön lange im MRT. besonders für Leute mit Klaustrophobie kann das sehr unangenehm sein. Außerdem ist das Ergebnis ein Standbild. Für manche Krankheiten und innere Verletzungen wäre es aber extrem hilfreich, wenn man im MRT Filme vom Körperinneren aufnehmen könnte, und somit dem Körper quasi “live” bei der Arbeit zuschauen könnte.

Jens Frahm, Forschungsgruppenleiter am Max-Planck-Institut für biophysikalische Chemie in Göttingen, hat bereits in den Achtigzerjahren des letzten Jahrhunderts eine Methode entwickelt, mit der MRT-Aufnahmen 100 mal schneller gemacht werden können, genannt FLASH. Bevor der Physiker und sein Team diese Technik entwickelt hatten, dauerte eine Aufnahme so lange, dass man das MRT im Krankenhaus nicht benutzen konnte.

In den Jahrzehnten, die seitdem vergangen sind, haben Jens Frahm und seine Arbeitsgruppe diese Technik so weit vorangetrieben, dass eine Aufnahme jetzt sogar nur noch 20 bis 30 Millisekunden dauert, das ist schnell genug für einen Film. Der Traum von der Liveschaltung ins Körperinnere ist also wahr geworden. Und die Videos, die Jens Frahm und andere Wissenschaftler und Ärzte mit dieser Technik aufgenommen haben, sind nicht nur aufschlussreich, sondern teilweise auch ziemlich skurril.

So sieht zum Beispiel ein Längsschnitt durch den Kopf eines sprechenden Menschen aus (am Ende leckt der Proband sich die Lippen und schluckt):

Das große, weiße Ding im Zentrum des Bildes ist übrigens die Zunge. Falls jemand herausfindet (oder einfach nur eine Idee hat), was derjenige sagt, freue ich mich über einen Kommentar unter diesem Beitrag!

Auch Filme vom Schluckvorgang wurden bereits aufgenommen; vor allem davon, was im Körper passiert, wenn ein Schluck von der Speiseröhre in den Magen übergeht. Die so gewonnen Erkenntnisse sollen helfen, die Ursachen für das Volksleiden Sodbrennen zu klären. Die Gründe können recht unterschiedlich sein, darum ist es von immensem Vorteil, wenn jeder Patient eine individuelle Diagnose und entsprechende Behandlung bekommt – Echtzeit-MRT sei Dank!

Ein eher unbekanntes und deutlich weniger weit verbreitetes Leiden ist die fokale Dystonie bei Musikern. Dabei handelt es sich um ein Nervenleiden, bei dem Musiker Lähmungen in genau dem Körperteil erfahren, mit dem sie ihr Instrument spielen – und zwar nur dann, wenn sie zum Spiel ansetzen. Ein Pianist hätte also Lähmungen in Händen und Unterarmen, ein Trompeter in Lippen oder Zunge. Letzterem gingen Jens Frahm und sein Team genauer auf den Grund. Dazu luden sie einige Blechbläser – einen Trompeter, einen Posaunisten, einen Hornisten und einen Tubisten (=Tubaspieler) – ein, ihr Instrument zu spielen, während sie im Echtzeit-MRT lagen. Jeder spielte eine festgelegte Tonreihe. Da die echten Instrumente doch nicht mit in die Röhre passten, wurde den Musikern eine Plastiktröte in die Hand gedrückt. Dann wurde mithilfe der Echtzeit-Technik gefilmt, wie genau jeder Instrumentalist die Zunge bewegt, um die Tonfolge zu spielen. Dabei gab es einige Unterschiede im Timing und der Richtung der Zungenbewegung, die anhand der Bilder aus dem MRT genauestens gemessen und ausgewertet wurden. Hier habe ich ein Video vom YouTube-Kanal der Hornistin Sarah Willis eingefügt, die ihre Künste im Rahmen einer ähnlichen Studie von Jens Frahm bewiesen hat. Da kann man die Zungenbewegungen prima sehen. (Die ersten 25 Sekunden des Videos sind zwar auf englisch, aber Musik ist ja bekanntlich eine internationale Sprache)


Aber wozu das Ganze? Obwohl diese Studie ein bisschen aussieht wie ein verzeifelter Versuch, sich für den Ig Nobelpreis zu qualifizieren, hat sie doch einen sinnvollen Zweck: Kaum eine Tätigkeit erzeugt so schnelle, willkürlich verursachte Zungenbewegungen wie das Spielen eines Blasinstrumentes. Diese Studie ist also hervorragend geeignet, die Welt von den zeitlich hochaufgelösten Bildern des Echtzeit-MRT zu überzeugen. Ich hoffe zwar, dass ich oder meine Freunde und Familie nie ein MRT nötig haben, aber ich bin begeistert von dieser neuen Technik! Sie wird zur Zeit gemeinsam mit Ärzten an Patienten getestet und hält hoffentlich bald Einzug in die Krankenhäuser.

Und zum Schluss: Beatboxing im Echtzeit-MRT. Weil’s geht.
(Video der Speech Knowledge and Articulation Group (SPAN), University of Southern California (sail.usc.edu/span))

Ferdsch!

Vor inzwischen drei Wochen habe ich meine Doktorarbeit verteidigt. Dann musste ich mich erst einmal ausruhen. Jetzt geht es weiter mit schlaugemacht! Ich hoffe, dass ich jetzt öfter schreiben kann. Mein neuer Job hat geregelte Arbeitszeiten und lässt mir darum viel mehr Raum für Eigenes 🙂

IMG_3520
traditionell basteln die Kollegen dem Promovenden einen Doktorhut, der Hobbies und Persönlichkeit widerspiegelt. Im meinem Hut habe ich mich zu 100 % wiedergefunden 🙂
IMG_3537
Endlich geschafft! Prost! Das ist übrigens eine Fruchtfliege aus Plüsch an meinem Revers.