Category: Gesellschaft

Die Angst vorm Essen

Als ob es nicht schon genug Artikel, Dokufilme, Blogs und Diskussionsrunden über die “richtige” Ernährung gäbe. Es sind abnorm viele. Und alle behaupten etwas anderes. Wie soll man da noch ruhigen Gewissens essen? Kann man nicht, habe ich festgestellt. Doch ich habe eine wunderbar einfache Lösung gefunden, mit der ich persönlich sehr gut klarkomme: Ignorieren. Einfach alles ignorieren.

Ok, so ein paar Kleinigkeiten kann man sich vielleicht doch zu Herzen nehmen. Aber darum soll es heute gar nicht vordergründig gehen.

Ich bin über ein paar interessante Sachen zum Thema moderne Ernährung gestolpert, die ich mit euch teilen möchte. Um zu sehen, wann der Hype um Superfoods, glutenfrei und Co. losging, habe ich ein lustiges Spielzeug ausprobiert: Google Trends. Da kann man schauen, welche Wörter in einem bestimmten Land über einen frei wählbaren Zeitraum wie häufig gegoogelt wurden, und sie mit anderen Wörtern vergleichen. Schauen wir doch mal nach dem zeitlosen Wort „Diät“:

Das erfuhr innerhalb der letzten zehn Jahre recht stabiles Interesse. Lustig: Immer im Januar (ich hab bei ein paar Jahren Pfeile an diesen Monat gemacht) schießen die Suchzahlen in die Höhe, kurz vor dem Sommer auch noch mal. Danach geht es rapide bergab (Tschüss, gute Vorsätze!)

Werden wir konkreter: „Superfoods“ (damit meint die Ernährungs- und Fitnessindustrie all diese sündhaft teuren exotischen Früchtchen wie Acai- und Gojibeeren, Chiasamen, Kokosöl, etc.) wurde ab 2013 zum Thema, 2016 war das Jahr für diesen Trend. Inzwischen lässt das Interesse schon wieder nach.

Gegen die neuen allergrößten Feinde der gesunden Ernährung allerdings stinken die Superfoods ab – Gluten (Weizenkleber) und Laktose (Milchzucker) begannen im Jahr 2011, der Menschheit Angst und Schrecken einzujagen.

Bleiben wir da mal stehen. Ist die Angst vor Laktose und Gluten begründet?

Neulich fragte ich einen Bekannten, warum er keine Kuhmilchprodukte zu sich nimmt. Seine Antwort: „Ich habe da mal einen Vortrag drüber gehört und der hat mich sehr überzeugt.“
Ich: „Welche Argumente haben Dich denn so überzeugt?“
Er: „Das weiß ich nicht mehr. Aber es war sehr überzeugend.“

Beim Thema Laktose gibt es keine Antwort, die für alle gilt

Die Angst vor Milch ist diffus. Das beste Argument, was ich kenne, ist, dass Erwachsene theoretisch keine Laktose verdauen können. Das ist quasi der Urzustand.

Aber von vorne: Laktose ist ein Zweifachzucker (Disaccharid) aus Glukose (Traubenzucker) und Galaktose (Schleimzucker). Diese beiden Einfachzucker können Menschen problemlos verdauen. Die Verbindung, die die beiden in der Laktose zusammenhält, muss dafür jedoch erst einmal gespalten werden, dafür braucht der Organismus das Enzym Laktase. Im Darm neugeborener Säugetiere wird dieses Enzym freigesetzt, da Muttermilch, auch die der Menschen, Laktose enthält. Hört das Junge auf zu säugen, stoppt auch die Produktion der Laktase. Alle Menschen haben also ein Gen, das den Bauplan für das Enzym Laktase trägt. Dieses Gen wird jedoch nur nach der Geburt eingeschaltet und nach dem Ende der Säugezeit wieder ausgeschaltet – was es dann für den Rest des Lebens eigentlich auch bleibt. Eigentlich. Denn vor etwa 9.000 Jahren begannen die Menschen, Rinder zu halten. Zunächst wegen ihres Fleisches, später entdeckten die Menschen auch den Nährwert der Kuhmilch. In einigen Regionen Afrikas und Asiens geschah etwas Ähnliches mit Ziegen und Schafen. Vor etwa 3.000 Jahren begannen erwachsene Menschen in diesen Weltregionen also, laktosehaltige Milch zu sich zu nehmen. Zunächst werden sie davon mächtig Bauchschmerzen und Blähungen bekommen haben, verursacht durch ihre Darmbakterien, die die unverdaute Laktose verstoffwechselten und dabei reichlich Gase produzierten. Einige dieser Menschen trugen wahrscheinlich eine Mutation, die verhinderte, dass das Laktase-Gen ausgeschaltet wurde und vertrugen die Milch daher problemlos. Diese Mutation verbreitete sich dann im Laufe der Generationen in diesen Völkern. Ich nehme an, dass die Leute, die keine Bauchschmerzen hatten, mehr Bock auf Fortpflanzung hatten und ihre Gene darum viel öfter weitergegeben haben als diejenigen, die sich aufgebläht und pupsend auf ihrem Schlaflager krümmten. So sind heutzutage etwa 80 Prozent der Europäer und einige Völker in Asien und Afrika dazu im Stande, Laktose zu verdauen. In den anderen Regionen gehörte Trinkmilch nicht zur täglichen Nahrung, darum gab es keinen „Evolutionsdruck“, also den Druck, sich genetisch anzupassen. Wer keine Probleme mit Laktose hat, muss darum nicht unbedingt zu laktosefreien Nahrungsmitteln greifen. Die schaden aber auch nicht. Der Sender arte hat eine gut recherchierte, unaufgeregte und differenzierte Doku zum Thema Milch produziert, die ihr hier anschauen könnt. Sie heißt “Milch – ein Glaubenskrieg”. Das Fazit (Achtung Spoiler!): Was man von der Milch halten soll, ist davon abhängig, welcher Studie, welchem Arzt, Lebenscoach oder Ernährungsguru man glauben schenken möchte. Es gibt keine Antwort, die für alle gilt.

Der schlimmste Feind des modernen Nahrungsaufnehmers scheint aber das Gluten zu sein (Ich habe übrigens erst, als das Thema aufkam, gelernt, dass man es Gluteeeen ausspricht, nicht wie in „die flammenden Gluten“. Ups). Bei diesem Zeug handelt es sich um eine Mischung aus verschiedenen Eiweißstoffen, die in den Körnern einiger Getreidearten vorkommen. Man nennt es manchmal auch „Weizenkleber“, weil es den Brotteig quasi zusammenhält. Ohne Gluten läuft einem das Brot im Ofen zu einem Fladen auseinander. Gluten hat in den letzten Jahren einen furchtbar schlechten Ruf bekommen. Warum? Bei Menschen, die an der Krankheit Zöliakie, also einer echten Gluten-Unverträglichkeit leiden, kommt es zu chronischen Entzündungen im Dünndarm. Im Rahmen des Ernährungs-Hypes kam naturgemäß dem Darm auch wachsende Aufmerksamkeit zu, schließlich verdaut er den Großteil unserer Nahrung und nimmt die meisten Nährstoffe auf. „Entzündungen im Darm“ wurden zunehmend für viele verschiedene Leiden verantwortlich gemacht und entwickelten sich zu einem geflügelten Konzept. Ich spreche hier nicht vom Morbus Crohn oder Colitis ulcerosa, die sehr deutliche und unangenehme Symptome verursachen. Ich meine diese Bewegung, die sich in vielen Internetforen abzeichnete: „Du bist übergewichtig? Du hast bestimmt Entzündungen im Darm.“ „Du bist oft müde? Du hast bestimmt Entzündungen im Darm!“ „Du bist manchmal niedergeschlagen und antriebslos? Du hast…“ Und so weiter. Parallel schossen reichlich „Therapien“ mit Probiotika, entgiftenden Salzen, Fastenkuren, etc. aus dem Boden – viele davon in ihrer Wirksamkeit fragwürdig, aber alle mehr oder weniger teuer. Und weil Gluten bei Patienten mit Zöliakie nun einmal Entzündungen im Darm auslöst, wurde Gluten auch für viele dieser anderen diffusen Leiden, die angeblich auf Darmentzündungen zurückgingen, verantwortlich gemacht. Ohne Nachweis, dass diese Menschen solche Entzündungen überhaupt haben, geschweige denn, dass ihre Beschwerden auf Gluten zurückzuführen sind.

Normalerweise bin ich ja nicht so drauf, dass ich hier allzu tief in die harte Wissenschaft eintauche. Aber gegen die in Dauerschleife wiederholten Behauptungen selbsternannter Ernährungsgurus über das böse Gluten auf tausenden Webseiten und in Millionen Forenposts weiß ich mich einfach nicht anders zu wehren. Also, schnallt euch an, jetzt kommt knallharte Wissenschaft! (Wer nur hier ist, um meine schnoddrige Meinung zu lesen, der kann bis zur gestrichelten Linie überspringen).

Was macht eine „echte“ Zöliakie eigentlich aus? Bei dieser Krankheit reagiert der Dünndarm überempfindlich gegen einige Eiweißstoffe im Gluten. Diese Stoffe werden vom Darm aufgenommen und dann durch ein Enzym namens Tissue-Transglutaminase (tTG) verändert. Die veränderten Stoffe aktivieren dann das körpereigene Immunsystem, das die Schleimhautzellen des Dünndarms zerstört. Der Körper wendet sich also gegen sich selbst, die Zöliakie gehört damit zu den Autoimmunkrankheiten. Ob jemand Zöliakie hat, kann man nachweisen, indem man misst, ob der Patient Antikörper gegen sein eigenes tTG bildet. Dieser Nachweis ist allerdings nicht ganz zuverlässig. Um sicher zu gehen, testet man zusätzlich noch, ob im Körper des Patienten auch Antikörper gegen sein Endomysium zu finden sind, einem Bindegewebe in unmittelbarer Nähe zum Dünndarm. Nur Zöliakie-Patienten haben solche Endomysium-Antikörper (EMA).

Hat Zöliakie zugenommen? Ich zweifle daran

Eine Studie aus dem Jahr 2009 hat ermittelt, wie viele Menschen in verschiedenen europäischen Ländern tatsächlich von Zöliakie betroffen sein könnten [1]. Dazu wurden fast 30.000 Studienteilnehmer aus Finnland, Deutschland und Italien untersucht. Das Ergebnis: Im Durchschnitt haben ein Prozent der Teilnehmer die Voraussetzung, an Zöliakie zu erkranken oder waren bereits erkrankt. Die Finnen scheinen besonders anfällig zu sein, bei ihnen waren 2,4 Prozent betroffen, in Italien waren es 0,7 Prozent – und in Deutschland sage und schreibe 0,3 Prozent. Drei Menschen von 1000. Die Zahlen schwanken je nach Studie, doch weltweit sind weniger als ein Prozent betroffen.

Ich höre auch immer wieder das Argument, Zöliakie habe in den letzten Jahren dramatisch zugenommen. Das scheint eine Studie aus den USA, ebenfalls aus dem Jahr 2009, zu bestätigen [2]: Dort wurden gefrorene Blutproben aus den 1950-er Jahren mit aktuellen Proben verglichen. Die Proben aus den 50-ern stammten von jungen, männlichen Soldaten der Air Force (die Luftwaffe der USA), die aktuellen Proben entweder von Männern derselben Geburtsjahrgänge wie die Soldaten oder von jungen Männern, die zum Zeitpunkt der Studie im selben Alter waren wie die Soldaten damals. Die Forscher fanden heraus, dass bei den Soldaten 0,2 Prozent Zöliakie hatten, während bei den jungen Männern von heute etwa 0,9 Prozent positiv auf Zöliakie getestet wurden. Bei Männern derselben Geburtsjahrgänge, die nun also etwa 75 Jahre alt sind, hatten 0,8 Prozent Anzeichen für Zöliakie. Alles in allem werden heutzutage also viermal so viele Leute mit Zöliakie diagnostiziert wie noch vor 50 Jahren, sagen die Autoren.

Mit dieser Studie habe ich ein kleines Problem: In die US Air Force kamen und kommen nur die besten, fittesten, gesündesten jungen Männer (und inzwischen auch Frauen). Schon,wer eine Brille trägt, wird ausgemustert. Da Symptome der Zöliakie sich oft bereits im Kindesalter zeigen, kamen junge Männer mit Zöliakie vielleicht erst gar nicht so weit, sich für die Air Force zu bewerben. Diese Menschengruppe ist also schon auf Gesundheit „vorsortiert“. Die 0,2 Prozent, die in der Studie doch gefunden wurden, waren vermutlich gegen die Folgen der Krankheit weniger empfindlich und entwickelten kaum Symptome (das gibt es auch).

Zu ähnlichen Ergebnissen wie die amerikanischen Wissenschaftler kamen aber auch Forscher aus Finnland, die Blutproben aus den Jahren 1978 bis 1980 mit Proben aus den Jahren 2000 bis 2001 verglichen [3]. Diese Untersuchungen waren nicht auf bestimmte Bevölkerungsgruppen beschränkt. Die Finnen fanden heraus, dass in den etwa 20 Jahren zwischen den beiden Datenerhebungen das Vorkommen von Zöliakie in der finnischen Bevölkerung von einem auf zwei Prozent angestiegen sei.

An dieser Studie fielen mir einige merkwürdige Dinge auf: In den älteren Blutproben wurden bei mehr als acht Prozent der Teilnehmer tTG-Antikörper gefunden, in den Proben von 2000 und 2001 nur bei zwei Prozent. Die Wissenschaftler mutmaßen dazu, dass die Konzentration in den alten Proben vielleicht mit der Zeit zugenommen hat, sagen aber nicht eindeutig, warum sie das glauben. Noch dazu wurden in den Proben von 1978 bis 1980 nur in etwa 12 Prozent der tTG-positiven Proben auch EMA gefunden, in den neueren Proben sind über 70 Prozent der Teilnehmer sowohl für tTG als auch für EMA positiv (unten mal ein Bildchen, um die Zahlen deutlicher zu machen). Nur, wer beide Antikörper hat, wird als Zöliakie-Betroffener angesehen. Warum sind die EMA-Konzentrationen in den alten Proben so niedrig? Wenn die Konzentrationen zunehmen würden, wie die Wissenschaftler es für tTG-Antikörper annahmen, dürfte das nicht passieren. Diese Diskrepanz erwähnen die Forscher aber gar nicht.

In der finnischen Studie über die (angebliche) Zunahme der Zöliakie fielen mir einige Diskrepanzen auf, die die Wissenschaftler nicht erklären.

Zu guter Letzt wird auch eine Hautkrankheit, Dermatitis herpetiformis, in dieser Studie als Symptom für Zöliakie mitgezählt. Das ist an sich kein Problem, da fast jeder Fall dieser Hautkrankheit auf Zöliakie zurückzuführen ist. Allerdings heißt es in dieser Veröffentlichung, dass die Teilnehmer in den Jahren 2000 und 2001 spezifisch nach Dermatitis herpetiformis gefragt wurden, während sie 1978 bis 1980 anscheinend nur gefragt wurden, ob sie an chronischen Krankheiten litten.

Insgesamt hat diese Studie einige wissenschaftliche Schwächen und kehrt manche Ungereimtheiten unter den Teppich, darum würde ich ihren Ergebnissen schlichtweg nicht trauen.

Aber nehmen wir einfach mal an, dass Zöliakie tatsächlich zugenommen hat – woran könnte das liegen? Viele behaupten, es sei die viel höhere Gluten-Konzentration, die der moderne, hochgezüchtete Weizen gegenüber dem Weizen von vor einigen Jahrzehnten hat. Dafür gibt es allerdings keine Beweise. Es gibt auch keine Beweise dagegen, weil zu wenige Daten vorhanden sind. Eine Veröffentlichung, die aufgrund dieser wenigen Daten sehr vorsichtig geschrieben ist, kommt zu dem Schluss, dass es zwar jährliche Schwankungen der Glutenkonzentration im Weizen gibt, aber keinen Aufwärtstrend im Laufe der letzten Jahrzehnte [4]. Dieselbe Studie gibt aber auch zu bedenken, dass reines Gluten immer öfter als Zusatz in Fertignahrungsmitteln und Gebäck verwendet wird, um dessen Eigenschaften zu verbessern – noch weicher, noch fluffiger! Der Autor schätzt, dass die Leute heutzutage dreimal mehr Gluten zu sich nehmen als noch vor 40 Jahren. Bei Menschen, die zu Zöliakie neigen, könnte die Krankheit aus diesem Grund ausbrechen. Wenn diese Menschen “normale” Mengen an Gluten essen würden, hätten sie vielleicht keine Symptome.

Noch ein Letztes, dann ist das Thema Gluten für mich für immer gegessen (Haha, gegessen!): Vor Kurzem wurden auf einer Konferenz Ergebnisse vorgestellt, die Wissenschaftler der Universität Harvard aus den Daten von fast 200.000 Menschen gewannen, die im Laufe von 30 Jahren erfasst wurden. Aus diesen Daten scheint hervorzugehen, dass das Risiko, später im Leben an Diabetes Typ 2 zu erkranken umso höher ist, je weniger (!) glutenhaltige Nahrungsmittel man zu sich nimmt. Die Menschen, die täglich mehr als 20 Gramm Gluten zu sich nahmen, hatten ein 13 Prozent geringeres Risiko als die, die weniger als vier Gramm aßen. Zugegeben, 13 Prozent ist nicht sehr viel. Aber immerhin zeigt die Studie, dass Gluten gute Seiten hat. Allerdings könnte dieses Ergebnis auch damit zusammenhängen, dass Getreideprodukte viel Gluten enthalten und eine glutenarme Ernährung zugleich eine getreide- und somit ballaststoffarme Ernährung bedeutet (Vor allem vor 20, 30 Jahren, als es noch nicht trendy war, kein Gluten zu essen). Ballaststoffe sind für uns unverdauliche Stoffe, die die Aufnahme von Kohlenhydraten (also einfachen und mehrfachen Zuckern) im Darm verlangsamen. Dadurch steigt auch der Blutzuckerspiegel nur langsam an und man fühlt sich länger satt – wodurch man nicht so schnell wieder etwas isst und darum ein geringeres Diabetesrisiko hat.

——————————————————————————————————————–

Die Ernährungsindustrie schürt unsere Angst vorm Sterben, um uns etwas zu verkaufen

Abgesehen von alledem sind glutenfreie Nahrungsmittel auch nicht unbedingt der Gipfel der gesunden Ernährung. Um dieselbe Konsistenz etwa bei Backwaren zu erhalten, wird häufig alles mögliche reingepanscht, das man auch nicht wirklich essen möchte. Ein ähnliches Problem habe ich mit Soja-Joghurt und Konsorten. Die Produzenten versuchen, Milchjoghurt täuschend echt nachzuahmen und müssen dafür in aufwendigen Produktionsvorgängen alles mögliche zusetzen. Nein, danke, für mich nicht.

Fazit: Fertigfutter mit vielen Zusatzstoffen meiden, vor reinem Getreide braucht man sich aber nicht zu fürchten. Vor zehn Jahren war das noch selbstverständlich. Heutzutage muss man einen unglaublich langen Blogartikel schreiben, um sich argumentativ gegen die Besseresser durchzusetzen. Puh!

Insgesamt sehe ich den deutlichen Trend, einen uralten Marketingtrick anzuwenden, um uns angeblich gesundes Essen zu verkaufen: Rede den Menschen ein, dass sie ein furchtbares Problem haben. Mach ihnen so richtig Angst. Und dann präsentiere ihnen sofort die perfekte Lösung, für die sie nun dankbar tief in die Tasche greifen. Während viele Verkaufsstrategien uns bei unserer Sehnsucht, nicht allein zu sein packen – Rauchen macht gesellig, Klamotten machen cool, Dünnsein macht sexy – greift die Ernährungsindustrie uns auf einer viel existenzielleren Ebene an, nämlich unserer Angst vorm Sterben. Umweltgifte! Hormone und Antibiotika im Fleisch! Pflanzenschutzmittel am Getreide! Es kann einem Himmelangst werden. Genau darum geht es auch. Und viele Internetseiten, die uns scheinbar wohlmeinend über diese schrecklichen Gefahren informieren, haben zufällig einen kleinen Onlineshop für Biofutter. Oder einen Link zu einem bestimmten Mixer. Oder bieten eine Ausbildung zum Ernährungscoach an. Auch die alternative Ernährungsindustrie ist eben genau
das – eine Industrie. Sie muss und will genauso Geld verdienen wie alle anderen. Ihre Werbetricks und Marketingstrategien sind nicht weniger perfide als die der anderen auch. Nur, dass sie uns versucht weiszumachen, sie würde uns aus der Güte ihres Herzens wohlwollend aufklären, statt uns geschickt zu manipulieren.

Leider werden die meisten Menschen nicht dafür bezahlt, sich trendig zu ernähren

Meine persönliche Lösung, so banal es klingt: Alles in Maßen. Wer viele verschiedene Dinge und damit wenig von einer bestimmten Sache isst, verteilt sein Risiko und nimmt von jedem Schadstoff – sei es eine künstliche Chemikalie oder ein natürlicher Inhaltsstoff – nur wenig auf. Der Stress, den es mir bereiten würde, auf jede Regel zu achten, jede Gefahr zu vermeiden, würde mir mehr Lebenszeit rauben als ein paar gering dosierte Giftstoffe im Essen. Mal ganz abgesehen davon, dass ich ständig damit beschäftigt wäre, von Bioladen zu Bioladen zu rennen.

Zum Schluss noch unsere „Superfoods“ – Acaibeeren, Aroniasaft, Chiasamen, Mandelmehl und wie sie alle heißen. Sie sollen wundersame Kombinationen an unglaublich vielen Nähr- und Mineralstoffen sowie Vitaminen enthalten und damit nicht nur super-nahrhaft sein, sondern sogar Krankheiten heilen (allen voran wahrscheinlich nicht diagnostizierte Darmentzündungen). Ich streite nicht ab, dass die Superfoods gesund sind. Oder zumindest nicht schädlich. Aber teuer sind sie. Wenn ich meinen Tag mit Superfoods bestreiten müsste, wäre ich in wenigen Wochen pleite. Erschwerend kommt hinzu, dass ich sowieso nicht arbeiten gehen könnte, weil ich den ganzen Tag damit zu tun hätte, frische Wildkräuter zu sammeln, Traubenkerne zu mahlen und Smoothie-Zutaten zu schnippeln. Hin und wieder liest man Artikel von Journalistinnen (seltener Journalisten), die völlig begeistert von ihrem Zwei-Wochen-Paläodiät-Experiment schreiben. Einmal las ich am Ende eines solchen Artikels diese Sätze:
„Ich stand täglich fünf Stunden in der Küche und musste mehrmals am Tag abwaschen – aber es geht mir so viel besser, das ist die Mühe allemal wert! Ich kann es jedem nur empfehlen!“
Ist ja toll. Leider werden die meisten Menschen nicht dafür bezahlt, sich trendig zu ernähren. Wir Normalsterblichen müssen das irgendwie in unserer Freizeit hinkriegen.

Wer nicht auf Superfoods verzichten möchte, ohne dafür einen Kredit aufnehmen zu müssen, hier sind ein paar Tips: schwarze Johannisbeeren statt Acai, Leinsamen statt Chia, Rosinen statt Gojibeeren. Gibts alle schon ewig in unseren Breiten, enthalten fast dieselben Stoffe, sind aber leider total unsexy. Damit müssen wir Normalos wohl leben lernen.

Zitierte Quellen:
[1] K. Mustalahti, et al.: The prevalence of celiac disease in Europe: Results
of a centralized, international mass screening project. Annals of Medicine, 42
(2010) doi:http://dx.doi.org/10.3109/07853890.2010.505931

[2] A. Rubio-Tapia, et al.: Increased Prevalence and Mortality in Undiagnosed Celiac Disease. Gastroenterology, 137 (2009)
doi:http://dx.doi.org/10.1053/j.gastro.2009.03.059

[3] S. Lohi, et al.: Increasing prevalence of coeliac disease over time. Alimentary Pharmacology & Therapeutics, 26 (2007) doi:10.1111/j.1365-2036.2007.03502.x

[4] D. D. Kasarda: Can an Increase in Celiac Disease Be Attributed to an Increase in the Gluten Content of Wheat as a Consequence of Wheat Breeding? Journal of Agricultural and Food Chemistry, 61 (2013) doi:10.1021/jf305122s

Die Superbabies kommen…

fetus-embryo
Das obere Bild illustriert das Horrorszenario in den Köpfen vieler, wenn sie “Forschung an menschlichen Embryonen” hören. Es wird aber lediglich an kleinen Gruppen von Zellen sehr früher Embryonen geforscht. (Fotos:commons.wikimedia.org)

…erstmal nicht. In Großbritannien wurde vor wenigen Tagen die Erlaubnis gegeben, menschliche Embryonen genetisch zu verändern, das gab es nie zuvor. Sofort haben sich Stimmen geregt, die Bedenken aussprachen, jetzt könnten Supermenschen designt werden. Aber diese Angst ist unbegründet und ich möchte euch erklären, warum.

Zunächst einmal wurde die Erlaubnis nur einem einzigen Forschungsteam am Londonder Francis Crick-Institut erteilt. Geleitet wird dieses Team von der Molekularbiologin Kathy Niakan. Sie möchte die recht neu entwickelte CRISPR-Cas9-Methode nutzen, um gezielt einzelne Gene des menschlichen Genoms so verändern und die Auswirkung dieser Veränderung auf die menschliche Embryonalentwicklung zu studieren. Doch was bedeutet all das genau?

Beginnen wir beim Thema “Gene”. Ein Gen ist ein Teil der DNA eines Lebewesens. Auf der DNA ist all die Information gespeichert, die notwendig ist, um dieses Lebewesen zu “bauen”. Also zum Beispiel, wie groß man ist, welche Gesichtsform man hat, welche Haarfarbe, etc. Unser Körper ist zu einem goßen Teil aus Proteinen, also Eiweißstoffen aufgebaut. Doch Proteine sind nicht nur die Baustoffe unseres Körper, sie stellen auch viele “Arbeiter”, die dafür sorgen, dass unser Körper funktioniert.
Diese funktionellen Proteine, Enzyme genannt, sind auch wesentlich an der Entwicklung eines gesunden menschlichen Babies aus einer befruchteten Eizelle beteiligt. Und wenn eines dieser Enzyme nicht richtig funktioniert, können schwere Entwicklungsdefekte entstehen. Frühe Defekte, die bei den ersten Teilungen der befruchteten Eizelle auftreten, können die Eizelle an der Einnistung in die Plazenta hindern oder den jungen Embryo so stark schädigen, dass er abstirbt. Solche frühen Defekte sorgen für einige Arten der weiblichen Unfruchtbarkeit und einen Großteil der Fehlgeburten. Schätzungen zufolge entwickeln sich nur 13 % der befruchteten Eizellen über den dritten Schwangerschaftmonat hinaus!

Über die Gründe für diese zahlreichen früh scheiternden Schwangerschaften ist sehr wenig bekannt – und das möchte Niakan mit ihrer Forschung ändern. Was ist nun die CRISPR-Cas9-Methode?
Es handelt sich dabei um eine recht neu entwickelte Methode für die ganz gezielte Veränderung von Genen. Bis vor einigen Jahren war die Veränderung von Genen noch sehr schwierig und ungenau, mit extrem geringen Erfolgsraten. Etwa so, wie wenn man eine Reihe Dosen hat und eine bestimmte Dose wegschießen will, aber leider nur eine Schrotflinte zur Verfügung hat. Mit CRISPR-Cas9 wurde Wissenschaftlern in aller Welt nun ein Präzisionsgewehr mit Zielfernrohr in die Hand gegeben. Es funktioniert buchstäblich wie ausschneiden und einkleben. Man kann perfekt den Teil eines Gens entfernen, den man will und dafür etwas beliebiges anderes einfügen, oder den ausgeschnittenen Teil einfach löschen. Ich weiß wovon ich rede, ich habe die Methode im Labor selbst angewendet – allerdings an Fruchtfliegen – und es hat hervorragend funktioniert! Und nur mit einer solch genauen Methode ist es überhaupt sinnvoll, an menschlichen Embryonen zu forschen. Denn nur, wenn man ganz genau kontrollieren kann, welche Gene man verändert und auf welche Weise, kann man verlässliche Aussagen treffen. Niakan und ihre Kollegen können nun also erforschen, welche Gene für die frühe menschliche Embryonalentwicklung wichtig sind, und warum. Sie hoffen, damit die Erfolgsraten für natürliche und künstliche Befruchtung langfristig zu erhöhen. Und wenn man bedenkt, dass Frauen in den Industrieländern sich immer später im Leben für Kinder entscheiden, wenn die Fruchtbarkeit bereits eingeschränkt ist, ist diese Forschung umso wichtiger. Schon jetzt wird jedes 80. Kind in Deutschland durch künstliche Befruchtung gezeugt!

Und aus der künstlichen Befruchtung, in der Fachsprache in vitro-Fertilisation, kurz IVF (“im Glas-Befruchtung”) kommen auch die Embryonen, die Niakan und ihr Team verwenden werden. Für jede Frau, die IVF in Anspruch nimmt, werden mehr Embryonen befruchtet, als eingepflanzt werden – falls etwas schief geht. Die übrigen Embryonen durften bereits zuvor gespendet werden, zum Beispiel an Frauen, die selbst keine gesunden Eizellen hatten. Von nun an können Frauen in England die nicht eingepflanzten Embryonen auch dem Labor von Kathy Niakan spenden. Dort muss dann zügig gearbeitet werden, denn Niakan möchte sich die ersten sieben Tage der menschlichen Embryonalentwicklung genau anschauen. Die Embryos müssen nach spätestens 14 Tagen vernichtet werden und dürfen selbstverständlich keiner Frau eingepflanzt werden. Die Wissenschaftler dürfen auch nicht einfach wild drauflosforschen – jedes geplante Experiment, jedes untersuchte Gen muss zuerst dem Ethikrat vorgestellt werden, der in jedem Fall einzeln beschließt, ob das Experiment dem Erkenntnisgewinn dient und ethisch vertretbar ist.

Seit vielen Jahrzehnten versuchen Wissenschaftler in aller Welt, die menschliche Embryonalentwicklung besser zu verstehen. Bisher war das nur an Hand von Tiermodellen möglich. Ich selbst habe für genau diese Forschung die Fruchtfliege verwendet. Doch letztendlich kann man die Ergebnisse aus solchen Modellorganismen nicht uneingeschränkt auf en Menschen übertragen. Kathy Niaka und ihr Team können diese Lücke nun vielleicht schließen.

Trotz allen Regeln und Beschränkungen, denen die Forschung an menschlichen Embryonen nun noch unterliegt, denke ich persönlich, dass irgendwann einer Frau ein genetisch veränderter Embryo eingepflanzt wird. Ich glaube, dass es sich um einen Embryo handeln wird, bei dem einige krankhaft veränderte Gene repariert wurden. Und wer weiß, wohin das führt. Denn wir tun letztendlich doch alles, was möglich ist. Wir sind einfach zu neugierig, zu begierig auf Fortschritt, um es nicht zu tun. Versteht mich nicht falsch, ich bin absolut für diese Forschung. Aber ich gehe einfach davon aus, dass es immer weitere Kreise ziehen wird. Ich sehe dem recht zuversichtlich entgegen, schließlich bin auch ich nur eine neugierige Forscherin!

Patchworkfamilie – auf Genetisch

DNA_patchworkAnfang dieses Jahres wurde in Großbritannien eine neue Form der künstlichen Befruchtung zugelassen, bei der ein Kind gezeugt wird, dass drei genetische Eltern hat. Zwei Mütter, einen Vater. Eizelle und Spermazelle kommen von den leiblichen Eltern des Kindes. Die zweite Frau kommt als Mitochondrien – Spenderin ins Spiel. Was sind Mitochondrien und inwiefern kann eine Mitochondrien-Spende Paaren mit Kinderwunsch helfen?

Mitochondrien sind die „Kraftwerke“ der Zelle. Sie nutzen den Sauerstoff, den wir einatmen und der von den roten Blutkörperchen zu allen Zellen transportiert wird. Den Sauerstoff brauchen die Mitochondrien, um ATP herzustellen. ATP ist die Energiewährung alles Lebewesen, der Kraftstoff, der das Leben antreibt – wie Benzin oder Diesel beim Auto und Elektrizität im Haushalt. Alle unsere Muskeln und Organe brauchen das Molekül ATP, um ihre Aufgaben erfüllen zu können. Mitochondrien sind also extrem wichtige Bestandteile unserer Zellen. Und das Merkwürdige an ihnen ist, dass sie ihr eigenes Genom, also ihre eigene Erbinformation in Form von DNA in sich tragen. Diese Erbinformation ist unabhängig von der Haupt-Erbinformation des Menschen, die auf der DNA im Zellkern gespeichert ist. Diese Zellkern-DNA bestimmt die meisten unserer Eigenschaften – wie wir aussehen, welche Eigenschaften wir haben und so weiter. Doch auch die DNA in den Mitochondrien nimmt auf unser Leben Einfluss. Sie ist vor allem wichtig für die Funktion dieser kleinen Zell-Kraftwerke.

cell_simpleDNA

Und da beginnt das Problem, denn wenn Mitochondrien nicht richtig funktionieren, können fatale Krankheiten entstehen. So zum Beispiel das Leigh-Syndrom, das bei Säuglingen Muskelschwäche, Epilepsie und Entwicklungsverzögerungen verursacht und innerhalb weniger Jahre zum Tod führt. Andere Krankheiten, deren Ursache in den Mitochondrien liegt, gehen mit Taubheit, Sehstörungen, Muskellähmungen und Defekten im Nervensystem einher. Ziemlich scheußlich also. Seit etwa 20 Jahren arbeiten Forscher jedoch daran, Frauen aus Familien mit solchen mitochondrialen Krankheiten den Wunsch nach einem gesunden Kind zu erfüllen. Bevor ich dazu mehr erkläre, will ich erst einmal diese Frage beantworten: Wie kann es sein, dass Mitochondrien ihre eigene DNA haben? Und warum muss man sich keine Sorgen machen, wenn in der Familie des Mannes mitochondriale Krankheiten vorkommen?

Vor etwa anderthalb Milliarden Jahren schwammen in der Ursuppe die ersten primitiven Zellen herum. Sie alle hatten bereits Erbinformation auf einer recht kurzen DNA, die sie exakt kopierten und weitergaben, wenn sie sich teilten. Einige dieser frühen Zellen gewannen Energie, indem sie Sauerstoff und Kohlenstoffverbindungen aus dem Wasser aufnahmen und durch mehrstufige chemische Reaktionen in ihrem Zellinneren zu ATP verarbeiteten. Das kann man auch einfach „atmen“ nennen. Andere wiederum gewannen Energie, indem sie diese atmenden Zellen „fraßen“. Wie frisst ein Einzeller? Indem er seinen Zellkörper über den Zellkörper des anderen stülpt und ihn sich so gewissermaßen einverleibt. Die aufgenommene Zelle wird dann verdaut. Aber nicht immer. In einigen Fällen muss es wohl dazu gekommen sein, dass so ein Atmer von der anderen Zelle, die ihn in sich aufgenommen hatte, nicht verdaut wurde. Stattdessen blieb er als „Zelle in der Zelle“ am Leben und atmete weiter, setzte also Sauerstoff und Kohlenstoffverbindungen zu Energie um. Da dieser Atmer jetzt aber innerhalb einer anderen Zelle wohnte, kam dieser das ATP aus der Atmung auch zugute. Und der Atmer lebte geschützt und konnte nicht gefressen werden. Dieses Phänomen nennt man „Endosymbiose“. Das Wort ist aus verschiedenen griechischen Wörtern zusammengesetzt und bedeutet soviel wie „innen zusammenleben“ und wird verwendet, um eine Beziehung von beiderseitigem Nutzen zwischen zwei Lebewesen zu beschreiben. Im Laufe der Jahrmillionen verlor der Atmer viele Teile seiner DNA, sodass er nicht mehr frei leben konnte und zur Organelle wurde, einem Zellorgan. Doch auch heute haben diese Organellen, die wir nun „Mitochondrien“ nennen, noch genügend DNA um innerhalb der Zelle ein Eigenleben zu führen und sich selbstständig zu teilen.

Und was hat das mit Frauen und Fortpflanzung zu tun? Mitochondrien werden bei Säugetieren nur von der Mutter weitergegeben. Der Grund dafür ist einfach: die Spermien des Mannes müssen schnell sein. Mitochondrien haben ein gewisses Gewicht, das so ein Spermium langsam machen würde. Also enthalten Spermien schlichtweg keine Mitochondrien. Sie brauchen auch keine, da sie nicht besonders lange überleben müssen. All das ATP, das sie zum Schwimmen benötigen, wird vorher in den Spermien gespeichert.
Wenn die mitochondriale DNA aber Mutationen trägt, können die Mitochondrien nicht richtig funktionieren und es kommt zu Krankheiten. Die meisten Menschen mit Gendefekten in den Mitochondrien tragen eine Mischung aus kranken und gesunden Mitochondrien. So können oft die gesunden Mitochondrien die Defekte ausgleichen und eine Krankheit bricht nicht oder erst spät im Leben aus. Ist der Anteil kranker Mitochondrien jedoch höher als 60 %, können Krankheiten schon im Säuglingsalter ausbrechen. Solche Krankheiten sind nicht heilbar und meist auch nicht oder nur schwer behandelbar. Wenn eine Frau also weiß, dass solche mitochondrialen Krankheiten in ihrer Familie vorkommen, musste sie früher oft die schwere Entscheidung fällen, keine eigenen Kinder zu bekommen. Denn man kann nicht kontrollieren oder vorhersagen, wieviele kranke Mitochondrien an das Kind weitergegeben werden (selbst, wenn die Frau keine Symptome hat, kann sie einen gewissen Anteil kranke Mitochondrien haben).
Hier kommt nun die „Drei-Eltern-Befruchtung“ ins Spiel. Bei dieser Variante der künstlichen Befruchtung wird eine Eizelle der „echten“ Mutter mit dem genetischen Material des Vaters befruchtet. Das genetische Material dieser befruchteten Eizelle wird dann entnommen und in eine entkernte, befruchtete Eizelle der zweiten Frau eingebracht. So bekommt das Kind das genetische Material aus den Zellkernen seiner Eltern – und sieht ihnen damit ähnlich – hat aber die Mitochondrien einer anderen, gesunden Person. Da die Mitochondrien nicht mithilfe von Genen aus dem Zellkern hergestellt werden, sondern sich selbstständig innerhalb der Zelle teilen, ist dieser genetische Mix kein Problem.

Das genetische Material aus der befruchteten Eizele der leiblichen Mutter wird in die entkernte, befruchtete Eizelle der Mitochondrien-Spenderin übertragen. (aus: Paula Amato et al., Fertil Steril 2014)
Das genetische Material aus der befruchteten Eizele der leiblichen Mutter wird in die entkernte, befruchtete Eizelle der Mitochondrien-Spenderin übertragen.
(aus: Paula Amato et al., Fertil Steril 2014)

Diese neue Methode wird in Großbritannien bereits angewendet. Doch in allen anderen Ländern ist sie nicht erlaubt, da sich ethische Probleme ergeben: Die Eizelle mit den gesunden Mitochondrien muss ebenfalls befruchtet sein. Eine befruchtete menschliche Eizelle ist streng gesehen jedoch ein lebensfähiger menschlicher Embryo. Mit der Entfernung des genetischen Materials aus diesem Embryo nimmt man ihm die Chance, zu leben. Es gibt jedoch eine zweite Methode, bei der keine Befruchtung der Spender-Eizelle notwendig ist. Bei dieser Methode wird die Eizelle erst befruchtet, nachdem das genetische Material der leiblichen Mutter in die entkernte Spender-Eizelle eingebracht wurde. Doch trotzdem ergeben sich praktische Erwägungen: Wieviel bezahlt man der Eizell-Spenderin? Hat sie auch ein Recht auf das Kind? Ganz abgesehen von den ethischen Fragestellungen, die seit dem Beginn der künstlichen Befruchtung bestanden, z.B., ob wir irgendwann diese Technik nutzen werden, um das perfekte Kind, den perfekten Mensch, den perfekten Soldaten zusammenzubauen.

Ich persönlich glaube, dass wir Menschen einfach zu neugierig sind, um etwas, das möglich ist, nicht zu tun. Die Neugier ist es, die uns so weit hat kommen lassen. Sie treibt alles voran: Kunst, Kultur, Wissenschaft. Was ist möglich, wie weit können wir kommen? Dieser Frage werden Menschen immer nachgehen. Die neuen Techniken werden immer weiter entwickelt werden und alles, was möglich ist, werden wir irgendwann auch tun. Ethische Bedenken werden wir immer haben, doch letztendlich werden wir wohl den Fortschritt wählen. Ich glaube allerdings nicht, dass wir in zehn Jahren schon perfekte Babys züchten. Vielleicht in hundert oder fünfhundert Jahren. Ob das gut oder schlecht ist, weiß ich nicht. Es gibt Argumente für beide Seiten. Es muss jeder für sich entscheiden, welche Meinung er hat und welche Seite er unterstützt. Als Wissenschaftler bin ich natürlich ein neugieriger Mensch. Und ich kann nicht leugnen, dass ich die Möglichkeit, sich bewusst für ein gesundes Kind zu entscheiden attraktiv finde.

Doktor Cooper, Doktor Hoffstadter, Doktor Koothrappali und Howard Wolowitz – kein Doktor.

http://scienceblogs.com/principles/files/2013/02/bigbang-lunch-cbsx-large.jpgIch liebe The Big Bang Theory. Aber der gezeigte Umgang von Wissenschaftlern untereinander basiert auf einer hoffnungslos veralteten Etikette. Wenn promovierte Wissenschaftler, also Leute mit Doktortitel, einander begrüßen oder vorstellen, sagt man den Doktortitel nicht mit dazu. Und wir duzen uns alle und sprechen uns mit dem Vornamen an. Erstens ist das einfacher so und zweitens ist die Sprache der Wissenschaft Englisch, und da gibt es kein „Sie“. Außerdem kann man bei uns nicht mit dem Doktortitel protzen, weil jeder einen hat. So ist das in den Naturwissenschaften. Merkwürdige Welt, wirklich.

Nur Ärzte machen das, glaube ich, anders. Warum? Ein Naturwissenschaftler arbeitet drei bis sieben Jahre an der Doktorarbeit. Ärzte drei bis sieben Wochen. Kein Quatsch. Nach drei bis sieben Jahren hat man dann auch die Schnauze voll und es ist einem sowieso egal, man will nur noch fertig werden mit dem Kram und sch*** auf den Titel. Aber wenn man nur drei bis sieben Wochen dran gesessen hat, muss man den Titel vielleicht dauernd sagen und überall hinschreiben, damit man nicht vergisst, dass man ihn hat. Die einen arbeiten sich fix und fertig um wichtige neue wissenschaftliche Erkenntnisse zu machen, eingehend zu prüfen und in einen Zusammenhang zu bringen mit allem, was man bisher auf dem jeweiligen Gebiet weiß. Die anderen werten mal schnell ‘ne Statistik aus. Und doch kriegen alle dieselben zwei Buchstaben. Dr. Irgendwie ungerecht.

Ok, jetzt mal im Ernst. Ärzte haben einen harten und extrem wichtigen Job. Aber der „Dr. med. Dünnbrettbohrer“, wie DIE ZEIT einst titelte, ist eine Fassade. Sie ist notwendig, weil die Allgemeinheit sich daran gewöhnt hat und sich ein unterschwelliges Gefühl manifestiert hat, ein Arzt ohne Doktortitel sei irgendwie kein richtiger Arzt. Noch verrückter: Krankenhäuser vergeben aufgrund dessen beinah niemals Stellen an nicht pomovierte Ärzte. Und so müssen die Medizinstudenten sich während der Examensvorbereitung noch ein Thema für die Doktorarbeit aus den Rippen leiern und die während des Lernens auch noch irgendwie schreiben. Das erfüllt ganz und gar nicht den Zweck der Promotion, denn der ist: „… die Fähigkeit zur selbständigen wissenschaftlichen Arbeit im Rahmen der Bearbeitung eines thematisch begrenzten Forschungsbereichs zu belegen; im Mittelpunkt steht die Anfertigung einer Doktorarbeit (Dissertation), welche neue wissenschaftliche Ergebnisse enthält.“ Selbstständiges wissenschaftliches Arbeiten bedeutet, eine interessante wissenschaftliche Fragestellung zu finden, eine Hypothese zur Beantwortung dieser Frage zu formulieren und diese Hypothese dann mithilfe von Experimenten eingehend zu prüfen. Problem eins: Wer frisch von der Uni kommt, hat keine Ahnung, was in der Wissenschaft gerade abgeht. Das Finden der Frage dauert meistens einige Monate (Es sei denn, der Prof. serviert sie einem). Problem zwei: Im Laufe des allerersten Experiments zur Prüfung der Hypothese stellt sich heraus, dass die Hypothese Quatsch ist. Neue Hypothese, andere Experimente. Problem drei: Die wochenlang sorgfältig geplanten Experimente liefern im besten Fall ein völlig unerwartetes Ergebnis, im zweitbesten Fall kein Ergebnis und im allermeisten Fall funktionieren sie einfach gar nicht. Daher die drei bis sieben Jahre. Wenn man die rum hat, kann man wirklich von sich behaupten, ein vielfach frustrationsgeprüfter Wissenschaftler mit ausgeprägter Fähigkeit zum selbstständigen Arbeiten zu sein. In drei bis sieben Wochen schafft man das einfach nicht.

Selbstverständlich gibt es Ausnahmen, auch Ärzte können mehrere Jahre lang promovieren. Doch der Alltag und die typische Karriereleiter eines praktizierenden Arztes lassen das eigentlich nicht zu. Ein Arzt, der mit Patienten arbeiten möchte, hat also kaum die Möglichkeit, sich ausgiebig der Wissenschaft zu widmen. Und wer es doch tut, muss das entweder parallel zu seiner Arbeit als praktizierender Arzt machen oder wird danach Schwierigkeiten haben, wieder in die Praxis einzusteigen.

Ärzte stehen also von zwei Seiten unter Druck – auf der einen Seite verlangt die Bevölkerung (Und die meisten Arbeitgeber!) den Doktortitel und auf der anderen Seite stehen die beleidigten Naturwissenschaftler (wie ich), die nicht mit den Turbo-Promovenden in dieselbe Schublade gesteckt werden wollen.

Habe ich einen Lösungsvorschlag? An meinem Institut werden Mediziner mit 100 % Gehalt „gelockt“, um ihnen die ausgiebige Promotion schmackhaft zu machen. Doktoranden bekommen normalerweise nur 50% Gehalt (bei 150 % Arbeitsstunden…). Aber das löst nicht das Problem der fehlenden Praxiserfahrung für die promovierenden Ärzte. Meine beste Idee ist, ein Umdenken in der Bevölkerung anzustoßen, um dem medizinischen Doktortitel seinen Legendenstatus zu nehmen und die Akzeptanz für nicht promovierte Ärzte so weit zu erhöhen, dass es irgendwann nichts mehr ausmacht, ob man den Titel hat oder nicht. Dann kann der Titel vielleicht seine ursprüngliche Bedeutung als Auszeichnung für intensive wissenschaftliche Arbeit wiedererlangen.