Pilze – wollen sie uns alle umbringen?

Ist es eine Pflanze? Ist es ein Tier? Nein, es ist ein Pilz!
Pilze bilden eine Gruppe ganz für sich, auch wenn viele denken, es seien Pflanzen. Manchmal sind Pilze nett und helfen im Waldboden bei der Zersetzung von totem Material, womit dem natürlichen Kreislauf wieder Nährstoffe zugeführt werden. Oft aber haben sie es auf die totale Herrschaft abgesehen. Sie dringen in Pflanzen und Tiere ein und toben sich dort aus – nicht selten ohne Rücksicht auf das Leben ihres Wirtes. So gibt es eine parasitische Pilzart, die Insekten zu willenlosen Zombies macht. Einige Pilze wachsen sogar in Menschen.

Pilze, das sind doch die lustigen Dinger mit Stiel und Hut, die romantisch im Wald rumstehen und deren Daseinszweck darin besteht, von Touristen in knallbunten Regenjacken in die Pfanne gehauen zu werden, oder? Ähm, nein. Pilze sind oft miese kleine Parasiten, die nur sich selbst dienen. Und in den seltensten Fällen sind sie so freundlich, sich als Abendessen zu eignen. Aber fangen wir erst einmal mit den nützlichen Pilzen an.

Geneigte Pilzsammler werden wissen, dass bestimmte Pilze bevorzugt unter ausgesuchten Bäumen wachsen – der Birkenpilz unter Birken, der Steinpilz unter anderem in der Nähe von Fichten, und so weiter. Das liegt an einer uralten Partnerschaft zwischen Pflanzen und Pilzen, der sogenannten „Mykorrhiza“. Das Wort setzt sich zusammen aus den griechischen Wörtern mykos (Pilz) und rhiza (Wurzel). Dabei geht eine Pilzart eine unterirdische Verbindung mit der Pflanzenwurzel ein. Aber nicht nur Bäume haben solche Pilzpartner – etwa 80 % aller Landpflanzen haben so eine Mykorrhiza. Doch wozu brauchen Pflanzen Pilze – und umgekehrt?

Eine Mykorrhiza ist eine sogenannte Symbiose, eine enge Partnerschaft zwischen zwei unterschiedlichen Lebewesen, die beiden Vorteile bringt. Die Pflanze erhält vom Pilz Mineralstoffe wie Stickstoff und Phosphor, die im Boden in Verbindungen vorliegen, die nur der Pilz aufschließen und verarbeiten kann. Im Gegenzug erhält der Pilz von der Pflanze Nährstoffe in Form von Zuckern. Wie tauschen die beiden sich aus? Nun, Pilze bestehen nicht nur aus einem Stiel und einem Hut, ganz im Gegenteil. Dieser Teil beherbergt lediglich die Fortpflanzungsorgane. Das ist richtig, wir essen die Geschlechtsorgane von Pilzen. (Kriegt euch wieder ein, es schreit ja auch keiner „Iiiiih, Geschlechtsorgane!“, wenn er eine Blume sieht.) Der eigentliche „Körper“ des Pilzes ist ein weit verzweigtes unterirdisches Netz von sehr, sehr dünnen Fäden, für das bloße Auge praktisch unsichtbar. Dieses Netz heißt „Myzel“ (das spricht man „Mühzeel“), ein einzelner Faden ist eine „Hyphe“ (das wird wie „Hüfe“ ausgesprochen).

Die Hyphen wachsen unter der Erde vor sich hin, bis sie auf eine geeignete Pflanzenwurzel treffen. Die Pflanze sendet sogar chemische Stoffe aus, um die Pilzhyphen anzulocken. Hat eine Hyphe Kontakt zu einer Wurzel aufgenommen, bildet sie eine spezielle Struktur, mit der sie sich durch die Außenwand der Wurzel bohrt. Dazu kann die Hyphe an der Kontaktstelle einen unglaublich hohen Druck aufbauen. Experimente habe gezeigt, dass dieser Druck bis zu 100 bar betragen kann. Zum Vergleich: In einem Autoreifen herrscht ein Luftdruck von 2 bis 2,5 bar, ein richtig knallhart aufgepumpter Rennradreifen kann es schon mal auf 10 bar bringen. Immer noch kein Vergleich zum Pilz! Der baut diesen Druck jedoch nur an einem mikroskopisch kleinen Punkt auf. Das reicht aber locker, um sich in die Pflanzenwurzel zu bohren. Zusätzlich sind außerdem Enzyme im Einsatz, die die Zellwände der Pflanzenwurzel ein bisschen durchlässiger machen. Die Hyphe wächst dann innerhalb der Zellen der Pflanzenwurzel und bildet dort stark verzweigte Strukturen. Dadurch haben Pilzhyphe und Pflanzenzellen eine große Oberfläche zur Verfügung, über die sie nun die besagten Stoffe austauschen können. So brutal der ganze Vorgang klingt, die Pflanze nimmt den Pilz bereitwillig auf, sie organisiert sogar die Zellen um, in die der Pilz vorgedrungen ist, um das Meiste aus der Partnerschaft zu machen.

Klingt doch alles ganz toll, oder? Der Pilz tut der Pflanze doch einen Gefallen? Jein. So bereitwillig die Pflanze ihre äußeren Wurzelzellen für den Pilz einrichtet, so sehr muss sie Strukturen weiter innen vor ihm schützen. In der Mitte der Pflanzenwurzel liegt der sogenannte Zentralzylinder, durch den die Pflanze Wasser und Nährstoffe
transportiert – quasi die Blutbahn der Pflanzen. In die würde der Pilz zu gerne eindringen, um direkt an die Zuckerlösung zu kommen, die ihm die Pflanze im Rahmen der Mykorrhiza nur rationiert zukommen lässt. Doch dagegen wehrt sich die Pflanze, indem sie Lignin, den „Holzstoff“, in die Zellen einlagert, die den Zentralzylinder umgeben. Damit weist die Pflanze den Pilz in seine Schranken und erhält die Partnerschaft halbwegs freundlich und zum gegenseitigen Nutzen.

Doch das Lignin schützt nicht vor allen Pilzen! Eine Pflanze geht nämlich nicht nur mit einem Pilz so eine Verbindung ein, sondern meist mit mehreren. Genauso interagiert ein- und derselbe Pilz mit mehreren Pflanzenpartnern. Die beiden führen also eine sehr, sehr offene Beziehung. Der Vorteil davon: Die Mykorrhiza vernetzt mehrere Pflanzen miteinander, die so auch untereinander kommunizieren und Stoffe austauschen können. Außerdem kann die Pflanze von den unterschiedlichen Eigenschaften verschiedener Pilze profitieren (und umgekehrt). Der Nachteil: Pilze, die es gar nicht so gut meinen, können sich unter den echten Symbiosepartnern einschleichen. Die nehmen genauso Kontakt auf wie die „guten“ Pilzpartner, saugen dann aber schamlos Zucker aus der Pflanze, ohne etwas dafür zurückzugeben. Noch schlimmere Zeitgenossen unter den Pilzen tun ebenfalls so, als wollten sie eine Mykorrhiza bilden, wachsen dann aber tief in die Wurzel und schaffen es, in den Zentralzylinder vorzudringen, von wo aus sie sich in der gesamten Pflanzen verbreiten, diese von innen durchwuchern und förmlich auffressen. Nett, oder? Immerhin gibt es einige Pflanzen, die ein bisschen Rache nehmen: Sie bilden Mykorrhizzen und lassen sich gemütlich mit Mineralstoffen beliefern, knausern aber kräftig mit dem Zucker. Einige Orchideenarten sind da gut drin. Ein bisschen Gerechtigkeit muss sein.

Verlassen wir das Pflanzenreich und begeben uns zu den Tieren (darauf habt ihr doch nur gewartet!). Wenn man „Pilze“ hört, denkt man meist erstmal an Basidiomyzeten. Woran bitte? Ok, das Wort „Basidiomyzeten“ (zu Deutsch „Ständerpilze“ – haha, ich weiß) kommt wohl nur Wenigen in den Sinn. Eher hat man ein Bild von einem netten Pilz zwischen Moos und Laub vor Augen, vielleicht sitzt da noch ein Heinzelmännchen drauf. So ein Pilz ist, wie schon erwähnt, das Fortpflanzungsorgan, der sogenannte „Fruchtkörper“ eines Basidiomyzeten. Es gibt aber noch massenhaft andere Pilzarten, die nicht diese uns wohlbekannten Fruchtkörper bilden. Die haben entweder ganz anders aussehende oder gar keine spezialisierten Fruchtkörper. Das unterirdische Myzel-Netzwerk ist ihnen aber fast allen gemein. Doch lange nicht jeder Pilz ist so freundlich, sein Myzel friedlich im Waldboden zu bilden. Manche wachsen innerhalb von Insekten. Oder Menschen.

Da hätten wir zum Beispiel Ophiocordyceps unilateralis, eine parasitische Pilzart, deren Sporen auf den Panzern von Ameisen auskeimen und dann in den Körper der Ameise hineinwachsen. Dort befällt der Pilz das Nervensystem der Ameise und manipuliert ihr Verhalten. Die Ameise hört auf, für ihre Kolonie zu arbeiten und macht sich stattdessen auf den Weg zu einem Blatt oder der Baumrinde – sie wird zum willenlosen Zombie, der nur noch dem Pilz dient. Bei Blatt oder Rinde angekommen, beißt die Ameise sich fest und stirbt. Der Pilz bildet nun einen keulenförmigen Fruchtkörper, der aus dem Hirn der Ameise herauswächst wie eine kleine Antenne. In dem untenstehenden Video, einem Ausschnitt aus der englischen BBC-Serie Planet Earth, seht ihr das Ganze in Echt. Ophiocordyceps unilateralis hat mit dieser gruseligen Fortpflanzungsstrategie schon Computerspiele und Science-Fiction-Romane inspiriert.

Zombie-Ameisen sind schon ein bisschen gruselig, aber irgendwie auch faszinierend. Wenn so ein Pilz allerdings in uns Menschen wächst, hört der Spaß auf. Ausgerechnet ein Vertreter der Hefepilze kann uns mächtig zu schaffen machen. Ein bestimmter Hefepilz, die Bierhefe, auch Bäckerhefe genannt, ist dem Menschen seit Jahrtausenden zu Diensten. Auch in der Wissenschaft wird dieser Hefepilz sehr verbreitet genutzt. Auf Schlau heißt diese Pilzart Saccharomyces cerevisiae. Gebäck und Gesöff – wer wollte ohne sie leben? Allerdings findet man selbst im Weißbier keine Myzel-Netzwerke, höchstens ein bisschen pudrigen Bodensatz. Das liegt daran, dass Hefepilze oft kein Myzel bilden, sondern als einzelne, winzige Pilzzellen durch die Gegend schwimmen. Auch Nicht-Hefepilze (wie die erwähnten Ständerpilze) bilden in manchen Lebensstadien einzelne Zellen, die dann zu Ehren der einzelligen Hefen als „Hefestadium“ oder „Hefeform“ bezeichnet werden.

Doch bei Weitem nicht alle Hefen finden ihre Erfüllung darin, uns Menschen mit Gebäck und Gesöff zu versorgen. Ein ziemlich gemeiner Vertreter der Hefepilze ist die Gattung Candida, vor allem die Art Candida albicans. Und ich habe eine schlechte Nachricht: Diesen Pilz tragen etwa 70 bis 75 Prozent von uns in sich. Die gute Nachricht: Meistens ist er harmlos. Meistens.

Candida albicans lebt bei gesunden Menschen im Darm und auf Schleimhäuten im Gleichgewicht mit all den anderen Mikroorganismen, die sich dort tummeln, etwa Milchsäurebakterien. Gerät das Gleichgewicht aber aus der Balance, kann der Pilz die Überhand bekommen und zu einer Erkrankung werden. Das kann etwa passieren, wenn man eine Antibiotikatherapie macht. Dabei werden nämlich nicht nur die krankmachenden Bakterien abgetötet, sondern alle Bakterien, die man im Körper trägt, auch die guten. Darauf hat der Pilz gewartet – die Milchsäurebakterien, die mit ihm um Platz und Nahrung konkurrieren, sind weg, und los geht’s mit der Pilzinfektion! Candida kann im Prinzip den ganzen Körper befallen, häufig sind die Mundhöhle (das nennt man dann „Soor“) und der weibliche Genitalbereich.

ACHTUNG! Das heißt NICHT, dass Antibiotikatherapien automatisch schlecht sind! Oft sind sie die letzte Rettung, denn auch Bakterieninfektionen können sehr gefährlich sein für Leib und Leben! Wenn ihr Antibiotika verschrieben bekommt, nehmt IMMER die ganze Packung bis zum Ende, genau, wie eure Ärztin oder euer Arzt es verschrieben hat! Auch, wenn es euch schon eher besser geht. Sonst züchtet ihr multiresistente Bakterien in eurem Körper, die ihr womöglich nie wieder loswerdet! (Ok, der Belehrungsmodus geht jetzt wieder aus)

Ein Tip für die Mädels: Wenn ihr wisst, dass ihr während einer Antibiotikakur zu Scheidenpilz neigt, kauft in der Apotheke Milchsäurezäpfchen (ja, für die Mumu). Die helfen dabei, die Scheidenflora bakterienfreundlich zu halten und können so einer Pilzinfektion entgegenwirken.

Solche oberflächlichen Pilzinfektionen sind trotzdem noch vergleichsweise harmlos und meist gut zu behandeln. Candida ist allerdings auch dazu in der Lage, in die Blutbahn vorzudringen und von da aus den gesamten Körper von innen zu befallen. Daran kann man sterben. Das passiert unter normalen Umständen nicht oft. Wer ab und zu Fußpilz hat, muss also keine Angst haben. In Krankenhäusern ist Candida allerdings oftmals ein Problem, da vor allem sehr geschwächte Personen anfällig sind für so eine systemische Pilzinfektion – Candida steht inzwischen auf Platz vier der gefährlichsten Krankenhauskeime.

Jetzt muss ich die Behlerungskeule doch noch mal rausholen: Solltet ihr eine Pilzinfektion haben, probiert bitte nicht mit Hausmitteln oder Homöopathie herum, sondern geht sofort zum Arzt. Der wird euch antimykotische Arzneimittel verschreiben, die den Pilz meist innerhalb weniger Tage ausmerzen. So lange kann selbst der überzeugteste Anhänger des Paläo-Lifestyles ein paar künstlich hergestellte chemische Stoffe aushalten. Je länger der Pilz wuchert, desto höher ist nämlich die Wahrscheinlichkeit, dass er doch seinen Weg in die Blutbahn findet. Und dann geht man wirklich ganz authentisch den Weg des ach-so-natürlich lebenden Höhlenmenschen, der seinerzeit an heutzutage völlig harmlosen Infektionen meist starb.

Wir Menschen können leider wenig nutzen aus Pilzen ziehen, die in unseren Körper eindringen, so wie Pflanzen das können. Wir können nur über das Pilzreich triumphieren, indem wir einige seiner Vertreter aufessen.

Die Angst vorm Essen

Als ob es nicht schon genug Artikel, Dokufilme, Blogs und Diskussionsrunden über die “richtige” Ernährung gäbe. Es sind abnorm viele. Und alle behaupten etwas anderes. Wie soll man da noch ruhigen Gewissens essen? Kann man nicht, habe ich festgestellt. Doch ich habe eine wunderbar einfache Lösung gefunden, mit der ich persönlich sehr gut klarkomme: Ignorieren. Einfach alles ignorieren.

Ok, so ein paar Kleinigkeiten kann man sich vielleicht doch zu Herzen nehmen. Aber darum soll es heute gar nicht vordergründig gehen.

Ich bin über ein paar interessante Sachen zum Thema moderne Ernährung gestolpert, die ich mit euch teilen möchte. Um zu sehen, wann der Hype um Superfoods, glutenfrei und Co. losging, habe ich ein lustiges Spielzeug ausprobiert: Google Trends. Da kann man schauen, welche Wörter in einem bestimmten Land über einen frei wählbaren Zeitraum wie häufig gegoogelt wurden, und sie mit anderen Wörtern vergleichen. Schauen wir doch mal nach dem zeitlosen Wort „Diät“:

Das erfuhr innerhalb der letzten zehn Jahre recht stabiles Interesse. Lustig: Immer im Januar (ich hab bei ein paar Jahren Pfeile an diesen Monat gemacht) schießen die Suchzahlen in die Höhe, kurz vor dem Sommer auch noch mal. Danach geht es rapide bergab (Tschüss, gute Vorsätze!)

Werden wir konkreter: „Superfoods“ (damit meint die Ernährungs- und Fitnessindustrie all diese sündhaft teuren exotischen Früchtchen wie Acai- und Gojibeeren, Chiasamen, Kokosöl, etc.) wurde ab 2013 zum Thema, 2016 war das Jahr für diesen Trend. Inzwischen lässt das Interesse schon wieder nach.

Gegen die neuen allergrößten Feinde der gesunden Ernährung allerdings stinken die Superfoods ab – Gluten (Weizenkleber) und Laktose (Milchzucker) begannen im Jahr 2011, der Menschheit Angst und Schrecken einzujagen.

Bleiben wir da mal stehen. Ist die Angst vor Laktose und Gluten begründet?

Neulich fragte ich einen Bekannten, warum er keine Kuhmilchprodukte zu sich nimmt. Seine Antwort: „Ich habe da mal einen Vortrag drüber gehört und der hat mich sehr überzeugt.“
Ich: „Welche Argumente haben Dich denn so überzeugt?“
Er: „Das weiß ich nicht mehr. Aber es war sehr überzeugend.“

Beim Thema Laktose gibt es keine Antwort, die für alle gilt

Die Angst vor Milch ist diffus. Das beste Argument, was ich kenne, ist, dass Erwachsene theoretisch keine Laktose verdauen können. Das ist quasi der Urzustand.

Aber von vorne: Laktose ist ein Zweifachzucker (Disaccharid) aus Glukose (Traubenzucker) und Galaktose (Schleimzucker). Diese beiden Einfachzucker können Menschen problemlos verdauen. Die Verbindung, die die beiden in der Laktose zusammenhält, muss dafür jedoch erst einmal gespalten werden, dafür braucht der Organismus das Enzym Laktase. Im Darm neugeborener Säugetiere wird dieses Enzym freigesetzt, da Muttermilch, auch die der Menschen, Laktose enthält. Hört das Junge auf zu säugen, stoppt auch die Produktion der Laktase. Alle Menschen haben also ein Gen, das den Bauplan für das Enzym Laktase trägt. Dieses Gen wird jedoch nur nach der Geburt eingeschaltet und nach dem Ende der Säugezeit wieder ausgeschaltet – was es dann für den Rest des Lebens eigentlich auch bleibt. Eigentlich. Denn vor etwa 9.000 Jahren begannen die Menschen, Rinder zu halten. Zunächst wegen ihres Fleisches, später entdeckten die Menschen auch den Nährwert der Kuhmilch. In einigen Regionen Afrikas und Asiens geschah etwas Ähnliches mit Ziegen und Schafen. Vor etwa 3.000 Jahren begannen erwachsene Menschen in diesen Weltregionen also, laktosehaltige Milch zu sich zu nehmen. Zunächst werden sie davon mächtig Bauchschmerzen und Blähungen bekommen haben, verursacht durch ihre Darmbakterien, die die unverdaute Laktose verstoffwechselten und dabei reichlich Gase produzierten. Einige dieser Menschen trugen wahrscheinlich eine Mutation, die verhinderte, dass das Laktase-Gen ausgeschaltet wurde und vertrugen die Milch daher problemlos. Diese Mutation verbreitete sich dann im Laufe der Generationen in diesen Völkern. Ich nehme an, dass die Leute, die keine Bauchschmerzen hatten, mehr Bock auf Fortpflanzung hatten und ihre Gene darum viel öfter weitergegeben haben als diejenigen, die sich aufgebläht und pupsend auf ihrem Schlaflager krümmten. So sind heutzutage etwa 80 Prozent der Europäer und einige Völker in Asien und Afrika dazu im Stande, Laktose zu verdauen. In den anderen Regionen gehörte Trinkmilch nicht zur täglichen Nahrung, darum gab es keinen „Evolutionsdruck“, also den Druck, sich genetisch anzupassen. Wer keine Probleme mit Laktose hat, muss darum nicht unbedingt zu laktosefreien Nahrungsmitteln greifen. Die schaden aber auch nicht. Der Sender arte hat eine gut recherchierte, unaufgeregte und differenzierte Doku zum Thema Milch produziert, die ihr hier anschauen könnt. Sie heißt “Milch – ein Glaubenskrieg”. Das Fazit (Achtung Spoiler!): Was man von der Milch halten soll, ist davon abhängig, welcher Studie, welchem Arzt, Lebenscoach oder Ernährungsguru man glauben schenken möchte. Es gibt keine Antwort, die für alle gilt.

Der schlimmste Feind des modernen Nahrungsaufnehmers scheint aber das Gluten zu sein (Ich habe übrigens erst, als das Thema aufkam, gelernt, dass man es Gluteeeen ausspricht, nicht wie in „die flammenden Gluten“. Ups). Bei diesem Zeug handelt es sich um eine Mischung aus verschiedenen Eiweißstoffen, die in den Körnern einiger Getreidearten vorkommen. Man nennt es manchmal auch „Weizenkleber“, weil es den Brotteig quasi zusammenhält. Ohne Gluten läuft einem das Brot im Ofen zu einem Fladen auseinander. Gluten hat in den letzten Jahren einen furchtbar schlechten Ruf bekommen. Warum? Bei Menschen, die an der Krankheit Zöliakie, also einer echten Gluten-Unverträglichkeit leiden, kommt es zu chronischen Entzündungen im Dünndarm. Im Rahmen des Ernährungs-Hypes kam naturgemäß dem Darm auch wachsende Aufmerksamkeit zu, schließlich verdaut er den Großteil unserer Nahrung und nimmt die meisten Nährstoffe auf. „Entzündungen im Darm“ wurden zunehmend für viele verschiedene Leiden verantwortlich gemacht und entwickelten sich zu einem geflügelten Konzept. Ich spreche hier nicht vom Morbus Crohn oder Colitis ulcerosa, die sehr deutliche und unangenehme Symptome verursachen. Ich meine diese Bewegung, die sich in vielen Internetforen abzeichnete: „Du bist übergewichtig? Du hast bestimmt Entzündungen im Darm.“ „Du bist oft müde? Du hast bestimmt Entzündungen im Darm!“ „Du bist manchmal niedergeschlagen und antriebslos? Du hast…“ Und so weiter. Parallel schossen reichlich „Therapien“ mit Probiotika, entgiftenden Salzen, Fastenkuren, etc. aus dem Boden – viele davon in ihrer Wirksamkeit fragwürdig, aber alle mehr oder weniger teuer. Und weil Gluten bei Patienten mit Zöliakie nun einmal Entzündungen im Darm auslöst, wurde Gluten auch für viele dieser anderen diffusen Leiden, die angeblich auf Darmentzündungen zurückgingen, verantwortlich gemacht. Ohne Nachweis, dass diese Menschen solche Entzündungen überhaupt haben, geschweige denn, dass ihre Beschwerden auf Gluten zurückzuführen sind.

Normalerweise bin ich ja nicht so drauf, dass ich hier allzu tief in die harte Wissenschaft eintauche. Aber gegen die in Dauerschleife wiederholten Behauptungen selbsternannter Ernährungsgurus über das böse Gluten auf tausenden Webseiten und in Millionen Forenposts weiß ich mich einfach nicht anders zu wehren. Also, schnallt euch an, jetzt kommt knallharte Wissenschaft! (Wer nur hier ist, um meine schnoddrige Meinung zu lesen, der kann bis zur gestrichelten Linie überspringen).

Was macht eine „echte“ Zöliakie eigentlich aus? Bei dieser Krankheit reagiert der Dünndarm überempfindlich gegen einige Eiweißstoffe im Gluten. Diese Stoffe werden vom Darm aufgenommen und dann durch ein Enzym namens Tissue-Transglutaminase (tTG) verändert. Die veränderten Stoffe aktivieren dann das körpereigene Immunsystem, das die Schleimhautzellen des Dünndarms zerstört. Der Körper wendet sich also gegen sich selbst, die Zöliakie gehört damit zu den Autoimmunkrankheiten. Ob jemand Zöliakie hat, kann man nachweisen, indem man misst, ob der Patient Antikörper gegen sein eigenes tTG bildet. Dieser Nachweis ist allerdings nicht ganz zuverlässig. Um sicher zu gehen, testet man zusätzlich noch, ob im Körper des Patienten auch Antikörper gegen sein Endomysium zu finden sind, einem Bindegewebe in unmittelbarer Nähe zum Dünndarm. Nur Zöliakie-Patienten haben solche Endomysium-Antikörper (EMA).

Hat Zöliakie zugenommen? Ich zweifle daran

Eine Studie aus dem Jahr 2009 hat ermittelt, wie viele Menschen in verschiedenen europäischen Ländern tatsächlich von Zöliakie betroffen sein könnten [1]. Dazu wurden fast 30.000 Studienteilnehmer aus Finnland, Deutschland und Italien untersucht. Das Ergebnis: Im Durchschnitt haben ein Prozent der Teilnehmer die Voraussetzung, an Zöliakie zu erkranken oder waren bereits erkrankt. Die Finnen scheinen besonders anfällig zu sein, bei ihnen waren 2,4 Prozent betroffen, in Italien waren es 0,7 Prozent – und in Deutschland sage und schreibe 0,3 Prozent. Drei Menschen von 1000. Die Zahlen schwanken je nach Studie, doch weltweit sind weniger als ein Prozent betroffen.

Ich höre auch immer wieder das Argument, Zöliakie habe in den letzten Jahren dramatisch zugenommen. Das scheint eine Studie aus den USA, ebenfalls aus dem Jahr 2009, zu bestätigen [2]: Dort wurden gefrorene Blutproben aus den 1950-er Jahren mit aktuellen Proben verglichen. Die Proben aus den 50-ern stammten von jungen, männlichen Soldaten der Air Force (die Luftwaffe der USA), die aktuellen Proben entweder von Männern derselben Geburtsjahrgänge wie die Soldaten oder von jungen Männern, die zum Zeitpunkt der Studie im selben Alter waren wie die Soldaten damals. Die Forscher fanden heraus, dass bei den Soldaten 0,2 Prozent Zöliakie hatten, während bei den jungen Männern von heute etwa 0,9 Prozent positiv auf Zöliakie getestet wurden. Bei Männern derselben Geburtsjahrgänge, die nun also etwa 75 Jahre alt sind, hatten 0,8 Prozent Anzeichen für Zöliakie. Alles in allem werden heutzutage also viermal so viele Leute mit Zöliakie diagnostiziert wie noch vor 50 Jahren, sagen die Autoren.

Mit dieser Studie habe ich ein kleines Problem: In die US Air Force kamen und kommen nur die besten, fittesten, gesündesten jungen Männer (und inzwischen auch Frauen). Schon,wer eine Brille trägt, wird ausgemustert. Da Symptome der Zöliakie sich oft bereits im Kindesalter zeigen, kamen junge Männer mit Zöliakie vielleicht erst gar nicht so weit, sich für die Air Force zu bewerben. Diese Menschengruppe ist also schon auf Gesundheit „vorsortiert“. Die 0,2 Prozent, die in der Studie doch gefunden wurden, waren vermutlich gegen die Folgen der Krankheit weniger empfindlich und entwickelten kaum Symptome (das gibt es auch).

Zu ähnlichen Ergebnissen wie die amerikanischen Wissenschaftler kamen aber auch Forscher aus Finnland, die Blutproben aus den Jahren 1978 bis 1980 mit Proben aus den Jahren 2000 bis 2001 verglichen [3]. Diese Untersuchungen waren nicht auf bestimmte Bevölkerungsgruppen beschränkt. Die Finnen fanden heraus, dass in den etwa 20 Jahren zwischen den beiden Datenerhebungen das Vorkommen von Zöliakie in der finnischen Bevölkerung von einem auf zwei Prozent angestiegen sei.

An dieser Studie fielen mir einige merkwürdige Dinge auf: In den älteren Blutproben wurden bei mehr als acht Prozent der Teilnehmer tTG-Antikörper gefunden, in den Proben von 2000 und 2001 nur bei zwei Prozent. Die Wissenschaftler mutmaßen dazu, dass die Konzentration in den alten Proben vielleicht mit der Zeit zugenommen hat, sagen aber nicht eindeutig, warum sie das glauben. Noch dazu wurden in den Proben von 1978 bis 1980 nur in etwa 12 Prozent der tTG-positiven Proben auch EMA gefunden, in den neueren Proben sind über 70 Prozent der Teilnehmer sowohl für tTG als auch für EMA positiv (unten mal ein Bildchen, um die Zahlen deutlicher zu machen). Nur, wer beide Antikörper hat, wird als Zöliakie-Betroffener angesehen. Warum sind die EMA-Konzentrationen in den alten Proben so niedrig? Wenn die Konzentrationen zunehmen würden, wie die Wissenschaftler es für tTG-Antikörper annahmen, dürfte das nicht passieren. Diese Diskrepanz erwähnen die Forscher aber gar nicht.

In der finnischen Studie über die (angebliche) Zunahme der Zöliakie fielen mir einige Diskrepanzen auf, die die Wissenschaftler nicht erklären.

Zu guter Letzt wird auch eine Hautkrankheit, Dermatitis herpetiformis, in dieser Studie als Symptom für Zöliakie mitgezählt. Das ist an sich kein Problem, da fast jeder Fall dieser Hautkrankheit auf Zöliakie zurückzuführen ist. Allerdings heißt es in dieser Veröffentlichung, dass die Teilnehmer in den Jahren 2000 und 2001 spezifisch nach Dermatitis herpetiformis gefragt wurden, während sie 1978 bis 1980 anscheinend nur gefragt wurden, ob sie an chronischen Krankheiten litten.

Insgesamt hat diese Studie einige wissenschaftliche Schwächen und kehrt manche Ungereimtheiten unter den Teppich, darum würde ich ihren Ergebnissen schlichtweg nicht trauen.

Aber nehmen wir einfach mal an, dass Zöliakie tatsächlich zugenommen hat – woran könnte das liegen? Viele behaupten, es sei die viel höhere Gluten-Konzentration, die der moderne, hochgezüchtete Weizen gegenüber dem Weizen von vor einigen Jahrzehnten hat. Dafür gibt es allerdings keine Beweise. Es gibt auch keine Beweise dagegen, weil zu wenige Daten vorhanden sind. Eine Veröffentlichung, die aufgrund dieser wenigen Daten sehr vorsichtig geschrieben ist, kommt zu dem Schluss, dass es zwar jährliche Schwankungen der Glutenkonzentration im Weizen gibt, aber keinen Aufwärtstrend im Laufe der letzten Jahrzehnte [4]. Dieselbe Studie gibt aber auch zu bedenken, dass reines Gluten immer öfter als Zusatz in Fertignahrungsmitteln und Gebäck verwendet wird, um dessen Eigenschaften zu verbessern – noch weicher, noch fluffiger! Der Autor schätzt, dass die Leute heutzutage dreimal mehr Gluten zu sich nehmen als noch vor 40 Jahren. Bei Menschen, die zu Zöliakie neigen, könnte die Krankheit aus diesem Grund ausbrechen. Wenn diese Menschen “normale” Mengen an Gluten essen würden, hätten sie vielleicht keine Symptome.

Noch ein Letztes, dann ist das Thema Gluten für mich für immer gegessen (Haha, gegessen!): Vor Kurzem wurden auf einer Konferenz Ergebnisse vorgestellt, die Wissenschaftler der Universität Harvard aus den Daten von fast 200.000 Menschen gewannen, die im Laufe von 30 Jahren erfasst wurden. Aus diesen Daten scheint hervorzugehen, dass das Risiko, später im Leben an Diabetes Typ 2 zu erkranken umso höher ist, je weniger (!) glutenhaltige Nahrungsmittel man zu sich nimmt. Die Menschen, die täglich mehr als 20 Gramm Gluten zu sich nahmen, hatten ein 13 Prozent geringeres Risiko als die, die weniger als vier Gramm aßen. Zugegeben, 13 Prozent ist nicht sehr viel. Aber immerhin zeigt die Studie, dass Gluten gute Seiten hat. Allerdings könnte dieses Ergebnis auch damit zusammenhängen, dass Getreideprodukte viel Gluten enthalten und eine glutenarme Ernährung zugleich eine getreide- und somit ballaststoffarme Ernährung bedeutet (Vor allem vor 20, 30 Jahren, als es noch nicht trendy war, kein Gluten zu essen). Ballaststoffe sind für uns unverdauliche Stoffe, die die Aufnahme von Kohlenhydraten (also einfachen und mehrfachen Zuckern) im Darm verlangsamen. Dadurch steigt auch der Blutzuckerspiegel nur langsam an und man fühlt sich länger satt – wodurch man nicht so schnell wieder etwas isst und darum ein geringeres Diabetesrisiko hat.

——————————————————————————————————————–

Die Ernährungsindustrie schürt unsere Angst vorm Sterben, um uns etwas zu verkaufen

Abgesehen von alledem sind glutenfreie Nahrungsmittel auch nicht unbedingt der Gipfel der gesunden Ernährung. Um dieselbe Konsistenz etwa bei Backwaren zu erhalten, wird häufig alles mögliche reingepanscht, das man auch nicht wirklich essen möchte. Ein ähnliches Problem habe ich mit Soja-Joghurt und Konsorten. Die Produzenten versuchen, Milchjoghurt täuschend echt nachzuahmen und müssen dafür in aufwendigen Produktionsvorgängen alles mögliche zusetzen. Nein, danke, für mich nicht.

Fazit: Fertigfutter mit vielen Zusatzstoffen meiden, vor reinem Getreide braucht man sich aber nicht zu fürchten. Vor zehn Jahren war das noch selbstverständlich. Heutzutage muss man einen unglaublich langen Blogartikel schreiben, um sich argumentativ gegen die Besseresser durchzusetzen. Puh!

Insgesamt sehe ich den deutlichen Trend, einen uralten Marketingtrick anzuwenden, um uns angeblich gesundes Essen zu verkaufen: Rede den Menschen ein, dass sie ein furchtbares Problem haben. Mach ihnen so richtig Angst. Und dann präsentiere ihnen sofort die perfekte Lösung, für die sie nun dankbar tief in die Tasche greifen. Während viele Verkaufsstrategien uns bei unserer Sehnsucht, nicht allein zu sein packen – Rauchen macht gesellig, Klamotten machen cool, Dünnsein macht sexy – greift die Ernährungsindustrie uns auf einer viel existenzielleren Ebene an, nämlich unserer Angst vorm Sterben. Umweltgifte! Hormone und Antibiotika im Fleisch! Pflanzenschutzmittel am Getreide! Es kann einem Himmelangst werden. Genau darum geht es auch. Und viele Internetseiten, die uns scheinbar wohlmeinend über diese schrecklichen Gefahren informieren, haben zufällig einen kleinen Onlineshop für Biofutter. Oder einen Link zu einem bestimmten Mixer. Oder bieten eine Ausbildung zum Ernährungscoach an. Auch die alternative Ernährungsindustrie ist eben genau
das – eine Industrie. Sie muss und will genauso Geld verdienen wie alle anderen. Ihre Werbetricks und Marketingstrategien sind nicht weniger perfide als die der anderen auch. Nur, dass sie uns versucht weiszumachen, sie würde uns aus der Güte ihres Herzens wohlwollend aufklären, statt uns geschickt zu manipulieren.

Leider werden die meisten Menschen nicht dafür bezahlt, sich trendig zu ernähren

Meine persönliche Lösung, so banal es klingt: Alles in Maßen. Wer viele verschiedene Dinge und damit wenig von einer bestimmten Sache isst, verteilt sein Risiko und nimmt von jedem Schadstoff – sei es eine künstliche Chemikalie oder ein natürlicher Inhaltsstoff – nur wenig auf. Der Stress, den es mir bereiten würde, auf jede Regel zu achten, jede Gefahr zu vermeiden, würde mir mehr Lebenszeit rauben als ein paar gering dosierte Giftstoffe im Essen. Mal ganz abgesehen davon, dass ich ständig damit beschäftigt wäre, von Bioladen zu Bioladen zu rennen.

Zum Schluss noch unsere „Superfoods“ – Acaibeeren, Aroniasaft, Chiasamen, Mandelmehl und wie sie alle heißen. Sie sollen wundersame Kombinationen an unglaublich vielen Nähr- und Mineralstoffen sowie Vitaminen enthalten und damit nicht nur super-nahrhaft sein, sondern sogar Krankheiten heilen (allen voran wahrscheinlich nicht diagnostizierte Darmentzündungen). Ich streite nicht ab, dass die Superfoods gesund sind. Oder zumindest nicht schädlich. Aber teuer sind sie. Wenn ich meinen Tag mit Superfoods bestreiten müsste, wäre ich in wenigen Wochen pleite. Erschwerend kommt hinzu, dass ich sowieso nicht arbeiten gehen könnte, weil ich den ganzen Tag damit zu tun hätte, frische Wildkräuter zu sammeln, Traubenkerne zu mahlen und Smoothie-Zutaten zu schnippeln. Hin und wieder liest man Artikel von Journalistinnen (seltener Journalisten), die völlig begeistert von ihrem Zwei-Wochen-Paläodiät-Experiment schreiben. Einmal las ich am Ende eines solchen Artikels diese Sätze:
„Ich stand täglich fünf Stunden in der Küche und musste mehrmals am Tag abwaschen – aber es geht mir so viel besser, das ist die Mühe allemal wert! Ich kann es jedem nur empfehlen!“
Ist ja toll. Leider werden die meisten Menschen nicht dafür bezahlt, sich trendig zu ernähren. Wir Normalsterblichen müssen das irgendwie in unserer Freizeit hinkriegen.

Wer nicht auf Superfoods verzichten möchte, ohne dafür einen Kredit aufnehmen zu müssen, hier sind ein paar Tips: schwarze Johannisbeeren statt Acai, Leinsamen statt Chia, Rosinen statt Gojibeeren. Gibts alle schon ewig in unseren Breiten, enthalten fast dieselben Stoffe, sind aber leider total unsexy. Damit müssen wir Normalos wohl leben lernen.

Zitierte Quellen:
[1] K. Mustalahti, et al.: The prevalence of celiac disease in Europe: Results
of a centralized, international mass screening project. Annals of Medicine, 42
(2010) doi:http://dx.doi.org/10.3109/07853890.2010.505931

[2] A. Rubio-Tapia, et al.: Increased Prevalence and Mortality in Undiagnosed Celiac Disease. Gastroenterology, 137 (2009)
doi:http://dx.doi.org/10.1053/j.gastro.2009.03.059

[3] S. Lohi, et al.: Increasing prevalence of coeliac disease over time. Alimentary Pharmacology & Therapeutics, 26 (2007) doi:10.1111/j.1365-2036.2007.03502.x

[4] D. D. Kasarda: Can an Increase in Celiac Disease Be Attributed to an Increase in the Gluten Content of Wheat as a Consequence of Wheat Breeding? Journal of Agricultural and Food Chemistry, 61 (2013) doi:10.1021/jf305122s