Das Zeitalter der Industrie

Die Bevölkerung der Erde

Mit den Erkenntnissen des wissenschaftlich-technischen Zeitalters und der Anwendung der Techniken der Industriellen Revolution auf die Landwirtschaft ging eine zweite Wachstumsphase der Weltbevölkerung einher, die diese von 800 Millionen Menschen immer schneller anwachsen ließ – auf mittlerweile über 7,8 Milliarden Menschen. Damit brauchte die Menschheit auch einen immer größeren Anteil der biologischen Produktion der Erde.

London, die erste Großstadt der industriellen Revolution

London wurde mit der industriellen Revolution etwa um 1830 herum zur größten Stadt der Erde (und blieb dies für fast 100 Jahre, bis 1925). Die industrielle Revolution führte, beginnend in Großbritannien, zu einem Bevölkerungszuwachs ohnegleichen. Foto: Umair Shuaib. aus wikipedia (englische Ausgabe), abgerufen 31.1.2011. Lizenz: public domain.

Bevölkerungswachstum im
wissenschaftlich-technischen Zeitalter

Das >> schon im Laufe des Agrarzeitalters immer schneller werdende Wachstum der Bevölkerung erhielt mit dem Industriezeitalter einen weiteren Schub:

Kurve, die das Bevölkerungswachstum im Industriezeitalter zeigt

Wachstum der Weltbevölkerung im Industriezeitalter.
Eigene Abb. nach >> Clive Ponting: A New Green History
of the World, eigene Fortschreibung bis 2013.

Das lag an der Kombination von zwei Dingen: Erstens gingen die Entwicklungen in der Landwirtschaft, die höhere Erträge erlaubten, im 19. Jahrhundert weiter und mündeten schließlich in einer Mechanisierung und Industrialisierung der Landwirtschaft; zweitens erlaubten neue Verkehrsmittel, anfänglich vor allem die Eisenbahn und das Dampfschiff, unterstützt von anderen neuen Techniken wie die 1806 erfundene Konservendose, in den industriali­sierten Ländern den Transport von Lebensmitteln durch ganz Europa und bald auch aus den europäischen Überseekolonien. Damit wurde jetzt eine bis dahin kritische Begrenzung der Bevölkerung in einer Region aufgehoben – die Menge der Nahrung, die hier erzeugt werden konnte. Entsprechend wuchs die Bevölkerung in den industrialisierten Ländern rasant – in Großbritannien, wo die industrielle Revolution begonnen hatte, etwa von 7,5 Millionen Menschen im Jahr 1750 auf 40 Millionen im Jahr 1910, obwohl schätzungsweise 20 Millionen Menschen in dieser Zeit auswanderten; in Deutschland wuchs die Zahl der Menschen von 22 Millionen im Jahr 1800 auf 54 Millionen im Jahr 1900. Die vielen Menschen konnten sich auf dem Land ihren Lebensunterhalt nicht mehr verdienen, und wanderten in die Städte ab, wo der Handel sichtbaren Reichtum entstehen lassen hatte und die Menschen im Laufe des 19. Jahrhunderts zunehmend hoffen konnen, ihre Arbeitskraft als Fabrikarbeiter verkaufen zu können. Selbst in Amerika und Kanada waren ab Mitte des 19. Jahrhunderts das meiste Land verteilt, auch hier mussten die Einwanderer ihr Glück zunehmend in den Städten versuchen. Das Ergebnis war eine zu­nehmende Verstädterung der Industrieländer; in England lebten irgendwann zwischen 1850 und 1870 erstmals mehr Menschen in Städten als auf dem Land, im Jahr 1900 bereits etwa zwei Drittel der Bevölkerung (in Deutschland waren es knapp die Hälfte der Bevölkerung, in den USA ein gutes Drittel). Hier begann ein Trend, der das 20. Jahrhundert prägen sollte: die Verstädterung der Menschheit.

Der Kampf gegen die Infektionskrankheiten I

Die Lebensbedingungen in den frühen Industriestädten waren schlecht: Sie waren über­bevölkert und ungesund, es stank erbärmlich (in London etwa gab es Mitte des 19. Jahrhunderts über 200.000 Sickergruben). Davon profitierte insbesondere die in dicht besiedelten Städten schon lange verbreitete Tuberkulose. Im 19. Jahr­hundert wurde sie zur häufigsten Todesursache in den Städten Europas und Amerikas. Aber auch die Pocken und Masern forderten in immer wieder auftretenden Epidemien mitunter tausende Menschen­leben. Insbesondere unter der ärmeren Bevölkerung war die Sterblichkeitsrate hoch, aber offensichtlich gab es lange keinen Handlungsdruck, die Zustände zu ändern – es strömten ja mehr als genug Arbeitskräfte vom Land nach; und wer genug Geld hatte, entfloh den übelriechenden und ungesunden Städten und siedelte sich entlang der neu entstehenden Eisenbahnstrecken in den neu entstehenden Vororte an. (Später, mit der Entwicklung elektrischer Straßen- und Untergrundbahnen ab den 1890er Jahren, beschleu­nigte sich diese Ent­wicklung noch; die Städte wuchsen mit Nachbarstädten zusammen, so “schluckte” Berlin Charlottenburg und Spandau). Aber manchmal zeigte sich doch das Erbe der Auf­klärung. Im 18. Jahrhundert war es ein puritanischer Geistlicher, Cotton Mather (der bei den Hexenprozessen von Salem noch eine unrühmliche Rolle gespielt hatte, weswegen ihm viel nicht trauten), der in Boston auf seinen aus Westafrika stammenden Sklaven Onemsimus hörte – dieser zeigte ihm alte Narben und berichtete, dass in Westafrika Flüssig­keit aus den Pockenbläschen mit kleinen Schnitten in die Haut gesunder Menschen einge­bracht werde, diese dann nur eine milde Form der Krankheit entwickelten und an­schlie­ßend vor den Pocken geschützt seinen. Auch die Frau des britischen Botschafters in Konstantinopel berichtete aus dem Osmanischen Reich, dass ihre Tochter dort mit dieser Methode behandelt worden sein, wovon Mather (der seine Frau und 13 seiner 15 Kinder an Epidemien hatte sterben sehen) aus Wissen­schafts­journalen erfuhr (440).

Als 1721 die Pocken in Boston ausbrachen, schlug er vor, diesem Beispiel zu folgen. Die meisten Ärzte waren entsetzt, aber der Arzt Zabdiel Bolyston begann die Methode zu­nächst an zwei Sklaven und seinem Sohn zu erproben. Als die Epidemie vorbei war, waren 6.000 Menschen an Pocken erkrankt (mehr als jeder Zweite in Boston), 844 von ihnen (knapp 15 Prozent) gestorben. Bei den von Bolyston behandelten Menschen betrug die Todesrate nur 2 Prozent. Das war überzeugend, die "Variolation" wurde zum ersten Beispiel, dass die Menschen Epidemien nicht hilflos hinnehmen mussten. Als 1792 in Boston erneut die Pocken ausbrachen, wurden etwa 9.200 Menschen so behandelt, nur noch 232 steck­ten sich mit den Pocken an. Auch wenn es Widerstand gegen die Variolation gab (in reli­giösen Kreisen wurde sie als Einmischung in das Schicksal verstanden), setzte sie sich in Nordamerika und Europa durch. Aber auch die meist milde Form der Pocken, die die Vario­lation hervorrief, war unangenehm, und auch sie konnte tödlich enden. So ging der eng­lische Landarzt Edward Jenner den Gerüchten nach, dass an Kuhpocken erkrankte Mägde nur selten und dann nur schwach an Pocken erkrankten. 1796 nutzte der die Flüssigkeit aus den Pockenbläschen einer an Kuhpocken erkrankten Magd für eine "Vakzination" (von lat. Vacca, Kuh) und injizierte sie einem achtjährigen Jungen. Acht Wochen später injizierter er ihm Pockenviren – der Junge blieb gesund. Damit hatte Jenner eine wirksame und wesent­lich ungefährlichere Impfung gegen die Pocken gefunden. Auch hier gab es Impfgegner, die fürchteten, geimpfte Menschen könnten kuhähnliche Eigenschaften entwickeln und ihnen könnten sogar Hörner wachsen. Aber schon drei Jahre nach Jenners Entdeckung waren in England 100.000 Menschen geimpft, im den nächsten beiden Jahrzehnten waren es je zwei Millionen Menschen in Russland und Frankreich; der spanische König Karl IV. ordnete eine Expedition an, um den Impfstoff im gesamten spanischen Kolonialreich zu verteilen (darunter auch in Amerika, wo die Spanier die Pocken erst eingeschleppt hatten). Als die Pocken aber weniger häufig auftraten, ließ der Impfeifer nach; außerdem stellte sich heraus, dass der Schutz nicht lebenslang anhielt. So kam es in Europa – begünstigt durch den deutsch-französischen Krieg – 1870-75 wieder zu einer Pocken-Pandemie. In Deutschland starben in den "Impfregionen" deutlich weniger Menschen – 1874 wurde daher eine Impfpflicht für Neugeborene eingeführt.

Suche nach den Ursachen

Warum die Pockenimpfung half, wusste man nicht, und gegen andere Krankheiten gab es keine vergleichbaren Mittel. Zwar hatten frühe Mikroskope bereits im 17. Jahrhundert zur Entdeckung bisher unbekannter Kleinlebewesen entdeckt, aber mit Krankheiten wurden sie nicht in Verbindung gebracht. Im 18. Jahrhundert hatte jedoch der britische Militärarzt John Pringle schlechte hygienische Zustände als Ursache für die hohe Sterberate durch Seuchen unter britischen Soldaten und insbesondere in den Feld­lazaretten erkannt; in seinen 1752 veröffentlichten "Observations on the Diseases of the Army" verbreitete er seine "Schmutz­theorie" [442]. Bald erreichte diese auch die Sozialreformer, die begonnen hatten, sich ernst­haft mit den Ursachen der Zustände in den Arbeitervierteln zu befassen und versuch­ten, die Lage der Armen zu verbessern. 1817 brach in Asien die dort als endemische Krank­heit lange bekannte Cholera aus [444]. Der Ausbruch war weit heftiger als üblich, in Indien tötete er Millionen Menschen vor allem auf dem Land – und die Cholera breitete sich erstmals über die ganze Welt aus. 1831 er­reich­te die Pandemie Österreich, Deutschland – und London. Das war ein Schock, galt doch die Abwesenheit solcher Krankheiten im Westen als ein Beleg für Überlegenheit der westlichen Zivilisation, die solche Krankheiten nur aus den Berichten etwa von Ärzten der East India Company bekannt. Versuche, die Ausbrei­tung der Cholera etwa mit (von Soldaten bewachten) "Sanitärkordons" zu verhindern, scheiterten aber. Besonders viele Opfer fand die "neue" Krankheit in den Armenvierteln [445]. In Paris stellte der Arzt Louis-René Villermé in den 1820er Jahren fest, dass die schlechte Gesundheit der Menschen in den Armenvierteln mit ihrem Beruf und ihrem Ein­kommen zusammenhängen (wohlhabende Handwerker waren auch gesünder); 1842 veröffentlichte in London der Sozial­reformer Edwin Chadwick einen Bericht, demzufolge die hygienischen Bedingungen in London Ursache der hohen Sterblichkeitsrate unter den Armen sei, und forderte – vor allem zur Vermeidung der Cholera – eine Wasser­versorgung in Verbindung mit einer Abwasser- und Abfallentsorgung in den Städten. Als die Cholera dann 1854 in London 14.000 Tote forderte, sprang ihm der Londoner Arzt John Snow bei. Snow hatte 1849 angesichts einer vorherigen Epidemie mit seinem Kollegen William Budd einen Aufsatz veröffentlicht, in dem sie Mikro­organismen im Wasser für einen Choleraausbruch verantwortlich machten, und konnte jetzt zeigen, dass die Todesfälle auf eine einzige Wasserpumpe in der Broad Street zurückgingen. Er setzte die Pumpe außer Betrieb, und die Epidemie endete. Der Arzt Arthur Hill Hassal konnte im Wasser und im Stuhl von Cholera­patienten auch den Choleraerreger nachweisen, seine Theorie wurde aber – wie ungefähr zur gleichen Zeit auch Semmelweis' Theorie der Leichengifte – nicht aner­kannt (als Ursache der Krankheiten galt, der alten "Miasmentheorie" oder der neuen "Schmutz­theorie" folgend, der Schmutz in den Armenvierteln).

Dennoch forderte Snow wie Chadwick eine verbesserte Kanalisation in der Stadt, da Cholera eindeutig über Wasser übertragen wurde. 1858 kam es in einem unge­wöhnlich heißen Sommer zu einem unge­wöhnlich heftigen Ge­stank (als "Great Stink" bekannt geworden), aufgrund dessen das britische Unterhaus Sitzungen verschieben musste sogar einen Umzug erwog. Dieser Som­mer führte dazu, dass das Kanalisationssystem Londons grundlegend erneuert wurde; eines der größten städte­baulichen Projekte des 19. Jahr­hunderts. Auch andere Städte hatten begonnen, mit gewaltigen Sanierungsprogrammen gegen das Elend in ihren Innen­städten zu kämpfen – dazu gehörte (wenn auch weniger sozialreformerisch motiviert) etwa zur gleichen Zeit Baron Haussmanns Sanierung der Pariser Innenstadt.

Nicht nur Infektionskrankheiten fanden in den dicht besiedelten und unhygienischen Städten der frühen Industrialisierung einen idealen Nährboden, die Industrialisierung brachte auch andere neue Krankheiten mit sich: Ein Beispiel war die zeitweise als “englische Krankheit” bekannte Rachitis, eine durch Vitamin-D-Mangel verursachte Wachstumsstörung der Knochen. Vitamin D wird durch Sonnenlicht gebildet, und der Kohlenruß der frühen Industrialisierung verdunkelte die Luft in den Städten derart, dass die Vitamin-D-Bildung litt.

Der Weg zur "Keimtheorie"

Die Ursachen der Seuchen sollten in der zweiten Hälfte des 19. Jahrhundert aufgeklärt werden, wichtige Beiträge hierzu leisteten der französische Chemiker Louis Pasteur und der deutsche Arzt Robert Koch. Pasteur beschäftigt sich ab 1854 im Auftrag eines lokalen Herstellers mit der Frage, warum Alkohol aus Rübenzucker manchmal einen unangenehmen Beigeschmack hatte. Er fand den Schuldigen – ein Bakterium – schnell [446], beschäftigte sich dann aber noch tiefer gehend mit dem Gärungsprozess und erkannte, dass dieser kein chemischer, sondern ein biologischer war: Hefe wandelte Nährstoffe in Alkohol um. Wenn solche Mikro­organismen aber eine Gärung verursachen konnte, dann, so vermutete er, könnten sie auch Krankheiten verursachen. Dass dies so war, zeigte 1876 Robert Koch, der den (1863 von dem französischen Arzt Casimir Davaine entdeckten [448]) Erreger der Tierkrankheit Milzbrand­ außerhalb des Organismus kultivieren konnte und zeigte, dass dieser Sporen bilden konnte, die im Boden überdauern und Tiere infizieren konnten. Damit wurde nachvollziehbar, warum Milzbrand scheinbar aus dem Nichts auftreten konnte. Damit löste die "Keimtheorie" (im Laufe der Zeit) die Schmutztheorie ab. 1882 entdeckte Koch auch den Erreger der Tuberkulose (das Bakterium Mycobacterium tuberculosis), 1884 auf einer Expedition nach Indien den der Cholera, das Bakterium Vibrio colerae (wobei er nicht der erste war, siehe oben, aber Koch erhielt für die Entdeckung des Tuberkulose- und des Cholera-Erregers 1901 den Nobelpreis. Die Entdeckung dieser Erreger war ein Riesenfort­schritt, denn nun mussten neue Behandlungen und Medikamente nicht mehr am Menschen, sondern konnten am Erreger selbst ausprobiert werden.) Koch zeigte auch, dass der Cholera-Erreger sich durch die Ausscheidungen Infizierter und verseuchtes Wasser übertrug (die Londoner Sozialreformer hatten also recht gehabt). Unterdessen hatte Louis Pasteur 1880, dass man auch gegen andere Krank­heiten ähnlich Jenners Kuhpocken-Vaccination impfen konnte (er impfte mit abgeschwäch­ten Erregern gegen die Geflügel­cholera), 1881 entwickelte er einen Impfstoff gegen Milz­brand; und diesen Impfstoff produzierte er in großen Mengen. Er experimentierte auch mit Impfungen gegen die Tollwut. (Pasteurs und Kochs Arbeiten bauten aufeinander auf, beide pflegten aber seit 1882 eine heftige persönliche Abneigung, angefeuert von der Presse, für die sie Symbole der deutsch-französischen Erbfeindschaft waren.)

Die Choleraepidemie in Hamburg 1892

Obwohl der Erreger der Cholera und auch die nötigen Hygienemaßnahmen im Jahr 1892 im deutschen Reich eigentlich bekannt waren, kam es im Sommer in Hamburg zu einem erneuten Ausbruch. Nach den ersten Toten zögerte die Stadt, in der viele Ärzte – unter dem Einfluss des bayerischen Chemikers Max von Pettenkofer, der Kochs Erkenntnisse nicht anerkannte – an Kochs "Keimtheorie" zweifelten, die notwendigen Quarantäne­maßnahmen zu ergreifen, da dieses den Handelsverkehr erheblich beeinträchtigt hätte. Als sie dann ergriffen wurden, war es zu spät: innerhalb von sechs Wochen starben 8.600 Menschen an der Cholera. Eingeschleppt wurde die Cholera vermutlich von russischen Auswanderungen, die im Amerikakai auf ihr Schiff nach Amerika warteten. Dass hieraus eine Epidemie wurde, lag zum einen daran, dass durch Ebbe und Flut die Erreger fluss­aufwärts bis zur Entnahmestelle der zentralen Wasserversorgung gelangt waren – und Hamburg aus Kostengründen und der Argumentation Pettenkofers folgend, wonach eine Wasser­versorgung, aber keine Reinigung des Wassers nötig sei, die Sandfiltration, anderswo längst hygienischer Standard, herausgezögert hatte. Im benachbarten Altona, wo das Trinkwasser gereinigt wurde, trat die Cholera nicht auf (Pettenkofer weigerte sich, dies als Hinweis auf Erreger im Wasser anzuerkennen, und trank ein Glas ungereinigtes Wasser. Er bekam Durchfall, erklärte aber, dieser habe nichts mit der Cholera zu tun. In der Wissenschaft war er damit zunehmend isoliert). Besonders hoch war die Zahl der Todesopfer in Arbeitervierteln wie dem Gängeviertel. Jetzt wurde endlich gehandelt: im Mai 1893 ging die Hamburger Sandfiltrieranlage in Betrieb, die Kanalisation wurde verbessert und das Gängeviertel saniert [450].

Und in den 1890er Jahren kehrte auch die Pest zurück. Die dritte Pandemie begann 1890 im Süden Chinas und breitete sich entlang des Perlflusses aus, über Guangdong und Guangzhou erreichte sie Hongkong – und verbreitete sich von dort aus dank der neuen Dampfschiffe schnell in der ganzen Welt. Zuerst traf sie die Hafenstädte – Kapstadt, Sydney, San Francisco, Rio de Janeiro und Buenos Aires. Aber die Pest traf auf eine Welt, die aus der zweiten Epidemie und der Cholera gelernt hatte. Seit 1851 versuchte die Welt auf Internationalen Sanitär­konferen­zen, den Kampf gegen Seuchen zu koordinieren (auch, um den Einsatz von den Handel einschränkenden Quarantänen zu minimieren); 1894 gelang es unabhängig voneinander dem schweizerisch-französischen Arzt Alexander Yersin, einem Schüler Pasteurs und dem japanischen Bakteriologen Shibasaburo Kitasato, einem Schüler Robert Kochs, den Erreger der Pest, ein (später nach Yersin Yersinia pestis genanntes) Bakterium, nachzuweisen. 1898 zeigte der französische Arzt Paul-Louis Simond, ebenfalls vom Institut Pasteur, dass die Beulenpest von Flöhen, die auf Hausratten leben, übertragen wurde (nur die seltenere Lungenpest war von Mensch zu Mensch ansteckend). Mit diesem Wissen gelang es, die Sterblichkeitsrate der dritten Pestepidemie deutlich unter der der zweiten zu halten – mit einer Ausnahme: in Indien, wo die Pest 1896 in Bombay angekommen war, starben fast 12 Millionen Menschen. Die britische Kolonialregierung war zu schwach, um die notwendigen Maßnahmen durchzusetzen, die zudem von der Bevölkerung als koloniale Zwangsmaßnahmen verstanden und daher abgelehnt wurden. Später schwenkte die Kolonialregierung um und versuchte es mit Kooperation, das konnte aber nicht verhindern, dass die Inder gemerkt hatten, dass sie auch nicht allmächtig war. (Ebenso wie die westliche Medizin, die gegen die Pest auch nicht helfen konnte: dies führte zu einer Rückbesinnung auf die traditionelle Unani- und Ayurveda-Medizin.) Mit Ausbruch des Ersten Weltkrieges war die dritte Pandemie weitgehend überstanden, die Pest war aber nicht besiegt: in manchen Regionen in Afrika und Asien wurde die Krankheit endemisch, immer wieder kommt es auch zu Epidemien (1994 im Indien, seit 2008 in Madagaskar). Wenn sie schnell entdeckt wird, ist die Krankheit aber heute gut heilbar.

Der demografische Übergang

Diese Fortschritte trugen zu einer Entwicklung bei, die die globale Wachstumskurve der Weltbevölke­rung nicht zeigt: in den zuerst schnell wachsenden Ländern ging das Wachstum irgendwann wieder zurück. Dies wird mit dem Modell des “demografischen Übergangs” erklärt: mit dem Beginn der wirtschaftlichen Entwicklung nimmt die Bevölkerung rasch zu; nach einer – unterschiedlich langen – Wachstumsphase geht das Bevölkerungswachstum aber zurück und die Bevölkerung stabilisiert sich schließlich auf einem höheren Niveau.

Geburtsrate, Sterberate und Bevälkerungswachstum: der demografische Übergang

Der demografische Übergang: Auf eine Phase mit hoher Geburts- und hoher Sterberate (Phase 1)
folgt bei besserer Ernährung und Hygiene eine sinkende Sterberate; die Geburtenrate bleibt aber
zunächst gleich (Phase 2). Dadurch steigt die Bevölkerungszahl. Mit einiger Verzögerung sinkt
auch die Geburtsrate (Phase 3), die Bevölkerung wächst aber zunächst weiter, da als Folge der
Phase 2 viele junge Menschen im fortpflanzungsfähigen Alter sind. Erst mit Verzögerung endet
auch der Anstieg der Bevölkerungszahl, die gleich bleibt oder, falls die Geburtsrate unter die
Sterberate sinkt, sogar zurückgehen kann.

So war es schon in Großbritannien: nach dem Anstieg der Bevölkerung auf 40 Millionen im Jahr 1910 ging das Bevölkerungswachstum zurück. Die ansteigende Bevölkerung geht in der Regel auf eine zurückgehende Sterberate zurück (in Großbritannien sank zum Beispiel der Anteil der Totgeburten an allen Niederkünften von 14 Prozent im Jahr 1900 auf 6,3 Prozent im Jahr 1930 [und 0,58 Prozent im Jahr 1997]), der aber zeitverzögert eine zurück­gehende Geburtenrate folgt. Die Gründe für die zurückgehende Sterberate (Phase 2) haben wir oben gesehen: bessere Nahrungsmittelversorgung dank Fortschritten in der Land­wirtschaft und verbesserten Transporten sowie medizinische Fortschritte und bessere Gesundheitsvorsorge durch Impfungen gegen einige wichtige Infektionskrankheiten und bessere hygienische Bedingungen.

Darstellung typischer Bevölkerungspyramiden der vier Phasen der Bevölkerungsentwicklung

Den einzelnen Phasen des Bevölkerungswachstums entspricht eine charakteristische Bevölkerungspyramide: In Ländern der Phase 1 leben sehr viele junge Leute; bei zurückgehender Sterberate (Phase 2) nimmt der Anteil der älteren Jahrgänge zu. Geht die Geburtenrate (Phase 3) zurück, wird der Fuß der Pyramide schmaler, und eine niedrige Geburtenrate führt schließlich zu einer “alternden Gesellschaft”. Aus dieser erwachsen neue Herausforderungen, etwa die Finanzierung von Renten durch eine sinkende Zahl junger, erwerbstätiger Menschen. Eigene Abbildungen, inspiriert von der aus National Geographic January 2011 “Population 7 Billion”, Seite 44.

Wann und warum die Geburtenrate beginnt zu sinken, ist weniger eindeutig bekannt. Historisch ist die Zeitspanne vom Sinken der Sterberate zu Sinken der Geburtenrate in verschiedenen Ländern unterschiedlich lang; wichtigste Gründe scheinen ein gewisser Wohlstand und das Bildungsniveau (vor allem der Frauen) zu sein, aber auch die Kenntnis über und der Zugang zu Verhütungsmethoden und -mitteln zu sein. In Phase 3 befinden sich heute Länder wie Indien oder Bangladesch, wo die Geburtenrate zurückgeht, die Bevölkerung aufgrund des hohen Anteils an jungen Leuten aber noch schnell wächst; in Phase 4 die europäischen Industriestaaten, aber auch bevölkerungsreiche Länder wie Brasilien, Japan und China. (Die USA zeigen Merkmale der Phase 3 und Phase 4: Durch viele junge Einwanderer wächst die Bevölkerung noch, aber die Bevölkerung wird zugleich älter.) Da im Industriezeitalter alle Länder die Phasen 2 und 3 mit schnellem Bevölkerungs­wachstum durchmachten, kam es insgesamt zu einem (mitunter als "Bevölkerungs­explosion" bezeichneten schnellen Bevölkerungswachstum, das sich am eindrucks­vollsten an der Zeit ablesen lässt, in der die Bevölkerung um eine Milliarde Menschen wuchs. Eine Milliarde Menschen lebten erstmals um das Jahr 1820 herum auf der Welt, diese Zahl wurde also nach Erfindung der Landwirtschaft in gut 10.000 Jahren erreicht. Die nächste Milliarde Menschen dauerte nur noch gut 100 Jahre: Um 1925 lebten zwei Milliarden Menschen auf der Welt. Drei Milliarden waren es bereits 35 Jahre später (1960), die nächste Milliarde dauerte 15 Jahre (1975 – 4 Milliarden Menschen), und die beiden folgenden Milliarden jeweils etwa 12 Jahre (nach UN-Berechnungen lebten genau am 12. Oktober 1999 sechs Milliarden auf der Erde. Sieben Milliarden Menschen wurden im Jahr 2011 erreicht, aktuell leben über 7,8 Milliarden Menschen auf der Erde.

Wie viele Menschen leben jetzt gerade auf der Erde?

Die Antwort finden Sie bei der Stiftung Weltbevölkerung >> hier.

Der Kampf gegen die Infektionskrankheiten II

In Europa, Nordamerika und anderen entwickelten Ländern verloren die Pocken mit der Anwendung der Schutzimpfung schnell ihren Schrecken. Außerhalb der Industrieländer gelang dies erst, nachdem in den 1940er Jahren ein gefriergetrockeneter Impfstoff ent­wickelt wurde, der – anders als frühere Impfstoffe – auch gut in die Tropen gebracht werden konnte und nachdem die Weltgesundheits­organisation 1967 ein Programm zur Ausrottung der Pocken startete (das Programm hatte schon 1953 gestartet werden sollen, wurde aber von den Industrieländern immer wieder – aus Kostengründen [480] – abgelehnt). Damit wurden die Pocken zur ersten und bisher einzigen Infektionskrankheit, die ausgerottet werden konnte. Der letzte Pockenfall wurde 1977 aus Somalia gemeldet; 1980 wurden die Pocken als ausgerottet erklärt. (Pockenviren werden offiziell in zwei Seuchen­zentren in den USA und Russland aufbewahrt, um ggf. Ausgangsmaterial für die Herstellung von Impfstoff zu haben. Befürchtet wird, dass darüber hinaus einige Länder geheime Vorräte zu militärischen Zwecken lagern könnten.)

Die Entdeckung der Viren

Der Verursacher der Pocken konnte erst entdeckt werden, nachdem Ende des 19. Jahr­hunderts die Viren entdeckt wurden: 1882 entdeckte der Leiter der Versuchsstation der landwirtschaftlichen Hochschule Wageningen, Adolf Mayer, dass eine neue Krankheit, die den Tabakanbau in den Niederlanden schädigte, durch gefilterten Pflanzensaft, der weder Bakterien noch Pilze enthielt, auf andere Tabakpflanzen übertragen werden konnte. 1892 entdeckte der russische Biologe Dmitri Iwanowski unabhängig von Mayer (die Krankheit hatte auch den russischen Tabakanbau erreicht), dass der auslösende Stoff einen bakterien­dichten Filter durchqueren konnte, also deutlich kleiner als ein Bakterium sein musste. (Iwanowski glaubte wie Mayer, dass es ein von Bakterien produziertes Gift sein müsse.) 1898 zeigte der niederländische Mikrobiologe Martinus Beijerinck aber, dass der Stoff sich in lebenden Pflanzenzellen vermehren konnte, und nannte ihn "Virus". Die deutschen Bak­teriologen Friedrich Loeffler und Paul Frosch entdeckten mit Beijerincks Methode im gleichen Jahr, dass auch der Auslöser der Maul- und Klauenseuche, die Rinder und Schweine befällt, ein solcher Virus war. 1901 zeigte der amerikanische Militärarzt, dass auch das in den Tropen und Subtropen Südamerika und Afrikas verbreitete Gelbfieber auf einen Virus zurückgeht. Und – wie sich bald zeigte – auch viele andere Infektions­krankheiten, darunter die Pocken. Erst 1939, nach der Erfindung des Elektronen­mikros­kops, konnte man aber klären, was ein >> Virus ist: in Proteine eingewickeltes gene­tisches Material, das Zellen von Lebewesen kapern und dazu bringen kann, den Virus zu vermehren.

Die Cholera löste in der zweiten Hälfte des 19. Jahrhunderts in Europa immer noch Angst aus: vor allem die schnelleren Verkehrsverbindungen nach Asien mittels Eisenbahn und Suezkanal ließen viele fürchten, dass sie im Falle eines Ausbruchs schneller aus Asien nach Europa gelangen könnte. Aber Anfang des 20. Jahrhunderts, nachdem lange nichts passiert war (1911 gab es noch Ausbrüche in Venedig und Neapel), verloren die Industrie­länder das Interesse an der Cholera; sie war zu einer endemischen Krankheit armer Entwicklungsländer geworden, die Tote vor allem in Afrika forderte. 1961 tauchte aber ein neuer Subtyp des Cholera-Erregers ("El Tor", nach dem Ort in Ägypten, wo er erstmals entdeckt wurde), der seither wieder verbreitet zu größeren Epidemien führt: 1991 in Südamerika mit 12.000 Toten, 1994 während des Ruanda-Krieges mit 40.000 Toten, 2008/2009 im südlichen Afrika mit fast 5.000 Toten, seit 2010 in Haiti mit fast 10.000 Toten, seit 2016 im Jemen mit bisher etwa 3.500 Toten. Die Cholera ist nach wie vor ein Zeichen sozialer Ungleichheit (wenn sie nicht auf Kriege zurückgeht): sie tritt nur dort auf, wo das Trinkwasser mit menschlichen Fäkalien verunreinigt ist; und es sterben nur dort Menschen an der Cholera, wo ihnen die vorhandenen (und billigen) Heilmittel nicht zur Verfügung stehen.

Der Kampf gegen krankheitserregende Bakterien wurde durch die Entdeckung des schott­ischen Arztes und Mikrobiologen Alexander Fleming, dass Schimmelpilze der Gattung Penicillium Bakterienwachstum hemmen können, und des australischen Pathologen Howard Florey sowie des deutschstämmigen, vor den Nazis nach England geflohenen Mikrobiologen Ernst Chain, deren Arbeiten an der Universität Oxford den Grundstein für die Massen­produktion von Penicillin legten, entscheiden vorangebracht: 1944 begann die industrielle Produktion dieses ersten Antibiotikums (gegen Bakterien wirkenden Mittels). (Fleming, Florey und Chain bekamen 1945 den Medizin-Nobelpreis.) Das Beispiel der Cholera zeigt aber, dass medizinische Fortschritte (wozu im Falle der Cholera auch die Entwicklung einer Trinklösung in den 1960er gehörte, mit der beim Durchfall verloren gegangene Flüssigkeit, Zucker und Salze ersetzt werden können, die für die Behandlung noch wichtiger sind ist als Antibiotika) Krankheiten nicht alleine bekämpfen können. Sie nützen nämlich nichts, wenn sie die bedürftigen Menschen nicht erreichen, sie für diese nicht bezahlbar sind oder wenn sie sich immer wieder anstecken: auch (menschen-)lebensfeindliche soziale Umstände müssen abgestellt werden, um den Infektionskrankheiten ihre Grundlage zu entziehen.

Ein Beispiel dafür ist auch die Tuberkulose. In Europa und Nordamerika begann die Sterblichkeit bereits Mitte des 19. Jahrhunderts, also lange vor der Entwicklung der Antibiotika, zurückzugehen. Dies lag nicht an den Heilmethoden (die Tuberkulose-Sanatorien erwiesen sich als weitgehend unwirksam), sondern vor allen an den einsetzenden städtebaulichen und hygienischen Maßnahmen; mit Kochs "Keimtheorie" verloren zudem die "Miasmen-" und die "Schmutztheorie" an Bedeutung, deren Anhänger nicht an die Notwendigkeit einer Isolation der Erkrankten geglaubt hatten (wenigstens zu dieser trugen aber die Sanatorien bei), in New York wurden z.B. eigene Tuberkulose­hospitäler eingerichtet. Die soziale Komponente blieb aber erhalten, weiterhin starben mehr Menschen in Armenvierteln als in den reichen Stadtvierteln. Außerdem starben deutlich mehr Schwarze und Indianer an der Tuberkulose als Weiße. Vor allem aber trat die Krankheit zunehmend in den wachsenden Städten Asiens und Afrikas auf, in Kenia war sie vor dem Zweiten Weltkrieg zur wichtigsten Todesursache geworden. 1943 entdeckte der russisch-amerikanische Mikrobiologe Selman Waksman mit Streptomycin ein Antibiotikum, das gegen Tuberkulose wirkte. Nach dem Zweiten Weltkrieg wurde dann im Geist der Nachkriegszeit (Gründung der Weltgesundheitsorganisation WHO und von UNICEF) und im Kampf um die Herzen der Menschen im Kalten Krieg der Kampf gegen die weltweite Tuberkulose aufgenommen. Neben Streptomycin richtete sich die Hoffnung auch auf die bereits 1921 von den Franzosen Albert Calmette und Camille Guérin entwickelte Tuber­kulose-Schutzimpfung BCG (deren Einführung sich verzögert hatte, nachdem 1930 in Lübeck von 256 geimpften Kindern 77 an Tuberkulose starben – der Impfstoff war im Krankenhauslabor mit infektiöser Tuberkulose verunreinigt worden). Allerdings erwies sich der Impfstoff BCG in den Subtropen und Tropen als deutlich weniger wirksam, und gegen die Antibiotika (kurz nach Streptomycin kam mit Paraaminosalicylsäure ein weiteres hinzu) entwickelten sich resistente Stämme. (­­Da die Tuberkulose-Bakterien sich langsam teilen, müssen die Antibiotika lange eingenommen werden – dieses in jeder Umgebung sicher­zustellen und zu finanzieren, überfordert aber viele Gesundheitssysteme.) Neue Antibiotika kamen hinzu, aber auch diese wurden nicht immer und überall richtig angewendet, und heute gibt es multiresistente Bakterienstämme – im Grunde die Fortsetzung des Problems der resistenten Stämme –, die die Hoffnung auf die medikamentöse Ausrottung der Krankheit schrumpfen lassen.

Ganz im Gegenteil: im Gefolge der Immunschwächekrankheit AIDS nimmt bei den Betroffen Tuberkulose als Folgekrankheit deutlich zu. Tuberkulose ist heute weltweit die tödlichste Infektionskrankheit, an der jährlich etwa 1,5 Millionen Menschen sterben, vor allem in Indien, Indonesien, China, Philippinen, Bangladesch, Nigeria, Pakistan und Südafrika. (Die Weltgesundheits­organisation (WHO) gibt nicht auf – bis 2035 soll die Zahl der Todesfälle um 95 Prozent sinken [>> WHO: Tuberculosis, englischsprachig]).

Erfolgreicher war der Kampf gegen die Kinderlähmung. Diese Virenerkrankung, die vor allem Kinder befällt und zu bleibenden Lähmungen, vor allem der Beine und Arme, führen kann (und bei Lähmung der Atemmuskulatur auch tödlich sein kann), trat ab etwa 1880 vor allem in Europa und den USA epidemisch auf. Sie lähmte alleine in den USA in den 1950er Jahren 15.000 Menschen im Jahr (zu den bekanntesten Opfern der Kinderlähmung gehörte Franklin D. Roosevelt, der 32. Präsident der USA). Seit 1955 gibt es einen von dem amerikanischen Kinderarzt Jonas Salk entwickelten Impfstoff, seit 1961 eine von dem US-Virologen Albert Sabin entwickelte Schluckimpfung gegen die Kinderlähmung, mit der die Zahl der Fälle von Kinderlähmung sehr stark reduziert (auf etwa 1.000 Fälle im Jahr) werden konnte.

Masern, ebenfalls eine durch Viren verursachte Krankheit, blieben bis zu Beginn des 20. Jahrhunderts problematisch, sie wurden dann durch bessere Ernährung und bessere Wohnbedingungen zurückgedrängt. Eine Schutzimpfung ist seit 1963 erhältlich; in Entwicklungsländern gehören sie aber immer noch zu den häufigsten Infektionskrankheiten mit hoher Todesrate. Auf­grund einer zuneh­men­den Impfmüdigkeit in den reichen Ländern nehmen die Masern­fälle auch hier wieder zu, was für die WHO eine Bedro­hung der globalen Gesundheit darstellt.

Den Erreger der Malaria (einzellige Parasiten der Gattung Plasmodium) entdeckte 1880 der im algerischen Constantine arbeitende französische Arzt und Bakteriologe Alphonse Laveran; dass diese von Steckmücken der Gattung Anopheles auf den Menschen übertragen werden, 1897 der englische Tropenmediziner Ronald Ross (der hierfür 1902 den Medizin-Nobelpreis erhielt). Ab 1930 wurden unter Mussolini die Pontinischen Sümpfe bei Rom trockengelegt, unter anderem, um die Malaria zu bekämpfen; ähnliche Programme wurden von der Tennessee Valley Authority nach der Weltwirtschaftskrise zur Ausrottung der Malaria im Süden der USA durchgeführt. 1934 fand der italienisch-deutsche Chemiker Hans Andersag mit Chloroquin einen Wirkstoff, der deutlich wirksamer als das zuvor zur Behandlung der Malaria verwendete Chinin war, und 1939 entdeckte der Schweizer Chemiker Paul Hermann Müller, dass das bereits 1874 erstmals hergestellte DDT Insekten (wie die Anopheles-Mücke) tötete. Damit gab es zwei neue, wirksame Waffen gegen Malaria, und nach dem Zweiten Weltkrieg sollte ähnlich wie die Pocken und die Tuberkulose auch die Malaria ausgerottet werden. Das 1955 gestartete Malaria Eradication Program der Weltgesundheitsorganisation WHO war aber nur in den Randgebieten erfolgreich (im Mittelmeerraum konnte die Malaria ausgerottet werden), in den Hauptmalariagebieten gelang dies nicht. Das lag vor allem daran, dass der Zugang zu Medikamenten und eine ausreichend lange ärztliche Behandlung (nicht nur, um die Menschen zu retten, sondern auch, um die Anzahl der Wirte für den Parasiten zu verringern) aufgrund der sozialen und politischen Lage in vielen Ländern nicht möglich war. Dies führte auch dazu, dass vermehrt Chloroquin-Resistenzen auftraten. In den 1960er Jahren wurden dann zunehmend die Gesundheitsgefahren des DDT, das zur Mückenbekämpfung auch in Innenräumen eingesetzt wurde, erkannt. 1972 wurde das Programm als gescheitert eingestellt. Auch die aktuellen Programme – etwa die Versorgung der Menschen in den betroffenen Regionen mit Mückennetzen – leiden unter den sozialen Missständen in vielen betroffenen Ländern: immer noch sterben jährlich zwischen eine und 3 Millionen Menschen an Malaria.

Anfang 1918 kam es dann zur bisher schwersten Grippe-Pandemie: der Spanischen Grippe von 1918 bis 1920. An dieser starben (auch, weil ihr aufgrund des Ersten Weltkriegs nicht genug Aufmerksamkeit gewidmet wurde) etwa 50 Millionen Menschen – dreimal so viel wie am Krieg. Grippe war seit langem als regelmäßig im Herbst wiederkehrende Infektions­krankheit bekannt, die gelegentlich (zuletzt 1889 bis 1892) zu größeren Epidemien führte. Als Ursache wurde aber noch (fälschlich) ein Bakterium vermutet. Erst 1933 entdeckten drei britische Virologen das Influenzavirus (das, wie sich später zeigen sollte, aus vier Gattun­gen – Influenza A bis D – besteht, von denen drei – Influenza A bis C – im Menschen vorkommen). Mit dieser Entdeckung und der Verfügbarkeit von Antibiotika gegen die häufigen bakteriellen Folgeinfektionen (vor allem Lungenentzündung) konnte die Grippe besser bekämpft werden, seit 1942 gibt es zudem Impfstoffe gegen die Grippe. Allerdings machen es die Epidemien und Pandemien verursachenden Influenza A und (seltener) B den Impfstoffentwicklern schwer: sie ver­ändern ständig ihre Oberflächenmoleküle, an denen sie von den körpereigenen Antikörpern erkannt werden, so dass in der Regel jedes Jahr neu geimpft werden muss. 2005 gelang es, das Erbmaterial des Virus der Spanischen Grippe vollständig zu analysieren. Dabei kam heraus, dass es ein Influenza A-Virus des Subtyps H1N1 war (die beiden Buchstaben H und N stehen bei Influenza A-Viren für die Ober­flächen­moleküle Hämagglutinin und Neuraminidase, deren verschiedene Formen durch­nummeriert werden), der beim Menschen bisher nicht auftreten war. Die Auswertung zeigte auch, dass das Virus sehr hohe Ähnlichkeit mit einem Vogelgrippe-Virus zeigte, und daher sehr wahrscheinlich – und erst kurz vor dem Ausbruch – aus diesem entstanden ist [490]. Schon vorher hatte sich gezeigt, dass eine Vermischung genetischer Informationen zwischen verschiedenen Viren (der Fachausdruck lautet "Reassortment") nicht selten ist: die Grippeepidemie von 1957 (Asiatische Grippe), der ein bis zwei Millionen Menschen zum Opfer fielen, und die Hongkong-Grippe von 1968-1970, an der 700.000 bis eine Million Menschen starben, gingen auf eine solche Vermischung zurück. Die Erkenntnis, dass wenige Schritte ausreichen, um ein Vogelgrippe-Virus für Menschen ansteckend und hoch gefähr­lich zu machen, lässt viele Virologen seither eine neue, von einer Vogelgrippe ausgehende Grippe-Pandemie fürchten (mehr hierzu unten: >> Neue Infektionskrankheiten).

Allen Krankheiten und bisherigen Epidemien und Pandemien zum Trotz: In der Summe kam es nach dem Zweiten Weltkrieg auch in den Entwicklungsländern zu einen Rück­gang der Sterberate, so dass heute alle Länder mindestens in Phase 2 des demogra­fischen Übergangs sind: Insbesondere in Afrika gibt es viele Länder, in denen die Bevölkerung kräftig wächst, etwa Uganda, Nigeria oder Angola.

Die Krankheiten der Reichen

Kindersterblichkeit und Infektionskrankheiten sind in den reichen Ländern von Krebs- und Herz-/Kreislauferkrankungen als Haupttodesursache abgelöst worden. Dieses erklärt sich zum einen durch die höhere Lebenserwartung, durch die Krebserkrankungen zunehmen; zum anderen durch veränderte Umwelt- und Lebensverhältnisse. Wichtigste Ursache von Lungenkrebs ist der Tabakkonsum, der seit dem 17. Jahrhundert stark zugenommen hat; und viele Herz-/Kreislauferkrankungen sind durch Übergewicht und Bewegungsmangel verursacht. In den reichen Ländern (und bei den Reichen in den armen Ländern) ist das Problem heute nicht mehr zu wenig, sondern zu viel Nahrung: es gibt auf der Erde mehr Menschen mit Übergewicht als Menschen, die hungern. Vor allem ein Überangebot an billigem Industriezucker trägt hierzu bei. Im Unterschied zu den früheren Krankheiten und Nahrungsmangel hat hierbei aber der Einzelne die Abhilfe in der Hand: Nicht rauchen, weniger essen und mehr Bewegung sind heute das wirkungsvollste Rezept für eine bessere Gesundheit.

Siehe auch: >> Neue Infektionskrankheiten

Bevölkerungswachstum und Ökosystem Erde

Die Diskussion um die Bedeutung des Bevölkerungswachstums für die Erde ist politisch be­lastet: Gerne verweisen die Industrieländer auf das Bevölkerungswachstum in den armen Ländern als ungelöstes Problem, während für die armen Länder die Emissionen aus den Indus­trien der reichen Länder das wichtigste Problem sind. Dabei steht wohl in beiden Fällen der Wunsch im Vordergrund, sein eigenes Verhalten nicht ändern zu müssen.

Eine genauere Betrachtung zeigt, dass je nach Umweltproblem mal die eine Seite, mal die andere die Hauptverantwortung trägt. So stieg die Weltbevölkerung von 1890 bis 1990 um den Faktor 3,5; der Ausstoß des Treibhausgases Kohlendioxid aber um den Faktor 17. Für den Treibhauseffekt sind die Autos, Kraftwerke, Kohleöfen und Ölheizungen der Reichen verantwortlich (mehr dazu >> hier). Auch die Luftverschmutzung in China ist kein Ergebnis seiner (dank strenger Geburtenkontrolle relativ langsam) zunehmenden Bevölkerung, sondern seiner raschen Industrialisierung.

Komplexer ist der Zusammenhang zwischen Wasserverbrauch und Bevölkerungszahl. Ein Großteil des Wassers geht in die Landwirtschaft – für die Ernährung von Menschen. Die Erzeugung einer Tonne Weizen verbraucht 1.000 Tonnen Wasser. Der Nahrungsbedarf einer wachsenden Menschheit bedingte auch die Ausweitung von Acker- und Weideland und damit die Vernichtung natürlicher Lebensräume und die zunehmende Bodenerosion. Im Detail wird das Bild dann aber wieder unscharf: Nicht nur der Nahrungsmittelbedarf insgesamt, sondern auch die Luxusansprüche der Reichen spielen eine Rolle – der Bestand an Rindern auf der Erde wiegt inzwischen genauso viel wie die gesamte Menschheit, und Regenwälder werden heute oft für den Sojaanbau für Rinderfutter gerodet. Ebenso hat der Wasser­verbrauch der Landwirtschaft auch viel mit Subventionen und (oft damit zusammen­hängender) schlechter Nutzung zu tun. Und in manchen Regionen nimmt die Erosion zu, weil Arbeitskräfte fehlen, um etwa Terrassenfelder zu erhalten. Aber auch der unvermeidliche Einfluss, den eine Bevölkerung von über 7 Milliarden Menschen auf die übrige Biosphäre hat, ist bedrohlich. Eine erwartete Bevölkerung von 9 Milliarden Menschen im Jahr 2050 zu ernähren, ohne weitere natürliche Ökosysteme zu zerstören und ohne die Umweltschäden aus der Landwirtschaft zu erhöhen, ist eine echte Herausforderung (mehr dazu >> Wie 9 Milliarden Menschen auf der Erde leben können). Überbevölkerung führt manchmal auch zu Gewalt; beispielsweise hat sie 1994 den Völkermord in Ruanda verschärft (mehr dazu >> hier).

Einen großen und oft negativen Einfluss hatten die (oft mit Bevölkerungswachstum zusammen­hängenden) Wanderungsbewegungen. Beispiele sind die Besiedelung des Amazonas­gebietes in Brasilien oder die indonesischen Umsiedlungsprogramme, die massive Regenwaldzerstörungen zur Folge hatten. Aber auch hier ist der wichtigste Faktor nicht die Zahl der Menschen an sich, sondern (aus ökologischer Sicht) falsche politische Entscheidungen.

Zusammenfassend lässt sich sagen: Die zunehmende Bevölkerungszahl hat sicher nach­teilige Folgen, vor allem für die natürlichen Ökosysteme, die unsere Überlebensgrundlage sind. Dies alleine ist Grund genug, das Ende des Bevölkerungswachstums zu fördern, wo immer es geht. Für die Umwelt ist zumindest kurzfristig aber entscheidender, wie diese Menschen leben. Heute streben die meisten den ressourcen- und energieintensiven Lebensstil der reichen Länder an. Unsere Verantwortung ist es daher, den Ressourcen- und Energieverbrauch unseres Lebensstils so zu verringern, dass alle Menschen daran teilhaben könnten (mehr dazu >> hier). Dies gilt auch für die Produktion von Treibhausgasen (siehe >> hier).

Wie viele Menschen kann die Erde tragen?

Da die Auswirkungen der Bevölkerung in erster Linie von unserem Lebensstil, also von gesellschaftlichen und kulturellen Werten abhängen, kann es auf diese Frage keine naturwissenschaftlich hergeleitete Antwort geben. In jedem Fall steht es uns schlecht zu Gesicht, diesbezüglich über andere Länder zu schimpfen: Auch im Jahr 2050, mit voraussichtlich 9,2 Milliarden Menschen, wird die Erde im Durchschnitt nur gut ein Viertel der Bevölkerungsdichte haben, die Deutschland heute schon hat (mehr >> hier).

Kurve, die das Bevölkerungswachstum im Agrar- und im Industriezeitalter zeigt 

Das Gesamtbild des Bevölkerungswachstums im Agrar- und Industriezeitalter. Eigene Abbildung.

Viele Anzeichen sprechen dafür, dass die Bevölkerung danach nicht weiter anwächst, sondern sinken wird (mehr dazu >> hier). Auch sind immer Überraschungen möglich; der Kampf gegen die Infektionskrankheiten etwa ist noch nicht endgültig gewonnen.

Neue Infektionskrankheiten

Seit der Asiatischen Grippe von 1957, der Hongkong-Grippe von 1968 bis 1970 und der Aufklärung der Entstehung der Spanischen Grippe von 1918 beobachtet die Welt­gesundheitsorganisation Vogelgrippen ("Geflügelpest") ganz genau. Diese können nicht nur Nutzgeflügel-Bestände vernichtet, sondern auch zur Entstehung neuer, für den Menschen gefährlicher Grippestämme führen (siehe hier). Dabei richtete sich der Blick insbesondere auf Schweine, denn diese können sich mit Vogel-, Menschen- und Schweinegrippe anstecken. Ist ein Schwein mit mehr als einem Virenstamm infiziert, kann hier die Vermischung genetischer Information stattfinden. Da auch der Mensch sich mit Schweine­grippe anstecken kann (weltweit sind bisher über 500 Fälle bekannt, in Deutschland gibt es fünf bestätigte Fälle), galt dieses als wahrscheinlicher Zwischenschritt bei der Über­tragung von Vogelgrippe auf den Menschen (im Fall der Spanischen Grippe reichen die Daten nicht, um die Reihenfolge mit Sicherheit festzustellen; aber auch hier entstand ungefähr zur selben Zeit wie der menschliche H1N1-Stamm ein H1N1-Schweinegrippe-Stamm). Das ist nicht nur Gedankenspielerei, das "Schweinegrippe"-Virus, das 2009 die Fachwelt und die Öffentlichkeit beschäftigte, enthielt Bestandteile aus Vogel-, Schweine- und Menschen­virus-Erbmaterial (nahm beim Menschen dann jedoch überwiegend einen milden Verlauf). Aber bereits 1997 war die erste bekannte direkte Ansteckung von Menschen durch einen (H5N1-) Vogel­grippe-Virus erfolgt (in Hongkong), der Zwischenschritt war also nicht zwingend nötig. Seit 2013 kam es zu etwa 850 Ansteckungen und 450 Todesfällen durch diese Vogelgrippe. Seit 2013 erfolgen zudem mindestens 1.500 Ansteckungen und mindestens 600 Todesfälle durch einen anderen (H7N9-)Vogelgrippe-Virus. Vermutlich erfolgten alle bisherigen Ansteckungen durch engen Kontakt zu erkrankten Vögeln. Was die Forscher besonders beunruhigt, ist die Möglichkeit, dass solche Vogelgrippe-Viren durch die Vermischung ihrer Erbmaterials mit menschlichen Viren (oder auch durch eine Mutation) die Fähigkeit erlangen, sich von Mensch zu Mensch zu verbreiten. Für viele Fachleute ist es daher nur eine Frage der Zeit, bis eine neue Grippe-Pandemie entsteht; und dann werden neue Ausbreitungsmöglichkeiten mit weltweitem Flugverkehr gegen die modernen pharmazeu­tischen Möglichkeiten stehen – gegen die H5N1 und H7N9-Typen gibt es keinen Impfstoff, der muss im Fall der Fälle erst entwickelt werden.

Die Wahrscheinlichkeit, dass ein Virus die Artengrenze überspringt, ist umso größter, je mehr Tiere mit vielen Menschen auf engem Raum zusammenleben. Das ist oftmals in Ost­asien der Fall: Während in Amerika und Europa die Tierzucht historisch an Landbesitz gebunden war und in letzter Zeit zwar zentralisiert wurde, aber im ländlichen Raum blieb, entstand die Massentierhaltung im bevölkerungsreichen Asien auf Basis von Importfutter, und daher in der Nähe von Häfen und Kunden – also in oder im Umland von großen Städten. So sind die Zentren der Hühner- und Schweinezucht in Asien Schanghai, Bangkok, Hongkong und Jakarta. Dass die beiden Vogelgrippe-Epidemien in Asien entstanden, ist daher kein Zufall. (Allerdings gibt es Potenzial hierfür nicht nur in Asien, die "Schweine­grippe" von 2009 stammt aus Mexiko.)

Aber die Grippe war nicht der einzige Kandidat für eine neue globale Pandemie. Bereits seit 1981 war eine solche in Gang: damals waren in Los Angeles und New York das Auftreten einer eigentlich seltenen, von einem Pilz ausgelöste Lungenentzündung und mehrere Kaposi-Sarkome (eine ebenfalls eigentlich seltene Krebserkrankung) bei jungen Männern aufgefallen. Nachdem diese Häufung einmal aufgefallen war, fiel sie auch anderswo auf. Gemeinsam war ihnen allen, dass das Immunsystem der Betroffenen betroffen schien, 1982 wurde die Krankheit daher Acquired Immune Definciency Syndrome (AIDS) (dt. "Erworbenes Immun­schwächesyndrom" genannt. Viele der Betroffenen waren homosexuell, vermutet wurde eine sexuelle Übertragung – das führte zu einer Stigmatisierung der Krankheit. In den USA bezeichneten konservative Politiker wie Jesse Helms und evangelikale Prediger wie Jerry Falwell die Krankheit als "Gottes Rache für Homosexuelle", US-Präsident Ronald Reagan erwähnte die  Krankheit erstmals 1987, nachdem ein bei einer Bluttransfusion infizierter Teenager, der von der Schule verweisen wurde, Schlagzeilen gemacht hatte (zu der Zeit waren bereits mehr als 20.000 Amerikaner an AIDS gestorben). Auf der anderen Seite bildeten sich Aktivistenorganisationen, die sich mit dem Slogan "Silence = Death" (Schweigen = Tod) gegen das staatliche Schweigen wehrten und Geld für mehr Forschung forderten. 1983/84 war von Luc Montaignier vom Institut Pasteur in Paris und von Robert Gallo vom National Institute of Health der USA der Auslöser gefunden worden, der später Human Immunodeficiency Virus (HIV) genannt wurde. Da HIV sich in Zellen des Immun­systems einnistet und dieses schwächt, erwies sich die Entwicklung von Medikamenten aber als schwierig, erst 1995 gelang es dem US-Forscher David Ho, durch Kombination verschiedener Medikament eine wirksame Therapie zu entwickeln, die seit 1996 angewandt wird. Damit konnte die Todesrate in den USA gesenkt werden. Die lebenslang notwendige Behandlung kostete aber 10.000 bis 15.000 US-Dollar pro Jahr; für viele arme Länder war sie nicht bezahlbar. Das traf insbesondere Afrika, Entstehungsort [494] und mittlerweile Epizentrum der AIDS-Pandemie. Viele Aktivisten zweifelten an, dass die Preise für die AIDS-Medikamente wirklich gerechtfertigt waren, und Brasilien und Indien begannen mit der Produktion von Nachahmerpräparaten (Generika). Im Rest der Welt verhinderten Patente dieses, und als Südafrika per Gesetz die Herstellung und den Import von Generika erlauben wollte, klagen die Pharmakonzerne mit Unterstützung der US-Regierung unter Bill Clinton und der Welthandelsorganisation dagegen. Dadurch kippte aber die Stimmung in den USA, und Stiftungen wie die Bill und Melinda Gates Foundation nahmen sich des Themas an. Und die neue US-Regierung: Unter George W. Bush stellte sie 15 Milliarden US-Dollar für den Kampf gegen AIDS in Afrika und der Karibik zur Verfügung (und die Pharmakonzerne zogen ihre Klagen zurück). 2009 zahlten die USA nach eigenen Angaben die Therapie für 2,5 Millionen Menschen. Seit 2005 ist weltweit die Zahl der AIDS-Toten rückläufig, aber jedes Jahr sterben noch immer rund eine Millionen Menschen an AIDS; insgesamt sind es bisher mehr als 32 Millionen.

Zoonosen

Nachdem entdeckt worden war, dass AIDS vermutlich auf den Verzehr von Schimpansen zurückgeht [494] und Vogel- und Schweinegrippen Epidemien ausgelöst hatten, richtete sich der Blick vieler Epidemiologen wieder stärker auf Zoonosen: Krankheiten, die von Wirbeltieren auf Menschen übertragen werden können. Zoonosen sind seit langem bekannt, die Pest ist ein Beispiel: der Pesterreger Yersinia pestis lebt in Ratten und wird von Rattenflöhen aus Menschen übertragen. Historisch gehen die meisten Krankheiten auf Zoonosen zurück, aber wenn ein Erreger sich im Laufe der Zeit so verändert, dass er in anderen Wirbeltieren als dem Menschen nicht mehr überleben kann, spricht man aber nicht mehr von einer Zoonose. So sind einst auch die Pocken vermutlich durch auf den Menschen übertragene Kuhpocken (die immer noch eine Zoonose sind) entstanden, konnten aber irgendwann in Kühen nicht mehr überleben. Der Unterschied ist wichtig, denn Zoonosen sind schwieriger zu bekämpfen als andere Krankheiten: da sie auch in Wirbeltieren vorkommen (die hierdurch nicht einmal erkranken müssen), muss – zumindest solange es keine wirksamen Impfungen gibt – zur Vermeidung andauernder Neuansteckun­gen auch die Wirbeltierart, in der der Erreger vorkommt (der "Reservoirwirt", wie die Ratte bei der Pest) und der Übertragungsweg (der "Vektor", wie die Rattenflöhe bei der Pest) bekannt sein und ggf. bekämpft werden.

Zum anderen fürchtet man, dass neue Zoonosen in Zukunft häufiger auftreten können: mit zunehmender Vernichtung intakter Lebensräume nimmt zum einen die Zahl der Wild­tiere ab, und kommen zum anderen Wildtiere und Menschen immer enger in Kontakt. Besonders wahrscheinlich ist der Kontakt mit tierischen Krankheitserregern beim Kontakt mit Körperflüssigkeiten, vor allem Blut, wie er beim Erlegen von "bushmeat" in Afrika oder auf den "wet markets" (Lebendmärkten) Asiens vorkommt. Wenn Krankheitserreger von Wildtieren dann im Menschen überleben können, ist der immer zahlreicher werdende Mensch für sie eine idealer "Lebensraum": aus ökologischer Sicht macht ein Krankheits­erreger nichts anderes als ein Löwe, der eine Gazelle frisst) nur dass der Löwe groß ist und seine Beute von außen angreift, während die Erreger klein [aber viele] sind und ihre Beute von innen her angreifen) – er sucht Nährstoffe und Energie, um sich selber zu vermehren. Das ist nach Darwin der Maßstab für biologischen Erfolg, und gelingt umso besser, je größer – im Falle der Krankheitserreger also zahlreicher – der Lebensraum ist. Der Übergang auf den Menschen ist für Krankheitserreger also eine ökologisch äußert sinnvolle Strategie, vor allem, wenn die eigentliche Wirtsspezies immer seltener wird. Dass ein Zusammenhang zwischen der Vernichtung von Lebensräumen und dem Auftreten neuer Zoonosen tatsächlich besteht, haben inzwischen mehrere Untersuchungen gezeigt [496].

Im Februar 2003 meldete China der Weltgesundheitsorganisation (WHO), dass in der Provinz Guangdong seit November 2002 Fälle eine Lungenkrankheit ausgebrochen sei; im Februar 2003 brachte ein Arzt aus Guangdong sie beim Besuch einer Hochzeit nach Hongkong, wo Ärzte bei ihm eine atypische Lungenentzündung feststellten. Er verstarb, hatte aber schon andere Menschen angesteckt: im März tauchte die neue Lungenentzündung dann in Vietnam und anderen südostasiatischen Ländern auf. Die Krankheit wurde als "Schweres Akutes Respiratorisches Syndrom" (SARS) bekannt. Schon Ende März konnten Forscher des Bernhard-Nocht-Instituts für Tropenmedizin in Hamburg und ungefähr zeitgleich Forscher des US-amerikanischen Center for Disease Control (CDC) den Auslöser identifizieren: ein neuartiges Coronavirus (SARS-CoV; die Bezeichnung Coronavirus leitet sich von den an die Sonnenkorona erinnernden Fortsätze der Außenhülle der Viren ab). Das konsequente Isolieren von Erkrankten sorgte mit dafür, dass SARS glimpflich ausging: weltweit starben "nur" rund 800 Menschen an der Krankheit, aber es wusste auch niemand so genau, warum die Epidemien abgeflaut war. Auch wo die Krankheit herkam, konnte nicht zweifelsfrei geklärt werden. Als mögliche Ursache gelten Schleichkatzen oder Fledermäuse (Chinesische Hufeisennasen), die als Spezialitäten gegessen werden und auf südostasiatischen Tiermärkten oft lebend angeboten werden [498].

Von den Fachleuten war daher niemand überrascht, als im Frühjahr 2020 ein mit dem SARS-Virus verwandtes Coronavirus (SARS-CoV-2) eine Pandemie auslöste, die als COVID-19 bekannt wurde. Erste Fälle dieser neuen Lungenkrankheit gab es bereits im Dezember 2019 (daher COVID-19) in der chinesischen Stadt Wuhan, am 13. Januar 2020 gab es die ersten Todesfälle außerhalb Chinas (in Thailand), am 23. Januar außerhalb Asiens (in den USA). Beide waren mit Reisen nach Wuhan verbunden. Am 30. Januar erklärte die Weltgesund­heitsorganisation (WHO) COVID-19 zur "Gesundheitlichen Notlage internationaler Tragweite" (aber noch nicht zur Pandemie, dies erfolgte am 11. März). Diesmal gelang es nicht, die Krankheit einzudämmen; sie entwickelte sich zur weltweiten Pandemie mit den Schwer­punkten (in dieser zeitlichen Reihenfolge) Europa, USA, Lateinamerika und Indien. Offiziell sind bisher (Stand: 27.9.2020, aktuelle Zahlen: WHO-Dashboard) rund eine Million Menschen an der Pandemie verstorben. Auch beim SARS-CoV-2 ist die Entstehung noch nicht abschließend geklärt, ähnliche Coronaviren wurden in Schuppentieren, Marderhunden und Hufeisennasen gefunden. Für viele der heute Betroffenen ist COVID-19 die stärkste Beeinträchtigung durch eine Pandemie, die sie bisher erlebt haben (AIDS hat aufgrund seiner überwiegend sexuellen Übertragung das Alltagsleben weit weniger beeinträchtigt). Da bisher keine Impfung verfügbar ist, ist das Einhalten der Hygiene-Regeln (AHA: Abstand – Hände waschen – Atemschutz) der beste Schutz vor der Krankheit.

Dabei ist COVID-19 (oder auch eine neue Grippe-Epidemie) bei weitem nicht der schlimmste denkbare Fall, die Alpträume der Virologen und Epidemiologen sehen anders aus. Beispiel Ebola: ebenso wie das AIDS-Virus durch den Verzehr von „bushmeat“ auf den Menschen übergesprungen ist, war dies auch beim Ebola-Virus der Fall. Ebola geht mit Fieber, inneren und äußeren Blutungen und einer hohen Sterblichkeit einher; die Krankheit wurde 1976 erstmals im Sudan und im Kongo (in der Nähe des Ebola-Flusses, dem die Krankheit ihren Namen verdankt) bemerkt und hat im Jahr 2014/2015 beim bisher größten Ausbruch in Westafrika mindestens 11.000  Todesopfer gefordert. Ein zweiter Ausbruch in Zentralafrika forderte 2018 bis 2020 über 2.000 Todesopfer. Die Übertragung von Mensch zu Mensch erfolgt über Körperflüssigkeiten, von Schweiß über Speichel bis zu Urin oder Blut und Erbrochenem; daher sind insbesondere medizinisches Personal und pflegende Angehörige von Erkrankten gefährdet. Es ist aber durch die Vermischung („Reassortment“) genetischer Infektionen bei Viren auch denkbar, dass das Ebola-Virus (oder ein anderes Virus, das mit Blutungen verbundene Fiebererkrankungen verursacht, wie das Lassavirus oder Hantaviren) in Zukunft die Fähigkeit erwirbt, durch Tröpcheninfektion übertragen zu werden (wofür es bisher keinen Hinweis gibt); solche Möglichkeiten gehören zu den Alpträumen der Virologen und Epidemiologen.

In den Tropen und tropennahen Subtropen bereitet zudem das durch Mücken (haupt­sächlich der Art Aedes aegypti) soweit gelegentlich auch beim Geschlechtsverkehr mit Sperma übertragene Zika-Virus Sorgen: lange kam das Virus, das zum zumeist milden Zikafieber, bei Schwangeren aber auch zu Mißbildungen am Fötus – Ausbildung besonders kleiner Köpfe („Mikrocephalie“) – führen kann, nur in Afrika und Südasien vor. Seit 2007 wurden aber Ausbrüche in Ozeanien bekannt, seit 2015 kam es erstmals und gehäuft auch zu Erkrankungen in Lateinamerika. In Brasilien wurden 2015/2016 innerhalb von nur drei­einhalb Monaten 3.900 Verdachtsfälle von Mikrocephalie gemeldet (gegenüber von sonst 200 im Jahr). 2019 kam es erstmals zur (erkannten) Übertragung von Zika-Viren – vermut­lich durch die sich seit den 1990er Jahren in Europa ausbreitende Asiatische Tigermücke (Aedes albopictus) – in Südfrankreich. Das Zika-Virus gehört aufgrund der Übertragung durch die wärmeliebenden Aedes-Mücken zu den Krankheiten, die vermutlich vom Klima­wandel profitieren werden.

Siehe zum Thema auch:

>> Tiefe Gräben in Ostafrika – Was hat Überbevölkerung mit dem Völkermord in Ruanda
     1994 zu tun?

Weiter mit:

Strategien für die Zukunft:
>> Bevölkerung und Gesundheit


Die Folgen der Industrialisierung für das Ökosystem Erde
>> Böden
>> Rohstoffe
>> Wassernutzung
>> Wasserverschmutzung
>> Luftverschmutzung
>> Energie
>> Klimawandel
>> Chemikalien
>> Abfall
>> Gefährdung der Biodiversität
>> Globale Änderungen

Zurück zur:

>> Übersicht Das Zeitalter der Industrie

© Jürgen Paeger 2006 – 2020

Einen Zusammenhang zwischen Bevölkerung und Nahrungsmittel­produktion erkannte 1798 der englische Pfarrer und Ökonom Thomas Robert Malthus in seinem “Essay on the Principle of Population”. Da die Bevölkerungszahl exponentiell wachse und daher schneller steigen könne als die Erzeugung von Nahr­ungsmitteln, die linear von der verfügbaren Fläche abhängig sei, sah er Hungersnöte voraus, wenn die Menschheit diesen nicht vorbeuge, etwa durch spätere Heirat und Geburtenkontrolle.

Mit dem Einsatz von Maschinen und der Entwicklung von Kunst­düngern wurde der Ertrag aber über die Zunahme der Fläche hinaus deutlich gestei­gert, so dass Malthus' Befürchtung (bisher) nicht wahr geworden ist.

Die Auswirkungen der Menschheit auf die Um­welt setzen sich aus drei Faktoren zusam­men:

A = B x W x T

A = Auswirkungen

B = Bevölkerungszahl
W = Materieller
      Wohlstand (pro
      Kopf)
T = Technologie und
      sozioökonomisches
      System

(Mit “sozioökonomi­schem System” wird der Einfluss von Nutzungs­weisen beschrieben; so verbrauchte eine Fahr­gemeinschaft aus vier Menschen kaum mehr als ein mit einer Person besetztes Auto.)

Diese Faustformel stammt ursprünglich von dem amerikanischen Umwelt­forscher John Holdren; >> mehr (englischsprachig)