
Frag Leibniz!
Wie groß ist der Weltraum? Wie alt werden Bakterien? Wie funktioniert denken? Jeder von uns hat sich schon einmal mit einer Frage beschäftigt, die alle angeht.
Die Datenschutzerklärung kann unter folgendem Link abgerufen werden.
Hier finden Sie bisher gestellte Fragen und die Antworten von Leibniz-Forscherinnen und -Forschern:
Gesundheit
Garantiert nicht!
Eine sexuelle Fortpflanzung wird von fast allen Lebewesen durchgeführt und das ist eigentlich ja sehr erstaunlich. Für eine sexuelle Fortpflanzung müssen sich zwei Individuen treffen, es müssen sehr komplizierte physiologisch Vorgänge in einem eng definierten Zeitfenster durchgeführt werden und am Ende hat man ein neues Individuum (beim Menschen ein Baby) und dieses muss sich jetzt auch erstmal in der Welt zurechtfinden und hier bestehen. Dennoch beschreiten alle höheren Lebewesen diesen Weg und das wird sich auch nicht ändern.
Mittlerweile kann man einzelne Schritte außerhalb des Organismus (z.B. des Menschen) durchführen. Man kann z.B. eine künstliche Befruchtung „im Reagenzglas“ durchführen und dann den wachsenden Embryo in den Uterus einer Frau einbringen und dort wachsen lassen. Nun mag man argumentieren, dass man dazu ja nur die Frau benötigt. Das vernachlässigt allerdings, dass man bereits für den ersten Schritt der Befruchtung ein männliches und ein weibliches Genom benötigt. Also, egal wie rum man es dreht: Für eine erfolgreiche Reproduktion bracht man zwei Individuen und die eine muss weiblich und der zweite muss männlich sein.Die Antwort stammt von Joachim Weitzel, Abteilungsleiter Reproduktionsbiochemie am Leibniz-Institut für Nutztierbiologie (FBN) Dummerstorf im Institut für Fortpflanzungsbiologie.
Die einfachste und kürzeste Antwort auf die Frage, ob geschädigte Nervenbahnen wieder heilen können, lautet wohl “Kommt darauf an”. Daher fangen wir am besten ganz vorne an und schauen, unter welchen Umständen Nerven wieder heilen müssten.
Eine Ursache ist beispielsweise eine Verletzung, die wir uns zugezogen haben. Schneiden wir uns mit dem Brotmesser in den Finger, werden neben Blutgefäßen auch Nervenbahnen verletzt. Diese vergleichsweise kleinen Verletzungen heilen in der Regel vollkommen problemlos von alleine – der Finger kann also am Ende der Wundheilung genau wie vorher funktionieren. Bei vielen Beeinträchtigungen oder Unregelmäßigkeiten ist der Körper in der Lage, diese bis zu einem gewissen Punkt selbst auszugleichen. Anders sieht es zum Beispiel bei schweren Unfällen oder angeborenen Schäden des Nervensystems aus, bei denen die Funktion so stark beeinträchtigt ist, dass (Selbst-)Heilung bislang nicht möglich ist.
Am DWI – Leibniz-Institut für Interaktive Materialien untersuchen wir unter anderem genau diese Frage: Wie können wir beschädigte Nerven dazu bringen, wieder zu wachsen und zu funktionieren, sodass betroffene Menschen trotz Verletzung wieder ihren Körper bewegen könnten? Um dem nachzugehen, haben wir ein Gel mit sehr speziellen Eigenschaften entwickelt, welche Nervenzellen zu Wachstum anregen können: das Anisogel.
Anisogel besteht aus zwei Gelkomponenten: Dies sind zunächst viele weiche und mikroskopisch-kleine Gel-Stäbchen. Diese Stäbchen wiederum enthalten geringe Mengen von magnetischen Partikeln, welche sich mithilfe eines magnetischen Feldes nach einer bestimmten Orientierung ausrichten lassen. Unsere Wissenschaftler und Wissenschaftlerinnen fixieren dann die Gelstäbchen, damit sie an Ort und Stelle bleiben, auch wenn das Magnetfeld entfernt wird. Dies schaffen sie, indem sie es in einer umliegenden, besonders weichen Struktur vernetzen (Gelmatrix). So bilden die Gelstäbchen gleichzeitig eine Art stützendes Leitsystem. Experimente zeigen, dass Nervenzellen und Bindegewebszellen problemlos durch die Gelmatrix hindurch wachsen und sich bewegen können. Dabei orientieren sie sich entlang der gebildeten Pfade. Betrachtet man das Gesamtvolumen des Anisogels, löst bereits ein Gelstäbchen-Anteil von einem Prozent dieses gerichtete Wachstum der Nervenzellen aus.
Zwar sind die bisherigen Ergebnisse vielversprechend, doch ist für uns noch ein weiter Weg zu gehen, damit das Anisogel in der Medizin Anwendung finden kann. Dazu gehört unter anderem die Weiterentwicklung des Anisogels: Wenn wir die Idee auf den Menschen übertragen, würde ein Patient oder eine Patientin das Gel nach einer Verletzung in das Rückenmark injiziert bekommen. Da dies alleine aber nicht ausreicht, um die Nervenzellen wachsen zu lassen, muss es unter anderem sogenannte Wachstumsfaktoren enthalten. Wachstumsfaktoren sind, wie der Name verrät, für das Wachstum der Nervenzellen notwendig beziehungsweise unverzichtbar. Grundsätzlich können wir die Wachstumsfaktoren unter das Gel mischen, allerdings brauchen die Zellen zu unterschiedlichen Zeitpunkten verschiedene dieser Faktoren. Ihre Freisetzung zu einem bestimmten Zeitpunkt zu bewerkstelligen, ist daher eine der vielen Herausforderungen für die Zukunft. Diese Weiterentwicklung und die Kombination des Anisogels mit anderen Therapiemethoden wie Zelltransplantation ist ein künftiger Schritt, um es weiter zu optimieren.
Die Antwort stammt von Laura De Laporte, Professorin am DWI – Leibniz-Institut für Interaktive Materialien und am Institut für Technische und Makromolekulare Chemie der RWTH Aachen University.
Referenzen:
Rose JC, Cámara-Torres M, Rahimi K, Köhler J, Möller M, De Laporte L. Nerve Cells Decide to Orient inside an Injectable Hydrogel with Minimal Structural Guidance. Nano Lett. 2017 Jun 14;17(6):3782-3791.
Omidinia-Anarkoli A, Boesveld S, Tuvshindorj U, Rose JC, Haraszti T, De Laporte L. An Injectable Hybrid Hydrogel with Oriented Short Fibers Induces Unidirectional Growth of Functional Nerve Cells. Small. 2017 Sep;13(36).
Die biologisch maximale Lebenserwartung des Menschen liegt bei ca. 120 Jahren. Andere Arten erreichen hier völlig unterschiedliche Werte. So werden Schimpansen z.B. maximal 50 Jahre alt, Hunde und Katzen höchsten 35, Elefanten etwa 70 und Riesenschildkröten ca. 150 Jahre alt.
Interessant für die Alternsforschung sind immer Arten, die eine besonders lange oder eine besonders kurze Lebensspanne haben. Nacktmulle z.B. können bis zu 30 Jahre alt werden, während die etwa gleich großen Mäuse spätestens nach 4 Jahren sterben. Zudem entwickeln Nacktmulle keine Alterskrankheiten wie Krebs oder Demenz. Wie machen sie dieses? Eine sehr spannende Frage in der Alternsforschung. Der Türkisprachtgrundkärpfling hingegen, ein Fisch aus Ostafrika, bringt es auf nur 2 bis 3 Monaten. In dieser Zeit schlüpft er, wächst, wird geschlechtsreif, pflanzt sich fort und stirbt schließlich. Türkise Prachtgrundkärpflinge leben in temporären Gewässern und müssen daher den gesamten Lebenszyklus in extrem kurzer Zeit durchlaufen. „Ist dieses Muster auch genetisch fixiert?“ fragen sich daher die Alternsforscher.
Die Antwort stammt von Astrid van der Wall, Koordinatorin des Leibniz-Forschungsverbundes Gesundes Altern am Leibniz-Institut für Alternsforschung – Fritz-Lipmann-Institut (FLI).
Wie wohl fast alle Lebewesen hatten auch Neandertaler chronische Entzündungen. Neandertaler zählen zu den best-untersuchten Vertretern unserer langen menschlichen Stammesgeschichte. Über manchen Neandertaler existieren regelrechte „Krankenakten“. Neben Knochenbrüchen sind dabei arthritische Befunde besonders häufig nachgewiesen: Knochenwucherungen legen auch chronische Entzündungen nahe. Mitunter waren betroffene Gelenke nur sehr eingeschränkt beweglich, und sicherlich litten die Erkrankten auch unter erheblichen Schmerzen. Wahrscheinlich wussten die Neandertaler aber nicht nur von der schmerzlindernden, sondern auch von der entzündungshemmenden Wirkung bestimmter Pflanzen.
Bei manchen Individuen bezeugt ein fortgeschrittener Knochenrückgang in den Zahnhöhlen Abszesse und frühe Formen der Parodontitis. Fossiler Zahnstein mit darin enthaltenden Essensresten belegt eine eingeschränkte Mundhygiene, die die Hauptursache von Entzündungen im Mundraum gewesen ist. Entsprechende Befunde reichen weit in der Stammesgeschichte des Menschen zurück.
Ebenso alt wie die Erkrankungen ist aber auch die Krankenpflege. Wir gehen davon aus, dass sich Menschen bereits vor 1,8 Millionen Jahren um Erkrankte kümmerten, sie pflegten und fütterten. Besonders deutlich sind entsprechende Befunde aber für die Zeit des Neandertalers: Geleitet durch Empathie und Fürsorge entwickelten Neandertaler ein ausgeprägtes soziales Miteinander. Dank der Hilfe und Zuwendung anderer haben einzelne Individuen selbst schwere Erkrankungen und Traumata überlebt. Wir haben sogar Indizien, die auf chirurgische Eingriffe (Amputation) schließen lassen. Angesichts solcher Befunde wundert es dann auch kaum mehr, dass Neandertaler im Durchschnitt deutlich älter wurden als frühere Vertreter unserer menschlichen Ahnenreihe.
Die Antwort stammt von Olaf Jöris und Lutz Kindler. Beide sind wissenschaftliche Mitarbeiter am Römisch-Germanischen Zentralmuseum (RGZM), Leibniz-Forschungsinstitut für Archäologie und in dessen Archäologischen Forschungszentrum und Museum für Menschliche Verhaltensevolution MONREPOS tätig.
Feinstaub ist eine Mischung aus sehr kleinen festen und flüssigen Teilchen, sogenannten Partikeln, die in der Luft verteilt sind. Sie haben einen Durchmesser von weniger als 10 Mikrometern, was einem Hundertstel Millimeter entspricht. Obwohl sie mit bloßem Auge nicht erkennbar sind, kann man sie bei bestimmten Wetterlagen als eine Art Dunstglocke wahrnehmen.
Die Zusammensetzung von Feinstaub variiert in Abhängigkeit vom Standort. So können zum Beispiel Schwermetalle oder krebserregende polyzyklische aromatische Kohlenwasserstoffe enthalten sein. Feinstaub kann aus natürlichen Quellen stammen, z.B. Bodenerosion und Saharasandstaub, oder durch den Menschen verursacht werden, z.B. durch Verbrennungsprozesse in Industrie, Automotoren und beim Heizen oder Abrieb im Verkehr. Wenn Feinstaub einer direkten Quelle zugeordnet werden kann, wird er als primärer Feinstaub bezeichnet. Entsteht er erst durch chemische Prozesse in der Atmosphäre, handelt es sich um sekundären Feinstaub. Dazu trägt insbesondere die Tierhaltung in der Landwirtschaft mit der Freisetzung von Ammoniak bei.
Für die Untersuchung von gesundheitlichen Auswirkungen wird Feinstaub in Abhängigkeit von seiner Größe in folgende Gruppen eingeteilt: PM10 mit einem Durchmesser von weniger als 10 Mikrometern, PM2,5 mit einem Durchmesser von weniger als 2,5 Mikrometern und die ultrafeinen Partikel mit einem Durchmesser von weniger als 0,1 Mikrometern. Dabei steht PM als Abkürzung für den englischen Begriff für Feinstaub, „particulate matter“. Je kleiner die Partikel sind, desto tiefer können sie in die Lunge eindringen und desto größer ist das Risiko für negative Auswirkungen auf die Gesundheit. In der Lunge kann es zu entzündlichen Veränderungen kommen, die sich darüber hinaus auch negativ auf andere Organe wie das Herz-Kreislauf-System auswirken können. Zudem können ultrafeine Partikel über die Lungenbläschen, in denen der Austausch zwischen Luft und Blutkreislauf stattfindet, bis in die Blutbahn gelangen und von dort aus weiter im Körper verteilt werden.
Grenzwerte dienen dazu, das Gesundheitsrisiko zu minimieren. Allerdings gibt es keinen Schwellenwert für gesundheitsschädliche Auswirkungen von Feinstaub, sodass auch unterhalb der aktuellen Grenzwerte negative Effekte auftreten können. Ob jemand gesundheitliche Probleme von Feinstaub bekommt, ist von vielen individuellen Faktoren abhängig und lässt sich pauschal nicht sagen. Besonders anfällig sind Menschen mit Vorerkrankungen, Kinder und Senioren. Da wir unser Leben lang Luft atmen, sollten wir diese so sauber wie möglich halten.
Die Antwort stammt von Tamara Schikowski, Leiterin der Arbeitsgruppe Umweltepidemiologie von Lunge, Gehirn und Hautalterung am IUF – Leibniz-Institut für Umweltmedizinische Forschung und Christiane Klasen, Referentin des Institutsdirektors.
Quellen:
WHO Regional Office for Europe: Health effects of particulate matter. Dänemark, 2013. ISBN 978-92-890-0001-7
Webseite des Umweltbundesamtes, abgerufen am 15.03.2019: https://www.umweltbundesamt.de/themen/luft/luftschadstoffe/feinstaub
Bewusstsein ist ein komplexes Phänomen und dementsprechend gibt es vielfältige Konzepte aus verschiedenen Fachgebieten, beispielsweise der Philosophie, der Medizin und der Psychologie, die sich mit dem Thema beschäftigt haben. Man kann grob qualitative von quantitativen Bewusstseinsveränderungen unterscheiden.
Quantitative Bewusstseinsveränderungen umfassen Zustände von vollständiger Wachheit bis zum Tiefschlaf, oder in pathologischen Fällen von abnormer Schläfrigkeit bis zum Koma, die mit einer graduellen Verminderung des Bewusstseins verbunden sind. Qualitativ ist das Bewusstsein dadurch charakterisiert, dass wir uns selbst von der Umwelt abgrenzen können, d.h. wir sind uns bewusst, welche Wahrnehmungen auf Vorgängen in der Umwelt beruhen und welche ausschließlich von unserem Gehirn generiert werden. Man spricht hier von sekundärem Bewusstsein. Beim sogenannten primären Bewusstsein gelingt diese Unterscheidung nicht, das ist beispielsweise bei Trugwahrnehmungen/Halluzinationen der Fall, aber auch im Traumerleben, wo uns im allgemeinen Träume als real erscheinen, obwohl sie keine Entsprechung in der Außenwelt haben.
Die Antwort stammt von Michael Nitsche, Leiter des Forschungsbereichs Psychologie und Neurowissenschaften am Leibniz-Institut für Arbeitsforschung an der TU Dortmund (ifADo).
Eine weitere Antwort stammt von Stefan Dürschmid vom Leibniz-Institut für Neurobiologie (LIN):
Bewusstsein ist eine Erfahrung, die ich mache: „wie ist es“, wenn ich etwas wahrnehme, wenn ich Schmerz aushalte oder wenn ich über eine Erfahrung nachdenke.
So vielfältig wie Erlebnisse sein können, so vielfältig sind auch die Theorien, was Bewusstsein eigentlich ist, gerade weil es so schwer zu erfassen ist. Im Alltag nehmen wir Dinge bewusst wahr, andere aber nicht. Das heißt aber wiederum nicht, dass nur weil etwas unserem Bewusstsein entgeht, wir kein Bewusstsein haben. Spirituelle Praktiken suchen zum Beispiel eine Art von Bewusstsein, in dem wir uns auf lebendige Art wahrnehmen, ohne durch Wahrnehmung von äußeren Reizen gestört zu werden. Nur: Demnach können komatöse Patienten auch Bewusstsein haben? Je besser wir also die Hirnprozesse verstehen, die mit Bewusstsein zusammenhängen, umso besser werden wir Koma-Patienten helfen können.
Allgemein betrachtet werden unter Bewusstsein neuronale Prozesse verstanden, die es ermöglichen, mit der Umwelt effizient zu interagieren d.h. dass wir Ereignissen eine Bedeutung zuschreiben und Schlüsse aus unvollständigen Informationen ziehen können. In dem Sinne ist Bewusstsein etwas, das aus den Merkmalen des Gehirns entsteht. Moderne neurowissenschaftliche Theorien gehen davon aus, dass Bewusstsein darauf basiert, dass große Netzwerke im Gehirn, deren Teilbereiche ganz unterschiedliche Informationen verarbeiten, wie die Bereiche der Hirnrinde und der Thalamus – das „Tor zum Bewusstsein“ – synchron feuern und dadurch die Informationen maximal integriert werden. Vermutlich ist Bewusstsein kein nur dem Menschen eigenes Attribut – zumindest hoch entwickelte Säugetiere verfügen auch darüber.
Der Grund für diesen Effekt (der auch einen Namen hat: Leisure Sickness oder Freizeitkrankheit) ist wahrscheinlich im Immunsystem zu suchen. Vor einem wichtigen Termin oder während stressiger Arbeitstage werden Stresshormone ausgeschüttet, die die Funktion des Immunsystems anregen können, um uns gesund zu erhalten. Im Urlaub, wenn der Stress auf einmal weg ist, hört diese Stimulation des Immunsystems plötzlich auf. Da das Immunsystem vorher auf Hochtouren gelaufen ist, ist es nun geschwächt. Daher können wir leichter an Infektionen erkranken. Was sich im Immunsystem aber genau verändert, weiß man leider noch nicht.
Am Leibniz-Institut für Arbeitsforschung an der TU Dortmund (IfADo) untersuchen wir unter anderem den Einfluss von Stress als arbeitsphysiologisch relevanter Faktor auf unser Abwehrsystem. Im weiteren Kontext der oben genannten Frage kann eine Forschungsarbeit von uns aus dem Jahr 2017 von Interesse sein: Wir haben auf Basis von immunologischen Parametern (Entnahme von Blut- und Speichelproben) sowie standardisierten Befragungen untersucht, wie sich Prüfungsstress auf das Immunsystem von 20 Studierenden auswirkt (https://www.ifado.de/blog/2017/11/22/voll-im-pruefungsstress/ sowie https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0188108).
Die Antwort stammt von Carsten Watzl, Leiter der Forschungsabteilung „Immunologie“ am Leibniz-Institut für Arbeitsforschung an der TU Dortmund (IfADo).
Die Gründe, warum wir träumen, sind leider immer noch nicht vollständig bekannt. Es gibt Hinweise darauf, dass während des Schlafs Gedächtnisinhalte verfestigt werden, wenn wir tagsüber etwas gelernt haben. Inwieweit hierfür jedoch Träume notwendig sind, ist nicht geklärt. Träume sind Erlebnisse, die im Gehirn generiert werden, insofern ist es bisher nicht möglich, sie – wie beispielsweise in einem Film – sichtbar zu machen. Wir wissen aber, dass in bestimmten Schlafphasen Träume besonders häufig auftreten und besonders bizarr sind. Diese Schlafphasen, es handelt sich hier um den „rapid eye movement“ oder REM-Schlaf, können wir durch Ableitung von Gehirnströmen erkennen.
Die Antwort stammt von Michael Nitsche, Leiter des Forschungsbereichs Psychologie und Neurowissenschaften am Leibniz-Institut für Arbeitsforschung an der TU Dortmund (ifADo).
Die gestellte Frage ist wissenschaftlich komplex und interessant.
Sauerstoff kam vor einigen tausend Millionen Jahren quasi als „Umweltgift“ in die Erdatmosphäre. Mit der Erhöhung der Gehalte an Sauerstoff dürfte sich das Leben auf der Erde dramatisch verändert haben. Somit klingt es auch sehr wahrscheinlich, dass jahreszeitliche Schwankungen an Sauerstoff messbar sein müssten. In unseren Breiten, mit dem Laubfall im Herbst und der blattlosen Zeit im Winter, klingt dies plausibel. Denn Pflanzen produzieren über die Photosynthese Biomasse und den Sauerstoff. Im Winter ruhen oder reduzieren sich diese Prozesse bei vielen Pflanzen, Algen und Bakterien. So konnte es auch nachgewiesen werden: Der Gehalt an Sauerstoff schwankt jahreszeitlich. Jahreszeitlichen Schwankungen sind messbar, allerdings physiologisch vernachlässigbar. Diese sind also nicht gesundheitlich relevant. Wäre dies anders, hätten wir Probleme auf einen Berg zu steigen, da in zunehmender Höhe der Sauerstoffgehalt dramatisch sinkt. Auf den höchsten Gipfeln der Erde beträgt dieser nur noch ein Drittel des Gehalts auf Meereshöhe.
Ausgangsstoff für die Photosynthese ist Kohlendioxid. Als „Klimagas“ besitzt CO2 eine hohe Aufmerksamkeit und Popularität. Allerdings sind die Gehalte in der uns umgebenden Luft im Vergleich zu Sauerstoff mit über 20 Prozent oder sogar Stickstoff mit knapp 80 Prozent extrem gering. Diese bewegen sich im Promillebereich. Somit lassen sich die hohen Sauerstoffgehalte in der Atmosphäre nicht allein durch biologische Soffkreisläufe erklären. Vielmehr profitieren wir und viele andere heute etablierte Lebensformen von einer über viele Millionen Jahre erfolgten Anreicherung des Sauerstoffs in der Atmosphäre. Auch dafür sind nicht ausschließlich biologische Faktoren wie Pflanzen, Algen und Blaualgen verantwortlich. Ein veränderter Vulkanismus und das Aufsteigen sauerstoffreicher Magmaschichten haben zur Anreicherung des einstigen „Umweltgifts“ geführt und damit zur Entstehung des Lebens, wie wir es kennen.
Die Frage zu Sauerstoff und Kohlendioxid kann gut erweitert werden.
Ein noch junges Forschungsfeld ist z. B. die Analyse von Sekundärstoffwechselprozessen und Produkten. So hat sich auch bei Pflanzen die Metaboliten-Profilierung als Forschungsgebiet entwickelt. Man weiß, dass Pflanzen ähnlich wie Bakterien sehr komplexe und vor allem vielfältige Chemiefabriken darstellen. Sie synthetisieren eines der stärksten Nervengifte – Nikotin. Neben den für das eigene Überleben essentiellen Stoffwechselprodukten synthetisieren Pflanzenzellen somit auch eine immense Vielfalt an sekundären Inhaltsstoffen. Dazu zählen auch volatile, also flüchtige Stoffe. Diese übernehmen vielfältige Funktionen zum Schutz, zur Kommunikation und Signalübertragung einer Pflanze oder von Pflanzen mit ihrer Umgebung. Einige dieser Stoffe haben auch auf unseren Körper eine physiologische Wirkung. Ohne in eine pseudowissenschaftliche Richtung abrutschen zu wollen – es gibt Hinweise, dass der Wald oder ein Waldspaziergang oder auch schon Waldluft auf Grund solcher von Pflanzen produzierten komplexen Stoffgemische eine gesundheitlich fördernde Wirkung besitzen. Was in der Vergangenheit auf Erfahrungswissen beruht hat, kann durch analytische Methoden auch faktisch nachgewiesen werden. Viele dieser volatilen Verbindungen sind in der Vegetationsperiode bedeutsam und unterliegen, da ihre Erzeugung für Pflanzen ressourcenaufwendig ist, jahreszeitlichen Schwankungen. So auch ihr Syntheseorte – das Blatt. Im Gegensatz zum Sauerstoffgehalt lässt sich auf Grund der spezifischeren Funktion solcher flüchtigen Verbindungen vermuten, dass kleinere Schwankungen in der Umgebung eine größere physiologische Wirkung entfalten können. Also nicht nur der Sauerstoffgehalt, sondern komplexe Stoffgemische sind spannende Forschungsfelder.
Ich hoffe, diese Gedanken helfen etwas weiter und wecken die Neugierde an Wissenschaft und der Pflanzenforschung.
Die Antwort stammt von Jens Freitag, Leiter der Geschäftsstelle des Leibniz-Instituts für Pflanzengenetik und Kulturpflanzenforschung (IPK).
Die Influenzaviruslinien zwischen Tieren und Menschen unterscheiden sich. Theoretisch könnten Sie zwar Ihre Katzen anstecken, aber dies ist praktisch unwahrscheinlich.
Die Antwort stammt von Günsah Gabriel, Abteilungsleiterin am Heinrich-Pette-Institut, Leibniz-Institut für Experimentelle Virologie (HPI).
Alex D. Greenwood, Abteilungsleiter Wildtierkrankheiten am Institut für Zoo- und Wildtierforschung (IZW), rät dennoch zur Vorsicht:
Katzen können sich bei einer Erkältung von Menschen anstecken, wenn es sich um das Influenzavirus H1N1 handelt. Daher sollten am Virus H1N1 erkrankte Menschen den Kontakt mit Haustieren meiden oder auf entsprechende Hygienemaßnahmen achten.
Was wäre wenn wir mit neuen Katalysatoren aus Wasser sauberen Treibstoff gewinnen könnten? Wenn unsere Solarzellen effektiver wären und wir Energie dauerhaft speichern könnten? Wenn wir Fahrzeuge bauen könnten die gleichzeitig leichter und stabiler wären? Wenn wir Krebszellen zerstören könnten ohne umliegendes Gewebe zu schädigen? … Nanotechnologien versprechen vielfältige Lösungen zur Verbesserung unseres Alltags. Nicht nur für zukünftige Anwendungen werden Nanotechnologien einen wichtigen Beitrag leisten – bereits heute werden Nanomaterialien dazu genutzt, Produkten neuartige Eigenschaften zu verleihen.
Dabei müssen wir aber auch die sichere Anwendung von Nanomaterialien betrachten. Die speziellen Eigenschaften von Nanomaterialien gehen mit ihrer Kleinheit einher, die der Größe mancher Viren oder körpereigener Eiweißmolekülen entspricht. Zusätzlich können sie aus verschiedensten chemischen Elementen aufgebaut sein. Die Vielfalt der denkbaren Materialtypen und ihre unterschiedlichen Anwendungsfelder erfordern eine umfassende Betrachtung. Entscheidend sind dabei Antworten auf zwei Fragen: Kann das Material grundsätzlich negativ wirken? Kommt es in Kontakt mit Mensch und Umwelt und wenn ja auf welchem Weg?
Aktuell wird daran geforscht, die genaue Wirkweise der Nanomaterialien noch besser zu verstehen, um dieses Wissen in die Entwicklung sicherer Materialien einbringen zu können. Weitere Forschungsaktivitäten zielen darauf ab, neuartige und einfache Testsysteme zu entwickeln, die zuverlässige Aussagen über die Wirkung von Nanomaterialien zulassen. Beides sind Themen mit denen sich der Leibniz-Forschungsverbund Nanosicherheit befasst.
Die Antwort stammt von Annette Kraegeloh und Christiane Petzold, Leibniz Institut für Neue Materialien www.leibniz-inm.de
Weitere Informationen zum Leibniz-Forschungsverbund Nanosicherheit: www.leibniz-nanosicherheit.de.
Eine einfache Frage, die eine schwierige Antwort nach sich zieht. Die Einflussmöglichkeiten, um lange gesund zu leben, sind vielfältig.
Natürlich gibt es einfache und für jeden einsichtige Verhaltensweisen, die Alter und Gesundheit positiv beeinflussen: ausreichend Bewegung, eine abwechslungsreiche Ernährung, nicht Rauchen und kein Alkohol. Aber neben diesen direkten Einflussmöglichkeiten des Einzelnen gibt es viele andere Faktoren, die entscheiden, ob jemand gesund und lange leben kann. Im Leibniz-Forschungsverbund Healthy Ageing forschen wir an diesen Faktoren. An einem Faktor kommt keiner vorbei: die Gene. Wer bereits langlebige und gesunde Großeltern und Eltern hat, hat selber gut Chancen auf ein gesundes, langes Leben. Wichtig ist dann noch, sich seinen Optimismus zu erhalten. Denn auch ein positives Bild vom Leben im Alter kann dieses erheblich verlängern. Wissenschaftler gehen davon aus, dass die Lebenseinstellungen einen ähnlichen Effekt haben wie Rauchen oder Nicht-Rauchen.
Die Lebenserwartung des Einzelnen und seine gesundheitliche Verfassung werden auch von der Umwelt bestimmt. Studien zeigen beispielsweise, dass eine gute Bildung und ein besseres Einkommen unmittelbar mit einer höheren Lebenserwartung verknüpft sind. Umgekehrt wirken sich ungünstige Wohnverhältnisse und Umweltbedingungen wie eine starke Belastung durch Schadstoffe und Lärm deutlich negativ auf die Gesundheit und die Lebenserwartung aus. Auch anhaltender Stress, soziale Isolation und Einsamkeit beeinträchtigen die Gesundheit und das Wohlbefinden im Alter. Positiv bemerkbar macht sich der Erhalt von kognitiver und körperlicher Fitness. Eine positive Rolle spielt auch das Einbinden älterer Menschen in die Familie und in außerfamiliäre soziale Netzwerke. Die Übernahme von sinnstiftenden Aufgaben in der Familie oder von Ehrenämtern in der Gesellschaft kann beispielsweise dazu beitragen, Kompetenzen langfristig zu erhalten. Eine wissenschaftlich fundierte Anti-Aging-Behandlung gibt es bisher nicht. Da muss jeder seine eigenen Strategien entwickeln.
Die Antwort stammt von Astrid van der Wall, Koordinatorin Leibniz-Forschungsverbund Healthy Ageing.
Klima & Umwelt
Die Frage ließe sich kurz beantworten: Das werden wir nicht schaffen. Etwas ausholen möchte ich aber schon:
Mikroplastik wird mehrheitlich definiert als die Plastikteile die kleiner als 5 mm sind, wobei man ab eine Größe unter 100 nm von Nanoplastik spricht. Plastik besteht neben einem Grundgerüst aus Polymeren wie Polyethylen (PE) aus verschiedenen Zusatzstoffen wie Weichmacher und UV-Stabilisatoren.
Es gibt im Bereich Mikroplastik in Böden bisher in jeder Hinsicht nur wenige Kenntnisse. Über Nano-Plastik in Böden gibt es sogar fast keine Kenntnisse, da die Analysemethoden dafür noch nicht weit genug entwickelt sind.
(Mikro)-Plastik gerät in landwirtschaftliche Böden beispielsweise durch Düngung mit Kompost und Klärschlamm, durch Verwendung von landwirtschaftlichen Folien und durch externe Quellen wie dem Abrieb von Autoreifen und Abfall von angrenzenden Straßen. Teilweise kommt das Plastik direkt als Mikro- oder Nanoplastik in den Boden. Darüber hinaus werden größere Plastikteile in den Boden eingetragen und dort durch verschiedene Prozesse in kleinere Partikel zerteilt. Manche solcher winzigen Plastikpartikel werden ziemlich fest in organische Verbindungen in Böden eingebaut, so dass man ab einem gewissen Punkt gar nicht mehr in der Lage ist, sie zu identifizieren, geschweige denn ihre Wirkungen zu erfassen.
Ein mutmaßlich in der Regel sehr kleiner Teil des Mikroplastiks in Böden wird ausgewaschen und durch Erosion ausgetragen. Ansatzpunkte für aktives „Herausbekommen“ von Mikroplastik gibt es aber nicht. Selbst wenn Methoden zur Extraktion von Mikroplastik aus Böden entwickelt werden würden, wäre es unmöglich diese auf allen Böden oder zum Beispiel auf die 11,7 Mio. ha Ackerböden in Deutschland anzuwenden und das auch noch, ohne die Böden dabei massiv zu stören und zu schädigen.
Es muss noch viel geforscht werden, um Prozesse und Risiken durch Mikroplastik in Böden zu erfassen und Möglichkeiten zu bewerten, wie man damit umgehen kann. Letztlich bleibt uns, um möglichst wenig Mikroplastik in unseren Böden zu haben, nichts anderes übrig, als den Eintrag von Plastik in Böden so weit wie möglich zu verringern. Dabei ist es auch wichtig, Plastikeinträge in den Kompost beziehungsweise die Biotonne zu vermeiden. Selbst sogenanntes biologisch abbaubares Plastik sollte dort nicht rein, weil dessen Abbau nur unter speziellen Bedingungen stattfindet, die in natürlichen Umgebungen nicht gegeben sind, und weil auch nicht garantiert ist, dass keine schädlichen Stoffe zurückbleiben.
Die Antwort stammt von Anja-Kristina Techen vom Leibniz-Zentrum für Agrarlandschaftsforschung (ZALF) e.V., die gleichzeitig Wissenschaftlerin im BonaRes-Zentrum für Bodenforschung ist.
Quellen:
- Bläsing M, Amelung W (2018) Plastics in soil: Analytical methods and possible sources. Science of The Total Environment 612:422-435. doi:https://doi.org/10.1016/j.scitotenv.2017.08.086
- Braun M, Amelung W (2019) Synthetische Kunststoffe (Plastik). In: Wilcke W, Wilke B, Litz N (eds) Bodengefährdende Stoffe: Bewertung ‐ Stoffdaten ‐ Ökotoxikologie ‐ Sanierung. Wiley-VCH, Weinheim, pp 1-44. doi:10.1002/9783527678501.bgs2018001
- Rillig MC (2018) Microplastic Disguising As Soil Carbon Storage. Environmental Science & Technology 52 (11):6079-6080. doi: pubs.acs.org/doi/10.1021/acs.est.8b02338
- SAPEA (2019) A Scientific Perspective on Microplastics in Nature and Society. SAPEA, Berlin. doi:https://doi.org/10.26356/microplastics
Die drei Hauptursachen dafür, dass überhaupt Plastik in die Umwelt gelangt, wo es nicht hingehört, sind vor allem mangelhafte Abfallwirtschaft, unangemessenes menschliches Verhalten und Verschmutzung durch die unterschiedlichsten Unfälle. Dies konstatierte der britische Wissenschaftler David Barnes bereits vor zehn Jahren in einer großen Überblicksstudie. Speziell ins Meer sind die Eintragswege für Plastik vielfältig: Die Forschungen an unserem Institut zeigen am Beispiel der Ostsee, dass Plastik oft über Flüsse dorthin gespült wird, aber auch direkt von Strandbesuchern eingetragen werden kann. Auch Schiffsunfälle oder der Schiffsverkehr allgemein sind bekannte Quellen für Plastikmüll im Meer. Für Mikroplastik – also Plastikpartikel kleiner als 5 Millimeter – gilt für die Eintragswege im Prinzip dasselbe wie für Makroplastik. Die Kleinstpartikel werden entweder primär hergestellt, etwa um sie Kosmetika beizumischen, oder sie entstehen sekundär durch den Zerfall von größeren Plastikteilen – schon an Land, wie beispielsweise der Abrieb von Autoreifen, oder im Meer durch die Einwirkung von Wind, Wellen und UV-Licht.
Ob in letzter Zeit tatsächlich immer mehr Plastik ins Meer gelangt, ist schwer zu sagen, da es bislang keine Möglichkeit gibt, das Phänomen der Meeresvermüllung in seinem ganzen Ausmaß systematisch und damit wissenschaftlich belastbar zu erfassen. Aus eigener Forschungserfahrung hier am IOW wissen wir, dass Mikroplastik-Analysen sehr aufwändig sind und man heutige Methoden nur schwer mit der Herangehensweise von vor zehn Jahren vergleichen kann. Fakt ist aber, dass immer mehr Produkte aus Plastik produziert werden, laut PlasticsEurope waren es 335 Millionen Tonnen im Jahr 2016, also über 200 mal so viel, wie zu Zeiten der Anfänge der Plastikproduktion im Jahr 1950 mit 1,5 Millionen Tonnen.
Außerdem ist für uns Wissenschaftler inzwischen klar: Egal wo wir hinschauen, wir finden (Mikro-)Plastik überall: im Erdboden, in der Wassersäule und Sedimenten von Binnengewässern und Meeren weltweit, selbst in entlegensten Gebiete und menschenfernsten Ökosystemen, wie dem arktischen Eis und der Tiefsee. Zudem mehren sich die wissenschaftlichen Berichte darüber, dass Mikroplastik in Lebewesen nachgewiesen wurde. In unseren heimischen Meeren Nord- und Ostsee sind das beispielsweise Miesmuscheln (Mytilus edulis) und der Wattwurm (Arenicola marina), die wichtige Bestandteile des marinen Nahrungsnetzes sind, so dass alle Tiere, die sich davon ernähren, ebenfalls Mikroplastik aufnehmen. Sogar im menschlichen Kot wurde es gefunden – ein Indiz dafür, dass uns Menschen das allgegenwärtige Mikroplastik über die Nahrungskette längst erreicht hat.
Zur Schädlichkeit von Mikroplastik gibt es noch viele offene Fragen, die intensiv erforscht werden – auch hier bei uns am IOW. Aber allein seine Allgegenwart ist besorgniserregend und das, was man jetzt schon über die Schädlichkeit von Plastik in Meeresökosystemen weiß, ist Grund genug, gegen den massiven Plastikeintrag in die Umwelt schnellstmöglich vorzugehen. Eine einzelne Maßnahme reicht da nicht. Auf mehreren Ebenen müssen Schritte ergriffen werden. Zum Beispiel können auf politischer Ebene gesetzliche Bestimmungen und Richtlinien helfen, die Abfallwirtschaft zu optimieren und Schiffs- und anderen Unfällen vorzubeugen. Im Weiteren sollte, wie in der dieses Jahr von der EU verabschiedeten Plastikstrategie vorgesehen, die Kreislaufwirtschaft gefördert und optimiert werden. Hierbei ist die Interaktion und Absprache von Plastik produzierender und Recycling-Industrie sehr wichtig: Komponenten im Plastik oder Plastikmischungen, die ein Recycling erschweren und nicht unbedingt nötigt sind, sollten vermieden werden.
Es kann aber auch jeder Einzelne etwas bewirken. Als Verbraucher können wir unseren Plastikkonsum überdenken und nach den „RRRR“-Ansätzen – Reduce, Reuse, Replace und Recycle – handeln. Das heißt für jeden Einzelnen:
- bewusst weniger Plastik verbrauchen oder Plastik mehrfach verwenden
- Alltagsgegenstände aus Plastik durch solche aus anderen Materialien ersetzen
- verbrauchtes Plastik sinngemäß entsorgen und somit dem Kreislauf wieder zuzuführen.
Plastik ist in der Regel sehr beständig, ein Grund warum wir es so intensiv in vielen Bereichen nutzen. Wir sollten uns dieser eigentlich sehr wertvollen Eigenschaft von Plastik wieder bewusst werden und wieder gezielt Gebrauch davon machen, anstatt Plastikprodukte nach kurzer Nutzdauer als unbrauchbar und wertlos zu entsorgen.
Die Antwort stammt von Franziska Klaeger, Koordinatorin des Forschungsprojektes MicroCatch_Balt am Leibniz-Institut für Ostseeforschung Warnemünde (IOW).
Klassisch betrachtet würde man die Frage sicher mit einem klaren Nein beantworten.
Metalle sind in der Erdkruste in verschiedenen Mineralien enthalten. Man spricht auch von Erzmineralien, die an manchen Stellen in der Erdkruste stark angereichert sein können. Diese Anreicherungen werden dann Erzlagerstätten genannt, wenn man sie wirtschaftlich abbauen kann. Der Abbau der Erze erfolgt durch verschiedene Bergbauverfahren. Anschließend werden die im Erz enthaltenen Metalle mittels metallurgischer Verfahren ausgebracht. Um Erze aus der Erdkruste zu holen, betreiben die Menschen schon seit mehreren Tausend Jahren Bergbau. Wegen eines steigenden Metallbedarfs ist ein Ende des Bergbaus also bisher nicht abzusehen, zumal mit den Fortschritten in der Forschung auch immer wieder neue, oder besser ausgedrückt andere Metalle in den Fokus rücken, für die man bisher weniger Verwendungsmöglichkeiten hatte. Als aktuelles Beispiel sei hier das Lithium genannt, dessen Bedarf vor allem durch die Verwendung in Akkus stetig steigt. Man wird also weiterhin Bergbau betreiben müssen, um Metalle aus den Lagerstätten zu gewinnen, vielleicht nicht nur auf der Erde.
Doch auf den zweiten Blick ergeben sich vielleicht Perspektiven, die auch zu einer anderen als einer klaren Nein-Antwort führen können.
Weil Metalle so begehrt sind, die natürlichen Ressourcen begrenzt und der Bergbau teuer, wird heute daher auch intensiv Schrott verwertet. Durch Recycling von Metall- und Elektroschrott gewinnt man also quasi Metalle ohne Bergbau. Die Mengen sind aber insgesamt nicht ausreichend, um ohne weiteren Bergbau auskommen zu können. Eine andere Quelle für bestimmte Metalle ist auch das Wasser der Meere. So werden Methoden entwickelt, um z. B. Gold, Lithium und Uran aus dem Meerwasser zu extrahieren. Auch hier ist der klassische Bergbau nicht der Weg für die Gewinnung dieser Metalle, die Metallgewinnung wäre daher ohne Bergbau möglich. Es bleibt also sicher spannend, was die Forschung in Zukunft noch für Möglichkeiten eröffnet, um Metalle zu gewinnen ohne Bergbau zu betreiben.
Die Antwort stammt von Michael Ganzelewski, Sammlungsleiter im Montanhistorischen Dokumentationszentrum am Deutschen Bergbau-Museum Bochum.
Die heutigen Mittvierziger in Deutschland müssen zurückblickend auf ihre Kindheit in den 80ern feststellen, dass es damals doch deutlich mehr Tage mit „Rodelwetter“ gab. Gleiches gilt für deren Eltern, blicken sie auf ihre Zeit in den 50er oder 60er Jahren zurück. Dank langer Wetteraufzeichnungen lässt sich diese subjektive Wahrnehmung durch Messdaten heute wissenschaftlich belegen und in einen größeren Zusammengang stellen. Monatsmitteltemperaturen fallen gegenwärtig häufiger zu warm aus als noch in der Vergangenheit und die Anzahl der Tage mit Dauerfrost haben spürbar abgenommen. Im Flachland fällt kaum noch Schnee, geschweige denn bleibt er auch über mehrere Tage liegen, und in den Mittelgebirgen verlagert sich die Schneesicherheit immer weiter in die höheren Kammlagen. Wenn es denn doch mal schneit, dann durchaus auch mal kräftiger. Doch das sind eher Ausnahmen. Was die heutigen Kinder in 30 Jahren ihren Nachkommen mal später über den Winter und Schnee berichten werden, bleibt offen. Klar ist: Messdaten werden die Entwicklung weiter dokumentieren und zeigen, was nach physikalischen Grundprinzipien längst absehbar schien.
Die Antwort stammt von Peter Hoffmann, Experte zum Thema „Climate Impacts & Vulnerabilities“ am Potsdam-Institut für Klimafolgenforschung (PIK) .
Der kalendarische Frühlingsanfang, auch astronomischer Frühlingsanfang genannt, wird durch jenen Tag definiert, an dem auf der Nordhalbkugel zum ersten Mal im Jahr Tag und Nacht gleich lang sind, die Sonne also den Himmelsäquator überquert. Beginnend mit dem kalendarischen Frühlingsanfang werden die Tage demnach wieder länger als die Nächte. Dieser Tag kann kalendarisch gesehen auf den 19., 20. oder 21. März fallen. Da dieser schwankende Beginn für klimatologische Auswertungen unvorteilhaft ist, wurde in der Meteorologie festgelegt, dass immer ganze Monate in die Jahreszeitenstatistik einfließen sollen, folglich Jahreszeiten am Monatsanfang beginnen. Die Wahl für den Frühlingsanfang fiel auf den 1. März. Obwohl der 1. April eigentlich deutlich näher am kalendarischen Frühlingsanfang läge, bietet sich die Klassifizierung des März als Frühjahrsmonat an, da dieser in unseren nördlichen Breiten im langjährigen Mittel deutlich wärmer ausfällt als die anderen Wintermonate Januar und Februar und auch wärmer als der Dezember, der folglich ebenfalls dem meteorologischen Winter zugeschlagen wird. Damit beginnen alle meteorologischen Jahreszeiten im Schnitt ca. 3 Wochen vor den kalendarischen Jahreszeiten.
Die Antwort stammt von Robert Wagner vom Leibniz-Institut für Troposphärenforschung (TROPOS)
Biomasseverbrennung galt lange als klimaneutral da die Bäume im Wald im Gegensatz zu fossilen Brennstoffen nachwachsen. Gemessen an Kohle oder Erdöl und -gas stimmt das zwar, aber diese Einschätzung gilt inzwischen nicht mehr als zeitgemäß. Zum einen sind diese fossilen Brennstoffe eben nicht mehr der Maßstab, sondern Wind- oder Solarenergie. Und zum anderen ist die Nachfrage nach Holz inzwischen so stark angewachsen, dass es fraglich ist, ob überhaupt genug Waldflächen zur Verfügung stehen können, um ausreichend Brennholz nachhaltig zu produzieren.
Gegen ein Verbrennen von Holz nur der Gemütlichkeit wegen gibt es viele Argumente: Im jüngsten Bericht des Weltklimarates (IPCC) ist von so genannten negativen Emissionen die Rede, um die Klimaerwärmung zu bremsen. Das heißt: Die Menschheit sucht händeringend nach Möglichkeiten, Kohlenstoff aus der Atmosphäre zu entnehmen und einzulagern. Das Aufforsten von Wäldern könnte eine Variante sein, die natürlich nur funktioniert, wenn der Kohlenstoff im Holz bleibt und nicht im Kamin wieder zu Kohlendioxid in der Luft wird. Dafür, dass ihr Brennholz am lebenden Baum mehr für das Klima tun kann als im Kamin, sprechen noch andere Gründe: Alte, möglichst natürliche Wälder können wesentlich mehr Kohlenstoff speichern als junge, künstliche Wälder. Und je älter und größer ein Baum wird, umso mehr kann er zum Beispiel im Sommer im Hinterhof Schatten spenden und kühlen. Naturnahe Wälder helfen nicht nur dem Klima, sie tragen auch zum Schutz der Artenvielfalt bei – eine weitere große Herausforderung, vor der die Menschheit aktuell steht. Und nicht zuletzt tun Sie etwas Gutes für Ihre Gesundheit, wenn Sie auf das gemütliche Kaminfeuer verzichten: Deutschlandweit produzieren die Kaminöfen inzwischen mehr Feinstaub als der gesamte Straßenverkehr. Dazu kommen viele polyzyklische aromatische Kohlenwasserstoffe, die krebserregend wirken. Ähnliches gilt auch für bedrucktes Papier – egal ob trocken oder feucht. Das klassische Holzfeuer ist eine Erfindung aus der Steinzeit, die eben insgesamt nicht mehr zeitgemäß ist, wenn wir Klima, Artenvielfalt und Gesundheit schützen wollen. Schließlich möchten wir heute deutlich älter werden als unsere Urahnen, die Mammuts auf offenem Feuer gegrillt haben. Der Trend zum Kamin ist daher leider ein Schritt rückwärts.
Die Antwort stammt von Hartmut Herrmann vom Leibniz-Institut für Troposphärenforschung (TROPOS).
Die Oberflächentemperaturen flacher Seen folgen meist dem Trend der Lufttemperaturen. Im Zusammenhang mit der globalen Erwärmung sind die sommerlichen Oberflächentemperaturen von Seen seit 1985 um 0.34°C pro Jahrzehnt angestiegen (O’Reilly et al. 2015). Tiefe Seen, die im Winter normalerweise eisbedeckt sind, weisen sogar einen durchschnittlichen Erwärmungstrend von 0.72°C auf, wenn sie in Gebieten liegen, in denen neben den Lufttemperaturen auch die Sonneneinstrahlung ansteigt – also der Bewölkungsgrad abnimmt.
Das hat vor allem zwei Gründe: Erstens führt die Kombination aus kürzerer Eisbedeckung und klimatischen Veränderungen wie höherer Lufttemperatur und stärkerer Strahlung dazu, dass Seen zeitiger im Frühjahr eine thermische Schichtung ausprägen. Über viele Monate durchmischt sich dann ihre Wassersäule nicht mehr bis zu den kühleren Schichten am Grund des Gewässers, sodass sich das Oberflächenwasser stärker erwärmen kann als die vergleichbaren Lufttemperaturen. Zweitens sind Seen in der Lage, die Wärme der Sonnenstrahlung zu akkumulieren und zu speichern. Die Eis- und Schneedecke in den Wintermonaten wirkt dem entgegen, da sie einen Großteil der Strahlung reflektiert. Je kürzer also die Eisbedeckung andauert, desto schneller erwärmt sich ein See – eine Wechselwirkung ähnlich wie wir sie aktuell in der Arktis beobachten können. Eine gegenläufige Tendenz zeigt sich aber z.B. in Hochgebieten, wo durch die Klimaveränderungen die atmosphärische Transparenz abnimmt. Seen bekommen dort weniger Strahlungswärme und so steigt ihre Temperatur langsamer als die Lufttemperaturen.
In unserem Dossier „Seen im Klimawandel“ erklären wir übrigens, welchen Veränderungen Seen schon heute unterliegen und welche Szenarien wir voraussichtlich zu erwarten haben.
Die Antwort stammt von Rita Adrian, Abteilungsleiterin Ökosystemforschung am Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB).
Es ist ein allgegenwärtiges Erbe. Tüten, die in der Atmosphäre schweben, Kanister und Bauteile, die in Meeresströmungen zirkulieren; hinzu kommt die schier unendliche Masse von Mikropartikeln in Böden, Flüssen, Trinkwasser. Wir überschwemmen unsere Erde mit Plastik. Die Folgen unseres Verhaltens auf die Umwelt können wir noch gar nicht abschätzen. Wir wissen nur: Dieses Erbe werden wir lange mit uns herumtragen. Denn Plastik ist ein beständiger Werkstoff. Bis seine Grundbausteine, die Polymere, zersetzt sind, können Jahrhunderte vergehen. Wir erforschen eine Alternative: Biopolymere. Anders als herkömmliche Polymere werden sie nicht aus Erdöl gewonnen, sondern von Pflanzen und Mikroorganismen synthetisiert. Viele Bakterienstämme nutzen Polymere als Depots für überschüssigen Kohlenstoff. Wenn sie später Energie benötigen, zerlegen Enzyme die Polymere wieder in ihre Einzelteile. Biopolymere werden also nicht nur biologisch gebildet, sie sind auch biologisch abbaubar.
Im Labor arbeiten wir mit genetisch veränderten Escherichia coli-Bakterien. Wir füttern sie mit Zucker und einem Alkohol, dessen Moleküle sich zu langen Ketten verbinden. Je länger eine Kette ist, desto fester wird das Polymer, kurze Ketten machen es biegsam. In der Natur variiert die Länge dieser Ketten ständig, aber mit unseren E. coli-Bakterien können wir sie genau definieren: Jede Charge entspricht der nächsten. Um die Biopolymere zu ernten, brechen wir die Bakterienzellen auf und reinigen sie. Am Ende haben wir winzige Plastikkügelchen, die man zu Folien, Verpackungen und anderen Dingen verarbeiten kann. Doch noch können Biopolymere auf dem Markt nicht mithalten, weil sie teurer als erdölbasierte Kunststoffe sind. Die Forschung sucht deshalb nach Mikroorganismen, die Polymere aus landwirtschaftlichen Abfällen herstellen können.
Außerdem müsste die Politik klare Vorgaben machen: Alles, was in die Umwelt gelangen könnte, muss biologisch abbaubar sein. In einigen Bereichen setzen sich biologisch abbaubare Polymere schon heute durch. Für die Medizin werden sie zum Beispiel zu Fäden oder Netzen verarbeitet, die sich nach einer Weile selbst auflösen. Diese Netze stützen schwaches Körpergewebe, das sie umwächst und sich langsam festigen kann. Gleichzeitig beginnen die Zellen, die Biopolymere zu verdauen. Wenn die Verletzung verheilt ist, sind die Biopolymere verschwunden. Nichts bleibt zurück.
Die Antwort stammt von Miriam Agler-Rosenbaum, Leiterin des „Biotechnikum“ am Leibniz-Institut für Naturstoff-Forschung und Infektionsbiologie – Hans-Knöll-Institut.
Eine weitere Antwort gibt Johannes G. de Vries, Vorstandsmitglied und Bereichsleiter des Forschungsbereiches Katalyse mit erneuerbaren Rohstoffen am Leibniz-Institut für Katalyse e.V. Rostock (LIKAT):
Müssen wir tatsächlich Plastik ersetzen oder ist nicht ein achtsamer Umgang damit viel besser? Fast täglich werden wir durch die Medien mit riesigen Plastikmüllbergen konfrontiert, mit ganzen Teppichen von Plastikabfällen, die im Meer treiben und sowohl Meerestiere als auch -pflanzen gefährden. Was treibt da eigentlich genau und wie ist es dorthin gelangt?
Schauen wir uns zunächst einmal an, was da so im Meer treibt: hauptsächlich Verpackungsmüll aus Polyethylen (PE) oder Polystyrol (PS) und Flaschen aus PE, Polypropylen (PP) und Polyethylenterephthalat (PET). Grundsätzlich muss man sich die Frage stellen, ob wirklich so viel Plastik verwendet werden muss. Klar ist, dass nur die Reduktion von Plastikverpackungen die Plastikflut eindämmen kann. Nicht jede Tomate oder Gurke muss verpackt werden. Aber ist auch der Ersatz von Plastik durch andere Materialien eine Lösung des Umweltproblems? Nehmen wir das Material Polyethylen (PE), es gibt da zwei Möglichkeiten:
- PE kann in vielen Fällen durch Papier ersetzt werden. Papier ist biologisch abbaubar, hat aber im Vergleich zu PE einen höheren CO2-Fußabdruck (ein Maß für Umweltschädlichkeit). Die Papierproduktion erfordert sehr viel Energie, Wasser und den Einsatz giftiger Chemikalien. Darüber hinaus muss pro Verpackung deutlich mehr Papier als PE verwendet werden, weil es leichter reißt. Letztlich verlieren wir auf der einen Seite, was wir auf der anderen gewinnen.
- Ähnliches gilt für Plastikflaschen aus PE, PP oder PET. Die können durch Glas ersetzt werden. Auch die Produktion von Glasflaschen hat einen höheren CO2-Fußabdruck als die von PE. Und man benötigt mehr Energie für den Transport, weil Glasflaschen deutlich schwerer sind.
Kommen wir abschließend auf die Frage zurück, wie der Plastikmüll ins Meer gelangt. Es gibt noch immer viele Länder, die keine Infrastruktur für die Müllentsorgung haben. Die Menschen dort haben schlichtweg keine andere Wahl, als ihre Abfälle zu vergraben, im Fluss oder im Meer zu entsorgen. Dort gilt es, gut funktionierende, lokale Müllentsorgungs- und Recyclingsysteme aufzubauen. Bis vor kurzem haben auch Schiffe ihre Abfälle ins Meer entsorgt. Das ändert sich aktuell zwar durch neue Gesetze, allerdings noch (zu) langsam. Und die vielleicht wichtigste Ursache: Die Achtlosigkeit und Verantwortungslosigkeit von vielen Menschen auch bei uns in Europa.
Und da wären wir wieder beim Anfang: Wir müssen Plastik nicht verdammen, aber achtsam damit umgehen. Das wichtigste ist, im eigenen Leben das richtige zu tun: Verpackungsmaterial so gut es geht zu vermeiden, u.a. mit wiederverwendbaren Taschen, und unseren Müll verantwortungsvoll zu entsorgen.
Bezogen auf die gesamte Menschheit und den Planeten Erde (nicht auf ein einzelnes Land oder einen Kontinent) lässt sich sagen: Das hängt ganz davon ab, wie wir jetzt und in Zukunft unsere Lebens- und Wirtschaftsweisen gestalten.
Schon jetzt lebt die Weltbevölkerung „über ihren Verhältnissen“. Das zeigen verschiedene wissenschaftliche Arbeiten wie das Konzept der planetaren Grenzen („planetary boundaries“), zum ökologischen Fußabdruck („ecological footprint“) oder auch der sogenannte Erdüberlastungstag („Earth Overshoot Day“). Alle drei Konzepte machen deutlich, dass die Menschheit (vor allem die Menschen in den Industrie- und Schwellenländern) mehr natürliche Ressourcen verbraucht, als unser Planet ihr auf nachhaltige Art und Weise dauerhaft zur Verfügung stellen kann.
So markiert etwa der Erdüberlastungstag, an welchem Tag im Jahr wir exakt so viele natürliche Ressourcen verbraucht haben, wie die Erde in einem Jahr wiederherstellen kann. Für die gesamte Menschheit lag dieser Tag im Jahr 2018 am 1. August. Deutschland hatte den Erdüberlastungstag schon am 2. Mai erreicht – also nach etwa einem Drittel des Jahres. Das heißt: Würden alle Menschen auf der Welt wie wir in Deutschland leben (heizen, essen, reisen, kaufen…), bräuchte es in etwa drei Erden, um den dafür erforderlichen Bedarf an natürlichen Ressourcen wie Energie, Rohstoffe oder Boden jährlich zu erneuern!
Weltweit gibt es inzwischen viele Bemühungen, unsere nicht-nachhaltigen Lebens- und Wirtschaftsweisen zu ändern. Wichtig sind hierbei auch die zahlreichen zivilgesellschaftlichen Initiativen, die sich in vielen Städten und Regionen aktiv darum bemühen, durch eigenes Handeln und das Anstoßen von Aktionen einen Wandel hin zu mehr Nachhaltigkeit zu erreichen. Das hat das Leibniz-Institut für ökologische Raumentwicklung gemeinsam mit Partnern in verschiedenen Projekten herausgefunden. Die Wissenschaftlerinnen und Wissenschaftler haben untersucht, wie sich gesellschaftlicher Wandel vor Ort konkret gestalten und alternative, nachhaltige Strukturen, Denkweisen und Lebensstile etablieren lassen. Deutlich wurde, dass der Beitrag lokaler Initiativen nicht zu unterschätzen ist. Damit es aber nicht beim Engagement einiger weniger bleibt, braucht es die Unterstützung durch Stadtpolitik und Stadtverwaltung, Wirtschaft und Wissenschaft. Noch wichtiger ist, dass alle Menschen erkennen: Es kommt auf jede und jeden Einzelnen an. Ob Energie sparen, vom Auto auf das Fahrrad umsteigen, saisonale und regionale Lebensmittel einkaufen oder langlebige Produkte aus recycelbaren Materialien nutzen – es gibt unzählige Arten, wie jeder und jede dazu beitragen kann, dass viele Menschen gut auf der Erde leben können.
Die Antwort stammt von Markus Egermann, wissenschaftlicher Mitarbeiter im Leibniz-Institut für ökologische Raumentwicklung (IÖR).
Der beobachtete Meeresspiegelanstieg der letzten 100 Jahre ist eine direkte Auswirkung der globalen Erwärmung, mehrere Jahrtausende lang war der Meeresspiegel zuvor recht stabil. Gegenwärtig steigt der Meeresspiegel um etwa 3 mm pro Jahr, die Geschwindigkeit des Anstiegs hat sich in den letzten Dekaden deutlich beschleunigt. Der Meeresspiegel steigt durch die Erwärmung der Ozeane sowie das Schmelzen von Gebirgsgletschern und der Eisschilde Grönlands und der Antarktis. Projektionen zum Anstieg des Meeresspiegels bis zum Ende des Jahrhunderts hängen stark davon ab, wie viele CO2-Emissionen künftig emittiert werden. Im schlechtesten Fall könnte der Meeresspiegel bis 2100 um bis zu einen Meter steigen, im Vergleich zu Beginn des 21.Jahrhunderts. Es ist jedoch wichtig zu wissen, dass Veränderungen der Ozeane und der Eisschilde über sehr lange Zeiträume stattfinden, und dass der Meeresspiegel nicht direkt mit der globalen Temperatur steigt. Auch wenn es der Menschheit gelingt, das Klima in diesem Jahrhundert zu stabilisieren, wird der Meeresspiegel noch auf einige Jahrhunderte weiter ansteigen – angestoßen durch unsere CO2-Emissionen der Vergangenheit. Deshalb ist es auch so wichtig, welchen Pfad die Menschheit jetzt einschlägt zur Vermeidung weiterer Klima-Emissionen. Denn was wir tun oder nicht tun, wird sich noch lange auf den künftigen Meeresspiegelanstieg auswirken.
Die Antwort stammt von Andrey Ganopolski vom Potsdam-Institut für Klimafolgenforschung (PIK).
Wie jeder andere Preis ergibt sich der Preis für Erdöl durch Angebot und Nachfrage.
Im Fokus vieler Überlegungen und Untersuchungen stehen angebotsseitige Faktoren, die den Preis beeinflussen. Allen voran ist dabei die Produktion selbst bzw. ihre Kapazitäten: Mit höherer Produktion sinkt der Preis und Bottlenecks, sowohl in der Produktion als auch der nachfolgenden Infrastruktur, erhöhen den Preis. Während Produktionsausfälle, beispielsweise durch Konflikte bedingt, den Ölpreis nach oben treiben können, haben wir in den letzten Jahren einen Trend zur bislang vorrangig US-amerikanischen Schieferölproduktion gesehen. Durch diese werden zuvor nicht wirtschaftliche Ölfelder mittels Techniken wie hydraulischem Fracking zu profitablen Ölquellen, welche über die letzten Jahre hinweg ein fester Bestandteil des globalen Ölmarkts geworden sind und durch die Angebotsausweitung den Preis nach unten getrieben haben. Es ist davon auszugehen, dass dieser Trend langfristig anhält und Schieferöl zukünftig auch in anderen Regionen das Angebot erweitert.
Ökonomen haben lange an das Prinzip geglaubt, dass der Preis von Ressourcen wie Erdöl langfristig steigen muss. Empirische Studien haben das allerdings weitgehend wiederlegt. Auch das in Populärmedien oft zitierte Ende von Öl lässt sich in Zahlen nicht nachweisen. Durch neue Funde und verbesserte Technologie sind die nachgewiesenen, verbliebenen Erdölreserven über die letzten Dekaden sogar gestiegen, statt zu sinken. Explodierende Preise wegen eines zur Neige Gehens der globalen Erdölvorkommen lassen sich für die nächsten Dekaden daher ausschließen.
Es spricht aber viel dafür, dass nachfrageseitige Faktoren die großen Unbekannten für den zukünftigen Ölpreis darstellen. In den vergangenen Dekaden ist der Erdölkonsum weitgehend vorhersehbar mit dem Wachstum der Weltwirtschaft mitgewachsen. Zurzeit ambivalente Klima- und Umweltpolitiken aber auch verschiedene Perspektiven für alternative Technologien können auf diesen Pfad für die Zukunft deutlich Einfluss nehmen und damit erhebliche Effekte auf den Preis haben. Auch deshalb sind staatliche Mechanismen wie Steuern auf Mineralölprodukte, aber auch die vieldiskutierte Kohlenstoffdioxidsteuer zentral in der Frage, wie der zukünftige Ölmarkt aussehen wird.
Die Antwort stammt von Dawud Ansari, wissenschaftlicher Mitarbeiter der Abteilung „Energie, Verkehr, Umwelt“ am Deutschen Institut für Wirtschaftsforschung DIW und Mitglied des Leibniz-Forschungsverbundes Energiewende.
Eine zweite Antwort stammt von Klaus-Jürgen Gern, Forecasting Center des Instituts für Weltwirtschaft (IFW):
Die Vorhersage des Ölpreises ist ein notorisch schwieriges Geschäft. Für die Konjunkturprognose (das heißt die kürzere Frist von ca. zwei Jahren) hat sich gezeigt, dass in der Regel die Annahme, dass der gegenwärtige Ölpreis unverändert bleibt, nicht systematisch zu schlagen ist. Denn im gegenwärtigen Ölpreis sind alle Informationen über die Zukunft, die verfügbar sind, durch die Interaktionen der Marktteilnehmer bereits enthalten. Dies gilt auch für absehbare Entwicklungen in der Zukunft, die über Arbitrage mit den Futuresmärkten auf den aktuellen Spotpreis wirken.
Wir weichen allerdings gelegentlich davon ab, wenn bestimmte Szenarien für die Prognose unterstellt werden, die Einfluss auf den Preis haben sollten. So haben wir im vergangenen Jahr angenommen, dass der Ölpreis ab der Jahresmitte deutlich anziehen und gegen Jahresende wieder nachgeben würde. Grund dafür war die Erwartung, dass sich das Ölangebot mit Einsetzen der Sanktionen gegenüber dem Iran verknappen würde und dass anschließend die OPEC (im Verein mit Russland) auf den gestiegenen Ölpreis mit einer Erhöhung ihrer Förderung reagieren würde. Im Prinzip ist dieses Preisprofil auch eingetreten, allerdings war der Preisrückgang deutlich stärker als erwartet und der Grund auch ein anderer, nämlich die Tatsache, dass die USA die Sanktionen für die größten Absatzmärkte des Iran ausgesetzt hatte.
Strukturell hat sich der Ölmarkt dadurch geändert, dass die Fracking-Technologie nicht nur das Ölangebot erhöht hat, sondern auch geeignet ist relativ rasch auf Veränderungen der Marktlage und dadurch verursachte Preisschwankungen zu reagieren. Sinkt der Preis unter die Wirtschaftlichkeitsgrenze (die derzeit wohl zwischen 40 und 50 Dollar/barrel liegt), wird die Bohraktivität und in der Folge auch die Produktion rasch heruntergefahren, steigt der Preis, nehmen auch Bohrungen und Förderung ebenso rasch zu. Diese Flexibilität dürfte das Preisband, in dem der Ölpreis schwankt, in den kommenden Jahren stärker beschränken, als es in den vergangenen Jahrzehnten der Fall war.
Längerfristig ist die große Frage, wie rasch die Umstellung insbesondere im Verkehrssektor auf Elektromobilität gelingt. Dieser Trend, der einer durch das globale Wirtschaftswachstum und insbesondere das Aufholen der Entwicklungs- und Schwellenländer bedingten Zunahme des Energiebedarfs entgegenwirkt, könnte dazu führen, dass der Ölmarkt in Zukunft immer stärker nachfrageseitig begrenzt ist und von daher die Ölpreise eher unter Abwärtsdruck stehen werden.
Mehr Informationen zum Thema finden Sie beim Leibniz-Forschungsverbund Energiewende.
Ja, der Klimawandel ist menschgemacht. Beim Heizen, Autofahren oder in unseren Fabriken verbrauchen wir sehr viel Energie. Um diese Energie zu erzeugen, verbrennen wir Kohle, Öl, Gas und dabei entsteht Kohlendioxid. Seit der Industrialisierung gelangt deshalb viel mehr Kohlendioxid in die Luft als zuvor und es wird immer wärmer: Die Gletscher in den Bergen schrumpfen, das Eis an den Polen schmilzt, Hitzewellen und Dürren belasten Natur und Mensch, Wetterextreme wie Stürme oder Starkregen nehmen zu.
Am PIK erforschen wir das Klima der Vergangenheit über Millionen von Jahren: In der Erdgeschichte gab es zwar Zeiten, in denen noch mehr Kohlendioxid in der Atmosphäre war als heute. Doch wir verändern die Kohlendioxid-Konzentration, und damit die Temperatur, gerade viel rasanter als bisher in unserer Erdgeschichte. Das gesamte Erdsystem hat dadurch viel weniger Zeit sich daran anzupassen. Die seltenen Ereignisse der Erdgeschichte, in denen sich die Temperaturen sehr schnell und stark änderten, hatten dramatische Auswirkungen für die Erde und ihre Lebewesen. Da wir die heutigen Klimaveränderungen verursachen, können wir sie aber auch aufhalten: etwa, indem wir weniger Auto fahren und fliegen, auf Windstrom statt auf Kohlekraftwerke setzen oder Energiesparbirnen statt Glühlampen verwenden.
Die Antwort stammt von Julia Brugger, Potsdam-Institut für Klimafolgenforschung (PIK).
Ja, wir können das Klima stabilisieren, doch wir stehen dabei vor einer riesigen Herausforderung: Abgase aus Kraftwerken, Autos und Flugzeugen tragen dazu bei, dass es auf der Erde immer wärmer wird. So haben wir unser Klima seit Beginn der Industrialisierung global bereits um 1°C aufgeheizt, die Folgen wie Wetterextreme waren im vergangenen Sommer auf der gesamten Nordhalbkugel spürbar. Wenn wir so weiter machen wie bisher leben wir Ende des Jahrhunderts wohl in einer 4°C wärmeren Welt.
Auf der Pariser UN-Klimakonferenz 2015 haben sich Vertreter aus allen Ländern der Welt deshalb auf die Begrenzung des Klimawandels geeinigt, mit einem anzustrebenden Ziel von 1,5°C globaler Erwärmung. Wenn uns das gelingt, erhöhen wir unsere Chancen, den Anstieg des Meeresspiegels und das Risiko verheerender Wetterextreme zu begrenzen. Jedes zehntel Grad könnte einen Unterschied machen, daher müssen wir rasch handeln. Und dabei zählt der Beitrag jedes einzelnen von uns: weniger Fleisch und mehr regionales, saisonales Gemüse, Fahrrad, Bus und Bahn statt Auto und Flugzeug.Die Antwort stammt von Julia Brugger, Potsdam-Institut für Klimafolgenforschung (PIK).
Biodiversität
Wahrscheinlich, weil es die Produktion und damit die Lebensmittel teurer macht und die Gesellschaft nicht bereit ist, diesen Preis zu zahlen.
Außerdem denke ich, dass eine große Mehrheit der Bevölkerung tatsächlich besorgt ist. Artenschwund, ebenso wie Klimawandel, beeinflusst zwar Wahlen, aber entscheidet sie nicht. Daher steht das Thema auch nicht ganz oben auf der politischen Agenda der Regierenden. Ein zweiter Grund ist politökonomischer Natur: Die konventionelle Landwirtschaft stellt die große Mehrheit der Landwirte und bewirtschaftet den größten Teil der landwirtschaftlichen Fläche (Ökolandbau waren in 2018 knapp 12% der Betriebe und 9% der Fläche). Die konventionelle Landwirtschaft (bundesweit ca. 1.6% der Bruttowertschöpfung und, zusammen mit der Forstwirtschaft, 1.4% der Beschäftigung in 2016) ist sehr gut organisiert (was vergleichsweise einfach ist für eine kleine Gruppe mit klaren und einheitlichen Zielen) und hat es so geschafft, vor allem über den Bauernverband, viel politischen Einfluss, vor allem in den konservativen Parteien zu gewinnen. Das steht einem Wandel, wie er durch mehr politische Förderung von Ökolandbau und Umweltschutz beschleunigt werden könnte, im Weg. Allerdings steigt der Druck und langsam beginnt ein Umdenken – aber das wird für viele Arten zu spät kommen.
Die Antwort stammt von Daniel Müller, Stellvertretender Leiter der Abteilung Strukturwandel am Leibniz-Institut für Agrarentwicklung und Transformationsökonomien (IAMO).
Leider lassen sich die Dinosaurier aus ihren Knochen nicht direkt zum Leben erwecken. Dafür bräuchte man gut erhaltene DNA. Bei der DNA wird nach aktuellen Erkenntnissen aber eine Halbwertszeit von 521 Jahren angenommen, so dass man derzeit davon ausgeht, dass nach 6,8 Millionen Jahren diese vollständig zerfallen und damit in den Knochen nicht mehr nachweisbar ist. Da die Dinosaurier ja vor 65 Millionen Jahren ausgestorben sind, ist es also faktisch unmöglich, in ihren Knochen noch fossile DNA zu finden und damit einen Dino wieder zum Leben zu erwecken. Dies trifft übrigens auch auf das Szenario von Jurassic Park zu, bei dem man ja angeblich in Bernstein konserviertes Dinosaurierblut gefunden hat – auch dieses wäre viel zu alt, um noch Spuren der DNA zu enthalten.
Natürlich kann man aber virtuell einen Dinosaurier wieder herstellen – über die Rekonstruktion der Skelette, der Weichteile und der Bewegungs- und Lebensweise von Dinosauriern ist es möglich, Modelle dieser Dinosaurier zu kreieren. Diese Modelle stellen dann allerdings nur Annährungen an das wirkliche Aussehen her, welche sich aber am aktuellen Forschungsstand orientieren.
Die Antwort stammt von Dr. Daniela Schwarz, Kuratorin der Sammlungen Archosauromorpha und fossile Vögel sowie „Fossile Reptilien“, Fährten, Histologie am Museum für Naturkunde Berlin – Leibniz-Institut für Evolutions- und Biodiversitätsforschung.
Ja und Nein. Das Erbgut ist identisch und trotzdem anders. So wie zwischen jeder unsere eigenen Zellen, so gibt es kleinste Unterschiede auch zwischen und innerhalb den Organen einer jeden Pflanze. Blatt und Blatt, aber natürlich auch Blatt und Stängel sind nie zu absolut 100 Prozent identisch in den jeweiligen Genen.
Bei jeder Zellteilung (Mitose) entstehen kleine Fehler, die zu Unterschieden führen. Diese vernachlässigen wir in der Regel, wenn diese nicht zu Krankheiten wie z. B. Krebs oder neuen erwünschten Eigenschaften führen. Aber nicht nur bei der Mitose, sondern auch der Meiose kommt es zu Veränderungen. Hier mischt sich das Erbgut von weiblichen und männlichen Pflanzen von Natur aus. Die Nachkommen gehören zur gleichen Art und sind in ihrer Individualität unterschiedlich. Einen gewissen Unterschied gibt es bei Kulturpflanzen. Dahingehend, dass Mütter und Väter gezielt selektiert, teilweise eingezüchtet und vermehrt werden. Die Nachkommen sind dadurch oftmals uniformer. Schauen wir auf ein Getreidefeld, bekommen wir den Eindruck, hier gleicht eine Pflanze der anderen. Das tun sie aber nie zu 100 Prozent.
Weitere Faktoren, die wir als Epigenetik bezeichnen, führen zu weiteren individuellen Unterschieden. Dabei handelt es sich um Veränderungen, die nicht in der Erbsubstanz, sondern auf dieser geschehen. Auch diese verfolgen das gleiche biologische „Ziel“: ein Individuum besser an seine Umwelten anzupassen.
Nehmen wir es genau: In der Natur gleicht ein Ei nie dem anderen. Ein Zwilling nie seinem Geschwister und eine Pflanze nie der anderen zu 100 Prozent und selbst eine Zelle nie der anderen Zelle. Natur bedeutet Vielfalt.
Die Antwort stammt von Jens Freitag, Leiter der Geschäftsstelle des Leibniz-Instituts für Pflanzengenetik und Kulturpflanzenforschung (IPK).
Pflanzen: Pflanzen benötigen Licht zur Fotosynthese, bei der Lichtenergie in chemische Energie umgewandelt wird, die die Pflanze zum Aufbau energiereicher organischer Verbindungen (vor allem Kohlenhydrate) aus energiearmen anorganischen Stoffen (Kohlenstoffdioxid CO2 und Wasser) verwendet. Kurz: Sie brauchen Licht, um Nährstoffe herzustellen. Nach meiner Kenntnis kommen Algen in Meerestiefen von bis über 200 Metern vor. Wegen der unterschiedlich starken Absorption sind das in großer Tiefe Rotalgen, die Licht vor allem im Bereich 380 bis 550nm absorbieren. In tieferen Bereichen, in die gar kein Licht mehr vordringen kann, gibt es keine Pflanzen mehr: Dort ist keine Fotosynthese mehr möglich.
Die Antwort stammt von Georg Zizka, Abteilungsleiter Botanik bei der Senckenberg Gesellschaft für Naturforschung.
Tiere: Die Tiere leben auch unter Druck so gut, weil sie dort in den Tiefen geboren sind (Außendruck ist gleich Innendruck), sie sind daher perfekt an ihre Umgebung angepasst. Da sie auch keine luftgefüllten Hohlräume haben – wie einige Fische, Tintenfische oder Makroalgen – ist für diese Tiere ein Druckunterschied auch kein Problem. Für Tiere mit gasgefüllten Hohlräumen wie Schwimmblasen, Schwimmkörper etc. aber schon – diese kommen zwar mit dem Druck in einer bestimmten Tiefe zurecht, aber nicht mit einer Tiefen- und damit Druckänderung.
Die Antwort stammt von Angelika Brandt, Abteilungsleiterin Marine Zoologie bei der Senckenberg Gesellschaft für Naturforschung.
Das war schon ein ganzes Stück Zufall. Es sind zufällig viele günstige Umstände in Zeit und Raum zusammengekommen, um während der Evolution den Menschen entstehen zu lassen. Letztlich „probiert“ die Evolution verschiedene Konzepte aus, die sich eben nicht alle durchsetzen. Auch in der Menschheitsgeschichte gab es gleichzeitig verschiedene Urmenscharten. Eine Art setzte z.B. auf besonders starke Kaumuskulatur und große Zähne, um harte Pflanzennahrung zerkleinern zu können (der sog. Nussknackermensch), andere auf mehr Intelligenz. Letztere hat sich dann durchgesetzt. Hierzu ist auch ein Buch empfehlenswert: Stephen Jay Gould, „ Zufall Mensch: Das Wunder des Lebens als Spiel der Natur“.
Die Antwort stammt von Ottmar Kullmer, Senckenberg Forschungsinstitut und Naturmuseum (SGN).
Die ältesten Chamäleon-Fossilien stammen aus dem frühen Miozän und sind etwa 21 Millionen Jahre alt. 2016 wurden allerdings Reptilien in Bernsteininklusen aus Myanmar veröffentlicht, die auf etwa 100 Millionen Jahre datiert wurden, die also aus der Kreidezeit stammen. Darunter auch eine Echse, die als möglicher Vorfahre der Chamäleons in Frage kommt (stem group chameleon). Es ist also durchaus möglich, dass es in der oberen Kreide bereits Chamäleons gab. Durch Fossilien belegt ist das allerding nicht.
Die Antwort stammt von Bernd Herkner, Senckenberg Gesellschaft für Naturforschung (SGN).
Im Prinzip wird die Form eines Organismus durch die exakte räumlich/zeitliche Steuerung von Gentranskriptionsprozessen in den einzelnen Zellen gesteuert. Durch die dadurch entstehenden Zelltypen und ihre räumlich Verteilung entsteht der Organismus im Laufe des individuellen Entwicklungsprozesses vom Ei zum Adulten. Aber was da im Einzelnen wie abläuft und wie welches Gen welchen Prozess beeinflusst, weiß man nicht genau. Von dem, was schon bekannt ist, ist klar, dass es keine einfachen Antworten geben wird, sondern dass wir es dabei mit einem der komplexesten Naturphänomene zu tun haben. So gibt es in der Regel keine Eins-zu-eins-Beziehung zwischen einzelnen Genen und morphologischen Eigenschaften; vielmehr ist es so, dass die meisten Eigenschaften von hunderten Genen beeinflusst werden und umgekehrt die meisten Gene zu sehr vielen Merkmalen beitragen. Bis zu einem umfassenden systemischen Verständnis wird es m.E. noch einige Jahrzehnte dauern; ob es jemals möglich sein wird, allein aus der Kenntnis der Genomsequenz die Form des Organismus vorherzusagen, bin ich mir nicht sicher.
Die Antwort stammt von Markus Pfenninger, Senckenberg Gesellschaft für Naturforschung (SGN), Forschungszentrum Biodiversität und Klima.
Ernährung
Das Darmmikrobiom enthält viele nützliche und manchmal auch schädliche Bakterien, Pilze und andere Einzeller. Der menschliche Darm wird von etwa 100 Billionen Mikroorganismen besiedelt¹. Diese mikrobielle Gemeinschaft wird als intestinale Mikrobiota - Darmflora ist veraltet und nicht korrekt- bezeichnet. Sie ist zu einem großen Teil individuell und von der Ernährung abhängig und beeinflusst zahlreiche Stoffwechselprozesse im Darmtrakt und in vielen anderen Organen des Menschen in positiver Weise².
Jeder Mensch hat seinen individuellen Rhythmus zur Darmentleerung. Mit jedem Stuhlgang wird eine ganze Menge dieser Mikroorganismen ausgeschieden. Untersuchungen haben gezeigt, dass sogar knapp die Hälfte unseres Stuhls aus Bakterien besteht. Die im Darm verbleibenden Bakterien vermehren sich wieder, wenn Nachschub an Nahrung von oben kommt. Ein ständiges Kommen und Gehen, bei dem ein Eingreifen von außen im Allgemeinen nicht notwendig ist.
Zur genauen Beantwortung Ihrer Frage müssen wir uns zunächst den Verdauungstrakt ansehen, der in der unteren Hälfte aus Dünn- und Dickdarm besteht. Beide Därme bestehen ihrerseits aus verschiedenen Teilen und sind zusammen rund fünf Meter lang, wovon etwa ein Meter auf den Dickdarm entfällt. Die verschiedenen Teile bieten den dort lebenden Mikroorganismen jeweils unterschiedliche Lebensräume. Das bedeutet, dass sich die Zusammensetzung der Mikrobiota im Verlauf des Darmtrakts je nach den vorherrschenden Bedingungen unterscheidet. Die Mikroorganismen können sich temporär auf einer Schleimschicht ansiedeln, die unsere Darmzellen natürlicherweise bedeckt. Der Darm bleibt bei gesunden Menschen ständig besiedelt, auch wenn große Teile des Darmmikrobioms natürlicherweise oft ausgetauscht werden. Wie genau diese Mikrobengemeinschaften aussehen und welche Rolle sie bei der Entstehung oder Therapie von Erkrankungen, wie z. B. Adipositas oder entzündlichen Darmerkrankungen wie Morbus Crohn, spielen, ist noch nicht vollständig aufgeklärt und bleibt weiterhin Gegenstand intensiver Forschung.
Wenn der Darm nun „künstlich“, also durch Nachhelfen von oben durch Abführmittel oder von unten durch einen Einlauf entleert wird, werden mehr Mikroorganismen als gewöhnlich ausgeschieden, so dass sich die Bakterienzusammensetzung tatsächlich ändern kann³. Viele Mikroorganismen verbleiben aber im Darm und so kann sich die Darmmikrobiota regenerieren und nach etwa zwei Wochen ist kaum ein Unterschied mehr vorhanden⁴. Beide Darmentleerungsmethoden sollten am besten unter ärztlicher Aufsicht stattfinden, da auch hier unerwünschte Nebenwirkungen, im schlimmsten Fall Verletzungen, auftreten können. Für die Mikroorganismen, speziell die Darmbakterien, sind Antibiotika in der Regel aber nachteiliger, da durch diese mehr Bakterien abgetötet werden und die Vielfalt und das Gleichgewicht an Bakterienstämmen gestört werden kann. Durch eine gesunde, pflanzenbasierte und ballaststoffreiche Ernährung regeneriert sich das Darmmikrobiom nach spätestens zwei Wochen wieder von selbst. Oft helfen auch pro – oder präbiotische Lebensmittel wie z. B. Sauerkraut und Naturjoghurt, die u.a. positiv wirkende Milchsäurebakterien⁵ enthalten, oder Chicorée, der den Ballaststoff Inulin enthält, den manche Darmbakterien bevorzugt verstoffwechseln.
Das Fasten an sich schadet der intestinalen Mikrobiota nicht: Genau wie wir Menschen können auch die Bakterien im Darm einige Zeit ohne Nahrung überleben. Je nach Dauer und Art der Fastenkur kann sich jedoch die Zusammensetzung des Darmmikrobioms etwas verändern. Das kann vorteilhaft bei der Behandlung von bestimmten Erkrankungen sein, die durch eine ungünstige Zusammensetzung der Darmmikrobiota ausgelöst werden, wie z.B. bestimmte Darmentzündungen oder eine Clostridium difficile-Infektion.
Die Antwort stammt von Tobias Goris & Tina Schifelbein, wissenschaftlicher Mitarbeiter (im EU-Projekt SynBio4Flav) und Doktorandin in der Forschungsgruppe Intestinale Mikrobiologie am Deutschen Institut für Ernährungsforschung Potsdam-Rehbrücke (DIfE).
Quellen:
- https://journals.plos.org/plosbiology/article?id=10.1371/journal.pbio.100253
- https://www.nature.com/articles/s41579-019-0256-8
- https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0062815
- https://www.nature.com/articles/s41598-019-40182-9
- https://link.springer.com/chapter/10.1007/978-981-13-7832-4_8
Es gibt viele etablierte Methoden, um Trinkwasser aus Meerwasser und Salzwasser zu erzeugen. Die meistgenutzten sind die Umkehrosmose, die mehrstufige Entspannungsverdampfung oder die Elektrodialyse. Ihnen gemein ist leider ein hoher Energiebedarf. Die Vereinten Nationen erwarten, dass 2025 14 Prozent aller Menschen von Wasserknappheit bedroht sind. Das Ziel muss daher sein, nicht nur bessere und leistungsfähigere Entsalzungsmethoden zu entwickeln, sondern zugleich auch solche, die weniger Energie verbrauchen und eine bessere CO2-Bilanz haben. Elektrochemische Prozesse, wie sie in Energiespeichern wie Batterien und Superkondensatoren zum Einsatz kommen, sind ein vielversprechender Ansatz. Durch das Laden von Elektroden werden nur die gelösten Ionen aus dem Salzwasser entfernt und genau die Menge an Strom verbraucht, die der Ladung der Ionen entspricht. Wie auch bei einem Energiespeicher geht die Ladung dabei nicht verloren, sondern wird bei der Regeneration der Elektroden zurückgeführt.
Die Antwort stammt von Volker Presser, Professor am INM – Leibniz-Institut für Neue Materialien und an der Universität des Saarlandes.
Diese Frage kann zunächst ganz klar mit Nein beantwortet werden. Jedes Material in der Lebensmittelverpackung, auch für Getränke und Wasser, braucht eine Zulassung und dafür muss sichergestellt werden, dass das Material, z.B. Polyethylentherephthalat (PET) für Getränke-Flaschen, nicht in das Lebensmittel übergeht, weder das Verpackungsmaterial selbst, noch irgendwelche Zusatzstoffe, wie Farbstoffe oder Weichmacher.
Das gilt aber für das Material in seiner molekularen, also gelösten Form. Anders kann es aussehen, wenn wir hier Mikroplastik betrachten, also mikroskopischen Abrieb der Plastikverpackung. Wir haben am IPF im Auftrag der Sendung WISO untersucht, ob sich Mikroplastik-Partikel in Limonaden finden, die in Plastik(PET)-Flaschen abgefüllt sind. Tatsächlich werden Mikroplastikpartikel < 50 µm in Wasser/Limonadenflaschen gefunden, jedoch in geringen Mengen, wie sie z.B. auch in Trinkwasser aus der Leitung gefunden werden; Mikroplastikpartikel > 50 µm sogar nur sehr vereinzelt, also z.B. 20 Partikel in einer Flasche, was extrem gering ist. Haupteintragsquelle ist aber nicht das Material der Plastikflasche, sondern der Schraubverschluss der Flasche. Wenn dieser aufgedreht wird, wird durch das Aufreißen des Verschlusses Mikroplastik erzeugt, das in die Flasche fällt.
Die Antwort stammt von Brigitte Voit, Wissenschaftliche Direktorin und Leiterin des Institutes Makromolekulare Chemie am Leibniz-Institut für Polymerforschung Dresden (IPF).
Die 16:8-Diät ist die moderateste Form des intermittierenden Fastens, auch Intervallfasten genannt. Sie bedeutet, dass man täglich 16 Stunden komplett auf Nahrung verzichtet, nur Wasser, Tee oder Kaffee (ungesüßt und ohne Milch) trinken darf, während sich das Essen auf ein Zeitfenster von 8 Stunden beschränkt. Gegessen wird zum Beispiel zwischen 10 und 18 Uhr oder zwischen 13 und 21 Uhr. Anschließend folgen 16 Fastenstunden. Der größte Erfolg stellt sich ein, wenn in den späten Nachmittagsstunden das letzte gegessen und bis zum nächsten Frühstück pausiert wird. Da dies für viele Menschen schwer in den Alltag integrierbar ist und ihnen das gemeinsame Abendessen mit dem Partner oder der Familie wichtig ist, verzichten sie auf das Frühstück. Gegessen werden sollte ausgewogen, mit viel Gemüse und Obst, auf Fast Food und Süßigkeiten sollte möglichst verzichtet werden. Ein Großteil derjenigen, die 16:8-Fasten durchführen, berichtet von einer guten Gewichtsabnahme und dass man sich besser fühlt, aber es gibt auch gegenteilige Äußerungen. Kontrollierte Studien an Tieren (z.B. an Mäusen und Rhesus-Affen) haben gezeigt, dass unter 16:8-Bedingungen das Körpergewicht – vor allem das Körperfett – reduziert wird. Zudem wurden diverse positive Effekte beobachtet, wie eine Verbesserung der metabolischen Flexibilität und der Insulinempfindlichkeit sowie ein Schutz vor kardiovaskulären Erkrankungen und Diabetes. Intermittierendes Fasten wie die 16:8-Diät kann aber nur dann zur Gewichtsabnahme führen, wenn tatsächlich weniger Kalorien konsumiert werden als vor dem Fasten, also etwa 10-15% weniger. Wer jedoch in den 8 Stunden die eingesparte Mahlzeit aufholt, wird gewichtstechnisch keine Erfolge verzeichnen.
Neben der 16:8-Diät zählt die 5:2-Diät und das alternierende Fasten zu den Intervallfastenformen. Bei der 5:2-Diät sind an zwei Tagen nur 500-600 Kilokalorien erlaubt, an fünf Tagen wird normal – also ausgewogen und gesund – gegessen. Beim alternierenden Fasten sollte möglichst über 36 Stunden nichts gegessen werden, gefolgt von 12 Stunden mit Mahlzeiten. Eine Forschergruppe um Prof. Frank Madeo aus Graz hat vor Kurzem im Fachjournal Cell Metabolism eine Studie veröffentlicht, in der gezeigt wurde, dass das alternierende Fasten über einen Zeitraum von 6 Monaten bei schlanken und gesunden Personen zu einer um etwa 30 Prozent verminderten Nahrungsaufnahme und einer Gewichtsabnahme von mehr als 4.5 Prozent geführt hatte, ohne dass der Grundumsatz erhöht war oder die Knochendichte beeinflusst wurde. Vor allem die Menge des Fettgewebes im Bauchbereich, die Cholesterin- und Triglyzeridwerte sowie die Spiegel des Schilddrüsenhormons T3 wurden gesenkt, was wahrscheinlich zusammen zur Verbesserung der Herz-Gesundheit der Studienteilnehmer beitrug (Stekovic et al., Alternate Day Fasting Improves Physiological and Molecular Markers of Aging in Healthy, Non-obese Humans, Cell Metabolism (2019))
Nach Beendigung des Intervallfastens und dem Rückfall in alte Verhaltensmuster ist mit einer Gewichtszunahme zu rechnen, d.h. auch hier wird dann ein Jo-Jo-Effekt ausgelöst. Sollte man also durch die 16:8-Diät sein Wunschgewicht erreicht haben, ist es ratsam, das Gewicht regelmäßig zu kontrollieren und vielleicht an 2-3 Tagen pro Woche im 16:8-Muster zu essen und an den anderen Tagen möglichst auf das Snacken zu verzichten.
Die Antwort stammt von Prof. Dr. Annette Schürmann, Leiterin der Abteilung Experimentelle Diabetologie am Deutschen Institut für Ernährungsforschung Potsdam-Rehbrücke (DIfE)
Derzeit leben etwa sieben Milliarden Menschen auf der Erde, im Jahr 2050 werden es rund neun Milliarden sein. Die Welternährungsorganisation FAO geht davon aus, dass der steigende globale Bedarf an Lebensmitteln und insbesondere der an tierischen Proteinen ohne die Berücksichtigung essbarer Insekten zur Humanernährung zukünftig nicht abgedeckt werden kann.
Da der Verzehr von Insekten, wissenschaftlich als Entomophagie bezeichnet, in vielen Ländern Asiens, Afrikas und Südamerikas etc. Tradition ist, essen etwa zwei Milliarden Menschen bereits regelmäßig Insekten – und das auch aus Genuss. Nach derzeitigem Kenntnisstand werden über 2000 essbare Insektenarten aufgelistet – im europäischen Raum besonders Mehlwürmer, Grillen und Heuschrecken. Die hierzulande eher als exotisch geltende Kost bietet eine interessante Inhaltsstoffzusammensetzung im Hinblick auf die ernährungsphysiologischen Eigenschaften. Viele Insektenarten weisen einen hohen Gehalt an hochwertigen Proteinen mit für die Humanernährung meist ausgewogenen Aminosäurespektren auf. Dieser liegt je nach Insektenspezies bei durchschnittlich 35 bis 77 Prozent, bezogen auf die Trockenmasse. Insekten sind häufig auch reich an Vitaminen und Mineralstoffen sowie frei von Cholersterol. Die Fettsäurezusammensetzung kann durch einen hohen Anteil an ungesättigten Fettsäuren vorteilhaft und vergleichbar mit Fisch sein, abhängig von der Insektenart, der Fütterung und der Verarbeitung.
Die Insektenzucht benötigt im Vergleich zu anderen Nutztierhaltungssystemen weniger Fläche und Wasser und hat ein niedrigeres Treibhauspotential was zu einer nachhaltigeren Umweltbilanz bei der Insektenerzeugung führt. Insekten können sich u. a. von Pflanzenresten und Lebensmittelabfällen ernähren und könnten dadurch prinzipiell zur Konversion und Aufwertung organischer Reststoffe beitragen.
Vor allem diese Fakten rücken vor dem Hintergrund der globalen Ernährungssicherung hinsichtlich der Bedarfsdeckung und Ressourcenschonung den Insektenverzehr auch in den westlichen Industrienationen zunehmend in den Fokus von Wissenschaft, Wirtschaft und Politik. Mit der überarbeiteten Novel Food-Verordnung ist es seit Januar 2018 auch innerhalb der EU prinzipiell möglich, Insekten und aus ihnen gewonnene Produkte auf den Markt zu bringen.
Ob sich Insekten in Zukunft als Alternative zu herkömmlichen tierischen Proteinen durchsetzen werden und welche Arten hierfür am ehesten geeignet sind, hängt vor allem von der Nährstoffzusammensetzung, der Umsetzbarkeit der nachhaltigen und kosteneffizienten Produktion im industriellen Maßstab, der Verarbeitbarkeit, sowie der Akzeptanz der Verbraucher ab.
Die Antwort stammt von Sara Bußler, Wissenschaftlerin im Forschungsprogramm Qualität und Sicherheit von Lebens- und Futtermitteln des Leibniz-Instituts für Agrartechnik und Bioökonomie (ATB).
Kohl oder genauer gesagt Brassicaceae-Gemüse wie Broccoli, Weißkohl, Rotkraut und Pak Choi enthält Glucosinolate, die entweder durch die Darmmikrobiota oder aber schon vorher, bei der Zerkleinerung, auf einem enzymatischen Weg zu gesundheitspräventiven Isothiocyanaten – das sind die scharf schmeckenden Verbindungen dieser Gemüse – oder aber Nitrilen abgebaut werden. Nitrile haben im Gegensatz zu Isothiocyanaten kaum gesundheitsfördernde Wirkung.
Roh entstehen in Kohl oft vor allem Nitrile anstelle der Isothiocyanate, da viele Kohlsorten weitere Enzyme besitzen, welche die Bildung von Isothiocyanaten zugunsten der Nitrile unterdrücken. Da diese Enzyme sehr temperaturempfindlich sind, kann durch sehr kurzzeitiges Erhitzen die Bildung von Isothiocyanaten – und damit der gesundheitliche Nutzen des Gemüses – erhöht werden. Dabei sollte im Gemüse allerdings die Temperatur von 60 Grad nicht überschritten werden.
Zudem empfiehlt es sich, das Kochwasser einfach mitzuverwenden: Ein Großteil der Glucosinolate geht beim Kochen ins Kochwasser über, da diese wie viele andere wichtige Inhaltsstoffe wasserlöslich sind. So bleiben mehr Glucosinolate bei einer kürzeren Kochzeit im Kohl erhalten.Bei einer längeren Kochzeit von mehr als 10 bis 15 min werden Glucosinolate (chemisch) abgebaut. Es gibt allerdings auch Brassicaceae-Gemüse, bei denen durch die Zellzerstörung beim Kauen hauptsächlich gesundheitsfördernde Isothiocyanate entstehen: z.B. Radieschen und Rucola– sie können einfach roh verzehrt werden.
In unserem Forschungsprojekt wollen wir untersuchen, wie wir die Isothiocyanatbildung in der Pflanze erhöhen können und zum anderen herausfinden, wie sich verschiedene Inhaltsstoffe auf die Stabilität der Glucosinolate beim Kochen auswirken.
Die Antwort stammt von Franziska Hanschen, Leiterin der Leibniz – Junior Research Group OPTIGLUP am Leibniz-Institut für Gemüse- und Zierpflanzenbau (IGZ).
In Maßen kann Zucker problemlos vom Körper verstoffwechselt werden. Allerdings nehmen wir durchschnittlich mehr Zucker auf als von der Weltgesundheitsorganisation (WHO) empfohlen. Wird zu viel und zu häufig Zucker verzehrt, kann dies die Entwicklung von Karies, Übergewicht und damit assoziierten Erkrankungen wie Typ-2-Diabetes, Krebs und Herz-Kreislauf-Erkrankungen begünstigen. Von möglichen gesundheitlichen Schäden sind insbesondere übergewichtige Menschen betroffen.
Gut zu wissen:
- Wo steckt viel Zucker drin? In Softdrinks, Süßigkeiten und anderen hochverarbeiteten Produkten mit Zuckerzusatz wie z. B. Joghurts. Aber auch natürliche Produkte wie Obst und Fruchtsäfte können zuckerreich sein.
- Welche Zuckerart ist besonders ungesund? Ob Fruchtzucker, Traubenzucker, Haushaltszucker oder spezielle Ersatzzucker besonders bedenklich sind, lässt sich noch nicht eindeutig beurteilen. Es ist also sinnvoll, insgesamt nur kleine Mengen an Zucker aufzunehmen.
- Sind Zucker und Kohlenhydrate das gleiche? Genau genommen bestehen alle Kohlenhydrate aus Zuckermolekülen. Es wird zwischen Einfach-, Zweifach- und Mehrfachzuckern unterschieden. Einfach- und Zweifachzucker, wie Traubenzucker, Fruchtzucker und Haushaltszucker, sollten nur in kleinen Mengen gegessen werden. Sie liefern viele Kalorien, sind dabei jedoch kaum sättigend, was Übergewicht begünstigen kann. Mehrfachzucker, wie beispielsweise Stärke und Ballaststoffe aus Vollkornprodukten und Kartoffeln, zählen hingegen zu den komplexen Kohlenhydraten und sättigen gut. Studien weisen darauf hin, dass Ballaststoffe das Risiko für bestimmte Krebserkrankungen, aber auch für Typ-2-Diabetes und andere „Wohlstandserkrankungen“ senken.
Die Antwort stammt von Stefan Kabisch, wissenschaftlicher Mitarbeiter/Studienarzt der Arbeitsgruppe Klinische Ernährung am Deutschen Institut für Ernährungsforschung Potsdam-Rehbrücke.
Digitaler Wandel
Der Begriff der „filter bubble“ wurde vom amerikanischen Internet-Aktivisten Eli Pariser geprägt. Demnach sorgen Algorithmen in sozialen Medien dafür, dass Menschen im Netz vor allem jene Informationen angeboten werden, die – vermeintlich oder tatsächlich – die eigene Meinung bestätigen. Wenn die eigene Meinung permanent bestätigt und Gegenmeinungen ausgeblendet werden – so Pariser – dann hat dies negative Auswirkungen auf die Gesellschaft (Polarisierung).
Tatsächlich haben Filteralgorithmen einen großen Einfluss darauf, wie leicht man bestimmte Informationen im Netz auffindet. Auch zeigt sich, dass „Likes“ oder andere „gefällt mir“-Angaben einen Einfluss auf unser Verhalten ausüben, weil sie gewissermaßen wie eine Währung funktionieren. Man sieht anhand der Likes, welches Meinungsbild in einer Community vorherrscht, und man ist eher geneigt, sich dementsprechend zu verhalten. Das Problem der „filter bubble“ würde sich demnach abschwächen, wenn bei Plattform-Anbietern andere Algorithmen verwendet werden, wenn dort Likes abgeschafft werden (was tatsächlich aktuell bei vielen Anbietern ausgetestet wird), oder wenn es statt Likes andere soziale Feedback-Formate gibt. Im Übrigen gilt: Niemand muss auf die empfohlenen News auch wirklich klicken. Man kann sich also von den Algorithmen befreien, in dem man nicht jedem vorgeschlagenen Link folgt und stattdessen selber nach Informationen sucht.
Das ist aber bei genauerer Betrachtung auch nur eine Teillösung. In der Wissenschaft wird der Begriff „filter bubble“ nur sehr selten verwendet, hier nutzt man eher den Begriff der „Echokammer“ des amerikanischen Rechtswissenschaftlers Cass Sunstein. Auch Sunstein ist der Meinung, dass Algorithmen dazu verwendet werden können, um die bestehende Meinung von Internet-Nutzern zu bestätigen. Doch das Problem sitzt nicht nur bei der Technik, sondern auch bei den Menschen selbst. Die psychologische Forschung zeigt tatsächlich, dass Menschen auch ganz ohne Technik eine sehr starke Tendenz haben, Informationen aufzusuchen und zu verbreiten, die das eigene Weltbild unterstützen. Der natürlichen Tendenz zur Meinungsbestätigung kann man am ehesten durch Medienkompetenz entgegenwirken, wie sie etwa in Schulen vermittelt werden könnte. Letztlich geht es darum, sich selbst öfter folgende Fragen zu stellen: Gibt es Gegenmeinungen zu meinem Weltbild? Wenn ja, bin ich in der Lage, die Argumente der Gegenseite zu benennen? Und wie gehe ich mit diesen Gegenargumenten um? Tue ich sie ab, indem ich der Gegenseite Dummheit, Uninformiertheit oder böswillige Absichten unterstelle? Oder gelingt es mir, die Gegenargumente durch eigene Argumente zu entkräften? Wer über solche Fragen reflektiert, wird auch aus der „filter bubble“ ausbrechen können.
Die Antwort stammt von Jürgen Buder, Kommissarischer Leiter der Arbeitsgruppe Wissensaustausch vom Leibniz-Institut für Wissensmedien (IWM) in Tübingen.
Weitere Informationen:
Projekt des Leibniz-WissenschaftsCampus Tübingen „Cognitive Interfaces“ zu Echokammern: https://www.wissenschaftscampus-tuebingen.de/www/de/forschung/forschungsbereiche/projekt01/index.html
Interview zu Echokammern: https://media-bubble.de/me-my-echo-chamber-and-i-radikalisierung-in-selbstbestaetigungsgruppen/
Zunächst ist unklar, was mit dem Begriff „ausreichender Schutz“ gemeint ist. Eine denkbare Interpretation ist die Verfügbarkeit der Ressourcen, um zu kommunizieren, eine andere ob die Kommunikation gegen Manipulation bzw. Mithören geschützt ist (IT-Sicherheit).
Verfügbarkeit:
Die Art der Kommunikation – also analog oder digital – hat auf die verfügbaren Ressourcen grundsätzlich keinen Einfluss. Entscheidend ist, ob z.B. für Notrufe entsprechende Kapazitäten reserviert werden. Wenn dieses getan wird, können alle notwendigen Verbindungen aufgebaut und bedient werden. Die Frage, ob solche Reservierungen in öffentlichen IP (Internet Protocol) basierten Netzen gestattet werden sollen, wird aktuell diskutiert. Einerseits sollen im Internet alle Datenströme gleichartig behandelt werden, andererseits gibt es den berechtigten Wunsch, einige Dienste vorrangig zu behandeln. Letzteres erscheint durchaus sinnvoll und wird sich wahrscheinlich zumindest mittelfristig durchsetzen.
Zusätzlich zur Nutzung der öffentlichen Netze betreibt das Innenministerium die Bundesanstalt für den Digitalfunk der Behörden und Organisationen mit Sicherheitsaufgaben – kurz BDBOS. Das BDBOS betreibt zusammen mit Bund und Ländern ein einheitliches digitales Funknetz für alle Behörden und Organisationen mit Sicherheitsaufgaben in Deutschland, z.B. Polizei, Feuerwehr und THW. Dieses Netz bietet eine Ende-zu-Ende-Verschlüsselung und wird parallel zur Infrastruktur der öffentlichen Netze betrieben.
IT-Sicherheit:
Digitale Kommunikation lässt sich deutlich leichter verschlüsseln als analoge und damit gegen unerlaubtes Mithören und Manipulation schützen. Hier bietet die Digitalisierung also erhebliche Vorteile.
Die Antwort stammt von Steffen Ortmann und Peter Langendörfer, beide Experten im Bereich Sensor-Netzwerke und Middleware-Plattformen am Leibniz-Institut für innovative Mikroelektronik (IHP).
Smartphones sind extrem universelle Geräte, die viele Funktionen von früher separaten Geräten übernommen haben. Ich denke, dass die Konzentration weiterer Funktionen im Smart-Phone weitergehen wird. So wird mit hoher Wahrscheinlichkeit die Funktion der Kreditkarte sowie die Funktion des Auto- und Hausschlüssels in das Smartphone wandern.
Ich kann mir gut vorstellen, dass es in Zukunft andere Formfaktoren für Smartphones gibt. So muss z.B. das Gerät nicht wie heute aus einer Einheit bestehen, sondern die Display-Funktion, die Audio-Funktion und die Bedienelemente können getrennt werden. So eine Tendenz sieht man beispielsweise bei den heute noch sehr experimentellen Varianten von Smart-Glasses. Es könnte also eine Art „verteiltes“ Smartphone entstehen.
Ich glaube allerdings nicht daran, dass es noch weitere so universelle Geräte wie das Smartphone geben wird. Für den menschlichen Benutzer ist es ja ein großer Vorteil, so viel Funktionalität wie möglich auf kleinem Raum und mit wenig Gewicht zu bündeln.
Die Antwort stammt von Rolf Kraemer, Abteilungsleiter System Design am Leibniz-Institut für innovative Mikroelektronik (IHP).
Chatten, E-Mails versenden, Informationen auf Webseiten suchen, Online-Banking oder Online-Shopping? Für viele jüngere Menschen ist das selbstverständlich. Doch anderen Bevölkerungsgruppen droht mit der zunehmenden Digitalisierung der Ausschluss von zahlreichen Kommunikations-, Informations-, Unterhaltungs- und Transaktionsmöglichkeiten. Studienergebnisse zeigen, dass ältere Bevölkerungsschichten das Internet deutlich weniger nutzen. Auch ist eine Schere zwischen den Bildungsgraden erkennbar. Personen mit einem niedrigeren Bildungsstatus nutzen digitale Angebote deutlich seltener und auch Frauen nutzen das Internet weniger als Männer (D21 Digital Index 2017/2018).
Die Unterschiede in dem Zugang zu und der Nutzung von Informations- und Kommunikationstechnologien, werden unter den Begriffen digitale Kluft („digital gap“) oder digitale Spaltung („digital divide“) diskutiert. Es wird davon ausgegangen, dass der Zugang zum Internet mit besseren gesellschaftlichen und wirtschaftlichen Chancen einhergeht. Immer mehr Lebensbereiche werden heutzutage digital gestaltet, sei es in der Wirtschaft und Berufswelt, in Bildung und Wissenschaft, in den Medien oder in Politik und Verwaltung. So beeinflusst die Digitalisierung die Art der Kommunikation, das Lernen und Arbeiten ebenso wie das Konsum- und Freizeitverhalten. Für die Kommunikation mit Freunden und Familie nutzen zwei Drittel der Deutschen soziale Medien. Dieses Beispiel zeigt, wie sich die neuen Kommunikationsformen unter anderem auf das soziale Miteinander auswirken. Der digitale Wandel wirkt sich aber nicht nur auf das soziale Miteinander aus, sondern auch auf das berufliche und politische Leben. So sind Menschen ohne Zugang zum Internet aus wichtigen Teilen der gesellschaftlichen Kommunikation ausgeschlossen. Auch wird argumentiert, dass Menschen mit dem Zugang sowie dem Wissen und der Fähigkeit, digitale Technologie zu nutzen, mehr Möglichkeiten haben, um beispielsweise berufliche Kontakte zu knüpfen oder Wissensressourcen abzurufen. Es wird auch davon ausgegangen, dass Minderheiten und Randgruppen wie beispielweise Migranten und Geflüchtete durch die Nutzung von Informations- und Kommunikationstechnologien einen besseren Zugang zu Informationen und Anbindung an die Gesellschaft finden können (Díaz Andrade und Doolin 2016).
Obwohl die Nutzung von Informations- und Kommunikationstechnologien viele neue Chancen mit sich bringt, können gleichzeitig auch negative Effekte auftreten. Daher sind Digitalkompetenzen wichtig, beispielsweise zur Einschätzung von Informationen im Internet, um kommerzielle oder falsche Inhalte zu identifizieren. Auch haben wissenschaftliche Studien vielfältige negative Auswirkungen bestätigt, die Internetnutzer empfinden können: von einem gesteigerten Neidempfinden bei der Nutzung von sozialen Medien bis hin zu psychischen Folgen, welche durch suchtähnliches Internet-Nutzungsverhalten hervorgerufen werden können (Krasnova et al. 2015).
Die Antwort stammt von Antonia Köster, Leiterin der Forschungsgruppe „Digitale Integration“ am Weizenbaum-Institut für die vernetzte Gesellschaft. Das Weizenbaum-Institut wird koordiniert vom Wissenschaftszentrum Berlin für Sozialforschung (WZB), einem Mitglied der Leibniz-Gemeinschaft.
Quellen:
- Initiative D21 e. V. (2018/2019) D21-Digital-Index: Jährliches Lagebild zur Digitalen Gesellschaft
- Antonio Diaz Andrade, Bill Doolin (2016) “Information and Communication Technology and the Social Inclusion of Refugees”, Management Information Systems Quarterly
- Krasnova, H., Widjaja, T., Buxmann, P., Wenninger, H., Benbasat, I. (2015) “Research Note – Why Following Friends Can Hurt You: An Exploratory Investigation of the Effects of Envy on Social Networking Sites among College-Age Users”, Information Systems Research
Zu beiden Fragen gemeinsam ist zu sagen: Das Wissen der Welt / der Menschheit ist sehr differenziert zu betrachten. Es reicht von Erfahrungen, die die Menschen in Papua-Neuguinea, die quasi noch in der Steinzeit leben, an ihre Kinder und Enkel mündlich weitergeben, bis zu umfangreichen digitalen Datenbeständen aus der Klimaforschung oder aus anderen technisch orientierten Fächern der Wissenschaft. Wissen hat viele Facetten, die von Fach zu Fach sehr unterschiedlich sind, und es gibt noch mehr Speicher, auf denen Wissen abgelegt ist. Hier reicht das Spektrum von alten Papyrusrollen z. B. in der Staatsbibliothek Preußischer Kulturbesitz in Berlin, über Massenschrifttum ab Mitte des 19ten Jahrhunderts bis zu komplexen elektronischen Datenbeständen z. B. des RatSWD.
Daher ist die Frage 1. dazu, wie man das Wissen archivieren kann, nicht so einfach zu beantworten. Je nachdem, welche Möglichkeiten und welche Inhalte eine Gedächtnisorganisation hat, kommen viele Wege in Frage. So können mittelalterliche Schriften, die oft wunderbar verziert sind, im Original erhalten werden über eine Restauration und sie müssen dann vor Schäden in der Benutzung geschützt und in klimatisch besonders ausgestatteten Räumlichkeiten gelagert werden. Um die Original zu schonen, können digitale Kopien erstellt werden, die dann über Verfahren der digitalen Langzeitarchivierung digital erhalten werden können. Bei Massenschrifttum ab den 40er Jahren des 19ten Jahrhunderts kann es ausreichen, die Werke zu digitalisieren und die digitalen Kopien über die digitale Langzeitarchivierung zu erhalten. Für weniger zentrale Werke, deren inhaltlicher Wert nicht so groß ist, dass die Verfügbarkeit in elektronischer Form wichtig ist, reicht auch eine Entsäuerung des Papiers. Digitale Forschungsdaten müssen der digitalen Langzeitarchivierung unterzogen werden, sonst veralten Formate, die Software zum Lesen, die Betriebssystem usw. und die Daten können nicht mehr ausgelesen werden. Es gibt kein Verfahren, was alle denkbaren Arten von Wissen und alle Medientypen behandelt, die es weltweit gibt. Es müssen immer eigene Lösungen erarbeitet werden.
Zu Frage 2. ist daher zu sagen, dass die Frage nach der Effizienz stark von der Aufgabe der Gedächtnisorganisation abhängt, die dieses Wissen speichert: Schon aus Kostengründen wird man jeweils das machen können, was man sich leisten kann. „Die“ effektive Methode der Speicherung und der Konservierung gibt es daher auch nicht.
Die Antwort stammt von Monika Zarnitz, Leiterin des Programmbereichs Benutzungsdienste und Bestandserhaltung am ZBW – Leibniz-Informationszentrum Wirtschaft.
1. Es kommt darauf an, über welchen Zeitraum wir sprechen
Auf sehr lange Sicht werden Print-Medien weitgehend verschwinden und ersetzt durch elektronische Medien, vorerst elektronische Versionen der Printmedien. Wenn sie verschwinden, dann nicht aufgrund von Verboten, sondern weil sie nicht mehr profitabel sind. Und nicht mehr profitabel werden sie, wenn diejenigen, die an ihnen bisher so interessiert sind, dass sie dafür ihr Geld ausgeben, die interessierenden Inhalte leichter oder preiswerter ohne Papier bekommen und sie leichter und angenehmer nutzen können.
Die Vervielfältigung von Printmedien ist schon heute teurer als die elektronische Vervielfältigung der gleichen Inhalte.
Hinzu kommt die Verbreitung, also die Zustellung zu den Leserinnen und Lesern, sei es mit der Post, über den Zeitschriftenhandel, den Buchhandel oder über Bibliotheken. Für die Zustellung von Zeitschriften, Zeitungen und Briefen gelten bei der Post bisher besonders günstigere Konditionen als für Briefe mit gleichem Gewicht. Es ist aber ungewiss, wie lange das so bleiben wird.Trotz der höheren Vervielfältigungs- und Vertriebskosten gibt es die Printmedien immer noch. Es gibt also weitere Kriterien. Eine davon ist die Gewohnheit: viele Menschen sind es (noch) nicht gewohnt, die Inhalte von Printmedien (Bücher, Zeitschriften, Zeitungen) elektronisch zu nutzen. Sie bevorzugen die Printmedien u. a. deshalb, weil sie die Medien überall hin mitnehmen, mit anderen teilen und ohne technisches Gerät nutzen und leicht entsorgen können (weil es fast überall „Papierkörbe“ gibt).
2. Es kommt darauf an, über welche Printmedien wir sprechen.
Als stärksten betrifft es die Zeitschriften. Fachzeitschriften werden wohl am schnellsten als Printmedien verschwinden, weil für die berufliche Nutzung der schnelle Zugriff über das Netz ein Vorteil ist gegenüber der Ausleihe aus einer Bibliothek. Es gibt bereits Fachzeitschriften, die nur noch elektronisch erscheinen, ganz ohne eine Printausgabe.
Auch bei Publikumszeitschriften gibt es einen Trend zur Verbreitung der gleichen Inhalte über das Internet. Zum Beispiel wird die ADAC-Mitgliederzeitschrift, eine der auflagenstärksten Zeitschriften in Deutschland, den Mitgliedern wahlweise nicht mehr als Printmedium, sondern elektronisch zugestellt. Das US-Nachrichtenmagazin Newsweek wurde 2013 gar nicht mehr als Printmedium, sondern nur noch elektronisch verbreitet. Dies war jedoch wirtschaftlich ein Misserfolg, so dass Newsweek seit 2014 auch wieder als Printmedien erscheint.Zeitungen werden das nächste Printmedium sein, das nach und nach verschwindet. Die Druck- und Vertriebskosten sind hoch, andererseits werden die Haushalte kleiner, so dass sich häufig nicht mehrere Personen ein Zeitungsabonnement die Nutzung und die Kosten teilen, sondern diese Kosten von einer einzelnen Person getragen werden müssen. Ein Beispiel für den starken Zuwachs der Online-Verbreitung von Zeitungen ist die New York Times. Sie hatte Ende 2018 noch etwa 900.000 Print-Abonnenten, aber rund 3,4 Mio. Digital-Only-Abonnenten.
Auch bei Büchern ist es sehr verbreitet, dass sie gleichzeitig als Print-Ausgabe und als E-Book erscheinen. Hier scheinen sich die Gewohnheiten der Leserinnen und Leser aber erst allmählich zu verändern. Wenn aber der Absatz von gedruckten Büchern stärker zurückgeht, kann es zu einem Kreislauf kommen, in dem immer mehr Buchhandlungen geschlossen werden, der direkte Zugang der möglichen Kundschaft zum vielfältigen Buchangebot eingeschränkt wird und damit der Absatz gedruckter weiter sinkt und damit E-Books schneller an Bedeutung gewinnen.
Vornehmlich bei Schulbüchern ist anzunehmen, dass sie für die Unterrichtung der jüngeren Kinder noch sehr lange Bestand haben werden. Das mag außerdem für regional oder lokal verbreitete Wurfsendungen wie Prospekte gelten, die versuchen, auch Leserinnen und Leser zu erreichen, die nicht bewusst nach Inhalten mit kommerzieller (oder politischer) Werbung suchen, bei denen es sich aber bis auf weiteres lohnt, sie damit zu konfrontieren. Auch hier werden letztlich die Verbreitungskosten der ausschlaggebende Faktor sein.
Die Antwort stammt von Hermann-Dieter Schröder, Senior Researcher Medienwirtschaft & Medienorganisation am Leibniz-Institut für Medienforschung, Hans-Bredow-Institut (HBI).
Kosmos
Zu diesem Thema gibt es Grafiken, die eine Art Trichter darstellen. Sie sind gar nicht so schlecht. Man muss aber beachten, dass der Trichter nicht beliebig tief ist. Ein Beispiel für gute Bilder sind diese hier. Da sieht man, dass es kein echter Trichter ist, sondern eine Vertiefung mit einem Boden, also kein Loch im Boden. Die Tiefe des Bodens und damit auch die Stärke der Krümmung hängt von der Masse ab. Je weniger Masse, desto schwächer die Krümmung. Die Richtung der Krümmung orientiert sich immer in Richtung der Masse. Wenn also nur ein Objekt da ist, dann zeigt sie ins Massenzentrum. Der Krümmungsvektor ist also an jeder Position anders. Je weiter man weg vom Objekt ist, desto schwächer ist die Krümmung und desto "kleiner" die Länge des Krümmungsvektors. Bei gleichem Abstand von der Masse, aber gegenüberliegender Seite, würde der Vektor (gleich lang, da gleicher Abstand) in die entgegengesetzte Richtung zeigen.
Bei mehreren Objekten ist das Problem nicht so einfach beschreibbar. Dann sind mehrere "Dellen" im Raum und der Vektor zeigt abhängig vom Ort und der Nähe zu verschiedenen Massen unterschiedlich stark in unterschiedliche Richtungen. Ein gutes Bild dazu wäre dieses. Da sieht man zwei Objekte und wenn man sich mal zwischen beide Objekte setzt, dann gibt es eine Stelle, an der sich keine Krümmung zur Sonne oder Erde ergibt. Näher an der Sonne oder näher an der Erde ändert sich die Krümmung in Richtung der jeweiligen Masse. Da beide Objekte unterschiedliche Massen haben, ist die "Gravitationsmitte" auch nicht in der geometrischen Mitte zwischen beiden Objekten, sondern verschoben.
Wenn man jetzt Massen immer größer macht und konzentrierter (z.B. Schwarze Löcher), dann wird der Boden der Delle immer tiefer. Und wenn man gedanklich alle Masse in einen Punkt quetscht, dann entsteht ein unendlich tiefer Trichter. Dort können sich im Grenzfall die Trichterseiten berühren. Die Konsequenzen einer solchen Singularität sind vielfältig - nicht nur die Krümmung des Raumes, auch die Verzögerung der Zeit und die Entstehung einer Umgebung, von der auch Licht nicht entweichen kann (Stichwort Ereignishorizont beim Schwarzen Loch).
Eine kleine Anmerkung noch: Bei der Krümmung des Raumes lassen sich mathematisch nicht einfach so Vektoren verwenden, sondern Tensoren. Wenn man also da weitersuchen und mehr drüber wissen will, dann ist das Stichwort "Krümmungstensor".Die Antwort stammt von Philipp Girichidis, Kosmologe am Leibniz-Institut für Astrophysik Potsdam (AIP).
Die Form des Universums ist noch unbekannt. Die einfachste Annahme geht
von einer Kugelform aus, jedoch mit einer so geringen Krümmung, dass es
lokal flach aussieht. In anderen Worten: zwei parallel verlaufende
Laserstrahlen weichen erst nach langer Zeit von ihrer Parallelität ab.
Es könnte aber auch wie ein Donut geformt sein, so dass man, wenn man
lange genug in eine Richtung fährt, wieder an den Ausgangspunkt
zurückkehrt.Es gibt keinen Mittelpunkt des Universums. Genauso verhält es sich übrigens
mit der Erdoberfläche - obwohl die Erde als Kugel einen Mittelpunkt hat,
hat ihre Oberfläche keinen. Die Ausdehnung des Universums kann man sich
wie einen aufgehenden Hefeteig mit Rosinen vorstellen: Alle Rosinen
bewegen sich voneinander weg, befinden sich aber nicht im Zentrum der
Ausdehnung.Die Antwort stammt von Noam Libeskind. Er leitet die Gruppe „Kosmographie und großräumige Strukturen“ am Leibniz-Institut für Astrophysik Potsdam (AIP).
Um eine solche Frage beantworten zu können, braucht man extrem empfindliche Beobachtungen. Mit dem bloßen Auge können wir ja gerade einmal 3 Galaxien am ganzen Himmel erkennen (die Andromedagalaxie am Nordhimmel sowie die Kleine und die Große Magellansche Wolke am Südhimmel). Mit großen Teleskopen sind es viel mehr; am meisten sieht man mit dem Hubble-Weltraumteleskop, das sich außerhalb der Erdatmosphäre befindet und deshalb auch noch ganz schwache ferne Galaxien erkennen kann, die selbst mit den größten Teleskopen am Erdboden nicht zu finden wären. Die meisten Galaxien lassen sich in einer Aufnahme finden, die das Ergebnis einer superlangen Belichtung mit Hubble ist (und auf Englisch das “Hubble Ultra-Deep Field” genannt wird). In einem Gebiet, das einen Winkel von nur einem zwanzigstel Grad am Himmel umfasst (etwa entsprechend einem Stecknadelkopf in einem Meter Entfernung), konnten über 10000 Galaxien gefunden werden. Allerdings ist es undenkbar, den ganzen Himmel auf diese Weise zu erfassen, dafür würde Hubble über eine Million Jahre benötigen. Wir müssen also die Ergebnisse aus dem Hubble Ultra-Deep Field auf den ganzen Himmel hochrechnen; das ergibt dann etwa 100 Milliarden Galaxien am gesamten Himmel. Zusätzlich dürfte es auch noch viele Galaxien geben, die selbst für Hubble zu lichtschwach sind; wenn man deren Anzahl noch hinzuschätzt, vergrößert sich die Gesamtzahl je nach Annahme dann auf bis zu einer Billion Galaxien.
Das ist die Zahl der Galaxien im *beobachtbaren* Universum. Inzwischen wissen wir aber auch, dass das Universum unendlich ist – es gibt also vermutlich auch unendlich viele Galaxien. Die allermeisten davon liegen allerdings außerhalb unseres beobachtbaren Horizonts, wir werden also nie in der Lage sein, ihre Existenz tatsächlich zu bestätigen. Deshalb ist es sinnvoller, sich bei der Beantwortung der Eingangsfrage auf Galaxien im beobachtbaren Universum zu beschränken.
Die Antwort stammt von Lutz Wisotzki, Leiter der Forschungsabteilung Galaxien und Quasare am Leibniz-Institut für Astrophysik Potsdam (AIP) und Professor für „Beobachtende Kosmologie“ an der Universität Potsdam.
Unter dem Urknall verstehen wir Astrophysiker den Anbeginn von Raum und Zeit. Dem gegenwärtigen Wissensstand zufolge gab es anfangs einen heißen Urknall. Durch die Expansion des Universums kühlte es sich im weiteren Verlauf ab. Als Physiker können wir aber keine Aussagen über die exakte Stunde Null treffen, da dort unsere physikalischen Grundgesetze ihre Gültigkeit verlieren und zusammenbrechen. Unsere Theorien sind erst einen winzigen Wimpernschlag später gültig, ab der sogenannten Planckzeit: Diese beträgt etwa 10^{-43} Sekunden, was eine Null Komma Null, gefolgt von weiteren 41 Nullen und einer Eins ist.
Kurz nach der Planckzeit hat das Universum wahrscheinlich eine sehr interessante Phase durchlaufen: Der gegenwärtig favorisierten Theorie der kosmischen Inflation zufolge hat es sich immer schneller ausgedehnt, so dass wir hier von einer beschleunigten Expansion sprechen. Während diese Theorie auf sehr elegante Weise einige Probleme des Standardmodells der Kosmologie löst und es einzelne Beobachtungshinweise auf sie gibt, ist sie noch nicht abschließend nachgewiesen worden. Im Anschluss an diese inflationäre Epoche wurde das Universum wieder abgebremst. Dieser Bremsvorgang hat die Materie wieder auf unvorstellbar hohe Temperaturen aufgeheizt, so dass weder Atome noch Atomkerne existierten und die einzelnen Elementarteilchen (Quarks, Elektronen, …) in der kosmischen Ursuppe miteinander wechselwirken konnten.
Die kosmische Expansion kam dabei allerdings nicht zum Stillstand, das Universum expandierte weiter – jedoch langsamer als zuvor. In den ersten drei Minuten unseres Universums wurden die ersten leichten chemischen Elemente gebacken (zumindest deren Atomkerne), welches die Ära der Nukleon-Synthese darstellt. Durch die kosmische Expansion wurden gegenseitige Teilchen-Stöße immer seltener und schließlich konnten sich neutrale Wasserstoff-Atome bilden. Während Lichtteilchen zuvor mit den geladenen Ionen und Elektronen wechselwirkten, konnte das Licht sich nun ungehindert ausbreiten. Wir können das Licht, welches damals freigesetzt wurde, noch heute empfangen – allerdings verlor es aufgrund der Expansion Energie und wurde in den Wellenlängenbereich der Mikrowellen verschoben. Daher sprechen wir vom kosmischen Mikrowellenhintergrund, welcher es uns ermöglicht, auf sehr genaue Weise die kosmologischen Parameter zu bestimmen und die Theorie des Urknalls (erfolgreich) zu testen. Dieser Mikrowellenhintergrund wurde etwa 400.000 Jahre nach dem Urknall freigesetzt, also relativ kurz nach dem Urknall im Vergleich zum Alter unseres Universums von 13,7 Milliarden Jahren. Würde man das Zeitalter des Universums mit dem eines Menschen vergleichen, so stellten Beobachtungen dieses kosmischen Mikrowellenhintergrunds Babybilder des Universums dar.
Wir haben mittlerweile diese frühen und späten Phasen der kosmischen Expansion genau vermessen und können mit Sicherheit sagen, dass es einen heißen Urknall kurz nach Anbeginn der Zeit gegeben haben muss. Wir können allerdings keine Aussagen über Zeiten vor der Planck-Zeit machen, da für diese kleinen Zeitintervalle unsere physikalischen Gesetze nicht gültig sind. Also können wir auch keine Aussagen darüber treffen, wie der Urknall entstanden sein könnte. Natürlich gibt es auch darüber verschiedene Theorien, wie beispielsweise die (spekulative) Theorie des ekpyrotischen Universums (vom altgriechischen ekpyrosis „Weltenbrand“) welches ein zyklisches Universum darstellt, das sich ausdehnt, wieder zusammenzieht und nach erneuter Kollision wieder expandiert. Diese Frage nach dem Urknall und andere spannenden Fragen der Kosmologie machen den Reiz dieser Wissenschaft aus und geben uns Hoffnung, weitere neuen Erkenntnisse über unser Universum zu erlangen.
Die Antwort stammt von Christoph Pfrommer, Abteilungsleiter „Kosmologie und großräumige Strukturen“ am Leibniz-Institut für Astrophysik Potsdam (AIP).
Bereits Mitte des vergangenen Jahrhunderts bekamen besonders schwere Wirbelstürme im Atlantik und Pazifik vom US-Wetterdienst einen Namen zugewiesen, um sie besser unterscheiden zu können. Seit 1954 werden auf Initiative des Meteorologie-Instituts der Freien Universität Berlin (FU Berlin) alle Hoch- und Tiefdruckgebiete, die das Wetter in Mitteleuropa beeinflussen, mit einem Namen versehen. Die „Tiefs“ bekamen fortan weibliche, die „Hochs“ männliche Namen. Die Benennung erfolgte dabei nach einer Liste, die jeweils 260 Namen (je 10 Namen pro Buchstabe) umfasste und nacheinander vergeben wurden.
In den folgenden Jahrzehnten war dieses System meist nur bei Meteorologen bekannt, bevor in den 1990er Jahren einige schwere Sturmtiefs in den Medien größere Aufmerksamkeit erhielten und damit auch die Namensvergabe von Hoch- und Tiefdruckgebieten. Seit 1998 wechselt die Zuordnung weiblicher und männlicher Vornamen zu Hoch und Tiefs jährlich. Dies geschah zur Vermeidung einer möglichen Diskriminierung von Frauen, da Tiefdruckgebiete landläufig eher mit schlechtem Wetter, Hochdruckgebiete dagegen mit schönem Wetter in Verbindung gebracht werden. Zur Finanzierung ihrer studentischen Wetterbeobachtung bietet die FU Berlin seit 2002 „Wetterpatenschaften“ an. Seitdem können die Namen für Tiefdruckgebiete für 199€ und solche für die langlebigeren Hochdruckgebiete für 299€ von Jedermann erworben werden, z.B. als Geburtstagsgeschenk.
Mittlerweile taufen auch andere europäische Länder vorzugsweise schwere Sturmtiefs, allerdings nach eigenen Kriterien, sodass diese Tiefs je nach Region mehrere, verschiedene Namen erhalten können.
Die Antwort stammt von Robert Wagner vom Leibniz-Institut für Troposphärenforschung (TROPOS).
Die Natur bietet uns eine Vielzahl nachwachsender Rohstoffe. Die Frage ist, ob wir sie für unsere Bedürfnisse überhaupt nutzbar machen und wofür wir sie einsetzen können. Viele der nachwachsenden Rohstoffe gibt es nämlich nicht in ausreichender Menge, was deren ökonomische Verwendung unmöglich macht. Oder ihre einzelnen Inhaltsstoffe lassen sich nur mühsam voneinander abtrennen, wie z.B. bei natürlich vorkommenden Proteinen, die aus 20 verschiedenen Aminosäuren bestehen. Einige nachwachsende Rohstoffe – Stärke und Zucker, z.B. aus Mais, Zuckerrübe oder Zuckerrohr, sind unsere Nahrungsgrundlage. Deren Nutzung für andere Zwecke ist nicht tragbar. Algen werden häufig als nachwachsender Rohstoff mit viel Potential gehandelt. Allerdings wird für deren Anwendung extrem viel Wasser benötigt und viele der Methoden zur Nutzbarmachung sind unwirtschaftlich und letztlich nicht so ökologisch wie erhofft.
Die Bereitstellung ausreichender Mengen von Energie- und Kraftstoffen aus nachwachsenden Rohstoffen ist aktuell nicht realistisch. Deswegen ist die Energiegewinnung aus Sonne, Wasser, Wind und geothermischen Quellen auch so wichtig. Unser Bedarf an Chemikalien allerdings kann durch nachwachsende Rohstoffe gedeckt werden. Bringt uns das weiter? Ja, denn Chemikalien bilden die Grundlage für viele Gebrauchsgegenstände unseres Alltages: so z.B. Medikamente, Reinigungs- & Waschmittel, Lacke & Farben, Kosmetik, Duftstoffe, Düngemittel für die Landwirtschaft und nicht zuletzt Kunststoffe.
Der bislang interessanteste nachwachsende Rohstoff für die Herstellung von Chemikalien ist Lignocellulose. Davon gibt es ausreichende Mengen, z.B. in Form von Holz, als Abfälle der Landwirtschaft oder der Papierindustrie. Genügend, um allen heutzutage existierenden Chemikalien als Rohstoff zu dienen.
Wie geht man also weiter vor? Aus Lignocellulose wird Cellulose abgetrennt und daraus Zucker hergestellt. Der Zucker dient dann entweder als Ausgangsstoff für die fermentative – also biochemische – Herstellung von Chemikalien oder für die Herstellung in katalytischen Prozessen. Zwar werden noch nicht alle heutzutage verwendeten Chemikalien auf diese Weise hergestellt, aber es werden täglich neue Verfahren publiziert da sehr viele Wissenschaftler auf diesem Gebiet arbeiten. Lignin, das nach der Abtrennung von Cellulose aus Lignocellulose überbleibt, kann noch nicht so effektiv genutzt werden. Aber auch auf diesem Gebiet arbeiten Forscher intensiv an Lösungen zur Nutzbarmachung für die Chemikalienherstellung.
Rohstoffe, die heute auch schon Verwendung finden, sind Fettsäuren, die man aus Fetten gewinnen kann und Terpene, die bei der Papierproduktion anfallen. Immer häufiger dienen auch Abfälle aus der Landwirtschaft und sogar der Fischerei – hier sei Chitin genannt – als Rohstoffe. Auch hier gibt es noch Potential.
Es ist natürlich nicht auszuschließen, dass es weitere, noch nicht bekannte nachwachsende Rohstoffe gibt. Es ist aber eher unwahrscheinlich, dass diese in ausreichenden Mengen vorhanden sind.
Die Antwort stammt von Johannes G. de Vries, Vorstandsmitglied und Bereichsleiter des Forschungsbereiches Katalyse mit erneuerbaren Rohstoffen am Leibniz-Institut für Katalyse e.V. Rostock (LIKAT).
Es gibt prinzipiell zwei Arten von Fälschungen bei Diamant:
(1) Imitationen, d.h. Verwendung von natürlichen oder künstlichen Stoffen, die durch Aussehen oder Farbe den natürlichen Diamant imitieren, aber nicht seine physikalischen Eigenschaften oder chemische Zusammensetzung besitzen. Hierzu wird Moissanit, Zirconia, u.a. verwendet. Diese Imitationen können aufgrund der abweichenden physikalischen Eigenschaften (Kristallstruktur, z.B. durch Röntgenanalyse oder Raman-Spektroskopie bestimmbar) oder chemischen Zusammensetzung (z.B. durch energiedispersive Röntgenspektroskopie ermittelbar) erkannt werden. In vielen Fällen hilft auch die Untersuchung der Wärmeleitfähigkeit in Kombination mit der elektrischen Leitfähigkeit. Diese beiden physikalischen Parameter werden einzeln oder in Kombination in vom Handel erhältlichen Diamantenprüfgeräten eingesetzt. Allerdings sind inzwischen auch modifizierte Moissanit-Imitationen auf dem Markt, die von solchen Diamantenprüfgeräten nicht mehr erkennt werden können, so dass hier nur die Ermittlung der chemischen Zusammensetzung und/oder Kristallstruktur weiterhilft.
(2) Synthetische Diamanten, d.h. Diamanten, die in einem industriellen Prozess aus Kohlenstoff durch Hochdrucksynthese hergestellt wurden. Diese unterscheiden sich in ihren physikalischen Eigenschaften und der chemischen Zusammensetzung nicht von natürlich entstandenen Diamanten und sind daher viel schwieriger, manchmal auch gar nicht zweifelsfrei von natürlichen Diamanten zu unterscheiden. Viele synthetisch produzierte Diamanten sind vom Hersteller gekennzeichnet und mit einem durch einen Laser eingravierten Monogramm „CREATED“ + Labor-Identifikationsnummer versehen. Dies kann bei einer optischen Untersuchung des Stückes unter dem Mikroskop erkannt werden. Allerdings halten sich nicht alle Hersteller von synthetischen Diamanten an diese Übereinkunft. Weitere Erkennungsmöglichkeiten von synthetischen Diamanten sind manchmal noch Reste eines metallischen Flussmittels, die sich in winzigen metallischen Körnern als Einschlüsse wiederfinden oder die im Diamant vorhanden Einschlüssen. Hier zeigen synthetische Diamanten oft keine bzw. andere Einschlüsse als natürliche Diamanten.
Die Antwort stammt von Ralf Thomas Schmitt, Kurator der mineralogischen Sammlung am Museum für Naturkunde Berlin.
Die chemischen Elemente sind in mehreren Phasen entstanden:
- In einem Zeitraum von bis zu wenigen Sekunden nach dem Urknall entstanden bei der Abkühlung des Plasma die Bausteine der Elemente, die sich innerhalb von wenigen Minuten zu den leichtesten Elementen Wasserstoff und Helium sowie in geringen Mengen Lithium und Beryllium verbanden.
- Mehrere hundert Millionen Jahre später entstanden die ersten Sterne, in deren heißen Zentren Kernreaktionen einsetzten. Dabei fusionierten Wasserstoff und Helium zu schwereren Elementen. In diesem Prozess können Elemente bis zur Ordnungszahl 26, dem Eisen, gebildet werden.
- Elemente mit höherer Ordnungszahl als 26 entstehen in den letzten Entwicklungsstadien massereicher Sterne, den sogenannten Roten Riesen, und in gewaltigen Sternexplosionen, den Supernovae.
Die Antwort stammt von Ralf Thomas Schmitt, Kurator der mineralogischen Sammlung am Museum für Naturkunde Berlin.
Wie groß ist das Weltall? Die ehrliche Antwort ist: Wir wissen es nicht – und es spielt eigentlich auch keine Rolle. Wir wissen, dass das Universum etwa 13,8 Milliarden Jahre alt ist. Da die Lichtgeschwindigkeit endlich ist, können wir nicht weiter sehen als maximal 13,8 Milliarden Lichtjahre, also die Distanz, die das Licht in dieser Zeit zurücklegen kann. In der Tat kommen wir dieser Grenze sehr nahe, die gemessene kosmische Hintergrundstrahlung entstand, als das Universum gerade einmal 400.000 Jahre alt war.
Wir erreichen die theoretische Grenze unseres Horizonts also bis auf 400.000 Jahre. Innerhalb dieses Horizonts sehen wir keinerlei Hinweise auf eine Grenze, im Gegenteil: Alles spricht dafür, dass das Universum sehr viel größer ist als der Teil, den wir beobachten können. Womöglich ist es sogar unendlich groß. Allerdings hat die genaue Größe auch keine unmittelbare Bedeutung, denn da sich alle Kräfte im Kosmos ebenfalls maximal mit Lichtgeschwindigkeit ausbreiten können, entfalten mögliche Bereiche des Universums außerhalb unseres Horizonts auf den uns sichtbaren Bereich keine Wirkung.
Die Antwort stammt von Matthias Steinmetz, wissenschaftlicher Vorstand des Leibniz-Instituts für Astrophysik Potsdam (AIP) und Direktor des Forschungsbereichs Extragalaktische Astrophysik.
Diese Aufgabe klingt in den Ohren eines Angewandten Mathematikers zunächst nach einem Optimierungsproblem dichtester Kugelpackungen. Bei genauerer Betrachtung der Frage kommen ihm allerdings ein paar Modellierungsfragen: Welche Form hat denn ein Engel? Ist sie dreidimensional oder liegt sie in einem speziellen topologischen Raum? Welche Definition eines Engels soll denn verwendet werden? „Gottesbote“ hilft nicht viel weiter. Sind die benutzten Engel alle gleich? Wie groß ist ein Engel? Und andererseits: Wie groß ist die Nadelspitze? Ziemlich schnell versteht er, dass „Nadelspitze“ synonym sein soll für „ein Punkt“. In Zeiten eines Elektronenmikroskops kann man allerdings eine Nadelspitze durchaus auch molekular auflösen und ihren Molekülen geometrische Angaben zuordnen wie Dicke, Abstände, Volumina. Aber da unser Angewandter Mathematiker auch nach längerem Nachdenken und Googeln keine Idee hat, welches räumliche Modell er für einen Engel ansetzen soll, kommt er bald zum Schluss, dass das Problem eher ein philosophisches ist.
Er kommt auf eine neue Bedeutungsebene: Die Nadelspitze ist nur ein Punkt im elementarsten Sinne des Wortes; sie hat keinerlei räumliche Ausdehnung. Und ein Engel kann auch nichts Räumliches sein, sondern etwa eine Idee, etwas Immaterielles. So weit gekommen, ist der nächste Reflex unseres Angewandten Mathematikers, dass die Frage trivial ist in der Hinsicht, dass natürlich unendlich viele solche unfassbaren, materielosen Dinge in einem Punkt Platz haben müssen, denn sie nehmen ja nicht einmal den unendlich kleinen Raum ein, den ein Punkt bietet. Aber schon tauchen die nächsten Fragen auf: Wie viele Engel sind es denn, die ich zur Verfügung habe, um sie in diesen Punkt zu setzen? Endlich viele? Unendliche viele? Überabzählbar viele? Aus der Maßtheorie kennt man ja den Umgang mit der Unendlichkeit, dass Unendlich mal Null gleich Null ist, aber was soll „Überabzählbar unendlich mal Null“ sein? Auch Null? Am einfachsten wäre es, wenn es nur endlich viele Engel gäbe, aber wer kann das einem schon garantieren? Schon der Umgang mit abzählbarer Unendlichkeit ist nicht leicht und hielt und hält die Mathematik seit Jahrhunderten auf Trab.
Beim weiteren Grübeln und Suche nach einem guten mathematischen Modell kommt unserem Angewandten Mathematiker eine weitere Frage: Wo ist diese Nadelspitze eigentlich? Ist sie irgendwo verortet, kann man hinreisen? Oder steht sie einfach nur für einen „Ort“ schlechthin? Vielleicht auch gar nicht in einem euklidischen Vektorraum, nicht einmal in einer hyperbolischen Mannigfaltigkeit, sondern vielleicht nur in den Gedanken eines Menschen? Welches Menschen? Ich kann doch nicht gemeint sein, oder? Vielleicht sollte man hier die Gedanken eines Menschen ansetzen, der sich auskennt mit den Voraussetzungen des Problems? Da gibt es doch ziemlich viele. Aber dann bin ich eigentlich doch gar nicht zuständig!
Und so kommt schließlich unser Angewandter Mathematiker zum endgültigen Schluss, dass dieses Problem gar nicht seine Sache ist, sondern am besten in die Hände eines Geistlichen gelegt werden sollte. Als er ein wenig weiter googelt, stellt er plötzlich fest, dass er mit dieser Ansicht auch gar nicht alleine ist: Jemand aus einer ganz anderen Zunft, nämlich der Zunft der Dichter, hat dies schon lange vor ihm geschlossen:
Scholastikerprobleme I
Wieviel Engel sitzen können
auf der Spitze einer Nadel –
wolle dem dein Denken gönnen,
Leser sonder Furcht und Tadel!„Alle!“ wirds dein Hirn durchblitzen.
„Denn die Engel sind doch Geister!
Und ein ob auch noch so feister
Geist bedarf schier nichts zum Sitzen.“Ich hingegen stell den Satz auf:
Keiner! – Denn die nie Erspähten
können einzig nehmen Platz auf
geistlichen Lokalitäten.[…]
Christian Morgenstern (1871-1914)
—————————————————
Die Antwort stammt von Wolfgang König, stellvertretender Direktor und Leiter der Forschungsgruppe „Stochastische Systeme und Wechselwirkungen“ am Weierstraß-Institut sowie Professor für Wahrscheinlichkeitstheorie am Institut für Mathematik der Technischen Universität Berlin.
Dies ist eine Glaubensfrage, die zu allen Zeiten immer wieder gestellt wurde. Jeder und jede muss sie individuell, für sich selbst beantworten. Denn wissenschaftlich nachweisen kann man die Existenz Gottes bzw. eines Gottes nicht. Aber überliefert sind uralte Geschichten, die, wie z.B. in der Bibel, von menschlichen Begegnungen mit einem Gott erzählen, der sich – im Alten Testament – selbst als Jahwe vorgestellt und sich – wie die Geschichten des Neuen Testaments berichten – später in einem Menschen offenbart habe, der den Namen Jesus trägt und aus Nazareth stammt. Dies sind religiöse Traditionen, deren Wahrheitsgehalt nur geglaubt, nicht aber bewiesen werden kann. Dennoch hat man schon im Mittelalter versucht, die Existenz Gottes wissenschaftlich-philosophisch zu erweisen. Der Theologe Anselm von Canterbury entwickelte (vor dem Hintergrund einer platonisch-augustinischen Ontologie und Erkenntnistheorie) einen aus Selbst- und Welterkenntnis abgeleiteten Gottesbeweis, der in Gott das erkennt, „über das hinaus nichts Größeres gedacht werden kann“ und das zugleich das „höchste Gut(e)“ ist. Thomas von Aquin erstellte einen Gottesbeweis auf der Basis des Kausalitätsdenkens und definierte Gott als den „ersten Beweger“. Dennoch blieb er zutiefst davon überzeugt, dass die menschliche Vernunft die Existenz Gottes nicht begründen könne. Selbst ein Aufklärer wie René Descartes entfaltete einen Gottesbeweis, der davon ausging, dass der Mensch als endliches, begrenztes Wesen die Idee eines unendlichen göttlichen Wesens nicht selbst hervorgebracht haben könne, sondern dass ihm diese Gottesidee eingepflanzt sei. Der Begriff des Unendlichen müsse also dem Endlichen vorausgehen.
Die Zeit der Gottesbeweise ist heute lange vorbei. Schon im frühen 19. Jahrhundert wurde das Bestreben, die Existenz Gottes mit wissenschaftlichem Objektivitätsanspruch nachzuweisen, endgültig aufgegeben. Theologie, Geistes- und Naturwissenschaften bildeten gemeinsam den Wissenschaftskosmos der Neuzeit. Denn weder die theologischen Wissenschaften noch die Religionsgeschichte zielen darauf, solche Nachweise zu entfalten. Ihr Anliegen ist vielmehr zu analysieren, wie Gottesglaube und Religion zu allen Zeiten das Zusammenleben der Menschen beeinflussten und die Welt in ihren politischen und gesellschaftlichen Konstellationen beständig veränderten, unabhängig davon, ob ein Gott letzten Endes existiert oder nicht. Gibt es Gott? Darauf kann nur der individuelle Glaube antworten, nicht aber die Wissenschaft.
Die Antwort stammt von Irene Dingel, Direktorin des Leibniz-Instituts für Europäische Geschichte (IEG).
Eine weitere Antwort stammt von Samuli Schielke, Leibniz-Zentrum Moderner Orient (ZMO):
Unabhängig davon, ob Gott eine Erfindung von Menschen ist oder ihr Schöpfer, kann man sagen, dass es ihn gibt. Wenn Gläubige ihn anbeten, ihre Hoffnungen und Werte an ihn knüpfen, ist das aus Sicht der Sozialwissenschaften eine unbestreitbare Realität. Gottes Befehle werden in Praxis umgesetzt, seine Gnade und Liebe bieten Menschen Trost, und die Androhung seiner Strafe nach dem Jüngsten Gericht lässt Menschen ihn fürchten. Diese Handlungen und Gefühle gibt es. Ohne solche Beziehungen, die Menschen mit Gott und Göttern pflegen, kann man Religionen nicht richtig verstehen. Ob das nun aber daher rührt, dass Menschen von sich aus in einer sinn- und seelenlosen Welt Sinn und Seelen erfinden und erschaffen, oder ob eine unsichtbare übermenschliche Wirklichkeit dahinter steht – solche Fragen gehören nicht in den Aufgabenbereich der Sozialwissenschaften.
Weiterführende Informationen von Samuli Schielke zum Thema finden Sie hier.
Kommt darauf an, was man mit Außerirdischen meint. Bislang hat die Menschheit einige Tausend Planeten in anderen Sonnensystemen entdeckt. Diverse davon befinden sich in einer Umlaufbahn, wo theoretisch flüssiges Wasser auf der Planetenoberfläche existieren könnte – dies gilt allgemein als eine Grundbedingung für Leben, wie wir es kennen. Wenn man von den bisher entdeckten Planeten hochrechnet, dann kann man sogar erwarten, dass etwa einer von sechs Sternen einen erdähnlichen Planeten in dieser sogenannten „bewohnbaren Zone“ beherbergen könnte. Damit kommt man auf wirklich sehr viele Planeten allein in unserer Milchstraße, auf denen sich Leben entwickelt haben könnte – vermutlich mehr als 10 Milliarden. Zumindest das Entstehen von einfachen Lebensformen wie Bakterien auf irgendeinem anderen Planeten ist bei einer solch großen Zahl von Chancen nicht unwahrscheinlich. Wenn man mit Außerirdischen aber nicht Einzeller, sondern ganze Zivilisationen meint, dann wird es natürlich sehr viel schwieriger. Da bleibt als Antwort nur ein sehr dehnbares „Vielleicht“.
Die Antwort stammt von Katja Poppenhäger vom Leibniz-Institut für Astrophysik (AIP).
Bildung
In die Zukunft gerichtete Fragen sind wichtige, aber nicht ganz leicht zu beantwortende Fragen. Unsere Antwort leiten wir einerseits aus Überlegungen zur Frage „Wie sieht eigentlich eine gute Schule aus?“ ab, aber auch mit dem Blick darauf, welchen Themen sich die „Schulen von morgen“ aus unserer Sicht stellen müssen. Unsere Ideen sind hierbei gespeist aus bisherigen Kenntnissen über Schulen und das deutsche Schulsystem sowie den gesellschaftlichen als auch bildungspolitischen Entwicklungen der letzten Jahre.
Die bildungspolitischen Entwicklungen der letzten Jahre haben zu verschiedenen Veränderungen geführt, die mit einer zunehmenden Heterogenität und Vielfalt in den Schulen und Klassen einhergehen. So wurden mit dem Ziel einer höheren Bildungsgleichheit nicht nur Reformen im Schulsystem umgesetzt, sondern auch Maßnahmen ergriffen, um eine stärkere Inklusion von Schülerinnen und Schülern umzusetzen. Bildungsteilhabe wird zunehmend Kindern und Jugendlichen mit sonderpädagogischem Förderbedarf, mit unterschiedlichen sprachlichen und lernbezogenen Voraussetzungen in allgemeinen Schulen ermöglicht. Die Heterogenität in den Schulen und Klassen zeigt sich beispielsweise auch in verschiedenen Altersgruppen, die beim jahrgangsübergreifenden Lernen in der Grundschule gemeinsam lernen, oder über die Klassenzusammensetzungen über Schülerinnen und Schüler mit und ohne Migrationshintergrund und mit verschiedenen Herkunftssprachen. Der förderliche Umgang mit dieser bereits bestehenden Vielfalt in den Schulklassen richtet sich sowohl an das pädagogische Personal als auch an die Schülerinnen und Schüler selbst. Die damit verbundenen Herausforderungen und vielen Chancen werden nicht nur die Ausrichtung des Unterrichts, sondern auch die sozialen Interaktionen auf dem Schulhof weiterhin mitgestalten.
An die Gestaltung von Lern- und Unterrichtsinhalten werden neue Anforderungen gestellt, um wichtige aktuelle gesellschaftliche und ökologische Themen aufzugreifen und diese noch direkter in die Schulen zu tragen. Vielfältige Unterrichtsthemen beispielsweise zur Nachhaltigkeit, dem Klimawandel, der Migration und deren Gründen werden in der Schule zunehmend behandelt und lassen sich mit den Lehrplänen verschränken. Dadurch kann auch die gesellschaftliche Beteiligung von Schülerinnen und Schülern gestärkt und damit zukunftsorientiertes Wissen und Kompetenzen in der Schule erworben und ausgebaut werden.
Nicht zuletzt wird das Lernen in einerdigitalen Welt ein großes Thema der Schule von morgen (oder auch schon von heute) sein. Vor kurzem ist der DigitalPakt von Bund und Ländern gestartet, der eine adäquate Ausstattung der Schulen mit digitaler Technik ermöglicht. Damit einher gehen Anforderungen an das Können und Wissen von Schülerinnen und Schülern und auch Lehrkräften im Umgang mit digitalen Medien und den damit verbundenen Chancen und Risiken.
Ebenso, wie sich die Schulen von heute schon sehr stark untereinander unterscheiden, werden auch die Schulen von morgen verschiedene Schwerpunkte setzen und Ausgestaltungsmöglichkeiten nutzen, um ihre Schülerinnen und Schüler auf die Teilhabe an der Gesellschaft und ihre Zukunft vorzubereiten.Die Antwort stammt von Ilka Wolter (Abteilungsleitung) und Lena Nusser (wissenschaftliche Mitarbeiterin) in der Abteilung „Kompetenzen, Persönlichkeit, Lernumwelten“ am Leibniz-Institut für Bildungsverläufe e.V. (LIfBi), Bamberg.
Als Wissenschaftlerin tue ich mich mit dem Begriff „Gerechtigkeit“ schwer. Was gerecht ist, ist keine empirische, sondern eine normative Frage. Diese muss in unserer Gesellschaft von der Politik, anderen gesellschaftlichen Akteuren und Gruppen und letztlich von jedem selbst beantwortet werden.
Die Bildungsforschung kann aber Antworten darauf geben, welche Arten von Bildungsungleichheit es in unserer Gesellschaft gibt und wie diese entstehen. Dabei zeigt sich: Die Hauptursache von Bildungsungleichheit liegt heute nicht mehr im Bildungssystem, sondern in den Familien. Je nach ihrem sozialen Status und ihrer eigenen Bildung haben Eltern ganz unterschiedliche Möglichkeiten, ihre Kinder zu fördern. Und je nach ihrer sozialen Herkunft treffen Eltern und Kinder selbst bei gleichen Fähigkeiten ganz unterschiedliche Bildungsentscheidungen. Maßnahmen, die sich an die ganze Bevölkerung richten (zum Beispiel flächendeckender Ausbau von Kinderbetreuung, bessere individuelle Förderung, Flexibilisierung von Bildungsgängen, durchlässigeres Bildungssystem) können daher sogar zu einer erhöhten Bildungsungleichheit führen, da Kinder aus bildungsnahen und statushohen Familien diese Angebote eher in Anspruch nehmen und stärker von ihnen profitieren.
Die Antwort stammt von Kerstin Hoenig, Leibniz-Institut für Bildungsverläufe e.V. (LIfBi)
In Deutschland verfügt knapp 1 Prozent der Gesamtbevölkerung über den höchsten Bildungsabschluss – die Promotion. Diese knapp 772.000 Promovierten dürften damit zu den klügsten Köpfen im Land zählen. Die meisten Doktorarbeiten werden in der Humanmedizin bzw. den Gesundheitswissenschaften (40%) sowie in der Mathematik und den Naturwissenschaften (25%) geschrieben (Bundesbericht Wissenschaftlicher Nachwuchs 2017).
Umfragen zufolge ist die akademische Karriere an einer Hochschule oder außeruniversitären Forschungseinrichtung für viele promovierte NachwuchswissenschaftlerInnen sehr attraktiv. Die interessanten Arbeitsinhalte und die zeitliche Flexibilität werden sehr geschätzt. Gleichzeitig bewerten die jungen Forscherinnen und Forscher die Beschäftigungssituation nach Abschluss der Promotion kritisch (Bundesbericht Wissenschaftlicher Nachwuchs 2017). Wiederholt befristete Verträge, kurze Vertragslaufzeiten und die Gefahr, eine der wenigen dauerhaften, entfristeten Stellen in der akademischen Forschung nicht zu erreichen, bedeuten für sie eine hohe Unsicherheit. Denn: Häufig ist die Besetzung einer Professur die einzige Möglichkeit für eine dauerhafte Anstellung. Allerdings existiert im Vergleich zu der sehr großen Gruppe von befristeten NachwuchswissenschaftlerInnen nur eine sehr geringe Anzahl von dauerhaften Professuren.
Aufgrund der wenigen dauerhaften Stellen in der akademischen Forschung ist es wenig überraschend, dass viele Promovierte in der Wirtschaft arbeiten. Von allen erwerbstätigen Promovierten unter 45 Jahren arbeiteten 2015 nur 19% an einer Hochschule und nur 16% im sonstigen öffentlichen Dienst, einschließlich außeruniversitärer Forschungseinrichtungen. Demgegenüber waren 65% der Promovierten in der Wirtschaft tätig. Viele arbeiten dort im Gesundheitswesen, was angesichts der vielen Promotionen in der Humanmedizin wenig überraschend ist. Der Anteil der forschenden Promovierten in der Wirtschaft ist mit 17% relativ gering (Bundesbericht Wissenschaftlicher Nachwuchs 2017, Mikrozensus 2015). Anders als in der akademischen Forschung, haben in der Wirtschaft mehr als 70% der Promovierten eine dauerhafte Stelle. Neben den Vertragslaufzeiten unterscheiden sich auch die Verdienste: Die höchsten Bruttolöhne finden sich bei den Promovierten im nicht-wissenschaftlichen Bereich sowie im Bereich Forschung und Entwicklung in der Wirtschaft. Mit großem Abstand folgen die tarifgebundenen Gehälter der promovierten Nachwuchswissenschaftler an Hochschulen oder außeruniversitären Forschungseinrichtungen (Bundesbericht Wissenschaftlicher Nachwuchs 2017).
Auffallend sind die steigenden Investitionen in Forschung und Entwicklung innerhalb der Wirtschaft. Dadurch wächst der Bedarf an exzellent ausgebildeten Fachkräften weiter. Gleichzeitig gibt es aber auch zunehmend mehr Kooperationsprojekte, welche die klugen Köpfe in der akademischen Grundlagenforschung und in der häufig finanzstarken und schnelleren Forschung in der Wirtschaft zusammenbringt. So werden vor allem in Bereichen der Medizin, der Ingenieurswissenschaften oder der IT komplexe Forschungsprobleme auch zunehmend gemeinsam bearbeitet.
Und schließlich: Sicher gibt es auch kluge Köpfe, die nicht promoviert haben – dazu fehlen aber bislang belastbare Daten.
Die Antwort stammt von Gundula Zoch, Leibniz-Institut für Bildungsverläufe e.V. (LIfBi)
Referenzen
Konsortium Bundesbericht Wissenschaftlicher Nachwuchs 2017. Bundesbericht Wissenschaftlicher Nachwuchs 2017. Statistische Daten und Forschungsbefunde zu Promovierenden und Promovierten in Deutschland. Bertelsmann Verlag: Bielefeld.
Zunächst: Wissenschaft ist Freude und Leiden und Leidenschaft – 24/7.
Dann: Wir verstehen unter Wissenschaft all jene vielfältigen Disziplinen, deren Ziel es ist, Erkenntnisse über Bereiche der Natur sowie der geistigen, kulturellen, politischen, technischen und sozialen Lebenswelt auf systematisch strukturierte und methodisch kontrollierte Weise zu gewinnen und verstehbar zu machen. In der Wissenschaftstheorie wird dies häufig mit einer Auflistung von Kriterien wissenschaftlicher Rationalität auf den Punkt gebracht: Wissenschaftliches Arbeiten bzw. die Ergebnisse von Forschung müssen den Prinzipen der Konsistenz, der Kohärenz, der Überprüfbarkeit, der intersubjektiven Verständlichkeit und Objektivität genügen.
Ein wichtiger Aspekt dessen, was die Ergebnisse von wissenschaftlichem Arbeiten ausmacht, wird dabei aber noch nicht hinreichend deutlich: Wissenschaftlerinnen und Wissenschaftler streben danach, belegbare Tatsachen zu entdecken. Sie tun dies aber gerade nicht im Anspruch „endgültige Wahrheiten“ zu produzieren, sondern ein faktenbasiertes Wissen, das nur solange gültig ist, bis es selbst wieder durch neue Erkenntnisse und Beweise revidiert wird.
Ich denke aber, dass die Antwort auf die Frage „Was ist Wissenschaft?“ noch etwas anderes enthalten muss: Es gehört zu den Eigentümlichkeiten – auch der wissenschaftlichen Erkenntnis – dass man Antworten nicht nur aus der Theorie, sondern auch aus dem Blick auf die Praxis gewinnt. Albert Einstein, den ich hier nicht als theoretischen Physiker, sondern als Wissenschafts-Praktiker zitiere, hat von sich gesagt: „Ich habe keine besondere Begabung, sondern bin nur leidenschaftlich neugierig.“[1] Dieser Verweis auf die wichtige Rolle von wissenschaftlicher Neugier, von Forschermut im Sinne der Bereitschaft, über Althergebrachtes hinauszudenken und Disziplinengrenzen zu überschreiten, genau wie Lust auf Streit und Kooperation mit anderen Forschenden und anderen Disziplinen halte ich für wesentlich, um zu erfassen, was Wissenschaft ausmacht.
Die Antwort stammt von Matthias Kleiner, Präsident der Leibniz-Gemeinschaft.
[1] Albert Einstein in einem Brief an Carl Seelig vom 11. März 1952 (ethz.ch) als Antwort auf Seeligs Frage: „Ist Ihre wissenschaftliche Begabung eine Erbschaft der väterlichen und die musikalische der mütterlichen Linie?“. In: Ulrich Weinzierl: Carl Seelig. Schriftsteller, Wien 1982, S. 135.
Welche Lernbedingungen optimal sind, lässt sich nicht pauschal beantworten, weil viele verschiedene Faktoren den Lernerfolg beeinflussen. Beispielsweise spielt die Aufmerksamkeit häufig eine wichtige Rolle. In unseren Studien beobachten wir jedoch, dass sich die Kontrolle über die Aufmerksamkeit im Verlauf der Kindheit entwickelt. So kann eine für ein Grundschulkind geeignete Lernumgebung für ein Kindergartenkind möglicherweise zu ablenkend sein und es lernt weniger erfolgreich.
Es wird angenommen, dass es nicht eine einzige Art des Lernens gibt, die für alle Gelegenheiten geeignet ist. Je nachdem, ob wir mathematische Zusammenhänge oder Cello spielen lernen, sind verschiedene Hirn-Netzwerke beteiligt. Unterschiedliche Inhalte werden von teilweise unterschiedlichen Gehirnarealen verarbeitet. Im prozeduralen Gedächtnis ist gespeichert wie Fahrradfahren funktioniert, während im episodischen Gedächtnis Erinnerungen an den letzten Urlaub gespeichert sind. Auch spielt es eine Rolle, ob Lernen explizit oder implizit erfolgt, ob wir also absichtsvoll Spanischvokabeln für den nächsten Urlaub lernen oder gar nicht bemerken, dass wir gerade etwas lernen. Jeder neue Gedächtnisinhalt führt zu kleinen Veränderungen im Gehirn, beispielsweise können sich neue Synapsen, das sind Verbindungsstellen zwischen Nervenzellen, bilden. Um das Gelernte zu behalten, ist es förderlich, wenn es mit vorhandenem Wissen verknüpft und reaktiviert, also geübt oder angewendet wird.
Neben der Anwendung neu erworbenen Wissens hat die Forschung zu Lernen und Gedächtnis viele weitere Einflussfaktoren für erfolgreiches Lernen identifiziert. Lernpausen gehören zum Lernen, und das Gehirn benötigt ausreichend Schlaf, da sich im Schlaf tagsüber Gelerntes festigen kann. Emotionen und Motivation sind ebenfalls wesentliche Faktoren, die den Lernerfolg beeinflussen können. Studien haben gezeigt, dass Belohnung zu einer Ausschüttung chemischer Stoffe im Gehirn führt (Dopamin), die sich förderlich auf Gedächtnisprozesse auswirken können, und die beste Belohnung und Lernverstärkung ist die aktive Anwendung des Wissens, um ein interessantes Problem zu lösen.
Die Antwort stammt von Nicole Wetzel, Leiterin der CBBS-Forschergruppe Neurokognitive Entwicklung am Leibniz-Institut für Neurobiologie Magdeburg, Center for Behavioral Brain Sciences Magdeburg (LIN).
Zur Beantwortung dieser Frage ist zunächst zu definieren, was Intelligenz ist. Darüber wird seit mehr als 100 Jahren diskutiert. Der Psychologe E. Boring kommentierte 1923 die damalige Diskussion, was Intelligenz sei, eher pragmatisch: „Intelligenz ist das, was Intelligenztests messen“. Es wurden und werden verschiedene Konstrukte der Intelligenz diskutiert, die unterschiedliche Faktoren einbeziehen, wie beispielsweise schlussfolgerndes Denken und Problemlösung. Einige einflussreiche Intelligenzmodelle umfassen u.a. Bereiche wie allgemeines Wissen oder sprachbezogene Bereiche, die durch (pädagogische) Förderung direkt beeinflusst werden können.
Möglicherweise nutzen Sie solche sprach- oder wissensbezogenen Hinweise für Ihre subjektive Einschätzung der Intelligenz Ihres Gegenübers? Tatsächlich gibt es einige Studien, die versucht haben, Merkmale wie das Gesicht, die Attraktivität oder die Komplexität verfasster Texte, die Menschen möglicherweise zu einer subjektiven Einschätzung der Intelligenz heranziehen, zu untersuchen. Hier besteht jedoch noch weiterer Forschungsbedarf.Genetische Einflüsse tragen zu Unterschieden in der Intelligenz zwischen Menschen einer Gruppe bei, sie machen aber nur einen Teil der Variabilität aus. Eine wichtige Rolle spielt auch die Umwelt. Eine förderliche Umgebung sorgt dafür, dass sich das angeborene Potenzial entfalten kann. Hier können Bildungsmaßnahmen tatsächlich ansetzen, wie Studien zeigen.
Die Antwort stammt von Nicole Wetzel, Leiterin der CBBS-Forschergruppe Neurokognitive Entwicklung am Leibniz-Institut für Neurobiologie Magdeburg, Center for Behavioral Brain Sciences Magdeburg (LIN).
Die ökonomische Forschung zur Ungleichheit hat inzwischen viel Evidenz dafür erbracht, dass die Wirtschaft von Ländern, deren Gesellschaft von größerer Ungleichheit geprägt ist, langsamer wächst als in Ländern, wo es eine geringere Ungleichheit gibt. Dafür führt die Literatur verschiedene Gründe an (Dabla-Norris et al., 2015, Ostry et al., 2014, van Treeck, 2018). Einen sehr wichtigen Faktor spielt dabei die Bildung: Wenn ärmere Individuen sich keine gute Bildung leisten können, wird im unteren Bereich der Einkommensverteilung zu wenig in Humankapital investiert, was ein geringeres Wachstum der volkswirtschaftlichen Produktivität zur Folge hat. Dieses Phänomen kann vor allem in Entwicklungsländern beobachtet werden, wo es für den ärmeren Teil der Gesellschaft besonders schwer ist, Zugang zum Bildungssystem zu erlangen.
Im Vergleich zu diesen Ländern ist das Bildungsniveau in Deutschland natürlich schon recht gleich verteilt – so kommt bei der Messung des Bildungsstands von 25- bis 64-Jährigen im Jahr 2017 heraus, dass gut 95 Prozent der Bevölkerung mindestens zehn Jahre Schulbildung abgeschlossen haben; darüber hinaus hatten knapp 30 Prozent der Bevölkerung einen Hochschulabschluss (OECD, 2018). Die neuesten Statistiken zu der Aufnahme von Berufsausbildung und Studium zeigen zudem, dass die Zahl der Studierenden in Deutschland stetig wächst, sodass heute genauso viele Personen einen Hochschulabschluss anstreben wie eine Ausbildung (BMBF, 2018). Dies vermittelt das Bild, dass schon heute das Bildungsniveau der Bevölkerung in Deutschland auf einem Weg ist „gleicher“ zu werden (auch wenn zweifelsohne die Chancengerechtigkeit zunehmen muss – leider spielt in Deutschland der familiäre Hintergrund immer noch eine große Rolle dabei, welches der höchsterlangte Schulabschluss ist).
Angesichts der Wandlung des Arbeitsmarktes in Zeiten von Digitalisierung, Automatisierung und Globalisierung sind es gute Nachrichten für den Produktionsstandort Deutschland, dass das Bildungsniveau der gesamten Bevölkerung wächst und immer mehr Individuen einen Hochschulabschluss erwerben. Niemand weiß, wie die Arbeitswelt in 30 bis 50 Jahren aussehen wird. Es ist aber recht deutlich abzusehen, dass sich die Art der Arbeitsplätze verändern wird und vor allem Tätigkeiten zunehmen werden, die komplexer Wahrnehmung und sozialer sowie kreativer Intelligenz bedürfen sowie eine hohe Anpassungsfähigkeit der Individuen erfordern (Wößmann, 2017). Allgemeinbildende Bildungskonzepte, die die gesamte Bevölkerung erreichen und dazu führen, dass alle „das Lernen lernen“, werden der Gesellschaft helfen, die Herausforderungen des technologischen und strukturellen Wandels zu meistern.
Die Antwort stammt von Larissa Zierow, Stellvertretende Leiterin des ifo Zentrums für Bildungsökonomik
Referenzen:
Bundesministerin für Bildung und Forschung – BMBF (2018). Berufsbildungsbericht2018, Bonn.
Dabla-Norris, E., K. Kochhar, N. Suphaphiphat, F. Ricka und E. Tsounta (2015), »Causes and Consequences of Income Inequality: A Global Perspective«, IMF Staff Discussion Note 15/13, International Monetary Fund, Washington.
OECD (2018), Bildung auf einen Blick 2018: OECD-Indikatoren, wbv Media, Bielefeld.
Ostry, J. D., A. Berg und C. Tsangarides (2014), »Redistribution, Inequality, and Growth«, IMF Staff Discussion Note 14/02, International Monetary Fund, Washington
van Treeck, T. (2018): Das Ende der „trickle-down economics“: Ungleichheit als Wachstumsbremse und als Krisenursache?, ifo Schnelldienst 71(15), 3-5.
Wößmann, Ludger (2017). Wenn das Gleis zur Sackgasse wird. Frankfurter Allgemeine Zeitung, 20.2.2017, S. 16.
Um das zu beantworten, muss man zunächst klären, was unter Bildungsgerechtigkeit zu verstehen ist. Wenngleich ein breiter Konsens besteht, dass ein Bildungssystem gerecht sein soll, lässt sich nur schwer eine umfassende und einheitliche Definition dafür finden. Ich würde es so formulieren, auch wenn das eine normative Setzung ist: Bildungsgerechtigkeit bedeutet nicht, dass alle die gleichen Bildungsergebnisse erzielen. Das ist weder wünschenswert noch realisierbar. Es geht vielmehr darum, allen Bildungsteilnehmerinnen und -teilnehmern vergleichbare Chancen zu bieten und niemanden aufgrund von Merkmalen, die einem mitgegeben werden, auszuschließen oder zu benachteiligen. Zu diesen Merkmalen zählt zum Beispiel die soziale Herkunft.
Ursachen für ungleiche Chancen des Bildungserwerbs liegen zum einen außerhalb des Bildungssystems. Kinder und Jugendliche werden zum Beispiel von ihren Familien ganz unterschiedlich gefördert und unterstützt. Diese Bedingungen lassen sich nur schwer beeinflussen. Wir finden Ursachen von Ungleichheiten aber auch innerhalb des Bildungssystems, in den schulischen Institutionen. Hier sind strukturelle Anpassungen möglich, die dazu beitragen, Bildungsbarrieren abzubauen und Entwicklungschancen herzustellen. Es gilt beispielsweise, an der Durchlässigkeit im Bildungssystem anzusetzen und Bildungswege zu flexibilisieren.
Zudem kann man von Bildungsgerechtigkeit sprechen, wenn im Bildungssystem alle Teilnehmenden optimal gemäß ihrer individuellen Bedarfe und Möglichkeiten gefördert werden. Jedoch: Eine solche passgenaue Förderung kann dazu führen, dass sich die Unterschiede in den Bildungsergebnissen noch verstärken. Denn Kinder und Jugendliche aus begünstigteren Familien profitieren davon mehr als solche aus sozial schwächeren, bei denen die zusätzliche familiäre Unterstützung nicht so stark ausfällt. Doch diese Spreizung ist ein politisch vielleicht unerwünschter, aber eventuell hinzunehmender Effekt. Schließlich verbessert eine individuelle Förderung die Bildungsergebnisse aller. Ob damit nun Bildungsgerechtigkeit erreicht wird, bleibt aber eine normative Ermessensfrage.
Die Antwort stammt von Kai Maaz, Direktor der Abteilung „Struktur und Steuerung des Bildungswesens“ am DIPF | Leibniz-Institut für Bildungsforschung und Bildungsinformation und Professor für Soziologie mit dem Schwerpunkt Bildungssysteme und Gesellschaft an der Goethe-Universität Frankfurt am Main.
Eine Fragestellung, die sich nicht einfach beantworten lässt, denn mir als Erziehungswissenschaftler stellen sich dabei viele weitere Fragen: 1. Wollen wir wirklich, dass Kinder die Zukunft nur so gestalten, wie sie wollen? Wollen wir sie nicht auch für bestimmte Ziele gewinnen, etwa die Achtung der Menschenwürde oder eine nachhaltige Lebensführung? 2. Was genau soll man den Kindern beibringen – eine freie, offene und selbstbewusste Haltung, die Bereitschaft, an gesellschaftlichen Entwicklungen teilzuhaben, oder auch verschiedene, dazu notwendige Fähigkeiten? 3. Ist es überhaupt sinnvoll, nach Techniken zu suchen, um von uns ausgehend etwas beizubringen, wenn man eigentlich ein eigenständiges Handeln der Kinder ermöglichen möchte? 4. Und schließlich: Wer ist das „Wir“? Wir Eltern, professionelle Pädagogen, oder die Gesellschaft als Ganzes?
Diese Fragen zeigen zunächst, dass Freiheit als Bildungsziel nichts Feststehendes ist und in einem Spannungsfeld zwischen individueller Entfaltung und gesellschaftlicher Verantwortung steht. Erziehung ist grundsätzlich ein Eingriff in die Freiheit der Kinder und Jugendlichen, zugleich schafft sie erst die Voraussetzungen dafür, dass Menschen mündig handeln können. Ich kann daher zunächst nur antworten, dass es hier immer wieder gilt, neue Lösungen zu suchen und auszuhandeln. Konkret: In Familien, Kindergärten, Schulen und bei der staatlichen Bildungsplanung muss stets aufs Neue das richtige Verhältnis von Persönlichkeitsbildung, moralischer Erziehung und Förderung von Fähigkeiten aller Art gefunden werden. Und es gilt, die jeweils wirksamsten Methoden und Orte für das Lehren und Lernen zu wählen.
Abschließend möchte ich auf die Bedeutung fachübergreifender Kompetenzen hinweisen. In einer sich rasant wandelnden Lebens- und Arbeitswelt reicht es nicht aus, einen Wissensvorrat aufzubauen; man muss allgemeinere Fähigkeiten entwickeln, um die Zukunft gestalten zu können. Zu solchen „Schlüsselqualifikationen“ würde ich auf jeden Fall das Lesen zählen. Wenn Sie also Ihren Kindern das Lesen näherbringen, kommen Sie nicht nur über Lebensentwürfe und Zukunftsfragen ins Gespräch, sondern liefern den Kindern das wichtigste Werkzeug, das sie brauchen, um ihr Leben selbst in die Hand nehmen zu können.
Die Antwort stammt von Eckhard Klieme, Direktor der Abteilung „Bildungsqualität und Evaluation“ am DIPF | Leibniz-Institut für Bildungsforschung und Bildungsinformation und Professor für Erziehungswissenschaft an der Goethe-Universität Frankfurt am Main
Damit Kinder – und übrigens auch Erwachsene – motiviert sind, etwas zu lernen oder zu üben, sind eine Reihe von Faktoren wichtig. Kinder möchten das Gefühl haben, etwas gut zu können und sich zu verbessern. Gleichzeitig möchten sie eigene Entscheidungen treffen dürfen. Beides fördert den Spaß am Üben, genau wie das Einbinden in einen sozialen Kontext.
Die Erfüllung dieser Bedürfnisse können Eltern gemeinsam mit der Instrumentenlehrer*in unterstützen. Erfolgserlebnisse werden möglich, wenn das Schwierigkeitsniveau die Kinder heraus-, aber nicht überfordert. Kinder sollten gezielte Rückmeldungen bekommen, die ihnen zeigen, dass ihnen etwas zugetraut wird, womit kein Loben unabhängig von der Leistung gemeint ist. Eltern und Lehrkräfte sollten die Vorlieben und Meinungen der Kinder miteinbeziehen, was von der Auswahl des Instruments oder des Stücks bis hin zur Art, Technik oder Zeit des Übens reichen kann. Über Zuhören oder sogar Mitspielen kann man das Lernen oder Üben in einen sozialen Rahmen einbetten und den Kindern Wertschätzung zeigen. Eltern sollten ihren Kindern außerdem vermitteln, wozu sie üben – etwa für die Gemeinschaftserlebnisse, zum Entspannen oder für mögliche berufliche Perspektiven.
Die Antwort stammt von Katrin Rakoczy, wissenschaftliche Mitarbeiterin am DIPF | Leibniz-Institut für Bildungsforschung und Bildungsinformation und Professorin für Pädagogische Psychologie an der HSD – University of Applied Sciences, Köln
Zusammenleben
Die Digitalisierung ist im heutigen Leben allgegenwärtig. Kein Wunder also, dass sie auch in die Domäne der Zentralbanken Einzug hält. Das Aufkommen von Bitcoin im Jahr 2008 und die Ankündigung von Facebooks digitaler Währung Libra im Jahr 2018, die nun nächstes Jahr zumindest in Teilen kommen soll, haben das Interesse der Zentralbanken geweckt und eine gewisse Unruhe verursacht. Denn eben diese Innovationen stellen die ursprüngliche Funktion der Zentralbanken als Schöpfer sicherer Zahlungsmittel in Frage und öffnen zugleich die Tür für weniger zuverlässige Alternativen. Zuletzt haben Zentralbanken begonnen, eine unmittelbare Beteiligung als direkte Produzenten von digitalen Währungen oder digitalem Zentralbankgeld („Central Bank Digital Currency“, CBDCs) in Betracht zu ziehen. So hat die Europäische Zentralbank (EZB) kürzlich ihr Interesse an einer solchen Beteiligung signalisiert. Das Kommuniqué dazu war bisher zwar weitgehend unverbindlich, aber es gibt Anzeichen dafür, dass die EZB die Ausgabe eines „digitalen Euro“ nicht als komplett unrealistisch, sondern vielmehr als eine Frage der Zeit betrachtet.
Die EZB sollte sich das genau überlegen. Bekanntlich bergen CBDCs Risiken und bieten zugleich mögliche Vorteile; beides wird in einem kürzlich erschienenen Bericht der Bank für Internationalen Zahlungsausgleich (BIZ) erörtert. Es ist jedoch wichtig zu sehen, dass einige der mit CBDCs verbundenen Gefahren aufgrund der Besonderheiten der Währungsunion und des geldpolitischen Kontrollrahmens der EZB für den Euroraum von besonderer Bedeutung sind. Zunächst erleichtern CBDCs Runs auf Bankeinlagen, indem sie eine leicht verfügbare und sichere Alternative zu Bankeinlagen bieten. In einer Krise ziehen Einleger und andere kurzfristig orientierte Anleger ihre Investitionen aus unsicheren Banken ab, um Verluste zu vermeiden. Diese Verluste können so groß sein, dass keine Zinsstrafe ausreicht, um von der Flucht abzuschrecken. Jenes Risiko ist größer im Euro-Raum, dessen Bankenunion unvollendet ist, dem eine gemeinsame Einlagensicherung fehlt und in dem Rettungsklauseln existieren, die Verluste auf nicht versicherte Einlagen und andere Finanzierungsquellen zulassen.
Da in bestimmten Ländern die Konzentration an schwachen Banken nach wie vor hoch ist, können Runs leicht den Teufelskreis zwischen maroden Banken und insolventen Staaten wieder aufleben lassen. Euro-Ausstiegsängste können wieder entfacht werden, die bereits in der Euro-Krise von 2010/2011 und erneut in der Griechenland-Krise 2015 aufgetreten sind. Die Wurzel des Übels ist, dass es CBDCs einer nahezu risikofreien Institution (der Zentralbank) gestatten, mit risikoreichen Instituten (Privatbanken) im gleichen Marktsegment (Zahlungsmittel) zu konkurrieren. Dies ist ein Konstruktionsfehler, für den der Euroraum besonders anfällig ist.
Weiterhin würde ein digitaler Euro den operativen Rahmen der EZB stören. Im Rahmen der geldpolitischen Kontrolle des Euro bewegen sich die Geldmarktsätze innerhalb einer Bandbreite, die am oberen Ende durch den Strafzinssatz der Spitzenrefinanzierungsfazilität und am unteren Ende durch den Zinssatz für freie Tagesgeldeinlagen bei der Zentralbank definiert ist. Dieser „Korridor“ hat sich in den vergangenen Jahren nach unten verschoben, und die quantitative Lockerung hat die Marktsätze gezwungen, am unteren Ende dieser Spanne (der „effektiven Untergrenze“) zu bleiben – dem Einlagenzinssatz, der jetzt negativ ist. Der von der Zentralbank für den digitalen Euro festgelegte Zinssatz könnte kaum von dem der Einlagefazilität abweichen. Wenn dies der Fall wäre, würde dies zu Arbitragegeschäften führen, an denen Banken beteiligt wären, möglicherweise mit den Vermögen großer Unternehmen, die nicht im Finanzsektor tätig sind. Infolgedessen würde der Einlagenzinssatz, eine kritische geldpolitische Variable im Rahmen der quantitativen Lockerung, zur Geisel des Zinssatzes für den digitalen Euro, den die Zentralbank möglicherweise aus anderen als geldpolitischen Erwägungen anpassen möchte.
Schließlich wäre ein für alle verfügbarer digitaler Euro mit negativen Zinssätzen eine direkte Besteuerung, die den Bürgern von der Zentralbank auferlegt würde. Jegliche Seigniorage der Zentralbank ist im Wesentlichen eine Form der Besteuerung; der Unterschied wäre, dass bei einer CBDC das Erscheinungsbild anders wäre, was zu einer Besteuerung sowohl in der Form als auch in der Substanz führen würde. Auch wenn es schwierig ist, die politischen und rechtlichen Konsequenzen vorherzusehen, kann man sich durchaus Umstände vorstellen, unter denen die Unabhängigkeit der Zentralbank – zumindest bei der Festlegung des Zinssatzes – in Frage gestellt würde. Auch hier ist das Risiko in der Euro-Zone besonders groß, da die Befugnis zur Besteuerung ein nationales Vorrecht darstellt, das im EU-Vertrag verankert ist.
Die oben genannten Risiken wären dort am stärksten, wo der digitale Euro uneingeschränkt verfügbar wäre. Die Risiken würden gemildert, wenn Beschränkungen auferlegt würden, z.B. durch den Ausschluss von gewissen Inhabern oder die Segmentierung der Vergütung durch die Einführung eines Staffelungssystems. In diesem Fall würden jedoch auch die Vorteile verringert. Und wiederum würde die Segmentierung von möglichen Besitzern digitaler Währungen zu mehreren Arbitragemöglichkeiten führen, die ökonomische Verzerrungen verursachen und möglicherweise im Laufe der Zeit genau diese Segmentierung zerschlagen würden. Die Risiken und Nachteile wären jedoch geringer, wenn die CBDC-Bestände auf offizielle Institutionen wie ausländische Zentralbanken und Staatsfonds beschränkt würden. Eine CBDC-Regelung, die sich an diese Art von Besitzern richtet, würde die Risiken begrenzen und gleichzeitig den doppelten Vorteil bieten, dass die EZB auf dem neuesten Stand der Technologie für digitales Geld ist und die internationale Verwendung des Euro fördert.
Die Antwort stammt von Ignazio Angeloni, Senior Policy Fellow am Leibniz-Institut für Finanzmarktforschung SAFE und Senior Fellow an der Harvard Kennedy School.
In vielen öffentlichen Diskussionen um Themen wie Klimawandel, Impfen und Akzeptanz von Infektionsschutzmaßnahmen trifft man auf Verschwörungstheorien, Ideologien und andere starke Überzeugungen. Menschen, die diese vertreten, scheinen für rationale Argumente und wissenschaftliche Erkenntnisse wenig zugänglich zu sein. Wie ist dies zu erklären?
Starke Überzeugungen (z. B. politische Einstellungen) sind häufig so zentral für Menschen, dass sie Teil ihrer Identität, also ihres Selbstbildes, sind. Da Menschen danach streben, ein positives Selbstbild aufrecht zu erhalten, verteidigen sie Überzeugungen, die Teil ihrer Identität sind. Das führt zu einer Bewertung von Informationen im Lichte dieser Überzeugungen. Wenn eine Information nicht mit dem eigenen Weltbild in Einklang steht, wird sie daher mit höherer Wahrscheinlichkeit abgelehnt.
Starke Überzeugungen treten häufig zusammen mit dem Bedürfnis auf, ein Gefühl von Kontrolle oder Sicherheit im Sinne des Verstehens und der Vorhersagbarkeit von Ereignissen zu haben. Das Eintreten komplexer oder zufälliger Ereignisse steht diesem Gefühl jedoch entgegen. Einfache Erklärungen und Schwarz-Weiß-Denken (z.B. das Unterteilen von Menschen in Feinde und Freunde) können dann helfen, das Gefühl von Kontrolle und Stabilität wiederherzustellen. Davon abweichende Informationen würden dieses Gefühl in Gefahr bringen. Menschen mit starken Überzeugungen streben also auch danach, ihr Kontrollerleben zu verteidigen, was begünstigt, dass rationale Argumente unberücksichtigt bleiben.
Der Glaube an Verschwörungstheorien stellt eine Weltanschauung dar, die mit starken Überzeugungen einhergeht. Er basiert auf der Annahme, dass es eine Gruppe mächtiger Personen gibt, die im Geheimen daran arbeitet, böswillige Ziele zu erreichen. Diese Annahme liefert eine einfache Erklärung dafür, warum bestimmte Ereignisse stattfinden – wie zum Beispiel die Einschränkung persönlicher Freiheiten im Zuge der Corona-Pandemie – und schafft so ein Gefühl von Kontrolle. Weiterhin weichen solche Erklärungen in der Regel von den allgemein geteilten und wissenschaftlich fundierten ab. Die Überzeugung, selbst eine(r) von wenigen zu sein, die das Geschehen korrekt deuten führt dann wiederum zu einer positiven Selbstbewertung.
Insgesamt sind das Streben nach einem positiven Selbstbild sowie nach einem Gefühl von Kontrolle und Sicherheit zentrale Faktoren, die es schwierig machen, mit rationalen Argumenten Menschen, die an Verschwörungstheorien glauben oder starke Überzeugungen haben zu erreichen.
Die Antwort stammt von Kevin Winter, Lotte Pummerer und Kai Sassenberg vom Leibniz-Institut für Wissensmedien Tübingen, Abteilung Soziale Prozesse.
Judenfeindliche Straftaten nehmen seit einiger Zeit besorgniserregend zu. Der Antisemitismus ist aber in Deutschland nach dem Zivilisationsbruch Auschwitz niemals verschwunden. In den letzten Jahren hat seine Sichtbarkeit allerdings zugenommen, weil frühere Tabus weggefallen und neue Kommunikationsmöglichkeiten entstanden sind.
Antisemitismus in unterschiedlichen Formen findet sich über alle politischen Lager hinweg – auch in der Mitte der Gesellschaft. Die meisten Straftaten werden von Rechten verübt, jedoch zeigen sich auch ein israelbezogener linker Antisemitismus und ein bedrohlicher werdender muslimischer Judenhass.
Bei allen Differenzen stellt der Antisemitismus eine ideologische Reaktion auf die unverstandene Moderne dar. Er resultiert aus dem Bedürfnis, Schuldige für sozio-ökonomische Prozesse auszumachen und die Komplexität auf ein Gut-Böse-Schema zu reduzieren.
Der Kampf dagegen ist keine jüdische, sondern eine gesamtgesellschaftliche Aufgabe. Es gilt u.a., zivilgesellschaftliche Organisationen zu stärken, der Verrohung des Diskurses und der Relativierung von NS-Verbrechen durch die AfD entgegenzuwirken. Das kompromisslose Eintreten gegen alle Formen des Antisemitismus ist nicht nur eine historische Verpflichtung, sondern markiert einen Gradmesser für die Demokratie in der Bundesrepublik.
Die Antwort stammt von Sebastian Voigt, Institut für Zeitgeschichte, München – Berlin
Der Brexit ist vor allem für das Vereinigte Königreich selbst eine Katastrophe. Für Europa ist er in erster Linie eine politische Herausforderung, die viel Zeit und Energie gekostet hat, zu Lasten anderer, gravierender Probleme. Für die Menschen in Deutschland gibt es aber wirtschaftlich keinen Grund zur Panik. Ich vertraue darauf, dass London und die restliche EU selbst im Falle eines harten Brexits ein wirtschaftliches Chaos verhindern und sich auf Übergangslösungen einigen, die den größten Schaden abwenden.
Die meisten Menschen in Deutschland werden einen harten Brexit kaum selbst zu spüren bekommen. Vereinzelt könnten Produkte teurer werden, aber dies sollte die Ausnahme bleiben. Einzelne Unternehmen und Sektoren, die besonders stark mit dem Vereinigten Königreich im Handel sind, werden leiden. Insgesamt gehen sechs Prozent der deutschen Exporteure in das Vereinigte Königreich, der Löwenanteil davon sind industrielastige Güter wie zum Beispiel Autos. Ich erwarte dennoch keinen Anstieg der Arbeitslosigkeit in Deutschland durch den Brexit. Denn unsere deutsche Wirtschaft ist stark und unsere Exporteure verkaufen auf der ganzen Welt. Deutschland wird sicherlich einen Preis für den Brexit zahlen müssen. Gemessen am deutschen Bruttoinlandsprodukt dürfte dieser Brexit-Effekt aber sehr gering sein.
Die Antwort stammt von Marcel Fratzscher, Präsident des Deutschen Instituts für Wirtschaftsforschung (DIW Berlin).
Die Reduzierung und Minimierung von Kinderarmut ist zweifelsohne eine zentrale sozial-staatliche Aufgabe – Kinder sind schutzbedürftig und sollten über faire Lebens- und Entwicklungschancen verfügen.
Kinderarmut wird dabei in unterschiedlicher Weise erfasst. Bei Kinderarmut im Sinne von Einkommensarmut wird immer der Haushalt als Ganzes betrachtet. In besonderer Weise gefährdet sind hier Kinder, die in Haushalten mit geringem Einkommen leben – die also von geringer Erwerbsbeteiligung, Niedriglohn oder geringen beziehungsweise unregelmäßigen Erwerbszeiten der Eltern betroffen sind sowie kinderreiche Mehrpersonenhaushalte. Dies gilt vor allem für Haushalte von Arbeitslosen, Alleinerziehenden sowie von Haushalten von Personen mit Migrationshintergrund. Sozialpolitische Maßnahmen zum Schutz vor Kinderarmut richten sich hierbei auf die Stärkung der wirtschaftlichen Basis und Absicherung der jeweiligen Haushalte durch wirtschaftliche Maßnahmen (Mindestlohn; Tarifbindung), durch Steuernachlässe (steuerliche Freisetzung des Existenzminimums; in diesem Kontext kämen auch Maßnahmen wie Bürgergeld in Betracht) sowie direkte finanzielle Unterstützung durch Transferzahlungen (Kindergeld, Wohngeld, Arbeitslosengeld, Sozialhilfe).
Andere Ansätze zur Bekämpfung von Kinderarmut richten sich auf institutionelle Förderungen von gleichwertigem und freiem Zugang zu Bildung und Bildungseinrichtungen, gesunder Ernährung, sowie die Förderung von sozialen Kompetenzen und die Teilhabe am öffentlichen Leben (ohne Diskriminierung).
Beide Betrachtungsweisen ergänzen sich – für die wirksame Reduzierung und Minimierung von Kinderarmut sind sowohl die Sicherung und Stärkung der finanziellen Ressourcen der privaten Haushalte wie auch Maßnahmen zu institutionellen Förderungen – insbesondere an Kitas und Schulen – erforderlich.
Die Antwort stammt von Peter Krause, wissenschaftlicher Mitarbeiter am Sozio-oekonomischen Panel am Deutschen Institut für Wirtschaftsforschung (DIW Berlin).
Sicher nicht. Richtig ist aber, dass China wirtschaftlich in rasantem Tempo aufholt. Das hat die jüngste Vergangenheit eindrucksvoll gezeigt. Das Land hat in den vergangenen 15 Jahren seinen Anteil am Weltwirtschaftsprodukt von weniger als neun Prozent auf mehr als 18 Prozent gesteigert. Es spielt mittlerweile seine Wirtschaftsmacht konsequent aus, wie es übrigens auch die Amerikaner tun, und beeinflusst dadurch das wirtschaftliche Geschehen auf wichtigen Märkten. „Made in China 2025“, die Strategie des Landes zur Technologieführerschaft, unterscheidet sich zwar in der Sache von „America First“, aber nicht im Anspruch. Gleiches gilt für die Initiative „Neue Seidenstraße“, eine langfristige Strategie, bei der China milliardenschwere Investitionen in vielen Staaten durchführt und dadurch auch wirtschaftliche Abhängigkeiten schafft, die wiederum politische Einflussmöglichkeiten eröffnen. 2049, so das Ziel, soll China die global führende Industrienation sein. Parallel zu diesen Anstrengungen arbeitet das Land daran, die eigene Währung, den Renminbi, als weitere Leitwährung zu verankern.
Deutschland hat sehr stark vom wirtschaftlichen Aufholen Chinas profitiert und wird dies auch weiter tun. Auch im Jahr 2018 war China erneut, bereits zum dritten Mal in Folge, Deutschlands wichtigster Handelspartner. So betrug der Wert der gehandelten Waren zwischen Deutschland und China rund 199,3 Milliarden Euro, darunter der Wert der deutschen Exporte gut 93, 1 Milliarden Euro. Damit war China nach den USA das zweitwichtigste Abnehmerland deutscher Exporte. Dabei hat sich der Warenwert der Exporte nach China seit dem Jahr 2000 bis 2018 fast verzehnfacht. Die steigenden deutschen Exporte nach China haben dazu beigetragen, den Bedarf an Industriearbeitsplätzen in Deutschland zu stabilisieren.
Allerdings müssen Deutschland und Europa darauf achten, dass sie in zentral wichtigen Feldern nicht zurückfallen und von China nicht ausgebremst werden. Dazu gehört, bei Digitalisierung und Künstlicher Intelligenz nicht den Anschluss zu verlieren, sowie zu erreichen, dass nicht nur chinesische Unternehmen beispielsweise deutsche Unternehmen kaufen können, sondern dies auch umgekehrt besser möglich wird. Das geplante Investitionsabkommen von Europa mit China wäre dafür ein wichtiger erster Schritt, ein Handelsabkommen müsste folgen. Denn: Offene Märkte ohne Wettbewerbsbeschränkungen sind auf lange Sicht der beste Garant für Innovationen und Wohlstand, und das in allen Partnerländern.
Die Antwort stammt von Achim Wambach, Präsident ZEW – Leibniz-Zentrum für Europäische Wirtschaftsforschung in Mannheim
Afrika wurde lange als „vergessener Kontinent“ bezeichnet. Das hat sich geändert. In den letzten zehn Jahren wuchsen die Volkswirtschaften Subsahara-Afrikas um durchschnittlich 5 Prozent pro Jahr. Als einer der wichtigsten Gründe für diese Wende im wirtschaftlichen Schicksal Afrikas wird der Aufstieg der Schwellenländer im Allgemeinen und Chinas im Besonderen angesehen. Andere bezeichnen China hingegen als einen „Schurken“, der eine gesunde, nachhaltige Entwicklung Afrikas bedroht. Was stimmt?
Um die Rolle Chinas abschließend zu bewerten, ist es noch zu früh. Ein Haupthindernis ist, dass die Datenlage schwierig ist. Die chinesische Regierung selbst stellt keine systematischen Informationen zu ihren Entwicklungsprojekten in Afrika zur Verfügung. Zusammen mit Kollegen am College of William & Mary, der Harvard-Universität und der Universität Heidelberg haben wir eine Datenbank zu chinesischen Entwicklungsprojekten in Afrika und darüber hinaus erstellt. Die Datenbank basiert auf frei verfügbaren offiziellen Berichten der Empfängerregierungen und chinesischen Auslandsvertretungen, wissenschaftlichen Untersuchungen und Medienberichten. Die Datenbank ist unter https://china.aiddata.org/ öffentlich zugänglich und wird stetig verbessert. Unseren Daten entsprechend erhielt Afrika 34 Prozent der offiziellen chinesischen Finanzströme an Entwicklungsländer, nämlich rund 118 Milliarden US-Dollar im Zeitraum von 2000 bis 2014. Hiervon entsprach ein gutes Drittel der OECD-Definition von Öffentlicher Entwicklungszusammenarbeit (ODA), war also Entwicklungshilfe im engeren Sinne.
Unsere Datenbank ermöglicht erste empirische Untersuchungen zu der Rolle Chinas in Afrika. Zunächst haben wir Chinas Vergabeentscheidungen untersucht. Basierend auf unseren ökonometrischen Schätzungen erscheint die Behauptung, Chinas ODA sei „Schurkenhilfe“, ungerechtfertigt. Unsere Studien finden keine Hinweise, dass die Vergabeentscheidungen primär von natürlichen Ressourcen getrieben wären und Autokratien bevorzugt würden. Auch zeigt sich in Bezug auf wirtschaftliche und politische Eigeninteressen kein signifikanter Unterschied zu den großen westlichen Geberländern wie den Vereinigten Staaten, Japan und den großen europäischen Gebern. Allerdings finden wir in gemeinsamen Studie mit Kollegen der Universität St. Gallen und Monash-Universität Belege, dass mehr chinesische Entwicklungsprojekte in Hauptstädten, reicheren Provinzen und den Geburtsregionen afrikanischer Staatenführer angesiedelt werden. Es scheint, dass die Staatenführer Chinas Entwicklungsprojekte für ihre persönlichen politischen Zwecke missbrauchen können.
Was die Auswirkungen auf Entwicklung in den Empfängerländern betrifft, so gibt es zunächst gute Nachrichten. Es zeigt sich ein zeitlich verzögerter Anstieg des Bruttoinlandsprodukts auf Länderebene. Eine Verdopplung chinesischer ODA führt zwei Jahre nach der Hilfszusage zu einem Anstieg des Wachstums von 0,4 Prozentpunkten. Auf Provinzebene lässt sich eine Zunahme von Nachtlicht in denjenigen Regionen erkennen, an die chinesische Gelder vergeben wurden. Sattelitenaufnahmen von Nachtlicht werden in der wirtschaftswissenschaftlichen Forschung oft als Maß für Entwicklung auf Regionalebene verwendet, da für Entwicklungsländer oft keine guten Daten der volkswirtschaftlichen Gesamtrechnung vorliegen.
Allerdings gibt es auch schlechte Nachrichten, wenn man die Nebenwirkungen chinesischer Entwicklungsprojekte in Afrika betrachtet. Eine kürzlich erschienene Studie eines Forschungsteams der Universitäten Göteborg und Oslo zeigt, dass in Umfragen von einer erhöhten Korruption in denjenigen Gebieten berichtet wird, in denen chinesische Entwicklungsprojekte implementiert wurden. Das gleiche Autorenteam findet, dass Chinas Entwicklungsprojekte Gewerkschaftsaktivitäten in ihrer geografischen Umgebung schwächen. Kollegen vom College of William & Mary zeigen in einer Studie, dass chinesische Entwicklungsprojekte in Forstschutzbereichen zu einer stärkeren Entwaldung führen können aber nicht müssen—je nachdem, ob eine entsprechende staatliche Regulierung dies verhindert. Es ist daher wichtig, dass sich Afrikas Regierungen mit guten Regulierungen im Arbeitsrecht und Umweltbereich gut aufstellen, um ungewollte Nebenwirkungen abzufedern und von den Wachstumsimpulsen chinesischer Entwicklungsprojekte zu profitieren.
Die Antwort stammt von Andreas Fuchs. Er gehört zum Forschungsbereich „Armutsminderung und Entwicklung“ des IfW Kiel und ist Inhaber der gemeinsamen Professur für Umwelt-, Klima- und Entwicklungsökonomik der Helmut-Schmidt-Universität Hamburg (HSU/UniBwH) und des Instituts für Weltwirtschaft (IfW Kiel).
Tabea Lakemann, Research Fellow am GIGA Institut für Afrika-Studien, beantwortet die Frage folgendermaßen:
Das chinesische Engagement auf dem afrikanischen Kontinent wurde seit dem ersten China-Afrika-Gipfel im Jahr 2000 stetig intensiviert und ist thematisch und geografisch breit gefächert: Es reicht von umfangreichen Investitionen in Infrastruktur über Entwicklungshilfe-Maßnahmen und Privatinvestitionen bis hin zur Bereitstellung von Truppen für UN-Friedensmissionen in einigen afrikanischen Ländern. Diese vielen verschiedenen Aktivitäten lassen sich nicht pauschal positiv oder negativ bewerten.
Angenommen, uns interessiert Chinas Einfluss auf die wirtschaftliche Entwicklung afrikanischer Staaten: Das chinesische Engagement in Afrika ist in überwältigendem Maße von eigenen wirtschaftlichen Interessen getrieben. China ist inzwischen der wichtigste Handelspartner des Kontinents, Herkunftsland der meisten neu getätigten Direktinvestitionen und bei weitem der wichtigste Finanzgeber für Infrastrukturprojekte. Anders als beispielsweise westliche Geberländer oder die Weltbank bietet China Pakete von der Finanzierung durch staatliche Banken bis hin zum Bau der Infrastruktur durch private chinesische Firmen an. Für die chinesische Seite hat das den Vorteil, dass Überkapazitäten in der Bauindustrie nach Afrika „exportiert“ werden können, während Gewinne zurück nach China fließen. Gleichzeitig sichert sich China so vielerorts den Zugang zu Bodenschätzen sowie strategisch wichtigen Einrichtungen und Anlagen. Auch für afrikanische Volkswirtschaften hat das Arrangement durchaus seinen Reiz: Mit dem Bau von Straßen, Bahnlinien, Tiefseehäfen und Kraftwerken trägt China zum Abbau der enormen Infrastrukturdefizite bei, die vielerorts wirtschaftliche Entwicklung behindern. Es gibt jedoch auch berechtigte Gründe zur Skepsis. Oft kommen kaum afrikanische Arbeitskräfte zum Zuge, sodass wenig Wertschöpfung im jeweiligen Land verbleibt. Sehr problematisch sind auch die hohe Verschuldung afrikanischer Staaten gegenüber China und die Tatsache, dass Kredite oft aus den Gewinnen der Infrastrukturprojekte zurückgezahlt werden sollen. Fallen diese geringer aus als erwartet, gerät das afrikanische Land in Zahlungsschwierigkeiten. Anfang 2019 sind mehr als fünfzehn afrikanische Staaten zahlungsunfähig oder von der Zahlungsunfähigkeit bedroht – mehrere dieser Staaten stehen tief bei China in der Kreide. Insgesamt bedeutet Chinas Engagement also Entwicklungschancen für afrikanische Staaten, birgt aber auch umfangreiche Risiken. Wichtig für afrikanische Regierungen ist, dass sie Verhandlungsspielräume voll ausnutzen, um für sich die besten Konditionen auszuhandeln – und wenn nötig auch einmal Nein zu einem Projekt sagen.
Bei dieser Frage geht es in einem ersten Schritt um eine Bestandsaufnahme: Inwieweit findet eine Vererbung von Reichtum und Armut statt? Eine Studie der OECD (2018) ergibt, dass in Deutschland mehr als die Hälfte der beobachteten Einkommensunterschiede zwischen den Eltern an die nächste Generation weitergegeben werden. Mit diesem Ergebnis schneidet Deutschland im Industrieländervergleich mit am schlechtesten ab. Auch wenn es wissenschaftliche Kritik an dieser Studie gibt, sind sich die Ökonomen einig, dass es in Deutschland einen starken Zusammenhang zwischen dem Einkommen des Elternhauses und den späteren Einkommen der Kinder gibt (Hufe et al., 2018).
Im zweiten Schritt kann man nun klären, welche Faktoren diesen Zusammenhang bestimmen. Die ökonomische Forschung zeigt, dass ein wesentlicher Faktor die Bildung ist. Der Schulerfolg hängt in Deutschland stärker als in anderen Ländern vom Einkommen der Eltern ab. Und die Arbeitsmarktforschung zeigt wiederum, dass eine gute Bildung ein wesentlicher Bestimmungsfaktor der wirtschaftlichen Chancen, also der späteren Einkommen ist (Kugler et al., 2017).
Im dritten Schritt soll es nun darum gehen, welche Lösungsansätze es gibt, wenn man die Vererbung von Reichtum und Armut verhindern möchte. Dazu hilft zunächst das theoretische Konzept der Chancengerechtigkeit (Roemer, 1998). Dieses Konzept meint nicht, dass es einen Anspruch auf Ergebnisgleichheit gibt. Unterschiede hinsichtlich des Einkommens bzw. Vermögens von Individuen sind gerechtfertigt, solange sie einzig und allein auf persönliche Anstrengung zurückzuführen sind. Chancengerechtigkeit heißt jedoch, dass individuelle Erfolgsaussichten in einer Gesellschaft nicht von Umständen abhängen dürfen, auf die ein Individuum selbst keinen Einfluss hat, wie beispielsweise das elterliche Einkommensniveau, die Nationalität, oder der gesellschaftliche Status der Familie.
Für eine „Verhinderung“ bzw. Minderung der Vererbbarkeit von Reichtum und Armut in Deutschland folgt aus diesen Punkten, dass es größere Veränderungen hinsichtlich der Chancengerechtigkeit geben muss. Dabei spielt das Bildungssystem eine wesentliche Rolle. Dieses muss so ausgerichtet sein, dass der Bildungserfolg im frühkindlichen, schulischen und universitären Bereich nicht durch die familiären Einkommensverhältnisse der Kinder und Jugendlichen bedingt ist. Davon ist Deutschland leider noch weit entfernt. So sind die Mathematikleistungen von 15-jährigen Jugendlichen aus schwierigen sozialen Verhältnissen durchschnittlich vier Schuljahre niedriger als die Mathematikleistungen von Jugendlichen aus guten sozialen Verhältnissen. Ein Studium nehmen 79 Prozent der Kinder von Eltern mit Hochschulabschluss auf, wohingegen nur 27 Prozent der Kinder von Eltern ohne Hochschulabschluss studieren (Wößmann, 2018).
Die bildungsökonomische Forschung hat im internationalen Kontext klare Evidenz dafür gefunden, dass frühkindliche Bildung, die Mehrgliedrigkeit des Schulsystems sowie gezielte Fördermaßnahmen die Chancengerechtigkeit stark beeinflussen. Für Deutschland lässt sich aus den Forschungsbefunden folgern:
- Das frühkindliche Bildungssystem muss quantitativ und qualitativ so ausgelegt sein, dass (auch) Kinder aus benachteiligten Verhältnissen gut vorbereitet in die Grundschule kommen.
- Wenn Kinder nicht schon im Alter von zehn Jahren, sondern erst deutlich später auf verschieden Schularten aufgeteilt werden, würde dies die Chancen von Kindern aus ärmeren Verhältnissen erhöhen.
- Um Ungleichheiten im Bildungssystem auszugleichen ist das Gießkannenprinzip, wie etwa bei der Verteilung von finanziellen Mitteln, ein sehr ungeeignetes Verfahren. Gezielte Maßnahmen für benachteiligte Gruppen, z.B. in Form von Mentoring-Programmen oder „Frühen Hilfen“, sind weitaus wirkungsvoller.
Die Antwort stammt von Larissa Zierow, Stellvertretende Leiterin des ifo Zentrums für Bildungsökonomik.
Referenzen:
- Hufe, Paul, Andreas Peichl und Daniel Weishaar (2018), „Intergenerationelle Einkommensmobilität: Schlusslicht Deutschland?“, ifo Schnelldienst 71 (20), 20–28.
- Kugler, Franziska, Marc Piopiunik und Ludger Wößmann (2017), „Einkommenserträge von Bildungsabschlüssen im Lebensverlauf: Aktuelle Berechnungen für Deutschland“, ifo Schnelldienst 70 (7), 19-30.
- OECD (2018), A Broken Social Elevator? How to Promote Social Mobility, OECD Publishing, Paris.
- Roemer, J. E. (1998), Equality of Opportunity, Cambridge, Harvard University Press.
- Wößmann, Ludger (2018). Bildungspolitik ist Säule der Sozialen Marktwirtschaft. ARD Themenwoche Gerechtigkeit, 16.11.2018.
Per Definition gehört der öffentliche Raum allen und ist für eine lebendige (Stadt)Gesellschaft ein wichtiger und unverzichtbarer Raum der Begegnung und des Austauschs. Diese Begegnung beinhaltet naturgemäß viele Widersprüche und Konflikte, die sich vielfach nicht auflösen lassen, sondern immer auch ein Nebeneinander und das Aushalten von Gegensätzen bedeuten. Stadt lebt von Vielfalt, die nicht immer konfliktfrei sein kann.
Eigentumsrechtlich gehört der öffentliche Raum in der Regel den Kommunen. Eigentumsrechtlich privatisierte Flächen in Stadtmitten wie bspw. Einkaufszentren, Bahnhöfe und ihre Vorplätze etc. fallen mit Blick auf den gesamten öffentlichen Raum in Deutschland prozentual gering aus. Nichtsdestoweniger ist der Zugang zu öffentlichem Raum für einzelne Personengruppen oft direkt oder indirekt eingeschränkt, beispielsweise durch die Präsenz von Sicherheitskräften, Kameras und/oder die Art der Gestaltung oder Aufenthaltsregelungen.
Eine tolerante Stadtpolitik versucht allen Gruppen die Teilhabe am öffentlichen Raum zu ermöglichen. Dazu gehört die Akzeptanz und Moderation von Konflikten und Nutzungskonkurrenzen unterschiedlicher Gruppen, ihrer Ansprüche und Bedürfnisse. Diese müssen im Einzelfall gegeneinander abgewogen werden, denn der öffentliche Raum lebt von der Vielfalt seines Angebots, aber auch vom Respekt gegenüber den Bedürfnissen der jeweils anderen. Eine Möglichkeit ist die Aufteilung des öffentlichen Raumes in Teilräume, die bewusst Anreize (aber zugleich auch Zugangsbeschränkungen) für die unterschiedliche Nutzergruppen aufweisen. Das reicht von Kinderspielplätzen ohne Spritzen oder zerbrochene Flaschen über Räume, die gezielt Aufenthalts- und Erlebnisqualitäten für Jugendliche bieten, wie beispielsweise Skaterlandschaften oder Graffitiwände, bis hin zu barrierefrei zugänglichen Räumen mit ausreichend Sitzgelegenheiten und einem geordneten Charakter, der beispielsweise ältere Menschen, die sich in vielen urbanen Räumen verloren oder unsicher fühlen, anspricht. Wichtig ist es aber auch, Gruppen, die keine eigene Lobby haben, aber auch auf den öffentlichen Raum angewiesen sind, wie z.B. Obdachlose oder Suchtkranke, ebenfalls seitens der öffentlichen Hand Räume anzubieten.
Die Antwort stammt von Rainer Danielzyk, Generalsekretär der Akademie für Raumforschung und Landesplanung (ARL).
Es gibt keine einfache Antwort oder direkte politische, medizinische oder technische Lösung für dieses Problem. Letztlich bedarf es eines funktionierenden sozialen Zusammenhalts, in diesem Fall in der jeweiligen Nachbarbarschaft. Mehr Interesse und Aufmerksamkeit für die Mitmenschen und ein guter Zusammenhalt auf Quartiersebene lassen sich nicht verordnen, aber fördern. Dazu zählen Unterstützungsangebote wie die Einrichtung eines Quartiersmanagements, das Angebot generationenübergreifender Aktivitäten und Begegnungsräume, die Unterstützung von gesellschaftlichen, staatlichen oder kirchlichen Initiativen, die sich um ältere Mitglieder im Quartier kümmern etc.. Hier gibt es zahlreiche Förderansätze, allerdings oft projektförmig und damit befristet.
Sinnvoll sind auch individuelle technisch-finanzielle Unterstützungen wie eine systematische Beratung und die Bereitstellung von Hausnotrufen für Ältere und/oder Kranke, die bisher eigenständig beauftragt und bezahlt werden müssen. Zugleich könnten gesundheitspolitische Anreize gesetzt werden, um beispielsweise die Praxiseröffnung von Allgemeinmedizinern/-innen gerade auf dem Land oder in Quartieren zu fördern, wo der Altersdurchschnitt besonders hoch ist. Auch die gezielte Vergütung von mehr Zeit zur Betreuung von Patient/-innen und Hausbesuchen wären sinnvoll.
Darüber hinaus verweist diese Frage auch auf grundsätzliche klima- und damit auch gesellschaftspolitische Herausforderungen. Sie zeigt, wie unser (Nicht)Handeln im Hinblick auf Klimaschutz und Klimaanpassung bereits heute weitreichende Konsequenzen auch hier vor Ort und nicht nur in der Arktis oder auf Südseeinseln hat.
Die Antwort stammt von Rainer Danielzyk, Generalsekretär der Akademie für Raumforschung und Landesplanung (ARL).
Da Menschen soziale Wesen sind, die ohne einander nicht auskommen, haben sie viele unterschiedliche Arten des Miteinanders entwickelt. Kooperation und Konkurrenz sind zwei wesentliche Formen sozialen Zusammenlebens. Kooperation vereint Menschen für die Erreichung gemeinsamer Ziele. Dabei reicht das Spektrum von Solidarität über gegenseitige Hilfe bis hin zu Zweckbündnissen und Multituden, also lediglich dem gemeinsamen Handeln. Ebenso ist Konkurrenz durchaus vielschichtig. Vom spielerischen Vergleichen und Messen, kollegialen und sportlichen Wettbewerb bis hin zu Rivalität, neidvoller Missgunst, dem verzweifelten Ringen um Positionen, Jobs und Anerkennung bis hin zur Feindschaft kann Konkurrenz zahlreiche Formen annehmen. Zusätzlich finden sich auch viele Mischformen, wie das Konkurrieren von Firmen oder Mannschaften, die Gleichgesinnte durchaus vereint und kooperieren lässt.
Für den einzelnen Menschen sind sowohl Kooperation als auch Konkurrenz hilfreich, um seine Ziele zu erreichen. Welche Form sich als die bessere erweist, hängt von den Rahmenbedingungen ab, aber auch davon, was eigentlich als erfolgreich gilt. Kooperation stärkt die soziale Eingebundenheit, das Gefühl nicht allein zu sein, gibt Rückhalt in Problem- und Krisensituationen. Nicht zufällig stellen viele Gesellschaften das kooperative Miteinander („Mutual Aid“) ins Zentrum ihrer Weltanschauung. Andere erheben das Denkprinzip „Konkurrenz belebt das Geschäft“ zur Handlungsmaxime, da sie im Wetteifern um begrenzte Ressourcen, aber auch begrenzte Zeit für den Einzelnen oder die Gruppe die stärkste Motivation sehen. Diese drückt sich bei Erfolg wiederum in der Steigerung von Selbstwertgefühlen und sozialer Anerkennung aus, kann also durchaus positive Effekte haben.
Der Erfolg Einzelner bewirkt jedoch nicht zwangsläufig eine bessere Welt. Genauso wie eine Kooperation immer jene ausschließt, mit denen nicht kooperiert wird, verschafft Konkurrenz auch nur jenen Vorteile, die erfolgreich konkurrieren. So kann die Kooperation auch auf Kosten anderer gehen, ebenso wie Konkurrenz kriegerisch und zerstörerisch ausgetragen werden kann. Beides trifft umso mehr zu, wenn man die Welt als besseren Ort nicht nur auf das gute und erfolgreiche Leben der Menschen reduziert, sondern die gesamte Umwelt in den Blick nimmt. Zwar scheint eine „gesunde“ Mischung aus Kooperation und Kollaboration als eine hilfreiche Faustformel, was aber als gesund für wen gilt, welche Lebewesen wir eigentlich ausschließen und schädigen, dürfen wir nicht aus dem Blick verlieren.
Die Antwort stammt von Stefan Schreiber, Wissenschaftlicher Mitarbeiter im Projekt „Resilienzfaktoren in diachroner und interkultureller Perspektive – was macht den Menschen widerstandsfähig?“ am Römisch-Germanischen Zentralmuseum (RGZM), Leibniz-Forschungsinstitut für Archäologie
Applaus ernten wir für eine besondere Leistung; Wir erfahren Anerkennung und – so verbirgt es sich auch in der Übersetzung des lateinischen Wortes „applausus“ – Zustimmung. Persönlich ausgedrückte Gesten der Würdigung, Belohnung oder Unterstützung wie etwa Schulterklopfen oder Händeschütteln gehen in einer größeren oder unüberschaubaren Gruppe schnell unter. Sie bedürfen Alternativen. Durch gemeinsames Klatschen entstehender Applaus zeigt Lob, Wertschätzung und Respekt der Masse und nicht nur der/s Einzelnen. Zugleich versichert es den „Beklatschten“ einen gewissen sozialen Rückhalt der Gruppe.
Wenngleich direkte Belege für Applaus in frühen Gesellschaften fehlen, gibt es doch Hinweise auf Formen sozialer Interaktion wie Musik und Tanz. Bereits vor ca. 45.000 Jahren oder mehr wurde deren Ausübung vermutlich – durch uns heute nicht mehr erschließbare Ausdruckformen sozialer Anerkennung – honoriert. Vielleicht entstand der Applaus aus Musik begleitendem Klatschen. Welchen Stellenwert Applaus über die Zeit erreichte, zeigt die der griechischen Mythologie entsprungene Figur Krotos. Er gilt als der Erfinder des rhythmischen Beifalls zur Musik, bedeutet sein Name nichts anderes als „Klatschen“ oder „Stampfen mit dem Fuß“. Beifall spenden etablierte sich auch bei den Römern im Theater oder der Arena und wurde durch die Aufforderung „plaudite!“, also „klatschet!“ nur noch befeuert.
Gesellschaftlich regulierten Applaus erleben wir heute. Wer bei einem klassischen Konzert im falschen Moment applaudiert, wird als unwissend entlarvt – kennt er/sie doch nicht die Regeln des „Applaus-Knigges“. Immer wieder aufbrausender Beifall während eines Popkonzerts ist hingegen erwünscht und trägt zur ausgelassenen Stimmung bei. Als Aufforderung zum gemeinsamen Applaudieren ist dann auch eine Aussage des Dichters und Schriftstellers Christian Morgenstern zu verstehen, mit der er zugleich das Gefühl gemeinschaftlicher Anerkennung beschreibt: Denn „Es ist etwas Herrliches, wenn in das Händeklatschen einer Menge jenes Elementare kommt, das ich das Mark des Beifalls nennen möchte.“
Die Antwort stammt von Olaf Jöris, Wissenschaftlicher Mitarbeiter in MONREPOS | Archäologisches Forschungszentrum und Museum für menschliche Verhaltensevolution und Louise Rokohl, Wissenschaftliche Koordinatorin im Projekt „Resilienzfaktoren in diachroner und interkultureller Perspektive – was macht den Menschen widerstandsfähig?“ am Römisch-Germanischen Zentralmuseum (RGZM), Leibniz-Forschungsinstitut für Archäologie
Diese Frage ist sehr berechtigt angesichts der Prognose der Vereinten Nationen, dass bis 2050 etwa 70 Prozent der Menschen in Städten leben werden. Im Leibniz-Institut für ökologische Raumentwicklung (IÖR) beschäftigen wir uns tagtäglich mit der Frage, wie unter diesen Voraussetzungen ein gutes Leben für jede Stadtbewohnerin und jeden Stadtbewohner möglich sein kann. Die Lösung liegt in unseren Augen in einer ökologisch nachhaltigen Stadtentwicklung.
In einer „grünen“, einer ökologisch nachhaltigen Stadt sind viele Aspekte zu berücksichtigen und miteinander in Einklang zu bringen. Auf der einen Seite ist es wichtig, der Natur ausreichend Raum zu geben. Denn Parks, Gärten oder Flussauen sind wichtig. Für viele Menschen machen Grünflächen eine Stadt erst attraktiv. Für ein gutes Klima, für die Natur und auch für die Risikovorsorge, etwa für den Schutz vor Hochwasser, sind sie unverzichtbar.
Zugleich müssen wir aber auch Voraussetzungen dafür schaffen, dass viele Menschen ausreichend Wohn- und Lebensraum in der Stadt finden. Die Herausforderung ist, dies so zu gestalten, dass wir möglichst wenig Fläche bzw. kostbaren natürlichen Boden und andere natürliche Ressourcen beanspruchen. Hier sind unter anderem die Fragen entscheidend, für welche Art des Wohnens wir uns entscheiden und wo wir neue Gebäude errichten.
In Deutschland wird ein Lösungsansatz in der „doppelten Innenentwicklung“ von Städten gesehen. Das heißt: Neu gebaut wird auf innerstädtischen, bereits erschlossenen Flächen; wichtige Grün- und Freiflächen in der Stadt und in ihrem Umland bleiben erhalten. Werden doch neue Flächen oder Brachen in der Stadt genutzt, so sind zum Ausgleich an anderer Stelle Grünflächen qualitativ aufzuwerten und besser zu vernetzen. Auch die Gebäude selbst sind zu begrünen, zum Beispiel die Fassaden oder Dächer. Es entsteht ein Mix aus kompakten Stadtvierteln und wichtigen Grünflächen und Grünkorridoren, die den Menschen als Freizeit- und Erholungsraum dienen, für ein gutes Klima in den Städten sorgen und Raum für Pflanzen und Tiere bieten.
Eine solche ökologisch nachhaltige Stadt kann nur entstehen, wenn Politik, Stadtverwaltung und Bürger gemeinsam und engagiert das Konzept der doppelten Innenentwicklung umsetzen. Dies sind Aushandlungsprozesse die teils widersprüchliche Ziele unter einen Hut bringen müssen. Eine Publikation des IÖR zur „Stadt im Spannungsfeld von Kompaktheit, Effizienz und Umweltqualität“ porträtiert sieben deutsche Städte und erläutert die Methode, mit der Stärken und Schwächen aus Sicht von „Bauen!“ und „Durchgrünen!“ herausgearbeitet werden können. Weitere Denkanstöße geben auch die Internetseiten zu unserem Ausstellungsexponat „Die Grüne Stadt – Wie bringen wir unsere Städte ins ökologische Gleichgewicht?“.
Die Antwort stammt von Heike Hensel vom Leibniz-Institut für ökologische Raumentwicklung (IÖR).
Es ist richtig, dass Frauen in Deutschland im Durchschnitt niedrigere Einkommen am Arbeitsmarkt erzielen als Männer. Laut dem Statistischen Bundesamt lag der durchschnittliche Bruttostundenverdienst der Frauen im Jahre 2017 etwa 21 Prozent unter dem Durchschnitt der Männer. Dieses Phänomen wird auch als Gender Pay Gap bezeichnet. Rund drei Viertel davon lassen sich auf strukturelle Unterschiede zurückführen: Die wichtigsten Gründe für die Differenzen der durchschnittlichen Bruttostundenverdienste waren Unterschiede in den Branchen und Berufen, in denen Frauen und Männer tätig sind, sowie ungleich verteilte Arbeitsplatzanforderungen hinsichtlich Führung und Qualifikation. Darüber hinaus sind Frauen häufiger als Männer teilzeit- oder geringfügig beschäftigt.
Dieser Lohnunterschied ist auf den ersten Blick überraschend, da in den Geburtskohorten ab Ende der 1970er die Bildungsabschlussquoten der Frauen deutlich über den denen der Männer liegen. Dies gilt sowohl für das Abitur als auch für den Studienabschluss. Jedoch bedeutet ein Studienabschluss nicht automatisch ein hohes Einkommen. So wählen Frauen tendenziell eher Studienfächer die für am Arbeitsmarkt schlechter entlohnte Berufe qualifizieren. Beispielhaft sind hier die Ingenieurswissenschaften und das Grundschullehramtsstudium zu nennen. Während weniger als 30 Prozent der ausgebildeten Ingenieur/-innen Frauen sind, sind weniger als 20 Prozent der angehenden Grundschullehrer/-innen Männer.
Es ist außerdem richtig, dass Frauen mehr im Haushalt tun als Männer. Der sogenannte Gender Care Gap beläuft sich auf etwa 50 Prozent oder beinahe 1,5 Stunden täglich. Die zusätzliche Arbeitsbelastung im Haushalt wirkt natürlich auch wieder auf den Gender Pay Gap. Frauen arbeiten öfter in Teilzeit, vermeiden Positionen mit einer hohen Stundenbelastung oder sind bei der Arbeitgeberwahl eher bereit, Gehaltsabstriche zu Gunsten einer besseren Work-Life Balance zu machen.
Zur Erklärung dieses Phänomens werden häufig traditionelle Rollenverständnisse herangezogen. Immerhin 28 Prozent der Deutschen stimmen mit der Aussage überein, dass die wichtigste Rolle der Frau in der Verwaltung von Heim und Familie besteht. Dies spiegelt sich auch in den Erwerbsbiographien von Partnern mit Kindern. Vergleicht man die Einkommensdifferenz von Vater und Mutter im Jahr vor der Geburt des ersten Kindes zur Einkommensdifferenz im ersten Jahr nach der Geburt, so vergrößert sich der relative Gehaltsunterschied zwischen den Partnern um 80 Prozent zu Ungunsten der Mutter. Natürlich ist dies in Teilen mit den biologischen Herausforderungen der ersten Lebensmonate des Kindes zu erklären. Jedoch erholen sich die Einkommen von Frauen auch auf lange Sicht nicht von diesem Schock. Selbst 10 Jahre nach der Kindsgeburt liegt der relative Verdienstverlust der Frauen bei immerhin noch 60 Prozent im Vergleich zum Vorgeburtsjahr. Dies legt nahe, dass traditionelle Rollenbilder in Kombination mit institutionellen Beschränkungen bei der Vereinbarkeit von Familie und Beruf ein wichtiges Erklärungsmuster für den bestehenden Gender Pay Gap ist.
Beim Gender Pay Gap gibt es jedoch große regionale Unterschiede. Im Landkreis Dingolfing-Landau betrug der Wert 38 Prozent. Das heißt, dass die vollzeitbeschäftigten Frauen dort 38 Prozent weniger verdienten als die Männer. In Cottbus hingegen verdienten die Frauen 17 Prozent mehr als die Männer. Insgesamt liegt das Entgelt der Frauen in 29 ostdeutschen Kreisen über demjenigen der Männer und damit im auch im Durschnitt für die neuen Bundesländer.
Die Antwort stammt von Andreas Peichl, Leiter des ifo Zentrums für Makroökonomik und Befragungen.
Weiterführende Quellen:
Zunächst muss unterschieden werden, welche „Schere“ man betrachtet, Einkommen oder Vermögen?
Die vorliegenden Daten zur Verteilung der privaten Nettovermögen in Deutschland deuten darauf hin, dass in den vergangenen rund zehn Jahren die Schere zwischen den ärmeren und reicheren Menschen in Deutschland nicht weiter auseinander gegangen ist.
Bei den Einkommen werden üblicherweise die sogenannten Haushaltsnettoeinkommen betrachtet, das sind alle Einkommen, die einem Haushalt als Ganzes und dessen Haushaltsmitgliedern in einem Monat (oder einem Jahr) zufließen. Also Löhne, Einkommen aus Selbstständigkeit, Kapitaleinkommen, staatliche Transfers wie Kindergeld, Arbeitslosengeld, alle Renten …
Zwischen Ende der 1990er Jahre und 2005 ist die Schere zwischen Arm und Reich gemessen an diese Einkommen in Deutschland deutlich auseinander gegangen. Seit 2005 sind aber nur noch geringe Veränderungen zu beobachten. Die Einkommen der einkommensschwächsten zehn Prozent der Bevölkerung sind in den letzten drei bis vier Jahren etwas gesunken. Das liegt hauptsächlich an der Zuwanderung in Deutschland, da Personen, die einwandern, im Regelfall nur sehr geringe Einkommen haben.
Aber auch wenn sie nicht maßgeblich steigt, ist die Ungleichheit in Deutschland problematisch. Was tun? Ein wesentlicher Faktor für die steigende Einkommensungleichheit bis 2005 war die Entwicklung am Arbeitsmarkt. So ist es beispielsweise zu einem deutlichen Zuwachs des Niedriglohnsektors gekommen. Hier könnte man ansetzen und z.B. folgende Maßnahmen anwenden:
- Zurückdämmen von Minijobs,
- gleicher Lohn für Beschäftigte in Leiharbeit
- mehr allgemeinverbindliche Tarifverträge
- Absenkung von Sozialabgaben/Steuern von Geringverdienerinnen und Geringverdienern.
Die Antwort stammt von Markus M. Grabka, wissenschaftlicher Mitarbeiter beim SOEP und Verteilungsexperte des Deutschen Instituts für Wirtschaftsforschung e.V. (DIW Berlin).
Wir alle wollen positiv denken und handeln. Dennoch durchlebt jeder von uns im Laufe seines Lebens Krisen. Der Tod eines nahen Angehörigen, der Verlust des Arbeitsplatzes, die Vertreibung aus der Heimat oder die Bedrohung durch Naturkatastrophen. Vieles davon ist menschengemacht, einiges dennoch unausweichlich. Wer es schafft, seine psychische Gesundheit während oder nach widrigen Lebensumständen aufrecht zu erhalten oder sie rasch zurückzugewinnen, wird als resilient bezeichnet. Einigen Menschen gelingt dies besser, anderen schlechter. Aber immer ist die Bewältigung der Krise die Voraussetzung für langfristiges positives Agieren. Dies gilt für jeden Einzelnen genauso wie für die gesamte Weltgemeinschaft.
Deswegen erforscht das Leibniz Forschungsinstitut für Archäologie gemeinsam mit Psycholog*innen und Lebenswissenschaftler*innen Resilienzfaktoren. Als Archäolog*innen am RGZM interessiert uns besonders, was die Menschen in der Steinzeit, im Alten Ägypten oder zur Zeit der Griechen und Römer widerstandsfähig gemacht hat. Wir wollen es aber nicht bei dem Blick in die Vergangenheit belassen. Im Fokus steht das Verständnis menschlichen Verhaltens, Handelns, Wirkens und Denkens. Verstehen wir die Entwicklung und Veränderung von Gesellschaften, leisten wir einen Beitrag zur Gestaltung der Zukunft.
Moderne psychologische und medizinische Studien belegen die Wirksamkeit einzelner Resilienzfaktoren wie Optimismus, soziale Unterstützung und Selbstwertgefühl zur Aufrechterhaltung der Widerstandskraft. Wenn es aber vor 2,6 Mio. Jahren ganz andere Faktoren gab, die zum Überleben und der Weiterentwickeln des Menschen beigetragen haben, warum sollten diese Faktoren nicht auch für die heutige Gesellschaft relevant sein?
Die Antwort stammt von Louise Rokohl, Koordinatorin des Projekts „Resilienzfaktoren in diachroner und interkultureller Perspektive – was macht den Menschen widerstandsfähig?“ am Römisch-Germanischen Zentralmuseum (RGZM), Leibniz-Forschungsinstitut für Archäologie
Sucht man nach klaren Mustern, primären Ursachen und genauen Mechanismen von rechtsextremistischer Radikalisierung, wird man viele widersprüchliche Ergebnisse finden. Es gibt schlicht zu viele Pfade für Radikalisierungsprozesse. Dementsprechend hat die Forschung vorwiegend komplexe Modelle entwickelt und getestet, die auf unterschiedlichen Erklärungsansätzen basieren und mehrere Bedingungsfaktoren miteinschließen. So macht bspw. eine Identitätskrise anfälliger dafür, sich extremistische Denkmuster anzueignen oder sich einer rechtsradikalen Gruppe anzuschließen – dies erfüllt oft auch eine biografische Funktion und hilft bei der Reduktion von Unsicherheit oder der Bewältigung kritischer Ereignisse, gibt aber auch Anerkennung und ein Zugehörigkeitsgefühl. Will man solche Prozesse verstehen, ist es erforderlich, nicht nur auf das Individuum zu fokussieren, sondern auch Gruppendynamiken ebenso mitzudenken wie gesellschaftliche und strukturelle Einflüsse: Als Bedingungsfaktoren können die Polarisierung einer Gesellschaft und der politischen Kommunikation, Chancen politischer Partizipation oder die Kultur medialer Berichterstattung identifiziert werden. Eine allgemeingültige Antwort auf die Frage ist deshalb schwierig. Unumstritten aber ist, dass Staat und Gesellschaft viel mehr und dauerhaft in politische Bildung und Prävention innerhalb aller wesentlichen Strukturen des Bildungssystems investieren müssen.
Die Antwort stammt von der „Radikalisierungsforschergruppe“ der HSFK, Leibniz-Institut Hessische Stiftung Friedens- und Konfliktforschung
Wie Frieden in einem konkreten Forschungsprojekt definiert wird, hängt davon ab, was erforscht wird und woran die Forschenden interessiert sind. Allgemein können wir aber zwischen engen und weiten Friedensverständnissen unterscheiden: Zunächst kann man Frieden definieren als die Abwesenheit von Krieg bzw. von direkter organisierter physischer Gewalt zwischen Personen verschiedener Gruppen. Das wird in der Friedens- und Konfliktforschung auch als „negativer Friede“ bezeichnet, weil Frieden über die Abwesenheit von organisierter (militärischer) Gewaltanwendung bestimmt wird. Dieses Verständnis ist zum Beispiel in der Duden-Definition von Frieden erkennbar als „Zustand des inner- oder zwischenstaatlichen Zusammenlebens in Ruhe und Sicherheit“, der gegebenenfalls vertraglich gesichert ist. Ein solches Friedensverständnis war bis zum Ende des Zweiten Weltkrieges vorherrschend, engte den Blick aber auf den Bereich militärischer Sicherheitspolitik ein.
In der Friedens- und Konfliktforschung wurde der Friedensbegriff dann erweitert um den Begriff des positiven Friedens. Ein positiver Frieden zeichnet sich zusätzlich durch die Abwesenheit struktureller Gewalt aus. Strukturelle Gewalt wirkt indirekt und geht von den politischen, gesellschaftlichen oder wirtschaftlichen Strukturen und damit einhergehenden Abhängigkeits-, Unterdrückungs- und Ausbeutungsverhältnissen aus. Positiver Frieden setzt negativen Frieden voraus, fasst den Begriff aber breiter. Ein solches breites Verständnis von Frieden wurde von Friedensforschern wie dem Norweger Johan Galtung in den 1960er Jahren verbreitet und stark gemacht. Insbesondere deutsche Friedensforscher, wie Dieter Senghaas und Ernst-Otto Czempiel betrachteten Frieden auch nicht mehr als Zustand, sondern als Entwicklungsprozess. Frieden soll demnach als ein andauernder Prozess verstanden werden, in welchem sich die Verhältnisse weg von organisierter militärischer Gewaltanwendung hin zu gewaltfreier Konfliktbearbeitung, Kooperation und Herstellung sozialer Gerechtigkeit entwickeln.
Frieden ist nach einer solchen Definition durch eine stetige Entwicklung gekennzeichnet, in der physische Gewalt abnimmt, Gerechtigkeit zunimmt und Konflikte verlässlich gewaltfrei bearbeitet werden. Mit einer solchen prozesshaften Definition schwingt auch mit, dass die Grenzen zwischen einem Kriegszustand und Friedenszeiten nicht immer klar bestimmbar sind. Außerdem wird unterstrichen, dass Sicherheit, Frieden, Entwicklung, Gerechtigkeit und Menschenrechte eng zusammenhängen. Dieses prozedurale Friedensverständnis ist auch Teil der Institutsverfassung des Leibniz-Instituts Hessische Stiftung Friedens- und Konfliktforschung. Aus meiner Sicht wird ein solches breites Verständnis von Frieden den Herausforderungen unserer Zeit auch am ehesten gerecht, denn es unterstreicht, dass man an der Entwicklung des Friedens immer weiter arbeiten muss.
Die Antwort stammt von Gregor P. Hofmann, wissenschaftlicher Referent am Leibniz-Institut Hessische Stiftung Friedens- und Konfliktforschung (HSFK)
Glücklich zu sein bedeutet mit seinem Leben zufrieden zu sein. Wir untersuchen mit Methoden der empirischen Sozialforschung, wie zufrieden die Menschen in Deutschland in einzelnen Lebensbereichen sind. Dafür stellen wir den rund 30.000 Befragten unserer Langzeitstudie Sozio-ökonomisches Panel (SOEP) jedes Jahr die gleiche Frage: „Wie zufrieden sind Sie gegenwärtig, alles in allem, mit Ihrem Leben?“ Diese Frage wird – auch bezogen auf verschiedene Lebensbereiche – auf einer Punkteskala von 0 bis 10 beantwortet. So können wir unter anderem herausfinden, wie zufrieden die Menschen mit ihrer Arbeit, ihrem Einkommen, ihrer Familie oder der Demokratie in Deutschland sind.
Die Antwort stammt von Jürgen Schupp, Vize-Direktor des Sozio-ökonomischen Panels am Deutschen Institut für Wirtschaftsforschung (DIW) und Professor für Soziologie der Freien Universität Berlin.
Am GIGA haben wir mindestens drei Möglichkeiten identifiziert, wie Forschung die Welt zu einem besseren Ort machen kann. Zunächst ist es wichtig, unseren „post-faktischen“ Zeiten solide Forschung mit klarem realweltlichem Bezug entgegenzusetzen. Am GIGA betreiben wir Grundlagenforschung von hoher Relevanz für die Politik. Wir geben regelmäßig forschungsbasierte Politikempfehlungen zu vier Weltregionen und zu Sachverhalten von globaler Bedeutung. Als Leibniz-Institut haben wir das klare Mandat, Forschung mit Praxisbezug zu betreiben. So untersuche ich beispielsweise unter anderem, wie eine faire, nachhaltige Globalisierung erreicht werden kann und welche Rolle nationale und internationale Narrative dabei spielen.
Zweitens müssen wir erkennen, dass sich in den aktuellen populistischen und extremistischen Bewegungen der Linken und Rechten, eine riesige Unzufriedenheit ausdrückt. Wir müssen die Enttäuschung und Wut derer verstehen, die sich von nationalen und internationalen Regeln an den Rand gedrängt und ausgegrenzt fühlen. Am GIGA möchten wir die unterschiedlichen Stimmen ernstnehmen und haben zu diesem Zweck einen globalen Forschungsansatz entwickelt. Wir arbeiten mit Afrika, Asien, Lateinamerika und Nahost zusammen und versuchen, Länder und Regionen anstatt durch eine westliche Linse aus ihrem eigenen Kontext heraus und in vergleichender Perspektive zu erforschen.
Und schließlich muss Exzellenz in der Forschung auch mit überzeugenden Wissenstransfer einhergehen. Eine entscheidende Lektion, die Wissenschaft aus der heftigen Gegenreaktion zur Globalisierung und dem wachsenden Populismus ziehen sollte, ist, dass Forschungsergebnisse beispielsweise zu den Errungenschaften der Globalisierung oder dem Wert der EU nicht ausreichend und wirksam vermittelt wurden. Es hat sich gezeigt, dass wütend und laut ankommt, während korrekt aber langweilig untergeht. Am GIGA haben wir uns daher – mehr denn je – vorgenommen, unsere Forschungserkenntnisse lebendig und spannend zu präsentieren. Wir haben dafür unserer Medienarbeit in Qualität und Reichweite gesteigert sowie den Austausch mit Politik und Öffentlichkeit breiter aufgestellt und vertieft.
Forschungsergebnisse können dabei helfen, Verständnis für einander zu schaffen und wirksamere Politiken einzusetzen, die zu einer friedlicheren und gerechteren Welt beitragen; eine Welt die pluralistisch und integrierend ist.Die Antwort stammt von Amrita Narlikar, Präsidentin des Leibniz-Instituts für Globale und Regionale Studien (GIGA).
Foto JENS KUIPER