Frag Leibniz!
Wie groß ist der Weltraum? Wie alt werden Bakterien? Wie funktioniert Denken? Jeder von uns hat sich schon einmal mit einer Frage beschäftigt, die alle angeht. Bei "Frag Leibniz!" können Sie uns Ihre Frage an die Wissenschaft senden.
Hier finden Sie bisher gestellte Fragen und die Antworten von Leibniz-Forscherinnen und -Forschern:
Bildung & Wissenschaft
Das ist eine interessante und nicht einfach zu beantwortende Frage – offen gelassen ist nämlich, für wen Vorteile zu erwarten seien, zentralisierte man die Verantwortung für das Schulsystem: Für alle, für die Bildungsschwächsten, für die Leistungsstarken, für „die“ Wirtschaft – an vieles ließe sich denken und vielleicht fiele die Antwort je unterschiedlich aus.
Nun kurz und doch möglichst differenziert zur Sache: In Deutschland gibt es eine lange föderalistische Tradition bei gleichzeitiger preußischer Hegemonie; sicherlich erinnern sich viele aus dem Geschichtsunterricht an die Rede von der deutschen Klein- oder Vielstaaterei. Als zahlreiche einzelne deutsche Staaten schließlich ab 1871 das deutsche (Kaiser)Reich, einen Bundesstaat, bildeten, blieben Schul- und Hochschulangelegenheiten sowie Kirchenfragen in der Verantwortung der einzelnen Länder. Woran lag das? Kulturpolitische Auseinandersetzungen – und das waren im 19. Jahrhundert in Deutschland vor allem Auseinandersetzungen um den Einfluss der Kirchen, Auseinandersetzungen zwischen dem Katholizismus und liberalen, häufig eher protestantischen Kräften – berührten entscheidend den Alltag der gesamten Bevölkerung. Bei kultur- und bildungspolitischen Entscheidungen ging es darum, wie diese Bevölkerung zu regieren sei, wie und welche gesellschaftlichen Normen und Verhaltenserwartungen durchzusetzen seien: Wer muss oder darf in welche Schule gehen und was genau dort lernen – und wer bestimmt darüber?
Diese Traditionen wirken bis heute fort. In der Wissenschaft sprechen wir häufig von einer sogenannten „Pfadabhängigkeit“, weil einmal eingeschlagene Entwicklungswege nicht so einfach verlassen werden. Stattdessen führen frühe Entscheidungen etwa zum Aufbau von Strukturen, die dann die nächsten Schritte bestimmen. So wurden beispielsweise unterschiedliche Institutionen – unabhängig voneinander – in den Ländern geschaffen und zeigen Beharrungskräfte. Insofern gab und gibt es immer wieder verschiedene politische Kräfte und Interessen, die sich gegenüber Zentralisierungen im Bildungsbereich bis heute widerständig zeigen.
Wer für eine Zentralisierung der Entscheidungen im Bildungsbereich plädiert, unterstellt meist zwei Dinge: Man wisse aus der Forschung, was das Beste sei, und dieses setze sich auch in zentralisierten Entscheidungen durch. Beides trifft nicht vollständig zu. Tatsächlich wissen wir aus der empirischen Bildungsforschung schon eine ganze Menge darüber, was beim Lernen gut und was schlecht funktioniert. Wie aber wirken untersuchte Faktoren und Bedingungen auf allen Ebenen und vor allem in einzelnen Schulen zusammen? Das kann niemand sicher vorhersagen. Vor diesem Hintergrund wird deutlich, dass auch zentrale bildungspolitische Entscheidungen politische Entscheidungen bleiben, die zwar wissenschaftlich informiert, aber selten alternativlos sind. Und so ist nicht einsichtig, dass auf zentraler Ebene getroffene, einheitliche Entscheidungen notwendig besser seien – zumal regionale und lokale Differenzen und unterschiedliche Traditionen fortbestehen: Vor Ort und in konkretem Kontext wird gehandelt.
Es gibt keine empirische Evidenz für oder gegen eine Zentralisierung. Dennoch, eine Zentralisierung hätte mindestens eine gute Folge: dass der Bildungsbereich übersichtlicher wird. Die Bürger*innen könnten sich einfacher orientieren, leichter Dinge einschätzen und souveräner in diesem Feld agieren. Damit wäre einiges gewonnen. In diesem Sinne könnte man aber auch unter föderalen Bedingungen wirken und Formen der Anerkennung gleichwertiger Leistungen zwischen den Ländern schaffen – wenn man sich darauf einigte, dass bildungspolitische Aufgaben wichtig sind und nur gemeinsam bewältigt werden können.
Die Antwort kommt von Prof. Dr. Sabine Reh, Stellvertretende Geschäftsführende Direktorin des DIPF | Leibniz-Institut für Bildungsforschung und Bildungsinformation. Sie leitet zudem die DIPF-Abteilung „Bibliothek für Bildungsgeschichtliche Forschung“ und ist Professorin für Historische Bildungsforschung an der Humboldt-Universität zu Berlin.
In die Zukunft gerichtete Fragen sind wichtige, aber nicht ganz leicht zu beantwortende Fragen. Unsere Antwort leiten wir einerseits aus Überlegungen zur Frage „Wie sieht eigentlich eine gute Schule aus?“ ab, aber auch mit dem Blick darauf, welchen Themen sich die „Schulen von morgen“ aus unserer Sicht stellen müssen. Unsere Ideen sind hierbei gespeist aus bisherigen Kenntnissen über Schulen und das deutsche Schulsystem sowie den gesellschaftlichen als auch bildungspolitischen Entwicklungen der letzten Jahre.
Die bildungspolitischen Entwicklungen der letzten Jahre haben zu verschiedenen Veränderungen geführt, die mit einer zunehmenden Heterogenität und Vielfalt in den Schulen und Klassen einhergehen. So wurden mit dem Ziel einer höheren Bildungsgleichheit nicht nur Reformen im Schulsystem umgesetzt, sondern auch Maßnahmen ergriffen, um eine stärkere Inklusion von Schülerinnen und Schülern umzusetzen. Bildungsteilhabe wird zunehmend Kindern und Jugendlichen mit sonderpädagogischem Förderbedarf, mit unterschiedlichen sprachlichen und lernbezogenen Voraussetzungen in allgemeinen Schulen ermöglicht. Die Heterogenität in den Schulen und Klassen zeigt sich beispielsweise auch in verschiedenen Altersgruppen, die beim jahrgangsübergreifenden Lernen in der Grundschule gemeinsam lernen, oder über die Klassenzusammensetzungen über Schülerinnen und Schüler mit und ohne Migrationshintergrund und mit verschiedenen Herkunftssprachen. Der förderliche Umgang mit dieser bereits bestehenden Vielfalt in den Schulklassen richtet sich sowohl an das pädagogische Personal als auch an die Schülerinnen und Schüler selbst. Die damit verbundenen Herausforderungen und vielen Chancen werden nicht nur die Ausrichtung des Unterrichts, sondern auch die sozialen Interaktionen auf dem Schulhof weiterhin mitgestalten.
An die Gestaltung von Lern- und Unterrichtsinhalten werden neue Anforderungen gestellt, um wichtige aktuelle gesellschaftliche und ökologische Themen aufzugreifen und diese noch direkter in die Schulen zu tragen. Vielfältige Unterrichtsthemen beispielsweise zur Nachhaltigkeit, dem Klimawandel, der Migration und deren Gründen werden in der Schule zunehmend behandelt und lassen sich mit den Lehrplänen verschränken. Dadurch kann auch die gesellschaftliche Beteiligung von Schülerinnen und Schülern gestärkt und damit zukunftsorientiertes Wissen und Kompetenzen in der Schule erworben und ausgebaut werden.
Nicht zuletzt wird das Lernen in einerdigitalen Welt ein großes Thema der Schule von morgen (oder auch schon von heute) sein. Vor kurzem ist der DigitalPakt von Bund und Ländern gestartet, der eine adäquate Ausstattung der Schulen mit digitaler Technik ermöglicht. Damit einher gehen Anforderungen an das Können und Wissen von Schülerinnen und Schülern und auch Lehrkräften im Umgang mit digitalen Medien und den damit verbundenen Chancen und Risiken.
Ebenso, wie sich die Schulen von heute schon sehr stark untereinander unterscheiden, werden auch die Schulen von morgen verschiedene Schwerpunkte setzen und Ausgestaltungsmöglichkeiten nutzen, um ihre Schülerinnen und Schüler auf die Teilhabe an der Gesellschaft und ihre Zukunft vorzubereiten.Die Antwort stammt von Ilka Wolter (Abteilungsleitung) und Lena Nusser (wissenschaftliche Mitarbeiterin) in der Abteilung „Kompetenzen, Persönlichkeit, Lernumwelten“ am Leibniz-Institut für Bildungsverläufe e.V. (LIfBi), Bamberg.
Als Wissenschaftlerin tue ich mich mit dem Begriff „Gerechtigkeit“ schwer. Was gerecht ist, ist keine empirische, sondern eine normative Frage. Diese muss in unserer Gesellschaft von der Politik, anderen gesellschaftlichen Akteuren und Gruppen und letztlich von jedem selbst beantwortet werden.
Die Bildungsforschung kann aber Antworten darauf geben, welche Arten von Bildungsungleichheit es in unserer Gesellschaft gibt und wie diese entstehen. Dabei zeigt sich: Die Hauptursache von Bildungsungleichheit liegt heute nicht mehr im Bildungssystem, sondern in den Familien. Je nach ihrem sozialen Status und ihrer eigenen Bildung haben Eltern ganz unterschiedliche Möglichkeiten, ihre Kinder zu fördern. Und je nach ihrer sozialen Herkunft treffen Eltern und Kinder selbst bei gleichen Fähigkeiten ganz unterschiedliche Bildungsentscheidungen. Maßnahmen, die sich an die ganze Bevölkerung richten (zum Beispiel flächendeckender Ausbau von Kinderbetreuung, bessere individuelle Förderung, Flexibilisierung von Bildungsgängen, durchlässigeres Bildungssystem) können daher sogar zu einer erhöhten Bildungsungleichheit führen, da Kinder aus bildungsnahen und statushohen Familien diese Angebote eher in Anspruch nehmen und stärker von ihnen profitieren.
Die Antwort stammt von Kerstin Hoenig, Leibniz-Institut für Bildungsverläufe e.V. (LIfBi)
In Deutschland verfügt knapp 1 Prozent der Gesamtbevölkerung über den höchsten Bildungsabschluss – die Promotion. Diese knapp 772.000 Promovierten dürften damit zu den klügsten Köpfen im Land zählen. Die meisten Doktorarbeiten werden in der Humanmedizin bzw. den Gesundheitswissenschaften (40%) sowie in der Mathematik und den Naturwissenschaften (25%) geschrieben (Bundesbericht Wissenschaftlicher Nachwuchs 2017).
Umfragen zufolge ist die akademische Karriere an einer Hochschule oder außeruniversitären Forschungseinrichtung für viele promovierte NachwuchswissenschaftlerInnen sehr attraktiv. Die interessanten Arbeitsinhalte und die zeitliche Flexibilität werden sehr geschätzt. Gleichzeitig bewerten die jungen Forscherinnen und Forscher die Beschäftigungssituation nach Abschluss der Promotion kritisch (Bundesbericht Wissenschaftlicher Nachwuchs 2017). Wiederholt befristete Verträge, kurze Vertragslaufzeiten und die Gefahr, eine der wenigen dauerhaften, entfristeten Stellen in der akademischen Forschung nicht zu erreichen, bedeuten für sie eine hohe Unsicherheit. Denn: Häufig ist die Besetzung einer Professur die einzige Möglichkeit für eine dauerhafte Anstellung. Allerdings existiert im Vergleich zu der sehr großen Gruppe von befristeten NachwuchswissenschaftlerInnen nur eine sehr geringe Anzahl von dauerhaften Professuren.
Aufgrund der wenigen dauerhaften Stellen in der akademischen Forschung ist es wenig überraschend, dass viele Promovierte in der Wirtschaft arbeiten. Von allen erwerbstätigen Promovierten unter 45 Jahren arbeiteten 2015 nur 19% an einer Hochschule und nur 16% im sonstigen öffentlichen Dienst, einschließlich außeruniversitärer Forschungseinrichtungen. Demgegenüber waren 65% der Promovierten in der Wirtschaft tätig. Viele arbeiten dort im Gesundheitswesen, was angesichts der vielen Promotionen in der Humanmedizin wenig überraschend ist. Der Anteil der forschenden Promovierten in der Wirtschaft ist mit 17% relativ gering (Bundesbericht Wissenschaftlicher Nachwuchs 2017, Mikrozensus 2015). Anders als in der akademischen Forschung, haben in der Wirtschaft mehr als 70% der Promovierten eine dauerhafte Stelle. Neben den Vertragslaufzeiten unterscheiden sich auch die Verdienste: Die höchsten Bruttolöhne finden sich bei den Promovierten im nicht-wissenschaftlichen Bereich sowie im Bereich Forschung und Entwicklung in der Wirtschaft. Mit großem Abstand folgen die tarifgebundenen Gehälter der promovierten Nachwuchswissenschaftler an Hochschulen oder außeruniversitären Forschungseinrichtungen (Bundesbericht Wissenschaftlicher Nachwuchs 2017).
Auffallend sind die steigenden Investitionen in Forschung und Entwicklung innerhalb der Wirtschaft. Dadurch wächst der Bedarf an exzellent ausgebildeten Fachkräften weiter. Gleichzeitig gibt es aber auch zunehmend mehr Kooperationsprojekte, welche die klugen Köpfe in der akademischen Grundlagenforschung und in der häufig finanzstarken und schnelleren Forschung in der Wirtschaft zusammenbringt. So werden vor allem in Bereichen der Medizin, der Ingenieurswissenschaften oder der IT komplexe Forschungsprobleme auch zunehmend gemeinsam bearbeitet.
Und schließlich: Sicher gibt es auch kluge Köpfe, die nicht promoviert haben – dazu fehlen aber bislang belastbare Daten.
Die Antwort stammt von Gundula Zoch, Leibniz-Institut für Bildungsverläufe e.V. (LIfBi)
Referenzen
Konsortium Bundesbericht Wissenschaftlicher Nachwuchs 2017. Bundesbericht Wissenschaftlicher Nachwuchs 2017. Statistische Daten und Forschungsbefunde zu Promovierenden und Promovierten in Deutschland. Bertelsmann Verlag: Bielefeld.
Welche Lernbedingungen optimal sind, lässt sich nicht pauschal beantworten, weil viele verschiedene Faktoren den Lernerfolg beeinflussen. Beispielsweise spielt die Aufmerksamkeit häufig eine wichtige Rolle. In unseren Studien beobachten wir jedoch, dass sich die Kontrolle über die Aufmerksamkeit im Verlauf der Kindheit entwickelt. So kann eine für ein Grundschulkind geeignete Lernumgebung für ein Kindergartenkind möglicherweise zu ablenkend sein und es lernt weniger erfolgreich.
Es wird angenommen, dass es nicht eine einzige Art des Lernens gibt, die für alle Gelegenheiten geeignet ist. Je nachdem, ob wir mathematische Zusammenhänge oder Cello spielen lernen, sind verschiedene Hirn-Netzwerke beteiligt. Unterschiedliche Inhalte werden von teilweise unterschiedlichen Gehirnarealen verarbeitet. Im prozeduralen Gedächtnis ist gespeichert wie Fahrradfahren funktioniert, während im episodischen Gedächtnis Erinnerungen an den letzten Urlaub gespeichert sind. Auch spielt es eine Rolle, ob Lernen explizit oder implizit erfolgt, ob wir also absichtsvoll Spanischvokabeln für den nächsten Urlaub lernen oder gar nicht bemerken, dass wir gerade etwas lernen. Jeder neue Gedächtnisinhalt führt zu kleinen Veränderungen im Gehirn, beispielsweise können sich neue Synapsen, das sind Verbindungsstellen zwischen Nervenzellen, bilden. Um das Gelernte zu behalten, ist es förderlich, wenn es mit vorhandenem Wissen verknüpft und reaktiviert, also geübt oder angewendet wird.
Neben der Anwendung neu erworbenen Wissens hat die Forschung zu Lernen und Gedächtnis viele weitere Einflussfaktoren für erfolgreiches Lernen identifiziert. Lernpausen gehören zum Lernen, und das Gehirn benötigt ausreichend Schlaf, da sich im Schlaf tagsüber Gelerntes festigen kann. Emotionen und Motivation sind ebenfalls wesentliche Faktoren, die den Lernerfolg beeinflussen können. Studien haben gezeigt, dass Belohnung zu einer Ausschüttung chemischer Stoffe im Gehirn führt (Dopamin), die sich förderlich auf Gedächtnisprozesse auswirken können, und die beste Belohnung und Lernverstärkung ist die aktive Anwendung des Wissens, um ein interessantes Problem zu lösen.
Die Antwort stammt von Nicole Wetzel, Leiterin der CBBS-Forschergruppe Neurokognitive Entwicklung am Leibniz-Institut für Neurobiologie Magdeburg, Center for Behavioral Brain Sciences Magdeburg (LIN).
Zur Beantwortung dieser Frage ist zunächst zu definieren, was Intelligenz ist. Darüber wird seit mehr als 100 Jahren diskutiert. Der Psychologe E. Boring kommentierte 1923 die damalige Diskussion, was Intelligenz sei, eher pragmatisch: „Intelligenz ist das, was Intelligenztests messen“. Es wurden und werden verschiedene Konstrukte der Intelligenz diskutiert, die unterschiedliche Faktoren einbeziehen, wie beispielsweise schlussfolgerndes Denken und Problemlösung. Einige einflussreiche Intelligenzmodelle umfassen u.a. Bereiche wie allgemeines Wissen oder sprachbezogene Bereiche, die durch (pädagogische) Förderung direkt beeinflusst werden können.
Möglicherweise nutzen Sie solche sprach- oder wissensbezogenen Hinweise für Ihre subjektive Einschätzung der Intelligenz Ihres Gegenübers? Tatsächlich gibt es einige Studien, die versucht haben, Merkmale wie das Gesicht, die Attraktivität oder die Komplexität verfasster Texte, die Menschen möglicherweise zu einer subjektiven Einschätzung der Intelligenz heranziehen, zu untersuchen. Hier besteht jedoch noch weiterer Forschungsbedarf.Genetische Einflüsse tragen zu Unterschieden in der Intelligenz zwischen Menschen einer Gruppe bei, sie machen aber nur einen Teil der Variabilität aus. Eine wichtige Rolle spielt auch die Umwelt. Eine förderliche Umgebung sorgt dafür, dass sich das angeborene Potenzial entfalten kann. Hier können Bildungsmaßnahmen tatsächlich ansetzen, wie Studien zeigen.
Die Antwort stammt von Nicole Wetzel, Leiterin der CBBS-Forschergruppe Neurokognitive Entwicklung am Leibniz-Institut für Neurobiologie Magdeburg, Center for Behavioral Brain Sciences Magdeburg (LIN).
Die ökonomische Forschung zur Ungleichheit hat inzwischen viel Evidenz dafür erbracht, dass die Wirtschaft von Ländern, deren Gesellschaft von größerer Ungleichheit geprägt ist, langsamer wächst als in Ländern, wo es eine geringere Ungleichheit gibt. Dafür führt die Literatur verschiedene Gründe an (Dabla-Norris et al., 2015, Ostry et al., 2014, van Treeck, 2018). Einen sehr wichtigen Faktor spielt dabei die Bildung: Wenn ärmere Individuen sich keine gute Bildung leisten können, wird im unteren Bereich der Einkommensverteilung zu wenig in Humankapital investiert, was ein geringeres Wachstum der volkswirtschaftlichen Produktivität zur Folge hat. Dieses Phänomen kann vor allem in Entwicklungsländern beobachtet werden, wo es für den ärmeren Teil der Gesellschaft besonders schwer ist, Zugang zum Bildungssystem zu erlangen.
Im Vergleich zu diesen Ländern ist das Bildungsniveau in Deutschland natürlich schon recht gleich verteilt – so kommt bei der Messung des Bildungsstands von 25- bis 64-Jährigen im Jahr 2017 heraus, dass gut 95 Prozent der Bevölkerung mindestens zehn Jahre Schulbildung abgeschlossen haben; darüber hinaus hatten knapp 30 Prozent der Bevölkerung einen Hochschulabschluss (OECD, 2018). Die neuesten Statistiken zu der Aufnahme von Berufsausbildung und Studium zeigen zudem, dass die Zahl der Studierenden in Deutschland stetig wächst, sodass heute genauso viele Personen einen Hochschulabschluss anstreben wie eine Ausbildung (BMBF, 2018). Dies vermittelt das Bild, dass schon heute das Bildungsniveau der Bevölkerung in Deutschland auf einem Weg ist „gleicher“ zu werden (auch wenn zweifelsohne die Chancengerechtigkeit zunehmen muss – leider spielt in Deutschland der familiäre Hintergrund immer noch eine große Rolle dabei, welches der höchsterlangte Schulabschluss ist).
Angesichts der Wandlung des Arbeitsmarktes in Zeiten von Digitalisierung, Automatisierung und Globalisierung sind es gute Nachrichten für den Produktionsstandort Deutschland, dass das Bildungsniveau der gesamten Bevölkerung wächst und immer mehr Individuen einen Hochschulabschluss erwerben. Niemand weiß, wie die Arbeitswelt in 30 bis 50 Jahren aussehen wird. Es ist aber recht deutlich abzusehen, dass sich die Art der Arbeitsplätze verändern wird und vor allem Tätigkeiten zunehmen werden, die komplexer Wahrnehmung und sozialer sowie kreativer Intelligenz bedürfen sowie eine hohe Anpassungsfähigkeit der Individuen erfordern (Wößmann, 2017). Allgemeinbildende Bildungskonzepte, die die gesamte Bevölkerung erreichen und dazu führen, dass alle „das Lernen lernen“, werden der Gesellschaft helfen, die Herausforderungen des technologischen und strukturellen Wandels zu meistern.
Die Antwort stammt von Larissa Zierow, Stellvertretende Leiterin des ifo Zentrums für Bildungsökonomik
Referenzen:
Bundesministerin für Bildung und Forschung – BMBF (2018). Berufsbildungsbericht2018, Bonn.
Dabla-Norris, E., K. Kochhar, N. Suphaphiphat, F. Ricka und E. Tsounta (2015), »Causes and Consequences of Income Inequality: A Global Perspective«, IMF Staff Discussion Note 15/13, International Monetary Fund, Washington.
OECD (2018), Bildung auf einen Blick 2018: OECD-Indikatoren, wbv Media, Bielefeld.
Ostry, J. D., A. Berg und C. Tsangarides (2014), »Redistribution, Inequality, and Growth«, IMF Staff Discussion Note 14/02, International Monetary Fund, Washington
van Treeck, T. (2018): Das Ende der „trickle-down economics“: Ungleichheit als Wachstumsbremse und als Krisenursache?, ifo Schnelldienst 71(15), 3-5.
Wößmann, Ludger (2017). Wenn das Gleis zur Sackgasse wird. Frankfurter Allgemeine Zeitung, 20.2.2017, S. 16.
Um das zu beantworten, muss man zunächst klären, was unter Bildungsgerechtigkeit zu verstehen ist. Wenngleich ein breiter Konsens besteht, dass ein Bildungssystem gerecht sein soll, lässt sich nur schwer eine umfassende und einheitliche Definition dafür finden. Ich würde es so formulieren, auch wenn das eine normative Setzung ist: Bildungsgerechtigkeit bedeutet nicht, dass alle die gleichen Bildungsergebnisse erzielen. Das ist weder wünschenswert noch realisierbar. Es geht vielmehr darum, allen Bildungsteilnehmerinnen und -teilnehmern vergleichbare Chancen zu bieten und niemanden aufgrund von Merkmalen, die einem mitgegeben werden, auszuschließen oder zu benachteiligen. Zu diesen Merkmalen zählt zum Beispiel die soziale Herkunft.
Ursachen für ungleiche Chancen des Bildungserwerbs liegen zum einen außerhalb des Bildungssystems. Kinder und Jugendliche werden zum Beispiel von ihren Familien ganz unterschiedlich gefördert und unterstützt. Diese Bedingungen lassen sich nur schwer beeinflussen. Wir finden Ursachen von Ungleichheiten aber auch innerhalb des Bildungssystems, in den schulischen Institutionen. Hier sind strukturelle Anpassungen möglich, die dazu beitragen, Bildungsbarrieren abzubauen und Entwicklungschancen herzustellen. Es gilt beispielsweise, an der Durchlässigkeit im Bildungssystem anzusetzen und Bildungswege zu flexibilisieren.
Zudem kann man von Bildungsgerechtigkeit sprechen, wenn im Bildungssystem alle Teilnehmenden optimal gemäß ihrer individuellen Bedarfe und Möglichkeiten gefördert werden. Jedoch: Eine solche passgenaue Förderung kann dazu führen, dass sich die Unterschiede in den Bildungsergebnissen noch verstärken. Denn Kinder und Jugendliche aus begünstigteren Familien profitieren davon mehr als solche aus sozial schwächeren, bei denen die zusätzliche familiäre Unterstützung nicht so stark ausfällt. Doch diese Spreizung ist ein politisch vielleicht unerwünschter, aber eventuell hinzunehmender Effekt. Schließlich verbessert eine individuelle Förderung die Bildungsergebnisse aller. Ob damit nun Bildungsgerechtigkeit erreicht wird, bleibt aber eine normative Ermessensfrage.
Die Antwort stammt von Kai Maaz, Direktor der Abteilung „Struktur und Steuerung des Bildungswesens“ am DIPF | Leibniz-Institut für Bildungsforschung und Bildungsinformation und Professor für Soziologie mit dem Schwerpunkt Bildungssysteme und Gesellschaft an der Goethe-Universität Frankfurt am Main.
Eine Fragestellung, die sich nicht einfach beantworten lässt, denn mir als Erziehungswissenschaftler stellen sich dabei viele weitere Fragen: 1. Wollen wir wirklich, dass Kinder die Zukunft nur so gestalten, wie sie wollen? Wollen wir sie nicht auch für bestimmte Ziele gewinnen, etwa die Achtung der Menschenwürde oder eine nachhaltige Lebensführung? 2. Was genau soll man den Kindern beibringen – eine freie, offene und selbstbewusste Haltung, die Bereitschaft, an gesellschaftlichen Entwicklungen teilzuhaben, oder auch verschiedene, dazu notwendige Fähigkeiten? 3. Ist es überhaupt sinnvoll, nach Techniken zu suchen, um von uns ausgehend etwas beizubringen, wenn man eigentlich ein eigenständiges Handeln der Kinder ermöglichen möchte? 4. Und schließlich: Wer ist das „Wir“? Wir Eltern, professionelle Pädagogen, oder die Gesellschaft als Ganzes?
Diese Fragen zeigen zunächst, dass Freiheit als Bildungsziel nichts Feststehendes ist und in einem Spannungsfeld zwischen individueller Entfaltung und gesellschaftlicher Verantwortung steht. Erziehung ist grundsätzlich ein Eingriff in die Freiheit der Kinder und Jugendlichen, zugleich schafft sie erst die Voraussetzungen dafür, dass Menschen mündig handeln können. Ich kann daher zunächst nur antworten, dass es hier immer wieder gilt, neue Lösungen zu suchen und auszuhandeln. Konkret: In Familien, Kindergärten, Schulen und bei der staatlichen Bildungsplanung muss stets aufs Neue das richtige Verhältnis von Persönlichkeitsbildung, moralischer Erziehung und Förderung von Fähigkeiten aller Art gefunden werden. Und es gilt, die jeweils wirksamsten Methoden und Orte für das Lehren und Lernen zu wählen.
Abschließend möchte ich auf die Bedeutung fachübergreifender Kompetenzen hinweisen. In einer sich rasant wandelnden Lebens- und Arbeitswelt reicht es nicht aus, einen Wissensvorrat aufzubauen; man muss allgemeinere Fähigkeiten entwickeln, um die Zukunft gestalten zu können. Zu solchen „Schlüsselqualifikationen“ würde ich auf jeden Fall das Lesen zählen. Wenn Sie also Ihren Kindern das Lesen näherbringen, kommen Sie nicht nur über Lebensentwürfe und Zukunftsfragen ins Gespräch, sondern liefern den Kindern das wichtigste Werkzeug, das sie brauchen, um ihr Leben selbst in die Hand nehmen zu können.
Die Antwort stammt von Eckhard Klieme, Direktor der Abteilung „Bildungsqualität und Evaluation“ am DIPF | Leibniz-Institut für Bildungsforschung und Bildungsinformation und Professor für Erziehungswissenschaft an der Goethe-Universität Frankfurt am Main
Damit Kinder – und übrigens auch Erwachsene – motiviert sind, etwas zu lernen oder zu üben, sind eine Reihe von Faktoren wichtig. Kinder möchten das Gefühl haben, etwas gut zu können und sich zu verbessern. Gleichzeitig möchten sie eigene Entscheidungen treffen dürfen. Beides fördert den Spaß am Üben, genau wie das Einbinden in einen sozialen Kontext.
Die Erfüllung dieser Bedürfnisse können Eltern gemeinsam mit der Instrumentenlehrer*in unterstützen. Erfolgserlebnisse werden möglich, wenn das Schwierigkeitsniveau die Kinder heraus-, aber nicht überfordert. Kinder sollten gezielte Rückmeldungen bekommen, die ihnen zeigen, dass ihnen etwas zugetraut wird, womit kein Loben unabhängig von der Leistung gemeint ist. Eltern und Lehrkräfte sollten die Vorlieben und Meinungen der Kinder miteinbeziehen, was von der Auswahl des Instruments oder des Stücks bis hin zur Art, Technik oder Zeit des Übens reichen kann. Über Zuhören oder sogar Mitspielen kann man das Lernen oder Üben in einen sozialen Rahmen einbetten und den Kindern Wertschätzung zeigen. Eltern sollten ihren Kindern außerdem vermitteln, wozu sie üben – etwa für die Gemeinschaftserlebnisse, zum Entspannen oder für mögliche berufliche Perspektiven.
Die Antwort stammt von Katrin Rakoczy, wissenschaftliche Mitarbeiterin am DIPF | Leibniz-Institut für Bildungsforschung und Bildungsinformation und Professorin für Pädagogische Psychologie an der HSD – University of Applied Sciences, Köln
Zunächst: Wissenschaft ist Freude und Leiden und Leidenschaft – 24/7.
Dann: Wir verstehen unter Wissenschaft all jene vielfältigen Disziplinen, deren Ziel es ist, Erkenntnisse über Bereiche der Natur sowie der geistigen, kulturellen, politischen, technischen und sozialen Lebenswelt auf systematisch strukturierte und methodisch kontrollierte Weise zu gewinnen und verstehbar zu machen. In der Wissenschaftstheorie wird dies häufig mit einer Auflistung von Kriterien wissenschaftlicher Rationalität auf den Punkt gebracht: Wissenschaftliches Arbeiten bzw. die Ergebnisse von Forschung müssen den Prinzipen der Konsistenz, der Kohärenz, der Überprüfbarkeit, der intersubjektiven Verständlichkeit und Objektivität genügen.
Ein wichtiger Aspekt dessen, was die Ergebnisse von wissenschaftlichem Arbeiten ausmacht, wird dabei aber noch nicht hinreichend deutlich: Wissenschaftlerinnen und Wissenschaftler streben danach, belegbare Tatsachen zu entdecken. Sie tun dies aber gerade nicht im Anspruch „endgültige Wahrheiten“ zu produzieren, sondern ein faktenbasiertes Wissen, das nur solange gültig ist, bis es selbst wieder durch neue Erkenntnisse und Beweise revidiert wird.
Ich denke aber, dass die Antwort auf die Frage „Was ist Wissenschaft?“ noch etwas anderes enthalten muss: Es gehört zu den Eigentümlichkeiten – auch der wissenschaftlichen Erkenntnis – dass man Antworten nicht nur aus der Theorie, sondern auch aus dem Blick auf die Praxis gewinnt. Albert Einstein, den ich hier nicht als theoretischen Physiker, sondern als Wissenschafts-Praktiker zitiere, hat von sich gesagt: „Ich habe keine besondere Begabung, sondern bin nur leidenschaftlich neugierig.“[1] Dieser Verweis auf die wichtige Rolle von wissenschaftlicher Neugier, von Forschermut im Sinne der Bereitschaft, über Althergebrachtes hinauszudenken und Disziplinengrenzen zu überschreiten, genau wie Lust auf Streit und Kooperation mit anderen Forschenden und anderen Disziplinen halte ich für wesentlich, um zu erfassen, was Wissenschaft ausmacht.
Die Antwort stammt von Matthias Kleiner, Präsident der Leibniz-Gemeinschaft.
[1] Albert Einstein in einem Brief an Carl Seelig vom 11. März 1952 (ethz.ch) als Antwort auf Seeligs Frage: „Ist Ihre wissenschaftliche Begabung eine Erbschaft der väterlichen und die musikalische der mütterlichen Linie?“. In: Ulrich Weinzierl: Carl Seelig. Schriftsteller, Wien 1982, S. 135.
Biologie & Biodiversität
Wir wissen noch wenig darüber, welche genetische Variation für bestimmte phänotypische Merkmale verantwortlich ist. Das menschliche Genom ist sehr groß, und es ist noch nicht klar, welche Positionen für komplexe morphologische Merkmale wie die Form der Augen verantwortlich sind. Es ist möglich, dass Umwelteinflüsse die Selektion für längliche Augenformen ausgelöst haben, aber auch andere Faktoren könnten mit dieser Morphologie verbunden sein. Ostasiaten und Inuit haben einen Anteil gemeinsamer Vorfahren, was erklären könnte, warum beide Populationen ähnliche Merkmale aufweisen. Die Vorfahren der Inuit erreichten die arktischen Regionen von Nordostsibirien aus über Beringia. Sie trugen eine genetische Abstammung, die entfernt mit der ostasiatischen verwandt ist. Es ist jedoch auch möglich, dass sich dieses Merkmal unabhängig voneinander in beiden Populationen als Reaktion auf unterschiedliche Prozesse herausgebildet hat. Es muss noch mehr untersucht werden, um zu beschreiben, wann die phänotypischen Merkmale entstanden sind und wie sie sich über die Welt verteilt haben.
Die Antwort stammt von Cosimo Posth. Er arbeitet bei der Senckenberg Gesellschaft für Naturforschung (SGN), einem Mitglied der Leibniz-Gemeinschaft, im „Senckenberg Centre for Human Evolution and Palaeoenvironment". Als Juniorprofessor leitet er dort die Abteilung "Archäo- und Paläogenetik".
In der Esoterik nimmt man an, dass es rechtsdrehendes und linksdrehendes Wasser gäbe. Dem linksdrehenden wird nachgesagt, dass es träge sei, rechtsdrehendes hingegen aktivierend und energetisch. Um die in der Leitung müde vor sich linksdrehenden H2O-Moleküle in rechtsdrehende zurückzuverwandeln, soll man sie in einem Krug mit Edelsteinen wiederbeleben. Rechtsdrehend –linksdrehend, da war doch was im Chemieunterricht oder war‘s die Werbung mit dem Joghurt?
In der Chemie und Physik wird der Begriff rechtsdrehend und linksdrehend verwendet. Damit sind Stoffe gemeint, die chemisch identisch sind, sich jedoch in der räumlichen Anordnung ihrer Moleküle unterscheiden: Sie sind genau spiegelverkehrt. Es ist wie mit Ihrer rechten und linken Hand. Sie sind aus gleichen „Bauteilen“, aber – was Sie auch tun – Sie können immer die rechte Hand von der linken unterscheiden. Diese Art der Isomerie wird daher auch Chiralität, Händigkeit, genannt.
Um welche Art es sich handelt, kann das bloße Auge nicht erkennen. Erst durch Polarisation werden die Eigenschaften sichtbar. Die beiden spiegelgleichen Substanzen verändern bestimmte Eigenschaften des Lichts auf unterschiedliche Weise: Genau genommen ist Licht ja eine Welle, die in einer bestimmten Weise auf- und abschwingt. Das nennt man Polarisation. Linksdrehende Substanzen drehen diese Polarisation, also die Schwingungsrichtung des Lichts, nach links und rechtsdrehende nach rechts. Daher auch die Bezeichnung. Dies gilt beispielsweise für Aminosäuren, Zuckerverbindungen, aber auch Arzneistoffe. Und, na klar, für die rechts- und linksdrehende Milchsäure im Joghurt. Tatsächlich ist es so, dass rechtsdrehende Stoffe im Körper anders wirken können – so wie ein rechter Handschuh eben nur auf die rechte und der linke nur auf die linke Hand passt. Wassermoleküle sind aber nicht chiral, sondern immer gleich – es gibt also kein rechtsdrehendes und linksdrehendes Wassermolekül im chemischen oder physikalischen Sinn. In der Esoterik werden die Begriffe rechts- und linksdrehendes Wasser jedoch oft missverständlich für die Richtung des Elektronen- oder Kernspins der Wasserstoffatome verwendet. Dies ist jedoch eine quantenmechanische Eigenschaft, die für das biochemische Verhalten des Wassers keine Rolle spielt.
Von Trägheit kann beim Wasser ohnehin keine Rede sein, denn zwischen den einzelnen Wassermolekülen wirken elektrostatische Kräfte – sogenannte Wasserstoffbrücken, sehr kurzlebige Verbindungen. Sie entstehen ständig neu und lösen sich wieder auf, und so bleiben die Wassermoleküle immer in Bewegung. Erst bei 0 Grad werden die Moleküle „träge" und die Wasserstoffbrücken stabilisieren sich – Wasser gefriert zu Eis. Und das wäre dann wirklich der einzige etwas weniger „energetische" Zustand von Wasser.
Die Antwort kommt von Dr. Tobias Goldhammer, diplomierter Geoökologe und Leiter der Forschungsgruppe Nährstoffkreisläufe und chemische Analytik am Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB) in Berlin.
Die sehr gängige Redewendung „Laune der Natur“ ist aus Sicht der Evolutionsbiologie aus zweierlei Gründen eher verwirrend, denn er impliziert erstens, dass etwas erratisch passiert („aus einer Laune heraus“), und dass dahinter eine gerichtete, quasi menschliche Intention steht. Es ist ein weit verbreitetes Missverständnis, dass die Evolution, auf die die große Diversität in vergangenen und heutigen Ökosystemen zurückgeht, ein zufälliger Prozess ist. Zufällig ist die Grundlage oder, wenn man so will, das Material, an dem Evolution ansetzt: die Mutationen im Erbgut. Der daran ansetzende Prozess der Evolution, bei dem manche dieser Mutationen selektiert und dadurch beibehalten werden und andere, schädliche verschwinden, ist dagegen extrem gerichtet und überhaupt nicht zufällig. Wichtig ist aber, dass hinter diesen evolutiven Prozessen keinerlei Intention der Organismen selbst steht und diese keinen Einfluss nehmen – also in dem Sinne, dass sie besser angepasst sein wollen und selbst den Prozess in irgendeiner Hinsicht treiben oder gestalten.
Natürlich können in diesem Zusammenhang auch neue Dinge entstehen – neue Körperbaupläne, neue Anpassungen, neue Organismengruppen. Unser heutiges Ökosystem und der Fossilbericht sind faszinierende Belege dafür. Wenn der Ausdruck „Fortschritt“ aus der Frage sich hier aber nicht auf biologischen Fortschritt im Sinne von Evolution bezieht, sondern auf z.B. technischen Fortschritt, dann sind das zwei sehr unterschiedliche Dinge. Technischer Fortschritt basiert auf menschlicher Intelligenz sowie Kreativität. Selbstverständlich stehen hinter neuen Entwicklungen außerdem eine Idee und ein spezifisches Vorhaben. Daher wird dieser Fortschritt mit einer bestimmten Intention vorangetrieben und beruht nicht auf einer zufällig auftretenden Veränderung, die dann im Kontext des Systems ausgewählt oder verworfen wird. Daher beruhen Erfindungen und technischer Fortschritt auf sehr anderen Prozessen als die biologische Evolution.
Die Antwort stammt von Prof. Nadia Fröbisch, Professorin am Museum für Naturkunde - Leibniz-Institut für Evolutions- und Biodiversitätsforschung (MfN) und am Institut für Biologie der Humboldt-Universität zu Berlin.
Die Todesursachen von Wildtieren und die Zahl der Todesopfer variieren je Wildtierart. Generell kann man jedoch sagen, dass die Haupttodesursachen vom Menschen ausgehen. Der überwiegende Teil der Wildtiere stirbt bei Verkehrsunfällen, gefolgt von der legalen und illegalen Jagd sowie Vergiftungen. Darüber hinaus kann es – je nach Wildtierart – zu zwischen- und innerartlichen Konflikten und Krankheiten kommen, die zum Tode führen können. Derzeit gibt es keine allgemeingültige Statistik, die alle Todesopfer weltweit erfasst. Über die Jagdverbände kann man das legal erlegte Wild ermitteln. Darüber hinaus werden durch die Fachgruppen der Weltnaturschutzorganisation IUCN Zahlen zu Todesursachen von Wildtieren erfasst.
Als Beispiel für ein vom Menschen verursachtes Wildtiersterben können die Windenergieanlagen (WEA) in Deutschland angeführt werden. Fledermäuse sterben sowohl durch direkte Kollision als auch durch Barotrauma – verursacht durch hohe Luftdruckunterschiede an den WEA. Es wird geschätzt, dass 75 Prozent der WEA in Deutschland ohne Abschaltzeiten zum Fledermausschutz betrieben werden (Fritze et al.2019, KNE 2020). Basierend auf der Annahme, dass 10-12 Fledermaus-Schlagopfer pro WEA und Jahr dokumentiert sind (Brinkmann et al. 2011), kommt man bei einer Gesamtzahl von 30.000 Onshore-WEA auf ungefähr 240.000 Schlagopfer pro Jahr. Zur Lösung des Problems müssten die WEA basierend auf einem zweijährigen Monitoring unter Standardauflagen entsprechend der in diesem Zeitraum ermittelten temperatur- und windabhängigen lokalen Aktivität der Fledermäuse abgeschaltet werden. Dies reduziert die Schlagopferzahl auf 1-2 Tiere pro Jahr und WEA. Standardmäßige Kriterien zur Abschaltung der WEA für den Fledermausschutz umfassen zum Beispiel eine nächtliche Betriebsabschaltung während der Migrationszeit der Fledermäuse von Mitte Juli bis Mitte Oktober, allerdings nur bei bestimmten Umgebungstemperaturen (z.B. >10°C) und Windgeschwindigkeiten (z.B. <5-6 m/s).
Die Antwort stammt von Dr. Claudia A. Szentiks (wissenschaftliche Mitarbeiterin), PD Dr. Christian C. Voigt (Leiter der Abteilung für Evolutionäre Ökologie) und Steven Seet (Pressesprecher) vom Leibniz-Institut für Zoo- und Wildtierforschung (IZW).
Das menschliche Gehirn kann Gerüche kurzzeitig ausblenden. Dies ist gemeinhin als „Geruchsblindheit“ bekannt. Der Effekt geht auf einen Schutzmechanismus unserer Riechzellen (Geruchsrezeptoren) zurück.
Geruchsrezeptoren sind Teil des Riechepithels, einer kleinen, dünnen Zellschicht in unser Nasenhöhle. Sie reagieren äußerst empfindlich auf chemische Stimuli – also auf Duftmoleküle. Dabei spielt es für sie keine Rolle, ob es sich um einen Gestank oder Wohlgeruch handelt. Sobald sich die Moleküle an die Geruchsrezeptoren binden, wird aus dem chemischen Reiz ein elektrischer. Dieses sogenannte Aktionspotenzial geht an das zentrale Nervensystem und übermittelt letztlich die Botschaft über den Geruch.
Eine konstante Stimulation unserer Geruchsrezeptoren würde zu einer Überreizung führen und sie beschädigen. Deswegen haben unsere Geruchsrezeptoren einen Schutzmechanismus: Die Aktionspotenziale unserer Geruchsrezeptoren nehmen über die Zeit in ihrer Frequenz ab, sodass die Duftmoleküle keinen Reiz mehr auslösen. Dies hat zur Folge, dass wir einen Geruch innerhalb weniger Minuten nicht mehr registrieren. Erst wenn sich die Reizintensität ändert oder andere chemische Stimuli auftauchen, kommt es wieder zu Aktionspotenzialen – und wir nehmen einen Duft wahr.
Egal, auf wie viele Personen Duftmoleküle zum selben Zeitpunkt an einem Ort treffen: Sie lassen sich keineswegs wie mit einem Staubsauer aufsaugen und „wegriechen“. Zwar gelangen die Duftmoleküle beim Einatmen über die Nasenschleimhäute zu den Geruchsrezeptoren, aber die Bindung an unsere Geruchsrezeptoren ist reversibel. Das heißt, die Duftmoleküle gelangen zurück in die Atemluft. Eine für den Menschen wahrnehmbare Veränderung der Geruchsintensität durch eine Reduktion der frei in der Luft verfügbaren Duftmoleküle ist daher äußerst unwahrscheinlich.
Übrigens: Geruchsrezeptoren sind sogenannte phasische Rezeptoren. Im Gegensatz dazu handelt es sich bei Schmerzrezeptoren um tonischen Rezeptoren, die bei konstanter Stimulation dauerhaft Aktionspotenziale generieren. Der Mensch kann daher zwar „geruchsblind“, aber keinesfalls „schmerzblind“ werden.
Die Antwort stammt von Prof. Dr. Anika Grüneboom, Leiterin der Arbeitsgruppe Bioimaging am Leibniz-Institut für Analytische Wissenschaften – ISAS – e.V. (ISAS) und Professorin für Experimentelle Biomedizinische Bildgebung an der Medizinischen Fakultät der Universität Duisburg-Essen.
Ja, es gibt verschiedene Mechanismen, die für den Wassertarnsport in der Pflanze verantwortlich gemacht werden, grob vereinfacht:
A) Wurzeldruck: passiver oder aktiver Transport von Wasser aus dem umgebenden Substrat in den (abgedichteten) Zentralzylinder der Wurzel (Leitgewebe), wo dieser Druck entsteht, der das Wasser in den Leitungsbahnen (hier: Xylem) ansteigen lässt
B) Transpirationssog: Verdunstung im Laubblattbereich, die einen Unterdruck im Leitgewebe entstehen lässt, der Wasser von der Wurzel "nachzieht"
C) Wachstumswasser: Wassereinlagerung in die Vakuolen der Zellen, erzeugt ebenfalls einen Sog
D) Interner Wasserstrom: Es gibt einen gewissen Kreislauf im Leitgewebe der Pflanzen. Xylem transportiert Wasser und Ionen vom Ort der Aufnahme (i.d.R. Wurzel) zu den Blättern (also i.d.R. von unten nach oben), Phloem transportiert den "Saft" (die in den Blättern gebildeten Stoffwechselprodukte) zu den Orten der Verwendung (Sprossachse, Wurzel, i.d.R. von oben nach unten).Näheres unter:
https://de.wikipedia.org/wiki/Wassertransport_in_Pflanzen.Die Antwort kommt von Stefan Dressler, Sektionsleiter Phanerogamen II am Senckenberg Forschungsinstitut in Frankfurt am Main. Es ist der Hauptstandort der Senckenberg Gesellschaft für Naturforschung (SGN), die zur Leibniz-Gemeinschaft gehört.
Das Fluggeräusch der einzelnen Blutsauger ist abhängig von ihrer Größe und Flügelschlagfrequenz. Das menschliche Ohr hört nur einen Bruchteil dieser Frequenz. Es scheint auf den ersten Blick ein Nachteil, wenn der Anflug zu hören ist, jedoch sind Insekten durch das Fliegen an sich viel beweglicher und können ihre Wirte effektiver aufsuchen: also ein Vorteil auf den zweiten Blick.
Evolution ist immer ein Kompromiss und Ausloten von Vorteilen. Anscheinend ist das durch den Flügelschlag produzierte Fluggeräusch doch nicht so nachteilig. Den Anflug von anderen blutsaugenden Mücken wie Gnitzen oder Kriebelmücken hören wir beispielsweise gar nicht.
Die Antwort kommt von Dr. Doreen Werner, wissenschaftliche Mitarbeiterin am Leibniz-Zentrum fürAgrarlandschaftsforschung (ZALF).
Einer der wichtigsten Gründe dafür, dass die meisten Überreste aus vergangenen Zeiten heute unter der Erdoberfläche liegen oder sogar komplett verschwunden sind, ist die sogenannte Bodenerosion.
Das bedeutet, dass z. B. durch Regen, Wind oder fließendes Wasser Erde und Steine von Hügeln hangabwärts nach unten transportiert und an anderer Stelle wieder abgelagert werden. Das ist in der Regel ein recht langsamer und langwieriger Prozess, aber im Laufe von Hunderten oder Tausenden Jahren kann es dadurch zu ganz erheblichen Materialverlagerungen kommen.
Der Boden wird also an einigen Stellen dünner, an anderen Stellen dicker. Gerade in Tälern und Ebenen ist das Bodenniveau im Vergleich zu früheren Zeiten durch solche Erosionsprozesse oft merklich angestiegen und hat Siedlungsreste oder Gegenstände aus der Vergangenheit unter sich begraben.
In Gegenden, in denen keine oder nur wenige Bäume stehen, haben Erosionsprozesse einen sehr viel stärkeren Einfluss auf die Landschaftsentwicklung. So wurde beispielsweise in der letzten Eiszeit feinster Flugsand, sogenannter Löss, der u.a. aus Steinen und Sedimenten entstanden ist, die unter der tonnenschweren Last der Gletscher zermalmt wurden, durch den Wind über riesige Landstriche verteilt. An manchen Stellen hat sich dieser Löss über Tausende von Jahren in bis zu 20m mächtigen Paketen abgelagert. In China gibt es Löss-Ablagerungen, die über 100m dick sind. Dementsprechend müssen die Archäolog*innen sehr tief graben, um die Hinterlassenschaften und Überreste der Menschen zu finden, die zu dieser Zeit gelebt haben.
Bei Fundstellen in Flussnähe können aber auch regelmäßige Überschwemmungen dazu führen, dass Siedlungsreste aus der Vergangenheit sehr schnell von Sand und Schlamm, den der Fluss mit sich getragen hat, überlagert werden.
Zusätzlich können Vulkanausbrüche ganze Siedlungen innerhalb kurzer Zeit unter meterdicken Asche- und Gesteinsschichten begraben, wie z. B. in Pompeji.
In Walgebieten kann neue Erde auch durch herabfallende und anschließend verrottende Blätter, Äste und Zweige entstehen, die sich anschließend in Humus verwandeln, der im Laufe der Zeit wiederum auch alte Bauwerke überlagern kann.
Zu guter Letzt hat auch der Mensch selbst großen Einfluss darauf, dass Archäolog*innen heut meist tief graben müssen, um Dinge aus der Vergangenheit wieder ans Tageslicht zu fördern.
Seit Jahrtausenden roden Menschen Wälder, um Felder anzulegen oder um Häuser, Dörfer und Städte zu bauen. Überall dort, wo Bäume gefällt werden und dadurch der Boden freigelegt wird, kann dieser leichter durch starken Regen, Wind oder Überschwemmungen abgetragen werden – er kann erodieren. Das abgetragene Material lagert sich an anderer Stelle ab und kann so die Siedlungsreste unserer Vorfahren unter sich begraben.
Orte, die seit Hunderten oder Tausenden Jahren durchgängig besiedelt sind, versinken buchstäblich im eigenen Müll, in Haushaltsabfällen oder Bauschutt. Häuser stürzen ein, das Gelände wird eingeebnet und ein neues Haus wird auf den alten Überresten gebaut. Ganze Siedlungen brennen ab oder werden durch ein Erdbeben zerstört und auf den Überresten wird eine Siedlung gebaut. So sind Siedlungen und Städte über Hunderte und Tausende von Jahren quasi nach oben gewachsen. Und hebt man dort heute z. B. eine Baugrube aus, stößt man zwangsläufig auf die Überreste aus der Vergangenheit.
Weitere Informationen finden Sie hier: https://www.youtube.com/watch?v=kupJ5voom9E.
Die Antwort kommt von Dr. Frank Moseler. Er leitet das Museum von Monrepos - Archäologisches Forschungszentrum und Museum für menschliche Verhaltensevolution. Das ist eine Außenstelle des Römisch-Germanischen Zentralmuseums - Leibniz-Forschungsinstitut für Archäologie (RGZM).
Genau dies ist nicht gut bekannt und jüngst konkret-experimenteller Forschungsgegenstand der Arbeitsgruppe von Prof. Stefan Schuster, Universität Bayreuth. Es ist – jedenfalls bei Afrikanischen Zitterwelsen (Malapterurus electricus) – so, dass Muskulatur und Nervensystem der Tiere weitgehend immun gegen die eigenen, die arteigenen Entladungen anderer Individuen sowie im Rahmen von Elektrofischerei technisch angewandten Entladungen sind.
Unklar ist noch, auf welchen Mechanismen und Eigenschaften der Organsysteme dies beruht und wie es bzw. ob es in ähnlicher Weise bei anderen „Starkelektrischen Fischgruppen" realisiert ist.
Die Antwort kommt von Dr. Peter Bartsch, Kustos der Ichthyologischen Sammlung am Museum für Naturkunde - Leibniz-Institut für Evolutions- und Biodiversitätsforschung (MfN) in Berlin.
Als grundsätzliche Empfehlung für die Anzucht von Jungpflanzen gilt die Verwendung einer handelsüblichen Anzuchterde. Diese verhindert bodenbürtige Krankheiten und ein Überangebot an Nährstoffen. Die lockere Struktur sorgt außerdem für eine gute Durchlüftung des Wurzelbereichs.
Ein häufiger Fehler beim Aussähen ist, dass die Keimtemperatur nicht beachtet wird. Bei allen Salatarten liegt die Keimtemperatur tagsüber zwischen 14 und 16 °C, nachts sollte die Temperatur um 5 °C abgesenkt werden.
Im Hobbyanbau sollte der Salat daher im Frühjahr und Herbst angezogen werden, da die Möglichkeit einer Temperaturabsenkung in den Sommermonaten doch etwas problematisch ist. Zusätzlich sollte man bei jeder Aussaat darauf achten, dass man nur frisches Saatgut verwendet, da die Keimfähigkeit abnimmt, je älter das Saatgut wird. Werden diese kleinen Kniffe beachtet, dann sollte die Anzucht und Kulturführung gut gelingen.
Die gleichen Anzuchtvoraussetzungen sollten auch beim Lauch beachtet werden. Es ist jedoch zu beachten, dass die Entwicklung der Jungpflanzen etwa 12 Wochen dauert. Geduld ist also die Kunst des Gärtnerns. Außerdem zählt Lauch zu den einkeimblättrigen Kulturen und ist somit in der Entwicklung als Jungpflanze etwas zierlicher als zweikeimblättrige Kulturen. Im ausgepflanzten Zustand wird dann aus dem kleinen “zierlichen Pflänzchen“ auch ein stattliches Gemüse.
Wir wünschen weiterhin viel Erfolg und Spaß beim Gärtnern!
Die Antwort kommt aus dem Leibniz-Institut für Gemüse- und Zierpflanzenbau (IGZ) von Uwe Kunert, Leiter Infrastruktur & Versuchsbetrieb, und von Eckhard George, Wissenschaftlicher Direktor und Leiter der Forschungsgruppe „Gartenbausysteme der Zukunft – Anbausysteme Feld“.
Wahrscheinlich, weil es die Produktion und damit die Lebensmittel teurer macht und die Gesellschaft nicht bereit ist, diesen Preis zu zahlen.
Außerdem denke ich, dass eine große Mehrheit der Bevölkerung tatsächlich besorgt ist. Artenschwund, ebenso wie Klimawandel, beeinflusst zwar Wahlen, aber entscheidet sie nicht. Daher steht das Thema auch nicht ganz oben auf der politischen Agenda der Regierenden. Ein zweiter Grund ist politökonomischer Natur: Die konventionelle Landwirtschaft stellt die große Mehrheit der Landwirte und bewirtschaftet den größten Teil der landwirtschaftlichen Fläche (Ökolandbau waren in 2018 knapp 12% der Betriebe und 9% der Fläche). Die konventionelle Landwirtschaft (bundesweit ca. 1.6% der Bruttowertschöpfung und, zusammen mit der Forstwirtschaft, 1.4% der Beschäftigung in 2016) ist sehr gut organisiert (was vergleichsweise einfach ist für eine kleine Gruppe mit klaren und einheitlichen Zielen) und hat es so geschafft, vor allem über den Bauernverband, viel politischen Einfluss, vor allem in den konservativen Parteien zu gewinnen. Das steht einem Wandel, wie er durch mehr politische Förderung von Ökolandbau und Umweltschutz beschleunigt werden könnte, im Weg. Allerdings steigt der Druck und langsam beginnt ein Umdenken – aber das wird für viele Arten zu spät kommen.
Die Antwort stammt von Daniel Müller, Stellvertretender Leiter der Abteilung Strukturwandel am Leibniz-Institut für Agrarentwicklung und Transformationsökonomien (IAMO).
Leider lassen sich die Dinosaurier aus ihren Knochen nicht direkt zum Leben erwecken. Dafür bräuchte man gut erhaltene DNA. Bei der DNA wird nach aktuellen Erkenntnissen aber eine Halbwertszeit von 521 Jahren angenommen, so dass man derzeit davon ausgeht, dass nach 6,8 Millionen Jahren diese vollständig zerfallen und damit in den Knochen nicht mehr nachweisbar ist. Da die Dinosaurier ja vor 65 Millionen Jahren ausgestorben sind, ist es also faktisch unmöglich, in ihren Knochen noch fossile DNA zu finden und damit einen Dino wieder zum Leben zu erwecken. Dies trifft übrigens auch auf das Szenario von Jurassic Park zu, bei dem man ja angeblich in Bernstein konserviertes Dinosaurierblut gefunden hat – auch dieses wäre viel zu alt, um noch Spuren der DNA zu enthalten.
Natürlich kann man aber virtuell einen Dinosaurier wieder herstellen – über die Rekonstruktion der Skelette, der Weichteile und der Bewegungs- und Lebensweise von Dinosauriern ist es möglich, Modelle dieser Dinosaurier zu kreieren. Diese Modelle stellen dann allerdings nur Annährungen an das wirkliche Aussehen her, welche sich aber am aktuellen Forschungsstand orientieren.
Die Antwort stammt von Dr. Daniela Schwarz, Kuratorin der Sammlungen Archosauromorpha und fossile Vögel sowie „Fossile Reptilien“, Fährten, Histologie am Museum für Naturkunde Berlin – Leibniz-Institut für Evolutions- und Biodiversitätsforschung.
Ja und Nein. Das Erbgut ist identisch und trotzdem anders. So wie zwischen jeder unsere eigenen Zellen, so gibt es kleinste Unterschiede auch zwischen und innerhalb den Organen einer jeden Pflanze. Blatt und Blatt, aber natürlich auch Blatt und Stängel sind nie zu absolut 100 Prozent identisch in den jeweiligen Genen.
Bei jeder Zellteilung (Mitose) entstehen kleine Fehler, die zu Unterschieden führen. Diese vernachlässigen wir in der Regel, wenn diese nicht zu Krankheiten wie z. B. Krebs oder neuen erwünschten Eigenschaften führen. Aber nicht nur bei der Mitose, sondern auch der Meiose kommt es zu Veränderungen. Hier mischt sich das Erbgut von weiblichen und männlichen Pflanzen von Natur aus. Die Nachkommen gehören zur gleichen Art und sind in ihrer Individualität unterschiedlich. Einen gewissen Unterschied gibt es bei Kulturpflanzen. Dahingehend, dass Mütter und Väter gezielt selektiert, teilweise eingezüchtet und vermehrt werden. Die Nachkommen sind dadurch oftmals uniformer. Schauen wir auf ein Getreidefeld, bekommen wir den Eindruck, hier gleicht eine Pflanze der anderen. Das tun sie aber nie zu 100 Prozent.
Weitere Faktoren, die wir als Epigenetik bezeichnen, führen zu weiteren individuellen Unterschieden. Dabei handelt es sich um Veränderungen, die nicht in der Erbsubstanz, sondern auf dieser geschehen. Auch diese verfolgen das gleiche biologische „Ziel“: ein Individuum besser an seine Umwelten anzupassen.
Nehmen wir es genau: In der Natur gleicht ein Ei nie dem anderen. Ein Zwilling nie seinem Geschwister und eine Pflanze nie der anderen zu 100 Prozent und selbst eine Zelle nie der anderen Zelle. Natur bedeutet Vielfalt.
Die Antwort stammt von Jens Freitag, Leiter der Geschäftsstelle des Leibniz-Instituts für Pflanzengenetik und Kulturpflanzenforschung (IPK).
Pflanzen: Pflanzen benötigen Licht zur Fotosynthese, bei der Lichtenergie in chemische Energie umgewandelt wird, die die Pflanze zum Aufbau energiereicher organischer Verbindungen (vor allem Kohlenhydrate) aus energiearmen anorganischen Stoffen (Kohlenstoffdioxid CO2 und Wasser) verwendet. Kurz: Sie brauchen Licht, um Nährstoffe herzustellen. Nach meiner Kenntnis kommen Algen in Meerestiefen von bis über 200 Metern vor. Wegen der unterschiedlich starken Absorption sind das in großer Tiefe Rotalgen, die Licht vor allem im Bereich 380 bis 550nm absorbieren. In tieferen Bereichen, in die gar kein Licht mehr vordringen kann, gibt es keine Pflanzen mehr: Dort ist keine Fotosynthese mehr möglich.
Die Antwort stammt von Georg Zizka, Abteilungsleiter Botanik bei der Senckenberg Gesellschaft für Naturforschung.
Tiere: Die Tiere leben auch unter Druck so gut, weil sie dort in den Tiefen geboren sind (Außendruck ist gleich Innendruck), sie sind daher perfekt an ihre Umgebung angepasst. Da sie auch keine luftgefüllten Hohlräume haben – wie einige Fische, Tintenfische oder Makroalgen – ist für diese Tiere ein Druckunterschied auch kein Problem. Für Tiere mit gasgefüllten Hohlräumen wie Schwimmblasen, Schwimmkörper etc. aber schon – diese kommen zwar mit dem Druck in einer bestimmten Tiefe zurecht, aber nicht mit einer Tiefen- und damit Druckänderung.
Die Antwort stammt von Angelika Brandt, Abteilungsleiterin Marine Zoologie bei der Senckenberg Gesellschaft für Naturforschung.
Das war schon ein ganzes Stück Zufall. Es sind zufällig viele günstige Umstände in Zeit und Raum zusammengekommen, um während der Evolution den Menschen entstehen zu lassen. Letztlich „probiert“ die Evolution verschiedene Konzepte aus, die sich eben nicht alle durchsetzen. Auch in der Menschheitsgeschichte gab es gleichzeitig verschiedene Urmenscharten. Eine Art setzte z.B. auf besonders starke Kaumuskulatur und große Zähne, um harte Pflanzennahrung zerkleinern zu können (der sog. Nussknackermensch), andere auf mehr Intelligenz. Letztere hat sich dann durchgesetzt. Hierzu ist auch ein Buch empfehlenswert: Stephen Jay Gould, „ Zufall Mensch: Das Wunder des Lebens als Spiel der Natur“.
Die Antwort stammt von Ottmar Kullmer, Senckenberg Forschungsinstitut und Naturmuseum (SGN).
Die ältesten Chamäleon-Fossilien stammen aus dem frühen Miozän und sind etwa 21 Millionen Jahre alt. 2016 wurden allerdings Reptilien in Bernsteininklusen aus Myanmar veröffentlicht, die auf etwa 100 Millionen Jahre datiert wurden, die also aus der Kreidezeit stammen. Darunter auch eine Echse, die als möglicher Vorfahre der Chamäleons in Frage kommt (stem group chameleon). Es ist also durchaus möglich, dass es in der oberen Kreide bereits Chamäleons gab. Durch Fossilien belegt ist das allerding nicht.
Die Antwort stammt von Bernd Herkner, Senckenberg Gesellschaft für Naturforschung (SGN).
Im Prinzip wird die Form eines Organismus durch die exakte räumlich/zeitliche Steuerung von Gentranskriptionsprozessen in den einzelnen Zellen gesteuert. Durch die dadurch entstehenden Zelltypen und ihre räumlich Verteilung entsteht der Organismus im Laufe des individuellen Entwicklungsprozesses vom Ei zum Adulten. Aber was da im Einzelnen wie abläuft und wie welches Gen welchen Prozess beeinflusst, weiß man nicht genau. Von dem, was schon bekannt ist, ist klar, dass es keine einfachen Antworten geben wird, sondern dass wir es dabei mit einem der komplexesten Naturphänomene zu tun haben. So gibt es in der Regel keine Eins-zu-eins-Beziehung zwischen einzelnen Genen und morphologischen Eigenschaften; vielmehr ist es so, dass die meisten Eigenschaften von hunderten Genen beeinflusst werden und umgekehrt die meisten Gene zu sehr vielen Merkmalen beitragen. Bis zu einem umfassenden systemischen Verständnis wird es m.E. noch einige Jahrzehnte dauern; ob es jemals möglich sein wird, allein aus der Kenntnis der Genomsequenz die Form des Organismus vorherzusagen, bin ich mir nicht sicher.
Die Antwort stammt von Markus Pfenninger, Senckenberg Gesellschaft für Naturforschung (SGN), Forschungszentrum Biodiversität und Klima.
Gesellschaft & Politik
Als Sozialwissenschaftler fällt es mir schwer, mir eine „naturverträgliche Anzahl von Menschen auf der Erde“ vorzustellen oder diese zu bestimmen. Zu stark hängt dies nicht zuletzt auch davon ab, wie die auf der Erde lebenden Menschen die vorhandenen natürlichen Ressourcen nutzen und in gemeinsamer Verantwortung nachhaltig und solidarisch bewirtschaften. Nach meinem Wissen könnten auf der Erde noch deutlich mehr Menschen leben, es handelt sich also um eine Frage der gerechten Verteilung der vorhandenen Ressourcen. Auch das Problem der Übertragbarkeit von Krankheiten von Tieren auf Menschen hängt mit der Art zusammen, wie wir leben, und nicht mit der wunderbaren Tatsache, dass wir leben. Die Idee einer wie auch immer objektiv bestimmten Anzahl an Menschen auf der Erde scheint mir darüber hinaus in hohem Maße anfällig für totalitäre politische Ansätze zu sein.
Aber natürlich müssen wir den gegenwärtigen Krisen begegnen. Ohne sprunghaften technologischen Fortschritt erfordert der Kampf gegen umweltbedingte Krisen auch den Verzicht auf einen exzessiven Verbrauch natürlicher Ressourcen. Die mit einem Verzicht verbundenen Einschränkungen werfen das Problem kollektiven Handels auf. Wie gelingt es, dass eine Mehrzahl an Akteuren ihre Entscheidungen auf ein gemeinsames Ziel hin ausrichtet, zumal wenn der individuelle Verzicht hohe Kosten verursacht? Warum nicht zunächst die eigenen Präferenzen unangetastet lassen und warten, was die anderen tun? Dies ist in etwa die Situation, die gegenwärtig in der Umsetzung des Pariser-Klimaabkommens zu beobachten ist. Es muss nun zum einen darum gehen, gegenseitiges Vertrauen darin aufzubauen, dass alle Akteure an einer Umsetzung der Ziele arbeiten. Vertrauen ist im Übrigen eine in hohem Maße unterschätzte Ressource der internationalen Politik. Zugleich müssen die Staaten, die ein besonderes Einsparungspotential haben und die sich zu den Klimaschutzzielen offensiv bekennen – wie zum Beispiel Deutschland – vorangehen: Leading by Example! Darüber hinaus sollte die Bundesregierung andere Industriestaaten dazu bewegen, mehr zu tun. Um den Zielen des Klimaabkommens weitaus näherzukommen als dies bis jetzt der Fall ist, würde es genügen, dass nicht alle über 190 Staaten, die es verhandelt und abgeschlossen haben, mehr tun, sondern vor allem die, die besonders hohe Emissionen aufweisen. Konkret heißt dies, den multilateralen Ansatz des Klimaabkommens um minilaterale Initiativen zu ergänzen.
Eine abschließende Bemerkung zum Begriff „Krise“. Der Begriff bezieht sich – und diese Definition entnehme ich dem von mir gemeinsam mit weiteren Kolleg*innen herausgegebenen Handbuch Krisenforschung – auf eine breite öffentliche Wahrnehmung einer bedrohlichen gesellschaftlichen Herausforderung, die ein schnelles Handeln politischer Entscheidungsträger erfordert. Nur durch eine Entscheidung können die schlimmsten Folgen noch abgewendet werden. Krisen beschreiben somit ein reales Problem und dessen gesellschaftliche Wahrnehmung. Aus diesem Verständnis folgt, dass die Krise als solche nicht natürlich ist und auch nicht ohne die menschliche Wahrnehmung vorhanden ist. Dies ist für mich ein weiterer Hinweis darauf, dass nicht eine (für mich) nicht zu objektivierende Anzahl von Menschen auf der Erde die Ursache einer „Krise“ des Mensch-Natur-Verhältnisses ist, sondern der menschliche Umgang mit Veränderungen der Umwelt, die zu einer gesellschaftlichen Bedrohung werden. Was sich daran zeigt, ist, dass es gerade in dem Bereich, der in der Frage angesprochen ist, eine enge Zusammenarbeit von Natur- und Sozialwissenschaften braucht, um die beschriebenen Herausforderungen in allen Aspekten verstehen und an Lösungen arbeiten zu können.
Die Antwort kommt von Dr. Stefan Kroll, Leiter der Wissenschaftskommunikation am Leibniz-Institut Hessische Stiftung Friedens- und Konfliktforschung (HSFK).
Im Allgemeinen sind staatliche Maßnahmen zur Kontrolle der Geburtenzahl sinnvoll (und notwendig), um das Bevölkerungswachstum zu stabilisieren. Entscheidend ist die Art der Maßnahmen. Darüber wird seit Jahrzehnten diskutiert. Auf der Weltbevölkerungskonferenz 1994 in Kairo hat man sich erneut für ein Grundrecht aller ausgesprochen, eigenverantwortlich über Zahl und Zeitpunkt der Geburt von Kindern zu entscheiden und somit den Grundstein für eine rechtebasierte Politik gelegt, frei von Diskriminierung, Zwang und Gewalt.
Nicht alleine vor diesem Hintergrund wurde und wird die Ein- bzw. spätere Zwei-Kind-Politik in China kritisiert. Mittlerweile ist auch die Regierung in Peking davon abgewichen. Seit diesem Sommer ist es Paaren gesetzlich erlaubt, drei Kinder zu haben. Hintergrund für diese weitere Aufweichung sind die Veränderungen in der Bevölkerungsstruktur – v.a. das Geschlechterungleichgewicht – und eine befürchtete Überalterung der Bevölkerung.
Letztere ist ein Problem, mit dem sich derzeit viele Länder, u.a. auch Deutschland, auseinandersetzen müssen. Die Gefahren einer alternden Gesellschaft sind bekannt. Die Altersstruktur der Bevölkerung hat Auswirkungen auf die Wirtschaftsleistung und steigende Kosten für Gesundheit, Pflege und Renten sind eine Herausforderung für bestehende Wohlfahrtssysteme. Um diese aufrecht erhalten zu können, versuchen die betroffenen Länder mit unterschiedlichen Anreizen (und Erfolg), die Geburtenraten wieder zu steigern. Ziel ist eine Geburtenrate von 2,1 Kinder pro Frau – die sog. Reproduktionsrate.
Aktuell lebt etwa die Hälfte der Weltbevölkerung in einem Land, in dem die Bevölkerungszahlen rückläufig sind. Dazu zählen neben Deutschland v.a. Länder in Europa und Nordamerika, aber auch Japan, Brasilien, Russland und eben China. Demgegenüber stehen eine Reihe von Ländern mit weiterhin rasantem Bevölkerungswachstum. Laut Schätzungen der Vereinten Nationen wird Indien beispielsweise bis 2027 China als bevölkerungsreichstes Land der Erde überholen. In einigen Bundesstaaten, darunter auch in Uttar Pradesh, dem bevölkerungsreichsten Bundestaat des Landes, gibt es aktuell in der Tat Bestrebungen, die Kinderzahl auf zwei zu beschränken. Ein weiteres Land, in dem eine Zwei-Kind-Politik aktuell immer noch zum Einsatz kommt, ist Vietnam. In der am schnellsten wachsenden Region in Afrika südlich der Sahara kommt diese Maßnahme allerdings nicht zum Einsatz. Die Gründe dafür sind vielschichtig. In vielen Ländern ist es weiterhin so, dass es keinen Wohlfahrtsstaat gibt und Kinder daher weiterhin eine wichtige Rolle für die Altersvorsorge spielen. Die hohe Kindersterblichkeit führt dazu, dass Paare sich auch ganz bewusst für mehrere Kinder entscheiden.
Investitionen in Gesundheit und in die soziale Absicherung sind somit Faktoren, die zu einer Stabilisierung der Bevölkerungszahlen beitragen können.
Die meisten Experten allerdings sehen den größten Nutzen in einer Ausweitung des Bildungsniveaus, v.a. von Frauen, und setzen sich somit verstärkt für Maßnahmen im Bildungsbereich ein. Daten der Weltbank beispielsweise zeigen einen klaren Zusammenhang zwischen der Anzahl der Ausbildungs-jahre einer Frau und der Zahl der Kinder, die sie bekommt. In anderen Worten: Je höher das Bildungsniveau einer Frau ist, desto weniger Kinder wird sie bekommen.
Der Grund dafür ist, dass die Einkommensverluste für Frauen mit höherem Bildungsstand höher sind, wenn sie ein Kind bekommen, als für Frauen ohne oder mit geringem Einkommen. Ökonomen sprechen in diesem Zusammenhang von Opportunitätskosten. Es wird hier aber auch deutlich, dass ein höheres Bildungsniveau alleine nicht reicht. Gleichzeitig müssen Arbeitsplätze geschaffen und die Teilhabe von Frauen am Erwerbsleben gefördert werden. Das sind langfristige Prozesse. Sie stellen viele Länder und auch die Entwicklungszusammenarbeit weiterhin vor große Herausforderungen.
Die Antwort kommt von Prof. Dr. Renate Hartwig, Juniorprofessorin für Entwicklungsökonomik an der Universität Göttingen und Research Fellow am German Institute for Global and Area Studies / Leibniz-Institut für Globale und Regionale Studien (GIGA) in Hamburg.
Alle Parteien – bis auf die CDU – sind für mehr direkte Demokratie auf Bundesebene. Ebenso wie direktdemokratische Elemente würde auch die Einführung des Mehrheitswahlrechts, das von den Christdemokraten zu Zeiten der Großen Koalition 1966 bis 1969 oder jüngst durch den RCDS, die unionsnahe Studentenorganisation, gefordert wurde, in der Konsequenz einen Machtverlust der Partei als Organisation bedeuten. Warum aber wollen Parteien ihre Macht und ihren Einfluss schmälern? Es kommt auf den Blickwinkel und die Zielrichtung an. Die Forderung nach einem Mehrheitswahlrecht war und ist dem Kalkül des Machtzuwachses für die Partei geschuldet – nicht der Partei als Organisation. Denn ein Mehrheitswahlrecht begünstigt die großen Parteien und an erster Stelle die Union, was den Sitzanteil im Parlament angeht. Politischer Machtzuwachs würde mit organisatorischem Machtverlust erkauft.
Die Einführung von Elementen direkter Demokratie auf Bundesebene ist ein anderer Fall – nicht nur, weil die CDU nicht dafür eintritt. Die Gründe dafür verweisen auf die Anpassungsfähigkeit politischer Parteien und ihrer Vertreter*innen. Spätestens seit den 1970er Jahren wächst der von den Bürger*innen artikulierte Bedarf nach unmittelbarer Beteiligung in der Politik. Die sogenannte „partizipative Revolution“ hat das Repertoire der Beteiligungsformen der Bürger*innen extrem erweitert. Nicht mehr nur wählen und vielleicht einmal demonstrieren gehören zu den Aktivitätsformen, sondern Blockaden, Boykotts, Aktionen und zunehmend auch die Sichtbarkeit in den sozialen Medien. Mit der zunehmenden Bereitschaft der Bürger*innen, sich breit einzumischen, und dem wachsenden Anspruch nach unmittelbarer Beteiligung ist ein Legitimationsverlust der etablierten Verfahren der Demokratie verbunden. Wahlen als Entscheidungsmöglichkeit für die Bürger*innen reichen ihnen nicht mehr.
Vor dem Hintergrund dieser Entwicklung und in dem Bewusstsein, dass Demokratie sich anpassen muss, wenn sie nach wie vor volle Unterstützung durch die Bürger*innen genießen will, haben fast alle Parteien ihre vormals ablehnende und im Grundgesetz festgelegte Haltung zu direkter Demokratie auf Bundesebene geändert. Es geht den Parteien dabei um eine Ergänzung, nicht um den Ersatz repräsentativer Mechanismen. So erhoffen sie sich, die Unterstützung der Demokratie durch die Bürger*innen langfristig zu sichern – und damit auch die Existenz politischer Parteien.
Die Antwort kommt von Prof. Dr. Bernhard Weßels, Kommissarischer Direktor der Abteilung Demokratie und Demokratisierung am Wissenschaftszentrum Berlin für Sozialforschung (WZB), einem Leibniz-Institut.
Nach unserer Prognose für das Euroconstruct-Netzwerk standen 2020 hierzulande knapp 1,5 Mio. Wohnungen leer (keine Ruinen), die Leerstandsquote schätzen wir auf etwa 3,3%. Leider liegen keine regelmäßigen amtlichen Werte zur Verfügung.
Die Antwort kommt von Ludwig Dorffmeister, Fachreferent für Bau- und Immobilienforschung am ifo Institut - Leibniz-Institut für Wirtschaftsforschung an der Universität München e. V.
Ja, es gibt Berechnungen, jüngst vom Umweltbundesamt. Dort wurde errechnet, dass ein Tempolimit von 130 Stundenkilometern auf den Autobahnen über zwei Millionen Tonnen CO2 pro Jahr einsparen könnte. Die Studie finden Sie unter: https://www.umweltbundesamt.de/themen/verkehr-laerm/verkehrsplanung/tempolimit.
Die Antwort kommt von Prof. Dr. Claudia Kemfert, Energieökonomin und Leiterin der Abteilung Energie, Verkehr, Umwelt am DIW Berlin - Deutsches Institut für Wirtschaftsforschung.
In vielen öffentlichen Diskussionen um Themen wie Klimawandel, Impfen und Akzeptanz von Infektionsschutzmaßnahmen trifft man auf Verschwörungstheorien, Ideologien und andere starke Überzeugungen. Menschen, die diese vertreten, scheinen für rationale Argumente und wissenschaftliche Erkenntnisse wenig zugänglich zu sein. Wie ist dies zu erklären?
Starke Überzeugungen (z. B. politische Einstellungen) sind häufig so zentral für Menschen, dass sie Teil ihrer Identität, also ihres Selbstbildes, sind. Da Menschen danach streben, ein positives Selbstbild aufrecht zu erhalten, verteidigen sie Überzeugungen, die Teil ihrer Identität sind. Das führt zu einer Bewertung von Informationen im Lichte dieser Überzeugungen. Wenn eine Information nicht mit dem eigenen Weltbild in Einklang steht, wird sie daher mit höherer Wahrscheinlichkeit abgelehnt.
Starke Überzeugungen treten häufig zusammen mit dem Bedürfnis auf, ein Gefühl von Kontrolle oder Sicherheit im Sinne des Verstehens und der Vorhersagbarkeit von Ereignissen zu haben. Das Eintreten komplexer oder zufälliger Ereignisse steht diesem Gefühl jedoch entgegen. Einfache Erklärungen und Schwarz-Weiß-Denken (z.B. das Unterteilen von Menschen in Feinde und Freunde) können dann helfen, das Gefühl von Kontrolle und Stabilität wiederherzustellen. Davon abweichende Informationen würden dieses Gefühl in Gefahr bringen. Menschen mit starken Überzeugungen streben also auch danach, ihr Kontrollerleben zu verteidigen, was begünstigt, dass rationale Argumente unberücksichtigt bleiben.
Der Glaube an Verschwörungstheorien stellt eine Weltanschauung dar, die mit starken Überzeugungen einhergeht. Er basiert auf der Annahme, dass es eine Gruppe mächtiger Personen gibt, die im Geheimen daran arbeitet, böswillige Ziele zu erreichen. Diese Annahme liefert eine einfache Erklärung dafür, warum bestimmte Ereignisse stattfinden – wie zum Beispiel die Einschränkung persönlicher Freiheiten im Zuge der Corona-Pandemie – und schafft so ein Gefühl von Kontrolle. Weiterhin weichen solche Erklärungen in der Regel von den allgemein geteilten und wissenschaftlich fundierten ab. Die Überzeugung, selbst eine(r) von wenigen zu sein, die das Geschehen korrekt deuten führt dann wiederum zu einer positiven Selbstbewertung.
Insgesamt sind das Streben nach einem positiven Selbstbild sowie nach einem Gefühl von Kontrolle und Sicherheit zentrale Faktoren, die es schwierig machen, mit rationalen Argumenten Menschen, die an Verschwörungstheorien glauben oder starke Überzeugungen haben zu erreichen.
Die Antwort stammt von Kevin Winter, Lotte Pummerer und Kai Sassenberg vom Leibniz-Institut für Wissensmedien Tübingen, Abteilung Soziale Prozesse.
Judenfeindliche Straftaten nehmen seit einiger Zeit besorgniserregend zu. Der Antisemitismus ist aber in Deutschland nach dem Zivilisationsbruch Auschwitz niemals verschwunden. In den letzten Jahren hat seine Sichtbarkeit allerdings zugenommen, weil frühere Tabus weggefallen und neue Kommunikationsmöglichkeiten entstanden sind.
Antisemitismus in unterschiedlichen Formen findet sich über alle politischen Lager hinweg – auch in der Mitte der Gesellschaft. Die meisten Straftaten werden von Rechten verübt, jedoch zeigen sich auch ein israelbezogener linker Antisemitismus und ein bedrohlicher werdender muslimischer Judenhass.
Bei allen Differenzen stellt der Antisemitismus eine ideologische Reaktion auf die unverstandene Moderne dar. Er resultiert aus dem Bedürfnis, Schuldige für sozio-ökonomische Prozesse auszumachen und die Komplexität auf ein Gut-Böse-Schema zu reduzieren.
Der Kampf dagegen ist keine jüdische, sondern eine gesamtgesellschaftliche Aufgabe. Es gilt u.a., zivilgesellschaftliche Organisationen zu stärken, der Verrohung des Diskurses und der Relativierung von NS-Verbrechen durch die AfD entgegenzuwirken. Das kompromisslose Eintreten gegen alle Formen des Antisemitismus ist nicht nur eine historische Verpflichtung, sondern markiert einen Gradmesser für die Demokratie in der Bundesrepublik.
Die Antwort stammt von Sebastian Voigt, Institut für Zeitgeschichte, München – Berlin
Die Reduzierung und Minimierung von Kinderarmut ist zweifelsohne eine zentrale sozial-staatliche Aufgabe – Kinder sind schutzbedürftig und sollten über faire Lebens- und Entwicklungschancen verfügen.
Kinderarmut wird dabei in unterschiedlicher Weise erfasst. Bei Kinderarmut im Sinne von Einkommensarmut wird immer der Haushalt als Ganzes betrachtet. In besonderer Weise gefährdet sind hier Kinder, die in Haushalten mit geringem Einkommen leben – die also von geringer Erwerbsbeteiligung, Niedriglohn oder geringen beziehungsweise unregelmäßigen Erwerbszeiten der Eltern betroffen sind sowie kinderreiche Mehrpersonenhaushalte. Dies gilt vor allem für Haushalte von Arbeitslosen, Alleinerziehenden sowie von Haushalten von Personen mit Migrationshintergrund. Sozialpolitische Maßnahmen zum Schutz vor Kinderarmut richten sich hierbei auf die Stärkung der wirtschaftlichen Basis und Absicherung der jeweiligen Haushalte durch wirtschaftliche Maßnahmen (Mindestlohn; Tarifbindung), durch Steuernachlässe (steuerliche Freisetzung des Existenzminimums; in diesem Kontext kämen auch Maßnahmen wie Bürgergeld in Betracht) sowie direkte finanzielle Unterstützung durch Transferzahlungen (Kindergeld, Wohngeld, Arbeitslosengeld, Sozialhilfe).
Andere Ansätze zur Bekämpfung von Kinderarmut richten sich auf institutionelle Förderungen von gleichwertigem und freiem Zugang zu Bildung und Bildungseinrichtungen, gesunder Ernährung, sowie die Förderung von sozialen Kompetenzen und die Teilhabe am öffentlichen Leben (ohne Diskriminierung).
Beide Betrachtungsweisen ergänzen sich – für die wirksame Reduzierung und Minimierung von Kinderarmut sind sowohl die Sicherung und Stärkung der finanziellen Ressourcen der privaten Haushalte wie auch Maßnahmen zu institutionellen Förderungen – insbesondere an Kitas und Schulen – erforderlich.
Die Antwort stammt von Peter Krause, wissenschaftlicher Mitarbeiter am Sozio-oekonomischen Panel am Deutschen Institut für Wirtschaftsforschung (DIW Berlin).
Sicher nicht. Richtig ist aber, dass China wirtschaftlich in rasantem Tempo aufholt. Das hat die jüngste Vergangenheit eindrucksvoll gezeigt. Das Land hat in den vergangenen 15 Jahren seinen Anteil am Weltwirtschaftsprodukt von weniger als neun Prozent auf mehr als 18 Prozent gesteigert. Es spielt mittlerweile seine Wirtschaftsmacht konsequent aus, wie es übrigens auch die Amerikaner tun, und beeinflusst dadurch das wirtschaftliche Geschehen auf wichtigen Märkten. „Made in China 2025“, die Strategie des Landes zur Technologieführerschaft, unterscheidet sich zwar in der Sache von „America First“, aber nicht im Anspruch. Gleiches gilt für die Initiative „Neue Seidenstraße“, eine langfristige Strategie, bei der China milliardenschwere Investitionen in vielen Staaten durchführt und dadurch auch wirtschaftliche Abhängigkeiten schafft, die wiederum politische Einflussmöglichkeiten eröffnen. 2049, so das Ziel, soll China die global führende Industrienation sein. Parallel zu diesen Anstrengungen arbeitet das Land daran, die eigene Währung, den Renminbi, als weitere Leitwährung zu verankern.
Deutschland hat sehr stark vom wirtschaftlichen Aufholen Chinas profitiert und wird dies auch weiter tun. Auch im Jahr 2018 war China erneut, bereits zum dritten Mal in Folge, Deutschlands wichtigster Handelspartner. So betrug der Wert der gehandelten Waren zwischen Deutschland und China rund 199,3 Milliarden Euro, darunter der Wert der deutschen Exporte gut 93, 1 Milliarden Euro. Damit war China nach den USA das zweitwichtigste Abnehmerland deutscher Exporte. Dabei hat sich der Warenwert der Exporte nach China seit dem Jahr 2000 bis 2018 fast verzehnfacht. Die steigenden deutschen Exporte nach China haben dazu beigetragen, den Bedarf an Industriearbeitsplätzen in Deutschland zu stabilisieren.
Allerdings müssen Deutschland und Europa darauf achten, dass sie in zentral wichtigen Feldern nicht zurückfallen und von China nicht ausgebremst werden. Dazu gehört, bei Digitalisierung und Künstlicher Intelligenz nicht den Anschluss zu verlieren, sowie zu erreichen, dass nicht nur chinesische Unternehmen beispielsweise deutsche Unternehmen kaufen können, sondern dies auch umgekehrt besser möglich wird. Das geplante Investitionsabkommen von Europa mit China wäre dafür ein wichtiger erster Schritt, ein Handelsabkommen müsste folgen. Denn: Offene Märkte ohne Wettbewerbsbeschränkungen sind auf lange Sicht der beste Garant für Innovationen und Wohlstand, und das in allen Partnerländern.
Die Antwort stammt von Achim Wambach, Präsident ZEW – Leibniz-Zentrum für Europäische Wirtschaftsforschung in Mannheim
Afrika wurde lange als „vergessener Kontinent“ bezeichnet. Das hat sich geändert. In den letzten zehn Jahren wuchsen die Volkswirtschaften Subsahara-Afrikas um durchschnittlich 5 Prozent pro Jahr. Als einer der wichtigsten Gründe für diese Wende im wirtschaftlichen Schicksal Afrikas wird der Aufstieg der Schwellenländer im Allgemeinen und Chinas im Besonderen angesehen. Andere bezeichnen China hingegen als einen „Schurken“, der eine gesunde, nachhaltige Entwicklung Afrikas bedroht. Was stimmt?
Um die Rolle Chinas abschließend zu bewerten, ist es noch zu früh. Ein Haupthindernis ist, dass die Datenlage schwierig ist. Die chinesische Regierung selbst stellt keine systematischen Informationen zu ihren Entwicklungsprojekten in Afrika zur Verfügung. Zusammen mit Kollegen am College of William & Mary, der Harvard-Universität und der Universität Heidelberg haben wir eine Datenbank zu chinesischen Entwicklungsprojekten in Afrika und darüber hinaus erstellt. Die Datenbank basiert auf frei verfügbaren offiziellen Berichten der Empfängerregierungen und chinesischen Auslandsvertretungen, wissenschaftlichen Untersuchungen und Medienberichten. Die Datenbank ist unter https://china.aiddata.org/ öffentlich zugänglich und wird stetig verbessert. Unseren Daten entsprechend erhielt Afrika 34 Prozent der offiziellen chinesischen Finanzströme an Entwicklungsländer, nämlich rund 118 Milliarden US-Dollar im Zeitraum von 2000 bis 2014. Hiervon entsprach ein gutes Drittel der OECD-Definition von Öffentlicher Entwicklungszusammenarbeit (ODA), war also Entwicklungshilfe im engeren Sinne.
Unsere Datenbank ermöglicht erste empirische Untersuchungen zu der Rolle Chinas in Afrika. Zunächst haben wir Chinas Vergabeentscheidungen untersucht. Basierend auf unseren ökonometrischen Schätzungen erscheint die Behauptung, Chinas ODA sei „Schurkenhilfe“, ungerechtfertigt. Unsere Studien finden keine Hinweise, dass die Vergabeentscheidungen primär von natürlichen Ressourcen getrieben wären und Autokratien bevorzugt würden. Auch zeigt sich in Bezug auf wirtschaftliche und politische Eigeninteressen kein signifikanter Unterschied zu den großen westlichen Geberländern wie den Vereinigten Staaten, Japan und den großen europäischen Gebern. Allerdings finden wir in gemeinsamen Studie mit Kollegen der Universität St. Gallen und Monash-Universität Belege, dass mehr chinesische Entwicklungsprojekte in Hauptstädten, reicheren Provinzen und den Geburtsregionen afrikanischer Staatenführer angesiedelt werden. Es scheint, dass die Staatenführer Chinas Entwicklungsprojekte für ihre persönlichen politischen Zwecke missbrauchen können.
Was die Auswirkungen auf Entwicklung in den Empfängerländern betrifft, so gibt es zunächst gute Nachrichten. Es zeigt sich ein zeitlich verzögerter Anstieg des Bruttoinlandsprodukts auf Länderebene. Eine Verdopplung chinesischer ODA führt zwei Jahre nach der Hilfszusage zu einem Anstieg des Wachstums von 0,4 Prozentpunkten. Auf Provinzebene lässt sich eine Zunahme von Nachtlicht in denjenigen Regionen erkennen, an die chinesische Gelder vergeben wurden. Sattelitenaufnahmen von Nachtlicht werden in der wirtschaftswissenschaftlichen Forschung oft als Maß für Entwicklung auf Regionalebene verwendet, da für Entwicklungsländer oft keine guten Daten der volkswirtschaftlichen Gesamtrechnung vorliegen.
Allerdings gibt es auch schlechte Nachrichten, wenn man die Nebenwirkungen chinesischer Entwicklungsprojekte in Afrika betrachtet. Eine kürzlich erschienene Studie eines Forschungsteams der Universitäten Göteborg und Oslo zeigt, dass in Umfragen von einer erhöhten Korruption in denjenigen Gebieten berichtet wird, in denen chinesische Entwicklungsprojekte implementiert wurden. Das gleiche Autorenteam findet, dass Chinas Entwicklungsprojekte Gewerkschaftsaktivitäten in ihrer geografischen Umgebung schwächen. Kollegen vom College of William & Mary zeigen in einer Studie, dass chinesische Entwicklungsprojekte in Forstschutzbereichen zu einer stärkeren Entwaldung führen können aber nicht müssen—je nachdem, ob eine entsprechende staatliche Regulierung dies verhindert. Es ist daher wichtig, dass sich Afrikas Regierungen mit guten Regulierungen im Arbeitsrecht und Umweltbereich gut aufstellen, um ungewollte Nebenwirkungen abzufedern und von den Wachstumsimpulsen chinesischer Entwicklungsprojekte zu profitieren.
Die Antwort stammt von Andreas Fuchs. Er gehört zum Forschungsbereich „Armutsminderung und Entwicklung“ des IfW Kiel und ist Inhaber der gemeinsamen Professur für Umwelt-, Klima- und Entwicklungsökonomik der Helmut-Schmidt-Universität Hamburg (HSU/UniBwH) und des Instituts für Weltwirtschaft (IfW Kiel).
Tabea Lakemann, Research Fellow am GIGA Institut für Afrika-Studien, beantwortet die Frage folgendermaßen:
Das chinesische Engagement auf dem afrikanischen Kontinent wurde seit dem ersten China-Afrika-Gipfel im Jahr 2000 stetig intensiviert und ist thematisch und geografisch breit gefächert: Es reicht von umfangreichen Investitionen in Infrastruktur über Entwicklungshilfe-Maßnahmen und Privatinvestitionen bis hin zur Bereitstellung von Truppen für UN-Friedensmissionen in einigen afrikanischen Ländern. Diese vielen verschiedenen Aktivitäten lassen sich nicht pauschal positiv oder negativ bewerten.
Angenommen, uns interessiert Chinas Einfluss auf die wirtschaftliche Entwicklung afrikanischer Staaten: Das chinesische Engagement in Afrika ist in überwältigendem Maße von eigenen wirtschaftlichen Interessen getrieben. China ist inzwischen der wichtigste Handelspartner des Kontinents, Herkunftsland der meisten neu getätigten Direktinvestitionen und bei weitem der wichtigste Finanzgeber für Infrastrukturprojekte. Anders als beispielsweise westliche Geberländer oder die Weltbank bietet China Pakete von der Finanzierung durch staatliche Banken bis hin zum Bau der Infrastruktur durch private chinesische Firmen an. Für die chinesische Seite hat das den Vorteil, dass Überkapazitäten in der Bauindustrie nach Afrika „exportiert“ werden können, während Gewinne zurück nach China fließen. Gleichzeitig sichert sich China so vielerorts den Zugang zu Bodenschätzen sowie strategisch wichtigen Einrichtungen und Anlagen. Auch für afrikanische Volkswirtschaften hat das Arrangement durchaus seinen Reiz: Mit dem Bau von Straßen, Bahnlinien, Tiefseehäfen und Kraftwerken trägt China zum Abbau der enormen Infrastrukturdefizite bei, die vielerorts wirtschaftliche Entwicklung behindern. Es gibt jedoch auch berechtigte Gründe zur Skepsis. Oft kommen kaum afrikanische Arbeitskräfte zum Zuge, sodass wenig Wertschöpfung im jeweiligen Land verbleibt. Sehr problematisch sind auch die hohe Verschuldung afrikanischer Staaten gegenüber China und die Tatsache, dass Kredite oft aus den Gewinnen der Infrastrukturprojekte zurückgezahlt werden sollen. Fallen diese geringer aus als erwartet, gerät das afrikanische Land in Zahlungsschwierigkeiten. Anfang 2019 sind mehr als fünfzehn afrikanische Staaten zahlungsunfähig oder von der Zahlungsunfähigkeit bedroht – mehrere dieser Staaten stehen tief bei China in der Kreide. Insgesamt bedeutet Chinas Engagement also Entwicklungschancen für afrikanische Staaten, birgt aber auch umfangreiche Risiken. Wichtig für afrikanische Regierungen ist, dass sie Verhandlungsspielräume voll ausnutzen, um für sich die besten Konditionen auszuhandeln – und wenn nötig auch einmal Nein zu einem Projekt sagen.
Bei dieser Frage geht es in einem ersten Schritt um eine Bestandsaufnahme: Inwieweit findet eine Vererbung von Reichtum und Armut statt? Eine Studie der OECD (2018) ergibt, dass in Deutschland mehr als die Hälfte der beobachteten Einkommensunterschiede zwischen den Eltern an die nächste Generation weitergegeben werden. Mit diesem Ergebnis schneidet Deutschland im Industrieländervergleich mit am schlechtesten ab. Auch wenn es wissenschaftliche Kritik an dieser Studie gibt, sind sich die Ökonomen einig, dass es in Deutschland einen starken Zusammenhang zwischen dem Einkommen des Elternhauses und den späteren Einkommen der Kinder gibt (Hufe et al., 2018).
Im zweiten Schritt kann man nun klären, welche Faktoren diesen Zusammenhang bestimmen. Die ökonomische Forschung zeigt, dass ein wesentlicher Faktor die Bildung ist. Der Schulerfolg hängt in Deutschland stärker als in anderen Ländern vom Einkommen der Eltern ab. Und die Arbeitsmarktforschung zeigt wiederum, dass eine gute Bildung ein wesentlicher Bestimmungsfaktor der wirtschaftlichen Chancen, also der späteren Einkommen ist (Kugler et al., 2017).
Im dritten Schritt soll es nun darum gehen, welche Lösungsansätze es gibt, wenn man die Vererbung von Reichtum und Armut verhindern möchte. Dazu hilft zunächst das theoretische Konzept der Chancengerechtigkeit (Roemer, 1998). Dieses Konzept meint nicht, dass es einen Anspruch auf Ergebnisgleichheit gibt. Unterschiede hinsichtlich des Einkommens bzw. Vermögens von Individuen sind gerechtfertigt, solange sie einzig und allein auf persönliche Anstrengung zurückzuführen sind. Chancengerechtigkeit heißt jedoch, dass individuelle Erfolgsaussichten in einer Gesellschaft nicht von Umständen abhängen dürfen, auf die ein Individuum selbst keinen Einfluss hat, wie beispielsweise das elterliche Einkommensniveau, die Nationalität, oder der gesellschaftliche Status der Familie.
Für eine „Verhinderung“ bzw. Minderung der Vererbbarkeit von Reichtum und Armut in Deutschland folgt aus diesen Punkten, dass es größere Veränderungen hinsichtlich der Chancengerechtigkeit geben muss. Dabei spielt das Bildungssystem eine wesentliche Rolle. Dieses muss so ausgerichtet sein, dass der Bildungserfolg im frühkindlichen, schulischen und universitären Bereich nicht durch die familiären Einkommensverhältnisse der Kinder und Jugendlichen bedingt ist. Davon ist Deutschland leider noch weit entfernt. So sind die Mathematikleistungen von 15-jährigen Jugendlichen aus schwierigen sozialen Verhältnissen durchschnittlich vier Schuljahre niedriger als die Mathematikleistungen von Jugendlichen aus guten sozialen Verhältnissen. Ein Studium nehmen 79 Prozent der Kinder von Eltern mit Hochschulabschluss auf, wohingegen nur 27 Prozent der Kinder von Eltern ohne Hochschulabschluss studieren (Wößmann, 2018).
Die bildungsökonomische Forschung hat im internationalen Kontext klare Evidenz dafür gefunden, dass frühkindliche Bildung, die Mehrgliedrigkeit des Schulsystems sowie gezielte Fördermaßnahmen die Chancengerechtigkeit stark beeinflussen. Für Deutschland lässt sich aus den Forschungsbefunden folgern:
- Das frühkindliche Bildungssystem muss quantitativ und qualitativ so ausgelegt sein, dass (auch) Kinder aus benachteiligten Verhältnissen gut vorbereitet in die Grundschule kommen.
- Wenn Kinder nicht schon im Alter von zehn Jahren, sondern erst deutlich später auf verschieden Schularten aufgeteilt werden, würde dies die Chancen von Kindern aus ärmeren Verhältnissen erhöhen.
- Um Ungleichheiten im Bildungssystem auszugleichen ist das Gießkannenprinzip, wie etwa bei der Verteilung von finanziellen Mitteln, ein sehr ungeeignetes Verfahren. Gezielte Maßnahmen für benachteiligte Gruppen, z.B. in Form von Mentoring-Programmen oder „Frühen Hilfen“, sind weitaus wirkungsvoller.
Die Antwort stammt von Larissa Zierow, Stellvertretende Leiterin des ifo Zentrums für Bildungsökonomik.
Referenzen:
- Hufe, Paul, Andreas Peichl und Daniel Weishaar (2018), „Intergenerationelle Einkommensmobilität: Schlusslicht Deutschland?“, ifo Schnelldienst 71 (20), 20–28.
- Kugler, Franziska, Marc Piopiunik und Ludger Wößmann (2017), „Einkommenserträge von Bildungsabschlüssen im Lebensverlauf: Aktuelle Berechnungen für Deutschland“, ifo Schnelldienst 70 (7), 19-30.
- OECD (2018), A Broken Social Elevator? How to Promote Social Mobility, OECD Publishing, Paris.
- Roemer, J. E. (1998), Equality of Opportunity, Cambridge, Harvard University Press.
- Wößmann, Ludger (2018). Bildungspolitik ist Säule der Sozialen Marktwirtschaft. ARD Themenwoche Gerechtigkeit, 16.11.2018.
Per Definition gehört der öffentliche Raum allen und ist für eine lebendige (Stadt)Gesellschaft ein wichtiger und unverzichtbarer Raum der Begegnung und des Austauschs. Diese Begegnung beinhaltet naturgemäß viele Widersprüche und Konflikte, die sich vielfach nicht auflösen lassen, sondern immer auch ein Nebeneinander und das Aushalten von Gegensätzen bedeuten. Stadt lebt von Vielfalt, die nicht immer konfliktfrei sein kann.
Eigentumsrechtlich gehört der öffentliche Raum in der Regel den Kommunen. Eigentumsrechtlich privatisierte Flächen in Stadtmitten wie bspw. Einkaufszentren, Bahnhöfe und ihre Vorplätze etc. fallen mit Blick auf den gesamten öffentlichen Raum in Deutschland prozentual gering aus. Nichtsdestoweniger ist der Zugang zu öffentlichem Raum für einzelne Personengruppen oft direkt oder indirekt eingeschränkt, beispielsweise durch die Präsenz von Sicherheitskräften, Kameras und/oder die Art der Gestaltung oder Aufenthaltsregelungen.
Eine tolerante Stadtpolitik versucht allen Gruppen die Teilhabe am öffentlichen Raum zu ermöglichen. Dazu gehört die Akzeptanz und Moderation von Konflikten und Nutzungskonkurrenzen unterschiedlicher Gruppen, ihrer Ansprüche und Bedürfnisse. Diese müssen im Einzelfall gegeneinander abgewogen werden, denn der öffentliche Raum lebt von der Vielfalt seines Angebots, aber auch vom Respekt gegenüber den Bedürfnissen der jeweils anderen. Eine Möglichkeit ist die Aufteilung des öffentlichen Raumes in Teilräume, die bewusst Anreize (aber zugleich auch Zugangsbeschränkungen) für die unterschiedliche Nutzergruppen aufweisen. Das reicht von Kinderspielplätzen ohne Spritzen oder zerbrochene Flaschen über Räume, die gezielt Aufenthalts- und Erlebnisqualitäten für Jugendliche bieten, wie beispielsweise Skaterlandschaften oder Graffitiwände, bis hin zu barrierefrei zugänglichen Räumen mit ausreichend Sitzgelegenheiten und einem geordneten Charakter, der beispielsweise ältere Menschen, die sich in vielen urbanen Räumen verloren oder unsicher fühlen, anspricht. Wichtig ist es aber auch, Gruppen, die keine eigene Lobby haben, aber auch auf den öffentlichen Raum angewiesen sind, wie z.B. Obdachlose oder Suchtkranke, ebenfalls seitens der öffentlichen Hand Räume anzubieten.
Die Antwort stammt von Rainer Danielzyk, Generalsekretär der Akademie für Raumforschung und Landesplanung (ARL).
Es gibt keine einfache Antwort oder direkte politische, medizinische oder technische Lösung für dieses Problem. Letztlich bedarf es eines funktionierenden sozialen Zusammenhalts, in diesem Fall in der jeweiligen Nachbarbarschaft. Mehr Interesse und Aufmerksamkeit für die Mitmenschen und ein guter Zusammenhalt auf Quartiersebene lassen sich nicht verordnen, aber fördern. Dazu zählen Unterstützungsangebote wie die Einrichtung eines Quartiersmanagements, das Angebot generationenübergreifender Aktivitäten und Begegnungsräume, die Unterstützung von gesellschaftlichen, staatlichen oder kirchlichen Initiativen, die sich um ältere Mitglieder im Quartier kümmern etc.. Hier gibt es zahlreiche Förderansätze, allerdings oft projektförmig und damit befristet.
Sinnvoll sind auch individuelle technisch-finanzielle Unterstützungen wie eine systematische Beratung und die Bereitstellung von Hausnotrufen für Ältere und/oder Kranke, die bisher eigenständig beauftragt und bezahlt werden müssen. Zugleich könnten gesundheitspolitische Anreize gesetzt werden, um beispielsweise die Praxiseröffnung von Allgemeinmedizinern/-innen gerade auf dem Land oder in Quartieren zu fördern, wo der Altersdurchschnitt besonders hoch ist. Auch die gezielte Vergütung von mehr Zeit zur Betreuung von Patient/-innen und Hausbesuchen wären sinnvoll.
Darüber hinaus verweist diese Frage auch auf grundsätzliche klima- und damit auch gesellschaftspolitische Herausforderungen. Sie zeigt, wie unser (Nicht)Handeln im Hinblick auf Klimaschutz und Klimaanpassung bereits heute weitreichende Konsequenzen auch hier vor Ort und nicht nur in der Arktis oder auf Südseeinseln hat.
Die Antwort stammt von Rainer Danielzyk, Generalsekretär der Akademie für Raumforschung und Landesplanung (ARL).
Da Menschen soziale Wesen sind, die ohne einander nicht auskommen, haben sie viele unterschiedliche Arten des Miteinanders entwickelt. Kooperation und Konkurrenz sind zwei wesentliche Formen sozialen Zusammenlebens. Kooperation vereint Menschen für die Erreichung gemeinsamer Ziele. Dabei reicht das Spektrum von Solidarität über gegenseitige Hilfe bis hin zu Zweckbündnissen und Multituden, also lediglich dem gemeinsamen Handeln. Ebenso ist Konkurrenz durchaus vielschichtig. Vom spielerischen Vergleichen und Messen, kollegialen und sportlichen Wettbewerb bis hin zu Rivalität, neidvoller Missgunst, dem verzweifelten Ringen um Positionen, Jobs und Anerkennung bis hin zur Feindschaft kann Konkurrenz zahlreiche Formen annehmen. Zusätzlich finden sich auch viele Mischformen, wie das Konkurrieren von Firmen oder Mannschaften, die Gleichgesinnte durchaus vereint und kooperieren lässt.
Für den einzelnen Menschen sind sowohl Kooperation als auch Konkurrenz hilfreich, um seine Ziele zu erreichen. Welche Form sich als die bessere erweist, hängt von den Rahmenbedingungen ab, aber auch davon, was eigentlich als erfolgreich gilt. Kooperation stärkt die soziale Eingebundenheit, das Gefühl nicht allein zu sein, gibt Rückhalt in Problem- und Krisensituationen. Nicht zufällig stellen viele Gesellschaften das kooperative Miteinander („Mutual Aid“) ins Zentrum ihrer Weltanschauung. Andere erheben das Denkprinzip „Konkurrenz belebt das Geschäft“ zur Handlungsmaxime, da sie im Wetteifern um begrenzte Ressourcen, aber auch begrenzte Zeit für den Einzelnen oder die Gruppe die stärkste Motivation sehen. Diese drückt sich bei Erfolg wiederum in der Steigerung von Selbstwertgefühlen und sozialer Anerkennung aus, kann also durchaus positive Effekte haben.
Der Erfolg Einzelner bewirkt jedoch nicht zwangsläufig eine bessere Welt. Genauso wie eine Kooperation immer jene ausschließt, mit denen nicht kooperiert wird, verschafft Konkurrenz auch nur jenen Vorteile, die erfolgreich konkurrieren. So kann die Kooperation auch auf Kosten anderer gehen, ebenso wie Konkurrenz kriegerisch und zerstörerisch ausgetragen werden kann. Beides trifft umso mehr zu, wenn man die Welt als besseren Ort nicht nur auf das gute und erfolgreiche Leben der Menschen reduziert, sondern die gesamte Umwelt in den Blick nimmt. Zwar scheint eine „gesunde“ Mischung aus Kooperation und Kollaboration als eine hilfreiche Faustformel, was aber als gesund für wen gilt, welche Lebewesen wir eigentlich ausschließen und schädigen, dürfen wir nicht aus dem Blick verlieren.
Die Antwort stammt von Stefan Schreiber, Wissenschaftlicher Mitarbeiter im Projekt „Resilienzfaktoren in diachroner und interkultureller Perspektive – was macht den Menschen widerstandsfähig?“ am Römisch-Germanischen Zentralmuseum (RGZM), Leibniz-Forschungsinstitut für Archäologie
Applaus ernten wir für eine besondere Leistung; Wir erfahren Anerkennung und – so verbirgt es sich auch in der Übersetzung des lateinischen Wortes „applausus“ – Zustimmung. Persönlich ausgedrückte Gesten der Würdigung, Belohnung oder Unterstützung wie etwa Schulterklopfen oder Händeschütteln gehen in einer größeren oder unüberschaubaren Gruppe schnell unter. Sie bedürfen Alternativen. Durch gemeinsames Klatschen entstehender Applaus zeigt Lob, Wertschätzung und Respekt der Masse und nicht nur der/s Einzelnen. Zugleich versichert es den „Beklatschten“ einen gewissen sozialen Rückhalt der Gruppe.
Wenngleich direkte Belege für Applaus in frühen Gesellschaften fehlen, gibt es doch Hinweise auf Formen sozialer Interaktion wie Musik und Tanz. Bereits vor ca. 45.000 Jahren oder mehr wurde deren Ausübung vermutlich – durch uns heute nicht mehr erschließbare Ausdruckformen sozialer Anerkennung – honoriert. Vielleicht entstand der Applaus aus Musik begleitendem Klatschen. Welchen Stellenwert Applaus über die Zeit erreichte, zeigt die der griechischen Mythologie entsprungene Figur Krotos. Er gilt als der Erfinder des rhythmischen Beifalls zur Musik, bedeutet sein Name nichts anderes als „Klatschen“ oder „Stampfen mit dem Fuß“. Beifall spenden etablierte sich auch bei den Römern im Theater oder der Arena und wurde durch die Aufforderung „plaudite!“, also „klatschet!“ nur noch befeuert.
Gesellschaftlich regulierten Applaus erleben wir heute. Wer bei einem klassischen Konzert im falschen Moment applaudiert, wird als unwissend entlarvt – kennt er/sie doch nicht die Regeln des „Applaus-Knigges“. Immer wieder aufbrausender Beifall während eines Popkonzerts ist hingegen erwünscht und trägt zur ausgelassenen Stimmung bei. Als Aufforderung zum gemeinsamen Applaudieren ist dann auch eine Aussage des Dichters und Schriftstellers Christian Morgenstern zu verstehen, mit der er zugleich das Gefühl gemeinschaftlicher Anerkennung beschreibt: Denn „Es ist etwas Herrliches, wenn in das Händeklatschen einer Menge jenes Elementare kommt, das ich das Mark des Beifalls nennen möchte.“
Die Antwort stammt von Olaf Jöris, Wissenschaftlicher Mitarbeiter in MONREPOS | Archäologisches Forschungszentrum und Museum für menschliche Verhaltensevolution und Louise Rokohl, Wissenschaftliche Koordinatorin im Projekt „Resilienzfaktoren in diachroner und interkultureller Perspektive – was macht den Menschen widerstandsfähig?“ am Römisch-Germanischen Zentralmuseum (RGZM), Leibniz-Forschungsinstitut für Archäologie
Diese Frage ist sehr berechtigt angesichts der Prognose der Vereinten Nationen, dass bis 2050 etwa 70 Prozent der Menschen in Städten leben werden. Im Leibniz-Institut für ökologische Raumentwicklung (IÖR) beschäftigen wir uns tagtäglich mit der Frage, wie unter diesen Voraussetzungen ein gutes Leben für jede Stadtbewohnerin und jeden Stadtbewohner möglich sein kann. Die Lösung liegt in unseren Augen in einer ökologisch nachhaltigen Stadtentwicklung.
In einer „grünen“, einer ökologisch nachhaltigen Stadt sind viele Aspekte zu berücksichtigen und miteinander in Einklang zu bringen. Auf der einen Seite ist es wichtig, der Natur ausreichend Raum zu geben. Denn Parks, Gärten oder Flussauen sind wichtig. Für viele Menschen machen Grünflächen eine Stadt erst attraktiv. Für ein gutes Klima, für die Natur und auch für die Risikovorsorge, etwa für den Schutz vor Hochwasser, sind sie unverzichtbar.
Zugleich müssen wir aber auch Voraussetzungen dafür schaffen, dass viele Menschen ausreichend Wohn- und Lebensraum in der Stadt finden. Die Herausforderung ist, dies so zu gestalten, dass wir möglichst wenig Fläche bzw. kostbaren natürlichen Boden und andere natürliche Ressourcen beanspruchen. Hier sind unter anderem die Fragen entscheidend, für welche Art des Wohnens wir uns entscheiden und wo wir neue Gebäude errichten.
In Deutschland wird ein Lösungsansatz in der „doppelten Innenentwicklung“ von Städten gesehen. Das heißt: Neu gebaut wird auf innerstädtischen, bereits erschlossenen Flächen; wichtige Grün- und Freiflächen in der Stadt und in ihrem Umland bleiben erhalten. Werden doch neue Flächen oder Brachen in der Stadt genutzt, so sind zum Ausgleich an anderer Stelle Grünflächen qualitativ aufzuwerten und besser zu vernetzen. Auch die Gebäude selbst sind zu begrünen, zum Beispiel die Fassaden oder Dächer. Es entsteht ein Mix aus kompakten Stadtvierteln und wichtigen Grünflächen und Grünkorridoren, die den Menschen als Freizeit- und Erholungsraum dienen, für ein gutes Klima in den Städten sorgen und Raum für Pflanzen und Tiere bieten.
Eine solche ökologisch nachhaltige Stadt kann nur entstehen, wenn Politik, Stadtverwaltung und Bürger gemeinsam und engagiert das Konzept der doppelten Innenentwicklung umsetzen. Dies sind Aushandlungsprozesse die teils widersprüchliche Ziele unter einen Hut bringen müssen. Eine Publikation des IÖR zur „Stadt im Spannungsfeld von Kompaktheit, Effizienz und Umweltqualität“ porträtiert sieben deutsche Städte und erläutert die Methode, mit der Stärken und Schwächen aus Sicht von „Bauen!“ und „Durchgrünen!“ herausgearbeitet werden können. Weitere Denkanstöße geben auch die Internetseiten zu unserem Ausstellungsexponat „Die Grüne Stadt – Wie bringen wir unsere Städte ins ökologische Gleichgewicht?“.
Die Antwort stammt von Heike Hensel vom Leibniz-Institut für ökologische Raumentwicklung (IÖR).
Es ist richtig, dass Frauen in Deutschland im Durchschnitt niedrigere Einkommen am Arbeitsmarkt erzielen als Männer. Laut dem Statistischen Bundesamt lag der durchschnittliche Bruttostundenverdienst der Frauen im Jahre 2017 etwa 21 Prozent unter dem Durchschnitt der Männer. Dieses Phänomen wird auch als Gender Pay Gap bezeichnet. Rund drei Viertel davon lassen sich auf strukturelle Unterschiede zurückführen: Die wichtigsten Gründe für die Differenzen der durchschnittlichen Bruttostundenverdienste waren Unterschiede in den Branchen und Berufen, in denen Frauen und Männer tätig sind, sowie ungleich verteilte Arbeitsplatzanforderungen hinsichtlich Führung und Qualifikation. Darüber hinaus sind Frauen häufiger als Männer teilzeit- oder geringfügig beschäftigt.
Dieser Lohnunterschied ist auf den ersten Blick überraschend, da in den Geburtskohorten ab Ende der 1970er die Bildungsabschlussquoten der Frauen deutlich über den denen der Männer liegen. Dies gilt sowohl für das Abitur als auch für den Studienabschluss. Jedoch bedeutet ein Studienabschluss nicht automatisch ein hohes Einkommen. So wählen Frauen tendenziell eher Studienfächer die für am Arbeitsmarkt schlechter entlohnte Berufe qualifizieren. Beispielhaft sind hier die Ingenieurswissenschaften und das Grundschullehramtsstudium zu nennen. Während weniger als 30 Prozent der ausgebildeten Ingenieur/-innen Frauen sind, sind weniger als 20 Prozent der angehenden Grundschullehrer/-innen Männer.
Es ist außerdem richtig, dass Frauen mehr im Haushalt tun als Männer. Der sogenannte Gender Care Gap beläuft sich auf etwa 50 Prozent oder beinahe 1,5 Stunden täglich. Die zusätzliche Arbeitsbelastung im Haushalt wirkt natürlich auch wieder auf den Gender Pay Gap. Frauen arbeiten öfter in Teilzeit, vermeiden Positionen mit einer hohen Stundenbelastung oder sind bei der Arbeitgeberwahl eher bereit, Gehaltsabstriche zu Gunsten einer besseren Work-Life Balance zu machen.
Zur Erklärung dieses Phänomens werden häufig traditionelle Rollenverständnisse herangezogen. Immerhin 28 Prozent der Deutschen stimmen mit der Aussage überein, dass die wichtigste Rolle der Frau in der Verwaltung von Heim und Familie besteht. Dies spiegelt sich auch in den Erwerbsbiographien von Partnern mit Kindern. Vergleicht man die Einkommensdifferenz von Vater und Mutter im Jahr vor der Geburt des ersten Kindes zur Einkommensdifferenz im ersten Jahr nach der Geburt, so vergrößert sich der relative Gehaltsunterschied zwischen den Partnern um 80 Prozent zu Ungunsten der Mutter. Natürlich ist dies in Teilen mit den biologischen Herausforderungen der ersten Lebensmonate des Kindes zu erklären. Jedoch erholen sich die Einkommen von Frauen auch auf lange Sicht nicht von diesem Schock. Selbst 10 Jahre nach der Kindsgeburt liegt der relative Verdienstverlust der Frauen bei immerhin noch 60 Prozent im Vergleich zum Vorgeburtsjahr. Dies legt nahe, dass traditionelle Rollenbilder in Kombination mit institutionellen Beschränkungen bei der Vereinbarkeit von Familie und Beruf ein wichtiges Erklärungsmuster für den bestehenden Gender Pay Gap ist.
Beim Gender Pay Gap gibt es jedoch große regionale Unterschiede. Im Landkreis Dingolfing-Landau betrug der Wert 38 Prozent. Das heißt, dass die vollzeitbeschäftigten Frauen dort 38 Prozent weniger verdienten als die Männer. In Cottbus hingegen verdienten die Frauen 17 Prozent mehr als die Männer. Insgesamt liegt das Entgelt der Frauen in 29 ostdeutschen Kreisen über demjenigen der Männer und damit im auch im Durschnitt für die neuen Bundesländer.
Die Antwort stammt von Andreas Peichl, Leiter des ifo Zentrums für Makroökonomik und Befragungen.
Weiterführende Quellen:
Zunächst muss unterschieden werden, welche „Schere“ man betrachtet, Einkommen oder Vermögen?
Die vorliegenden Daten zur Verteilung der privaten Nettovermögen in Deutschland deuten darauf hin, dass in den vergangenen rund zehn Jahren die Schere zwischen den ärmeren und reicheren Menschen in Deutschland nicht weiter auseinander gegangen ist.
Bei den Einkommen werden üblicherweise die sogenannten Haushaltsnettoeinkommen betrachtet, das sind alle Einkommen, die einem Haushalt als Ganzes und dessen Haushaltsmitgliedern in einem Monat (oder einem Jahr) zufließen. Also Löhne, Einkommen aus Selbstständigkeit, Kapitaleinkommen, staatliche Transfers wie Kindergeld, Arbeitslosengeld, alle Renten …
Zwischen Ende der 1990er Jahre und 2005 ist die Schere zwischen Arm und Reich gemessen an diese Einkommen in Deutschland deutlich auseinander gegangen. Seit 2005 sind aber nur noch geringe Veränderungen zu beobachten. Die Einkommen der einkommensschwächsten zehn Prozent der Bevölkerung sind in den letzten drei bis vier Jahren etwas gesunken. Das liegt hauptsächlich an der Zuwanderung in Deutschland, da Personen, die einwandern, im Regelfall nur sehr geringe Einkommen haben.
Aber auch wenn sie nicht maßgeblich steigt, ist die Ungleichheit in Deutschland problematisch. Was tun? Ein wesentlicher Faktor für die steigende Einkommensungleichheit bis 2005 war die Entwicklung am Arbeitsmarkt. So ist es beispielsweise zu einem deutlichen Zuwachs des Niedriglohnsektors gekommen. Hier könnte man ansetzen und z.B. folgende Maßnahmen anwenden:
- Zurückdämmen von Minijobs,
- gleicher Lohn für Beschäftigte in Leiharbeit
- mehr allgemeinverbindliche Tarifverträge
- Absenkung von Sozialabgaben/Steuern von Geringverdienerinnen und Geringverdienern.
Die Antwort stammt von Markus M. Grabka, wissenschaftlicher Mitarbeiter beim SOEP und Verteilungsexperte des Deutschen Instituts für Wirtschaftsforschung e.V. (DIW Berlin).
Wir alle wollen positiv denken und handeln. Dennoch durchlebt jeder von uns im Laufe seines Lebens Krisen. Der Tod eines nahen Angehörigen, der Verlust des Arbeitsplatzes, die Vertreibung aus der Heimat oder die Bedrohung durch Naturkatastrophen. Vieles davon ist menschengemacht, einiges dennoch unausweichlich. Wer es schafft, seine psychische Gesundheit während oder nach widrigen Lebensumständen aufrecht zu erhalten oder sie rasch zurückzugewinnen, wird als resilient bezeichnet. Einigen Menschen gelingt dies besser, anderen schlechter. Aber immer ist die Bewältigung der Krise die Voraussetzung für langfristiges positives Agieren. Dies gilt für jeden Einzelnen genauso wie für die gesamte Weltgemeinschaft.
Deswegen erforscht das Leibniz Forschungsinstitut für Archäologie gemeinsam mit Psycholog*innen und Lebenswissenschaftler*innen Resilienzfaktoren. Als Archäolog*innen am RGZM interessiert uns besonders, was die Menschen in der Steinzeit, im Alten Ägypten oder zur Zeit der Griechen und Römer widerstandsfähig gemacht hat. Wir wollen es aber nicht bei dem Blick in die Vergangenheit belassen. Im Fokus steht das Verständnis menschlichen Verhaltens, Handelns, Wirkens und Denkens. Verstehen wir die Entwicklung und Veränderung von Gesellschaften, leisten wir einen Beitrag zur Gestaltung der Zukunft.
Moderne psychologische und medizinische Studien belegen die Wirksamkeit einzelner Resilienzfaktoren wie Optimismus, soziale Unterstützung und Selbstwertgefühl zur Aufrechterhaltung der Widerstandskraft. Wenn es aber vor 2,6 Mio. Jahren ganz andere Faktoren gab, die zum Überleben und der Weiterentwickeln des Menschen beigetragen haben, warum sollten diese Faktoren nicht auch für die heutige Gesellschaft relevant sein?
Die Antwort stammt von Louise Rokohl, Koordinatorin des Projekts „Resilienzfaktoren in diachroner und interkultureller Perspektive – was macht den Menschen widerstandsfähig?“ am Römisch-Germanischen Zentralmuseum (RGZM), Leibniz-Forschungsinstitut für Archäologie
Sucht man nach klaren Mustern, primären Ursachen und genauen Mechanismen von rechtsextremistischer Radikalisierung, wird man viele widersprüchliche Ergebnisse finden. Es gibt schlicht zu viele Pfade für Radikalisierungsprozesse. Dementsprechend hat die Forschung vorwiegend komplexe Modelle entwickelt und getestet, die auf unterschiedlichen Erklärungsansätzen basieren und mehrere Bedingungsfaktoren miteinschließen. So macht bspw. eine Identitätskrise anfälliger dafür, sich extremistische Denkmuster anzueignen oder sich einer rechtsradikalen Gruppe anzuschließen – dies erfüllt oft auch eine biografische Funktion und hilft bei der Reduktion von Unsicherheit oder der Bewältigung kritischer Ereignisse, gibt aber auch Anerkennung und ein Zugehörigkeitsgefühl. Will man solche Prozesse verstehen, ist es erforderlich, nicht nur auf das Individuum zu fokussieren, sondern auch Gruppendynamiken ebenso mitzudenken wie gesellschaftliche und strukturelle Einflüsse: Als Bedingungsfaktoren können die Polarisierung einer Gesellschaft und der politischen Kommunikation, Chancen politischer Partizipation oder die Kultur medialer Berichterstattung identifiziert werden. Eine allgemeingültige Antwort auf die Frage ist deshalb schwierig. Unumstritten aber ist, dass Staat und Gesellschaft viel mehr und dauerhaft in politische Bildung und Prävention innerhalb aller wesentlichen Strukturen des Bildungssystems investieren müssen.
Die Antwort stammt von der „Radikalisierungsforschergruppe“ der HSFK, Leibniz-Institut Hessische Stiftung Friedens- und Konfliktforschung
Am GIGA haben wir mindestens drei Möglichkeiten identifiziert, wie Forschung die Welt zu einem besseren Ort machen kann. Zunächst ist es wichtig, unseren „post-faktischen“ Zeiten solide Forschung mit klarem realweltlichem Bezug entgegenzusetzen. Am GIGA betreiben wir Grundlagenforschung von hoher Relevanz für die Politik. Wir geben regelmäßig forschungsbasierte Politikempfehlungen zu vier Weltregionen und zu Sachverhalten von globaler Bedeutung. Als Leibniz-Institut haben wir das klare Mandat, Forschung mit Praxisbezug zu betreiben. So untersuche ich beispielsweise unter anderem, wie eine faire, nachhaltige Globalisierung erreicht werden kann und welche Rolle nationale und internationale Narrative dabei spielen.
Zweitens müssen wir erkennen, dass sich in den aktuellen populistischen und extremistischen Bewegungen der Linken und Rechten, eine riesige Unzufriedenheit ausdrückt. Wir müssen die Enttäuschung und Wut derer verstehen, die sich von nationalen und internationalen Regeln an den Rand gedrängt und ausgegrenzt fühlen. Am GIGA möchten wir die unterschiedlichen Stimmen ernstnehmen und haben zu diesem Zweck einen globalen Forschungsansatz entwickelt. Wir arbeiten mit Afrika, Asien, Lateinamerika und Nahost zusammen und versuchen, Länder und Regionen anstatt durch eine westliche Linse aus ihrem eigenen Kontext heraus und in vergleichender Perspektive zu erforschen.
Und schließlich muss Exzellenz in der Forschung auch mit überzeugenden Wissenstransfer einhergehen. Eine entscheidende Lektion, die Wissenschaft aus der heftigen Gegenreaktion zur Globalisierung und dem wachsenden Populismus ziehen sollte, ist, dass Forschungsergebnisse beispielsweise zu den Errungenschaften der Globalisierung oder dem Wert der EU nicht ausreichend und wirksam vermittelt wurden. Es hat sich gezeigt, dass wütend und laut ankommt, während korrekt aber langweilig untergeht. Am GIGA haben wir uns daher – mehr denn je – vorgenommen, unsere Forschungserkenntnisse lebendig und spannend zu präsentieren. Wir haben dafür unserer Medienarbeit in Qualität und Reichweite gesteigert sowie den Austausch mit Politik und Öffentlichkeit breiter aufgestellt und vertieft.
Forschungsergebnisse können dabei helfen, Verständnis für einander zu schaffen und wirksamere Politiken einzusetzen, die zu einer friedlicheren und gerechteren Welt beitragen; eine Welt die pluralistisch und integrierend ist.Die Antwort stammt von Amrita Narlikar, Präsidentin des German Institute for Global and Area Studies / Leibniz-Institut für Globale und Regionale Studien (GIGA).
Bezogen auf die gesamte Menschheit und den Planeten Erde (nicht auf ein einzelnes Land oder einen Kontinent) lässt sich sagen: Das hängt ganz davon ab, wie wir jetzt und in Zukunft unsere Lebens- und Wirtschaftsweisen gestalten.
Schon jetzt lebt die Weltbevölkerung „über ihren Verhältnissen“. Das zeigen verschiedene wissenschaftliche Arbeiten wie das Konzept der planetaren Grenzen („planetary boundaries“), zum ökologischen Fußabdruck („ecological footprint“) oder auch der sogenannte Erdüberlastungstag („Earth Overshoot Day“). Alle drei Konzepte machen deutlich, dass die Menschheit (vor allem die Menschen in den Industrie- und Schwellenländern) mehr natürliche Ressourcen verbraucht, als unser Planet ihr auf nachhaltige Art und Weise dauerhaft zur Verfügung stellen kann.
So markiert etwa der Erdüberlastungstag, an welchem Tag im Jahr wir exakt so viele natürliche Ressourcen verbraucht haben, wie die Erde in einem Jahr wiederherstellen kann. Für die gesamte Menschheit lag dieser Tag im Jahr 2018 am 1. August. Deutschland hatte den Erdüberlastungstag schon am 2. Mai erreicht – also nach etwa einem Drittel des Jahres. Das heißt: Würden alle Menschen auf der Welt wie wir in Deutschland leben (heizen, essen, reisen, kaufen…), bräuchte es in etwa drei Erden, um den dafür erforderlichen Bedarf an natürlichen Ressourcen wie Energie, Rohstoffe oder Boden jährlich zu erneuern!
Weltweit gibt es inzwischen viele Bemühungen, unsere nicht-nachhaltigen Lebens- und Wirtschaftsweisen zu ändern. Wichtig sind hierbei auch die zahlreichen zivilgesellschaftlichen Initiativen, die sich in vielen Städten und Regionen aktiv darum bemühen, durch eigenes Handeln und das Anstoßen von Aktionen einen Wandel hin zu mehr Nachhaltigkeit zu erreichen. Das hat das Leibniz-Institut für ökologische Raumentwicklung gemeinsam mit Partnern in verschiedenen Projekten herausgefunden. Die Wissenschaftlerinnen und Wissenschaftler haben untersucht, wie sich gesellschaftlicher Wandel vor Ort konkret gestalten und alternative, nachhaltige Strukturen, Denkweisen und Lebensstile etablieren lassen. Deutlich wurde, dass der Beitrag lokaler Initiativen nicht zu unterschätzen ist. Damit es aber nicht beim Engagement einiger weniger bleibt, braucht es die Unterstützung durch Stadtpolitik und Stadtverwaltung, Wirtschaft und Wissenschaft. Noch wichtiger ist, dass alle Menschen erkennen: Es kommt auf jede und jeden Einzelnen an. Ob Energie sparen, vom Auto auf das Fahrrad umsteigen, saisonale und regionale Lebensmittel einkaufen oder langlebige Produkte aus recycelbaren Materialien nutzen – es gibt unzählige Arten, wie jeder und jede dazu beitragen kann, dass viele Menschen gut auf der Erde leben können.
Die Antwort stammt von Markus Egermann, wissenschaftlicher Mitarbeiter im Leibniz-Institut für ökologische Raumentwicklung (IÖR).
Gesundheit, Medizin & Ernährung
In der japanischen Esskultur ist der Genuss von Meeresgemüse in der Tat sehr populär, aber auch in einigen anderen asiatischen Ländern, etwa in China, Korea und Polynesien. In Hawaii gelten Algen als wertvolle Köstlichkeit in der Küche, und in Japan wird das Gemüse aus dem Meer nicht nur als Zutat in vielen Gerichten verwendet, sondern auch gezielt als Geschmacksträger oder Würzmittel eingesetzt.
Und in Europa? In unseren Breiten ist Meeresgemüse heutzutage relativ selten auf dem Speiseplan zu finden. Allerdings war das nicht immer so: Algen scheinen auch in Europa einen festen Platz in der Küche gehabt zu haben. Forschende konnten basierend auf sogenannten Biomarkern im Zahnstein unserer europäischen Vorfahren feststellen, dass Großalgen und anderes Meeresgemüse wie zum Beispiel Meerkohl in Europa regelmäßig auf den Teller kam. Die Proben wurden in Ausgrabungsstätten von Spanien bis nach Schottland gesammelt und auf verschiedene Zeiträume von etwa 6400 v. Chr. bis ins 12. Jahrhundert n. Chr. datiert. Die Funde legen nahe, dass die Menschen von der Jungsteinzeit bis ins frühe Mittelalter regelmäßig Meeresgemüse gegessen haben.
In Nordeuropa haben Algen den Menschen durch verschiedene Hungersnöte geholfen. Der Algenkonsum wird deshalb teilweise noch immer mit einem Mangel an Nahrung assoziiert, und nicht, wie in anderen Regionen, als Köstlichkeit wahrgenommen.
Seit einigen Jahren wird Meeresgemüse allerdings auch in Europa (wieder)entdeckt. Im Englischen hat sich mittlerweile der Begriff der Phycogastronomy etabliert, zusammengesetzt aus dem griechischen Wort Phyco („Tang“) und Gastronomie. Im Deutschen könnte man das vielleicht als „Algengastronomie“ übersetzen.
Eine weitere Verbreitung ist zu wünschen, denn Algen sind eine nachhaltig produzierbare und gesunde Nährstoffquelle: Sie enthalten viele Vitamine, Proteine und Mineralien. Darüberhinaus lassen sie sich in der Kosmetik und in der Pharmazie verwenden, als Tierfutter, Dünger – und sogar als Kraftstoff.
Die Antwort kommt von Lara Stuthmann, Doktorandin in der Abteilung Ökologie am Leibniz-Zentrum für Marine Tropenforschung (ZMT) in Bremen.
Bei der Gedächtnisforschung werden unterschiedliche Zeitpunkte untersucht: das Erleben (Enkodierung), das Abspeichern (Konsolidierung), das Erinnern (Abruf) und darauf folgend das erneute Abspeichern (Rekonsolidierung).
Studien haben gezeigt, dass bereits das Aufnehmen eines Fotos die spätere Erinnerungsleistung beeinträchtigen kann, vermutlich, weil sich dadurch die Aufmerksamkeit verschiebt, was umso mehr der Fall ist, wenn zusätzlich Filter und Effekte ins Spiel kommen, und die emotionale Involviertheit am eigentlichen Ereignis abnimmt.
Auch der Zweck, zu dem das Foto aufgenommen wird, hat einen Einfluss: Nimmt man es bewusst als Erinnerungsstütze auf, kann es sich durchaus positiv auf das Gedächtnis auswirken. Fotografiert man jedoch nur, um es auf Social Media zu teilen, hat das nachteilige Effekte. Ein Grund kann sein, dass das Fotografierte und Gepostete nicht repräsentativ für das Erlebte ist, da nur ein kleiner, auf Hochglanz polierter Ausschnitt gezeigt wird.
Nun ist es so, dass unsere Erinnerungen nicht in Stein gemeißelt, sondern sehr plastisch sind. Daher ist eine beliebte Aussage von Gedächtnisforschern, dass wir uns nicht an das Erlebte an sich erinnern, sondern immer nur an die letzte Erinnerung daran. Selten abgerufene Erinnerungen verblassen mit der Zeit und häufig abgerufene Erinnerungen können gestärkt, aber auch modifiziert, das heißt verändert werden. Letzteres wird unter anderem vom Kontext wie der aktuellen Gemütslage beeinflusst, oder auch von neuen Informationen, die wir mittlerweile zum Beispiel durch den Austausch mit anderen erhalten haben.
Man kann sich leicht vorstellen, dass auch das Betrachten einseitiger Fotoaufnahmen das Erinnern beeinträchtigen kann, indem das Gezeigte zunehmend an Gewicht gewinnt, während Ungezeigtes Stück für Stück in Vergessenheit gerät. Wir sollten also Ablenkungen vermeiden, damit sich starke Erinnerungen durch intensiv erlebte Momente überhaupt erst bilden können und Fotos bewusst aufnehmen, um unser Gedächtnis zu unterstützen.
Die Antwort kommt von Dr. Anni Richter, Postdoc am Leibniz-Institut für Neurobiologie (LIN) in Magdeburg.
International befürchten einige Forscherinnen und Forscher [1, 2], dass die Suizidraten steigen. Große, aussagekräftige Studien auf internationaler Ebene fehlen hierzu aktuell noch (Anm.: Stand Dezember 2021). In Deutschland dokumentiert jedoch das statistische Bundesamt etwa seit 1980 jährlich die Anzahl der durchgeführten Suizide in Deutschland [3]. Hier ist erfreulicherweise eine rückläufige Tendenz festzustellen: Während sich im Jahr 1980 noch 23,6 Personen pro 100.000 Einwohner das Leben genommen haben, lag dieser Anteil zwischen 2015 und 2019 zwischen 11,6 und 10,9 und hat sich damit mehr als halbiert. Im Jahr 2020 lag der Anteil bei etwa 11,1 und ist damit vergleichbar zu den letzten Jahren. Für das Jahr 2021 liegen noch keine abschließenden Zahlen vor. Ein Anstieg der Suizide ist in Deutschland bislang also nicht zu beobachten.
Quellen:
1. Banerjee D, Kosagisharaf JR, Sathyanarayana Rao TS. 'The dual pandemic' of suicide and COVID-19: A biopsychosocial narrative of risks and prevention. Psychiatry Res. 2021; 295:113577. doi.org/10.1016/j.psychres.2020.113577
2. Gunnell D, Appleby L, Arensman E, Hawton K, John A, Kapur N, Khan M, O'Connor RC, Pirkis J; COVID-19 Suicide Prevention Research Collaboration. Suicide risk and prevention during the COVID-19 pandemic. Lancet Psychiatry. 2020; 7(6):468-471. doi.org/10.1016/S2215-0366(20)30171-1
3.Statistisches Bundesamt. 2021.
https://www-genesis.destatis.de/genesi/online?sequenz=tabelleErgebnis selectionname=23211-0002&sachmerkmal=TODUR1 sachschluessel=TODESURS78startjahr=1980#abreadcrumbDie Antwort stammt von Markus Müssig (Referent) und Dr. Isabelle Helmreich (Wissenschaftliche Leitung) vom Bereich Resilienz & Gesellschaftam Leibniz-Institut für Resilienz-forschung (LIR) in Mainz.
In Deutschland sind jedes Jahr etwa 18 Millionen Erwachsene (knapp 27 Prozent aller Erwachsenen) von psychischen Erkrankungen betroffen. Am häufigsten werden dabei sogenannte Angststörungen diagnostiziert, gefolgt von affektiven Störungen (vorwiegend Depressionen) und Suchterkrankungen [1].
Die Frage, welche Veränderungen sich seit Beginn der SARS-CoV-2-Pandemie ergeben haben, ist allerdings schwierig zu beantworten, da groß angelegte epidemiologische Studien dazu noch fehlen (Anm.: Stand Dezember 2021). Konkrete Hinweise gibt es darauf, dass es eine bidirektionale Assoziation zwischen einer COVID-19 Erkrankung und psychischen Erkrankung gibt: Eine eigene COVID-19 Erkrankung scheint mit einem erhöhten Risiko verbunden zu sein, eine psychische Störung zu entwickeln und zugleich scheinen auch Menschen mit bestehenden psychischen Vorerkrankungen eher an COVID-19 zu erkranken [2]. Darüber hinaus berichten Menschen mit depressiven Vorerkrankungen seit Pandemiebeginn tendenziell über eine Verschlechterung der Symptome [3]. Der Konsum von Suchtmitteln scheint ebenfalls bei Erwachsenen gestiegen zu sein [4]. Zudem zeigen die Ergebnisse von Meta-Analysen einen Anstieg einzelner Symptome v. a. im Bereich der Angststörungen und der affektiven Störungen [5]. Während also noch unklar ist, ob es insgesamt eine Zunahme an psychischen Störungen durch die Pandemie gibt, beschreiben viele Studien einen Anstieg in einigen Symptomen psychischer Erkrankungen (insbesondere Ängstlichkeit und Depressivität), weshalb viele Expertinnen und Experten von einem perspektivischen Anstieg psychischer Erkrankungen ausgehen. Das lässt sich jedoch noch nicht mit Gewissheit sagen.
Allerdings sind Menschen in verschiedenen Ländern und in verschiedenen Umständen auch verschieden stark von Einschränkungen durch die Pandemie getroffen und unterscheiden sich in ihrem Umgang mit Belastungen, also in ihrer Resilienz. Eine Langzeitstudie in Deutschland ergab beispielsweise, dass sich die psychische Gesundheit von etwa 83% der befragten Personen während der Pandemie nicht verändert oder sogar verbessert hat [6]. Eine spannende Frage ist also, welche Menschen besonders stark oder besonders wenig unter der SARS-CoV-2-Pandemie leiden.
Hierzu gibt es zahlreiche Berichte über bekannte Risikofaktoren für die Entstehung psychischer Störungen, beispielsweise allgemeine psychische Belastungen und Stresserleben. Menschen, die eine gestiegene psychische Belastung während der Pandemie berichten, sind beispielsweise auffallend häufig weiblich [5, 6], jung [7], haben bekannte psychische Vorerkrankungen [5] oder arbeiten in besonders betroffenen Arbeitsbereichen wie dem Gesundheitswesen [8]. Viele berichten von starken Einschnitten in der gewohnten Tagesstruktur [9]. Hohes Alter, ein hoher sozioökonomischer Status und die Nutzung verschiedener Stressbewältigungsstrategien wie Neubewertung [10] und soziale Interaktion zeigen sich dahingegen häufig als protektive Faktoren [5]. Einige Organisationen wie die DGPPN (https://www.dgppn.de/presse/pressemitteilungen/pressemitteilungen-2020/corona-psyche.html), die WHO (https://www.who.int/docs/default-source/coronaviruse/mental-health-considerations.pdf) , Mental Health Europe (https://www.mhe-sme.org/covid-19/) oder das Leibniz-Institut für Resilienzforschung (LIR) (https://lir-mainz.de/assets/downloads/10-wichtigste-Empfehlungen_Resilienter-Umgang_Corona_Pandemie.pdf) haben als Reaktion darauf Tipps und Empfehlungen zusammengestellt, wie man in der Pandemie gut für sich sorgen kann.
Quellen:
1. Jacobi F, Höfler M, Strehle J et al. Psychische Störungen in der Allgemeinbevölkerung: Studie zur Gesundheit Erwachsener in Deutschland und ihr Zusatzmodul Psychische Gesundheit (DEGS1-MH). Nervenarzt 2014; 85:77–87. doi.org/0.1007/s00115-013-3961-y
2. Taquet M, Luciano S, Geddes JR, Harrison PJ. Bidirectional associations between COVID-19 and psychiatric disorder: retrospective cohort studies of 62 354 COVID-19 cases in the USA. Lancet Psychiatry 2021; 8(2):130-140. doi.org/10.1016/S2215-0366(20)30462-4
3. Deutsche Depressionshilfe. Deutschland Barometer Depression. 2021. https://www.deutsche-depressionshilfe.de/forschungszentrum/deutschland-barometer-depression
4. Koopmann A, Georgiadou E, Reinhard I, Müller A, Lemenager T, Kiefer F, Hillemacher T. The Effects of the Lockdown during the COVID-19 Pandemic on Alcohol and Tobacco Consumption Behavior in Germany. Eur Addict Res. 2021; 27(4):242-256. doi.org/10.1159/000515438
5. Kunzler AM, Röthke N, Günthner L, Stoffers-Winterling J, Tüscher O, Coenen M, Rehfuess E, Schwarzer G, Binder H, Schmucker C, Meerpohl JJ, Lieb K. Mental burden and its risk and protective factors during the early phase of the SARS-CoV-2 pandemic: systematic review and meta-analyses. Global Health 2021; 17(1):34. doi.org/10.1186/s12992-021-00670-y
6. Ahrens KF, Neumann RJ, Kollmann B, Plichta MM, Lieb K, Tüscher O, Reif A. Differential impact of COVID-related lockdown on mental health in Germany. World Psychiatry 2021; 20(1):140-141. doi.org/10.1002/wps.20830
7. Gilan D, Röthke N, Blessin M, Kunzler A, Stoffers-Winterling J, Müssig M, Yuen KSL, Tüscher O, Thrul J, Kreuter F, Sprengholz P, Betsch C, Stieglitz RD, Lieb K. Psychomorbidity, Resilience, and Exacerbating and Protective Factors During the SARS-CoV-2 Pandemic. Dtsch Arztebl Int. 2020; 117(38):625-630. doi.org/10.3238/arztebl.2020.0625
8. Kramer V, Papazova I, Thoma A, Kunz M, Falkai P, Schneider-Axmann T, Hierundar A, Wagner E, Hasan A. Subjective burden and perspectives of German healthcare workers during the COVID-19 pandemic. Eur Arch Psychiatry Clin Neurosci. 2021; 271(2):271-281. doi.org/10.1007/s00406-020-01183-2
9. Ammar A, Brach M, Trabelsi K, Chtourou H, Boukhris O, Masmoudi L, Bouaziz B, Bentlage E, How D, Ahmed M, Müller P, Müller N, Aloui A, Hammouda O, Paineiras-Domingos LL, Braakman-Jansen A, Wrede C, Bastoni S, Pernambuco CS, Mataruna L, Taheri M, Irandoust K, Khacharem A, Bragazzi NL, Chamari K, Glenn JM, Bott NT, Gargouri F, Chaari L, Batatia H, Ali GM, Abdelkarim O, Jarraya M, Abed KE, Souissi N, Van Gemert-Pijnen L, Riemann BL, Riemann L, Moalla W, Gómez-Raja J, Epstein M, Sanderman R, Schulz SV, Jerg A, Al-Horani R, Mansi T, Jmail M, Barbosa F, Ferreira-Santos F, Šimunič B, Pišot R, Gaggioli A, Bailey SJ, Steinacker JM, Driss T, Hoekelmann A. Effects of COVID-19 Home Confinement on Eating Behaviour and Physical Activity: Results of the ECLB-COVID19 International Online Survey. Nutrients 2020; 12(6):1583. doi.org/10.3390/nu12061583
10. Gilan D, Müssig M, Hahad O, Kunzler AM, Samstag S, Röthke N, Thrul J, Kreuter F, Bosnjak M, Sprengholz P, Betsch C, Wollschläger D, Tüscher O, Lieb K. Protective and Risk Factors for Mental Distress and Its Impact on Health-Protective Behaviors during the SARS-CoV-2 Pandemic between March 2020 and March 2021 in Germany. Int J Environ Res Public Health 2021; 18(17):9167. doi.org/0.3390/ijerph18179167
Die Antwort stammt von Markus Müssig (Referent) und Dr. Isabelle Helmreich (Wissenschaftliche Leitung) vom Bereich Resilienz & Gesellschaftam Leibniz-Institut für Resilienzforschung (LIR) in Mainz.
In der Tat wird in der gegenwärtigen Diskussion (Anm.: Dezember 2021) um Impfungen gegen SARS-CoV-2 häufig übersehen, dass unser Immunsystem auf Krankheitserreger und Impfstoffe in zwei Phasen reagiert, der eigentlichen Immunreaktion und dann dem immunologischen Gedächtnis (Referenz 1).
In der ersten Phase, der Immunreaktion, werden die Immunzellen aktiviert und sie vermehren sich. Es werden viele Antikörper gebildet. Sind die Krankheitserreger oder Impfstoffe beseitigt, klingt die Immunreaktion ab, auch die Menge an Antikörpern nimmt etwas ab. Doch das Immunsystem hat jetzt ein Gedächtnis aus langlebigen Immunzellen gebildet. Die Immunzellen, die schützende Antikörper ins Blut sezernieren, überleben im Knochenmark für Jahrzehnte. Sie heißen Plasmazellen. Man nennt das auch „humorales" Immungedächtnis, Antikörper, die unsere Schleimhäute und über das Blut den ganzen Körper schützen. Auch andere Zellen des immunologischen Gedächtnisses, die Gedächtnis-Lymphozyten, überleben über Jahrzehnte, in der Milz, den Lymphknoten, in Darm und Lunge und im Knochenmark. Bei erneutem Kontakt mit dem Krankheitserreger werden sie schnell aktiviert und reagieren heftig, wenn ein Impfstoff oder Krankheitserreger doch einmal die Antikörperbarriere überwindet.Sie bilden das reaktive immunologische Gedächtnis, eine wirkungsvolle zweite Verteidigungslinie des immunologischen Gedächtnisses.
Bei Menschen, die mit SARS-CoV-2 infiziert waren und bei solchen, die mit den neuartigen mRNA-Impfstoffen geimpft wurden, hat man 6 Monate danach tatsächlich die SARS-CoV-2-spezifischen Antikörper-sezernierenden Plasmazellen im Knochenmark nachgewiesen. Und zwar ungefähr so viele, wie es sie dort auch gegen Tetanus gibt (Referenz 2). Ein untrügliches Indiz, dass sowohl die Infektion mit SARS-CoV-2 als auch die Impfung ein beeindruckendes immunologisches Gedächtnis induzieren. Von SARS-CoV, dem Vorläufer von SARS-CoV-2, der 2003 kursierte, wissen wir, dass dieses Gedächtnis unvermindert über bisher 17 Jahre erhalten bleibt. Das Immungedächtnis gegen SARS-CoV-2 schützt uns wirkungsvoll davor, bei einer Infektion schwer zu erkranken. Soweit man das bisher gut verfolgen kann, über die ersten sechs Monate nach Impfung oder Infektion, bleibt dieser Schutz zuverlässig bei über 95% (Referenz 3). Und es ist wahrscheinlich so, dass die wenigen, die dennoch schwer erkranken, die sogenannten „Impfdurchbrüche“, Pechvögel sind, deren Immunsysten „defekt“ ist und kein zuverlässiges Immungedächtnis aufgebaut hat.
1.) Radbruch A und Chang H.-D., A longterm perspective on immunity to COVID, Nature, 2021, https://doi.org/10.1038/d41586-021-01557-z
2.) Kim et al.,Germinal centre-driven maturation of B cell response to SARS-CoV-2 vaccination, BioRxiv 2021, doi: https://doi.org/10.1101/2021.10.31.4666513.) Thomas et al. Safety and Efficacy of the BNT162b2 mRNA
Covid-19 Vaccine through 6 Months, NEJM, https://doi.org/10.1056/NEJMoa2110345
Die Antwort kommt von Prof. Dr. Andreas Radbruch, Wissenschaftlicher Direktor des Deutschen Rheuma-Forschungszentrums Berlin (DRFZ), eines Leibniz Instituts, und Präsident der Europäischen Föderation Immunologischer Fachgesellschaften (EFIS).
Ein Lebendimpfstoff ist ein vermehrungsfähiger abgeschwächter Erreger, wie z.B. der Masernimpfstoff. Einen Lebendimpfstoff gibt es bisher gegen SARS-CoV-2 nicht. Totimpfstoffe sind abgetötete Erreger, wie z.B. der Impfstoff gegen die Tollwut. Ein Totimpfstoff gegen das Coronavirus ist Sinovac aus China, der nicht in Deutschland zugelassen ist. Der Totimpfstoff VLA2001 der französischen Firma Valneva wird im Moment von der EMA im beschleunigten Verfahren geprüft und könnte noch am Anfang dieses Jahres in der EU zugelassen werden.
Im Gegensatz zu Lebend- oder Totimpfstoffen, die aus vollständigen Erregern bestehen, basieren die bisher in Deutschland verfügbaren Impfstoffe gegen SARS-CoV-2, z.B. die RNA Impfstoffe von BioNTech oder Moderna und der Vektorimpfstoff von Astra Zeneca, ausschließlich auf dem Gen für das Spikeprotein des Erregers. Diese Impfstoffe lassen die Körperzellen das Erregerprotein selbst produzieren. Diese Impfstoffe sind die einzigen bisher zugelassenen Impfstoffe ihrer Art basierend auf diesen Technologien.
Für Impfstoffe mit gentechnisch hergestelltem rekombinantem Protein, die zusammen mit einem immunstimulierenden Adjuvant gegeben werden müssen, wie der Impfstoff des US-amerikanischen Unternehmens Novavax, wurde Ende Dezember 2021 eine bedingte Zulassung für die EU erteilt. Sicher ist dies ein guter Boosterimpfstoff. Ob er für die Erstimpfung so effektiv wie der RNA Impfstoff sein wird, muss sich meines Erachtens noch zeigen.
Ergänzende Antwort:
Alle in der EU zugelassenen Corona-Impfstoffe sind Totimpfstoffe. Worauf die Frage aber wahrscheinlich abzielt sind Impfstoffe, die auf Technologien beruhen, die auch bereits in der Vergangenheit eingesetzt worden sind.
Da sind aktuell zwei Impfstoffe in der EU:
1. Novavax: Hier wird das Spike Protein rekombinant im Labor hergestellt, und dann als Impfstoff verabreicht. Solche Proteinimpfstoffe gibt es bereits bei HepatitisB und anderen Impfungen. Novavax hat Ende des Jahres eine bedingte Zulassung in der EU bekommen. In diesem Jahr könnte es daher mit Novovax-Impfungen losgehen.
2. Valneva: Hier wird das Corona Virus im Labor vermehrt, abgetötet und dann als Impfstoff verabreicht. Ähnlich zu dem, was wir vom Grippeimpfstoff kennen. Valneva hat aber noch keinen Antrag auf Zulassung bei der EMA gestellt und hat erste Lieferungen für die EU auch erst im 2. Quartal 2022 angekündigt.
Es gibt ähnliche Impfstoffe aus China (Sinopharm, Sinovac), die auch bei der EMA im Zulassungsverfahren sind. Wann hier mit einer Zulassung zu rechnen ist, ist noch unklar. Man muss aber auch sagen, dass gerade diese Impfstoffe gegen Omikron nicht so gut schützen und auch angepasst werden müssen.
(Anm.: Stand Januar 2022)
Die Antworten kommen von Prof. Dr. Ulrich Schaible, Zentrumsdirektor am Forschungszentrum Borstel, Leibniz Lungenzentrum (FZB) (Antwort 1), und Prof. Carsten Watzl, Leiter des Forschungsbereichs Immunologie am Leibniz-Institut für Arbeitsforschung an der TU Dortmund (IfADo) (Antwort 2).
Kurze Antwort:
Nein. Es ist sehr zweifelhaft, dass eine ketogene Ernährung langfristig gesünder ist als eine vorwiegend pflanzenbasierte Mischkost und höchstwahrscheinlich ist sie auch unter Umweltaspekten weniger nachhaltig.
Erklärung:
Eine ketogene Ernährung zeichnet sich durch einen extrem geringen Gehalt an Kohlenhydraten (Zucker und Stärke), mäßigem Proteingehalt und hohem Fettanteil der Lebensmittel aus. Das resultiert in einer ketogenen Stoffwechsellage, wie sie auch beim Fasten entsteht. Durch den Mangel an Traubenzucker (Glukose) als Energielieferant stellt sich der Körper auf die Produktion von sogenannten Ketonkörpern um, die aus Fettsäuren gebildet werden und z.B. dem Hirn als Energiequelle dienen können. Eine ketogene Ernährung kann bei Epilepsie und anderen neurologischen Erkrankungen hilfreich sein, vermutlich auch bei Krebserkrankungen, Diabetes und Herz-Kreislauf-Erkrankungen. In letzter Zeit wird eine ketogene Ernährung auch als Diät zum Abnehmen vermehrt diskutiert, da sie durchaus kurzfristige Erfolge erzielt.
Das Problem bei einer ketogenen Ernährung ist die starke Reduktion und Reglementierung der Nahrungsauswahl durch den weitgehenden Verzicht auf Kohlenhydrate, die eigentlich die Basis einer normalen Ernährung bilden. So sind maximal 20-50 Gramm am Tag erlaubt statt der von der Deutschen Gesellschaft für Ernährung (DGE) empfohlenen 250 Gramm. Es dürfen weder stärkehaltige Gemüse noch Getreideprodukte und Hülsenfrüchte verzehrt werden. Kartoffeln, Mais, Möhren, Brot, Müsli, Nudeln und Reis sind also tabu. Auch zuckerhaltiges Obst - also fast alle Früchte bis auf kleine Mengen von Beeren und Zitrusfrüchten - und natürlich Süßigkeiten sind nicht erlaubt. Selbst Milchprodukte kann man nur in geringen Mengen verzehren, da sie Milchzucker (Laktose) enthalten. Die Nahrungsauswahl ist also extrem eingeschränkt, unbegrenzt essen darf man nur Fleisch jeglicher Art, Eier, Nüsse und Samen, pflanzliche Öle und kohlenhydratarmes Gemüse wie beispielsweise Salat, Gurken, Spinat oder Tomaten. Das macht es sehr schwierig, eine solche Ernährungsform über längere Zeit durchzuhalten. Zudem fehlen Langzeitstudien über die gesundheitlichen Konsequenzen einer konsequenten ketogenen Ernährung. Die Gefahr eines Mangels an Vitaminen und Ballaststoffen ist erheblich und es kann auch zu Störungen im Fettstoffwechsel kommen. Eine dauerhafte ketogene Ernährungsweise für gesunde Menschen wird daher von Ernährungsexperten nicht empfohlen.
Unter Umwelt- und Nachhaltigkeitsaspekten wäre eine globale Umstellung auf eine ketogene Ernährung schwer möglich und sogar kontraproduktiv. Der hohe Anteil an tierischen, fettreichen Produkten wäre schwierig durch vegetarische Produkte zu ersetzen. Verboten wären z. B. Hülsenfrüchte, deren Anbau sehr nachhaltig ist und die reich an wertvollen pflanzlichen Proteinen, wichtigen Mineralstoffen und Ballaststoffen sind. Ebenso verboten wären auch die meisten Obst- und Gemüsesorten, die neben Stärke als Energieträger auch wichtige Vitamine und pflanzliche Polyphenole mit positiven gesundheitlichen Effekten enthalten. Für Klima und Umwelt ist es wichtig, den globalen Fleischkonsum zu reduzieren. Eine pflanzenbasierte ketogene Ernährungsweise für breite Bevölkerungsgruppen wäre schwer zu realisieren, gesundheitlich bedenklich und hätte eine geringe Konsumentenakzeptanz.
Die Antwort stammt von Prof. Dr. Susanne Klaus, Leiterin der Abteilung Physiologie des Energiestoffwechsels am Deutschen Institut für Ernährungsforschung Potsdam-Rehbrücke (DIfE).
Tatsächlich ist die Frage sehr berechtigt, denn mittlerweile stehen viele sehr gute Therapieoptionen zur Behandlung (auto-) immunvermittelter entzündlicher Erkrankungen bereit. Doch leider ist es bei der Psoriasis ähnlich wie bei den entzündlich-rheumatischen Erkrankungen, dass wir zwar gut behandeln können, dass eine Heilung aber bislang noch nicht möglich ist.
Nachdem, zumindest in der Rheumatologie, als Therapieziel mittlerweile die 'Remission' oder zumindest 'geringe Krankheitsaktivität' gefordert wird, ist man jetzt auch einen Schritt weitergegangen und versucht bei länger anhaltender Remission unter Therapie, diese abzusetzen und den erreichten Status zu erhalten (therapiefreie Remission). Dies wird aber nur in den seltensten Fällen über einen längeren Zeitraum erreicht.
In 'unserem' Bereich (der vorwiegend die Gelenke betrifft) ist selbst die 'schwellende' Entzündung nicht gewünscht, da sie zur Gelenkzerstörung führt weshalb man versucht, sie zu vermeiden. Wie es bei der 'reinen' Psoriasis (ohne Gelenkbeteiligung) gehandhabt wird, kann ich nicht sagen. Möglicherweise können hier längere therapiefreie Phasen erreicht werden, wenn ein geringer Grad 'Restentzündung' toleriert werden kann. Es ist dann aber trotzdem keine Heilung.
Weitere Informationen finden Sie auf der Webseite des Deutschen Psoriasis Bund e.V. - dies ist eine sehr schöne Webseite mit guten und weiterführenden laienverständlichen Informationen.
Die Antwort stammt von PD Dr. med. Anja Strangfeld, Gruppenleiterin der AG Pharmakoepidemiologie am Deutschen Rheuma-Forschungszentrum Berlin (DRFZ), einem Institut der Leibniz-Gemeinschaft.
Garantiert nicht!
Eine sexuelle Fortpflanzung wird von fast allen Lebewesen durchgeführt und das ist eigentlich ja sehr erstaunlich. Für eine sexuelle Fortpflanzung müssen sich zwei Individuen treffen, es müssen sehr komplizierte physiologisch Vorgänge in einem eng definierten Zeitfenster durchgeführt werden und am Ende hat man ein neues Individuum (beim Menschen ein Baby) und dieses muss sich jetzt auch erstmal in der Welt zurechtfinden und hier bestehen. Dennoch beschreiten alle höheren Lebewesen diesen Weg und das wird sich auch nicht ändern.
Mittlerweile kann man einzelne Schritte außerhalb des Organismus (z.B. des Menschen) durchführen. Man kann z.B. eine künstliche Befruchtung „im Reagenzglas“ durchführen und dann den wachsenden Embryo in den Uterus einer Frau einbringen und dort wachsen lassen. Nun mag man argumentieren, dass man dazu ja nur die Frau benötigt. Das vernachlässigt allerdings, dass man bereits für den ersten Schritt der Befruchtung ein männliches und ein weibliches Genom benötigt. Also, egal wie rum man es dreht: Für eine erfolgreiche Reproduktion bracht man zwei Individuen und die eine muss weiblich und der zweite muss männlich sein.Die Antwort stammt von Joachim Weitzel, Abteilungsleiter Reproduktionsbiochemie am Leibniz-Institut für Nutztierbiologie (FBN) Dummerstorf im Institut für Fortpflanzungsbiologie. Das FBN war bis 2020 Mitglied der Leibniz-Gemeinschaft.
Die einfachste und kürzeste Antwort auf die Frage, ob geschädigte Nervenbahnen wieder heilen können, lautet wohl “Kommt darauf an”. Daher fangen wir am besten ganz vorne an und schauen, unter welchen Umständen Nerven wieder heilen müssten.
Eine Ursache ist beispielsweise eine Verletzung, die wir uns zugezogen haben. Schneiden wir uns mit dem Brotmesser in den Finger, werden neben Blutgefäßen auch Nervenbahnen verletzt. Diese vergleichsweise kleinen Verletzungen heilen in der Regel vollkommen problemlos von alleine – der Finger kann also am Ende der Wundheilung genau wie vorher funktionieren. Bei vielen Beeinträchtigungen oder Unregelmäßigkeiten ist der Körper in der Lage, diese bis zu einem gewissen Punkt selbst auszugleichen. Anders sieht es zum Beispiel bei schweren Unfällen oder angeborenen Schäden des Nervensystems aus, bei denen die Funktion so stark beeinträchtigt ist, dass (Selbst-)Heilung bislang nicht möglich ist.
Am DWI – Leibniz-Institut für Interaktive Materialien untersuchen wir unter anderem genau diese Frage: Wie können wir beschädigte Nerven dazu bringen, wieder zu wachsen und zu funktionieren, sodass betroffene Menschen trotz Verletzung wieder ihren Körper bewegen könnten? Um dem nachzugehen, haben wir ein Gel mit sehr speziellen Eigenschaften entwickelt, welche Nervenzellen zu Wachstum anregen können: das Anisogel.
Anisogel besteht aus zwei Gelkomponenten: Dies sind zunächst viele weiche und mikroskopisch-kleine Gel-Stäbchen. Diese Stäbchen wiederum enthalten geringe Mengen von magnetischen Partikeln, welche sich mithilfe eines magnetischen Feldes nach einer bestimmten Orientierung ausrichten lassen. Unsere Wissenschaftler und Wissenschaftlerinnen fixieren dann die Gelstäbchen, damit sie an Ort und Stelle bleiben, auch wenn das Magnetfeld entfernt wird. Dies schaffen sie, indem sie es in einer umliegenden, besonders weichen Struktur vernetzen (Gelmatrix). So bilden die Gelstäbchen gleichzeitig eine Art stützendes Leitsystem. Experimente zeigen, dass Nervenzellen und Bindegewebszellen problemlos durch die Gelmatrix hindurch wachsen und sich bewegen können. Dabei orientieren sie sich entlang der gebildeten Pfade. Betrachtet man das Gesamtvolumen des Anisogels, löst bereits ein Gelstäbchen-Anteil von einem Prozent dieses gerichtete Wachstum der Nervenzellen aus.
Zwar sind die bisherigen Ergebnisse vielversprechend, doch ist für uns noch ein weiter Weg zu gehen, damit das Anisogel in der Medizin Anwendung finden kann. Dazu gehört unter anderem die Weiterentwicklung des Anisogels: Wenn wir die Idee auf den Menschen übertragen, würde ein Patient oder eine Patientin das Gel nach einer Verletzung in das Rückenmark injiziert bekommen. Da dies alleine aber nicht ausreicht, um die Nervenzellen wachsen zu lassen, muss es unter anderem sogenannte Wachstumsfaktoren enthalten. Wachstumsfaktoren sind, wie der Name verrät, für das Wachstum der Nervenzellen notwendig beziehungsweise unverzichtbar. Grundsätzlich können wir die Wachstumsfaktoren unter das Gel mischen, allerdings brauchen die Zellen zu unterschiedlichen Zeitpunkten verschiedene dieser Faktoren. Ihre Freisetzung zu einem bestimmten Zeitpunkt zu bewerkstelligen, ist daher eine der vielen Herausforderungen für die Zukunft. Diese Weiterentwicklung und die Kombination des Anisogels mit anderen Therapiemethoden wie Zelltransplantation ist ein künftiger Schritt, um es weiter zu optimieren.
Die Antwort stammt von Laura De Laporte, Professorin am DWI – Leibniz-Institut für Interaktive Materialien und am Institut für Technische und Makromolekulare Chemie der RWTH Aachen University.
Referenzen:
Rose JC, Cámara-Torres M, Rahimi K, Köhler J, Möller M, De Laporte L. Nerve Cells Decide to Orient inside an Injectable Hydrogel with Minimal Structural Guidance. Nano Lett. 2017 Jun 14;17(6):3782-3791.
Omidinia-Anarkoli A, Boesveld S, Tuvshindorj U, Rose JC, Haraszti T, De Laporte L. An Injectable Hybrid Hydrogel with Oriented Short Fibers Induces Unidirectional Growth of Functional Nerve Cells. Small. 2017 Sep;13(36).
Die biologisch maximale Lebenserwartung des Menschen liegt bei ca. 120 Jahren. Andere Arten erreichen hier völlig unterschiedliche Werte. So werden Schimpansen z.B. maximal 50 Jahre alt, Hunde und Katzen höchsten 35, Elefanten etwa 70 und Riesenschildkröten ca. 150 Jahre alt.
Interessant für die Alternsforschung sind immer Arten, die eine besonders lange oder eine besonders kurze Lebensspanne haben. Nacktmulle z.B. können bis zu 30 Jahre alt werden, während die etwa gleich großen Mäuse spätestens nach 4 Jahren sterben. Zudem entwickeln Nacktmulle keine Alterskrankheiten wie Krebs oder Demenz. Wie machen sie dieses? Eine sehr spannende Frage in der Alternsforschung. Der Türkisprachtgrundkärpfling hingegen, ein Fisch aus Ostafrika, bringt es auf nur 2 bis 3 Monaten. In dieser Zeit schlüpft er, wächst, wird geschlechtsreif, pflanzt sich fort und stirbt schließlich. Türkise Prachtgrundkärpflinge leben in temporären Gewässern und müssen daher den gesamten Lebenszyklus in extrem kurzer Zeit durchlaufen. „Ist dieses Muster auch genetisch fixiert?“ fragen sich daher die Alternsforscher.
Die Antwort stammt von Astrid van der Wall, Koordinatorin des Leibniz-Forschungsverbundes Gesundes Altern am Leibniz-Institut für Alternsforschung – Fritz-Lipmann-Institut (FLI).
Wie wohl fast alle Lebewesen hatten auch Neandertaler chronische Entzündungen. Neandertaler zählen zu den best-untersuchten Vertretern unserer langen menschlichen Stammesgeschichte. Über manchen Neandertaler existieren regelrechte „Krankenakten“. Neben Knochenbrüchen sind dabei arthritische Befunde besonders häufig nachgewiesen: Knochenwucherungen legen auch chronische Entzündungen nahe. Mitunter waren betroffene Gelenke nur sehr eingeschränkt beweglich, und sicherlich litten die Erkrankten auch unter erheblichen Schmerzen. Wahrscheinlich wussten die Neandertaler aber nicht nur von der schmerzlindernden, sondern auch von der entzündungshemmenden Wirkung bestimmter Pflanzen.
Bei manchen Individuen bezeugt ein fortgeschrittener Knochenrückgang in den Zahnhöhlen Abszesse und frühe Formen der Parodontitis. Fossiler Zahnstein mit darin enthaltenden Essensresten belegt eine eingeschränkte Mundhygiene, die die Hauptursache von Entzündungen im Mundraum gewesen ist. Entsprechende Befunde reichen weit in der Stammesgeschichte des Menschen zurück.
Ebenso alt wie die Erkrankungen ist aber auch die Krankenpflege. Wir gehen davon aus, dass sich Menschen bereits vor 1,8 Millionen Jahren um Erkrankte kümmerten, sie pflegten und fütterten. Besonders deutlich sind entsprechende Befunde aber für die Zeit des Neandertalers: Geleitet durch Empathie und Fürsorge entwickelten Neandertaler ein ausgeprägtes soziales Miteinander. Dank der Hilfe und Zuwendung anderer haben einzelne Individuen selbst schwere Erkrankungen und Traumata überlebt. Wir haben sogar Indizien, die auf chirurgische Eingriffe (Amputation) schließen lassen. Angesichts solcher Befunde wundert es dann auch kaum mehr, dass Neandertaler im Durchschnitt deutlich älter wurden als frühere Vertreter unserer menschlichen Ahnenreihe.
Die Antwort stammt von Olaf Jöris und Lutz Kindler. Beide sind wissenschaftliche Mitarbeiter am Römisch-Germanischen Zentralmuseum (RGZM), Leibniz-Forschungsinstitut für Archäologie und in dessen Archäologischen Forschungszentrum und Museum für Menschliche Verhaltensevolution MONREPOS tätig.
Feinstaub ist eine Mischung aus sehr kleinen festen und flüssigen Teilchen, sogenannten Partikeln, die in der Luft verteilt sind. Sie haben einen Durchmesser von weniger als 10 Mikrometern, was einem Hundertstel Millimeter entspricht. Obwohl sie mit bloßem Auge nicht erkennbar sind, kann man sie bei bestimmten Wetterlagen als eine Art Dunstglocke wahrnehmen.
Die Zusammensetzung von Feinstaub variiert in Abhängigkeit vom Standort. So können zum Beispiel Schwermetalle oder krebserregende polyzyklische aromatische Kohlenwasserstoffe enthalten sein. Feinstaub kann aus natürlichen Quellen stammen, z.B. Bodenerosion und Saharasandstaub, oder durch den Menschen verursacht werden, z.B. durch Verbrennungsprozesse in Industrie, Automotoren und beim Heizen oder Abrieb im Verkehr. Wenn Feinstaub einer direkten Quelle zugeordnet werden kann, wird er als primärer Feinstaub bezeichnet. Entsteht er erst durch chemische Prozesse in der Atmosphäre, handelt es sich um sekundären Feinstaub. Dazu trägt insbesondere die Tierhaltung in der Landwirtschaft mit der Freisetzung von Ammoniak bei.
Für die Untersuchung von gesundheitlichen Auswirkungen wird Feinstaub in Abhängigkeit von seiner Größe in folgende Gruppen eingeteilt: PM10 mit einem Durchmesser von weniger als 10 Mikrometern, PM2,5 mit einem Durchmesser von weniger als 2,5 Mikrometern und die ultrafeinen Partikel mit einem Durchmesser von weniger als 0,1 Mikrometern. Dabei steht PM als Abkürzung für den englischen Begriff für Feinstaub, „particulate matter“. Je kleiner die Partikel sind, desto tiefer können sie in die Lunge eindringen und desto größer ist das Risiko für negative Auswirkungen auf die Gesundheit. In der Lunge kann es zu entzündlichen Veränderungen kommen, die sich darüber hinaus auch negativ auf andere Organe wie das Herz-Kreislauf-System auswirken können. Zudem können ultrafeine Partikel über die Lungenbläschen, in denen der Austausch zwischen Luft und Blutkreislauf stattfindet, bis in die Blutbahn gelangen und von dort aus weiter im Körper verteilt werden.
Grenzwerte dienen dazu, das Gesundheitsrisiko zu minimieren. Allerdings gibt es keinen Schwellenwert für gesundheitsschädliche Auswirkungen von Feinstaub, sodass auch unterhalb der aktuellen Grenzwerte negative Effekte auftreten können. Ob jemand gesundheitliche Probleme von Feinstaub bekommt, ist von vielen individuellen Faktoren abhängig und lässt sich pauschal nicht sagen. Besonders anfällig sind Menschen mit Vorerkrankungen, Kinder und Senioren. Da wir unser Leben lang Luft atmen, sollten wir diese so sauber wie möglich halten.
Die Antwort stammt von Tamara Schikowski, Leiterin der Arbeitsgruppe Umweltepidemiologie von Lunge, Gehirn und Hautalterung am IUF – Leibniz-Institut für Umweltmedizinische Forschung und Christiane Klasen, Referentin des Institutsdirektors.
Quellen:
WHO Regional Office for Europe: Health effects of particulate matter. Dänemark, 2013. ISBN 978-92-890-0001-7
Webseite des Umweltbundesamtes, abgerufen am 15.03.2019: https://www.umweltbundesamt.de/themen/luft/luftschadstoffe/feinstaub
Bewusstsein ist ein komplexes Phänomen und dementsprechend gibt es vielfältige Konzepte aus verschiedenen Fachgebieten, beispielsweise der Philosophie, der Medizin und der Psychologie, die sich mit dem Thema beschäftigt haben. Man kann grob qualitative von quantitativen Bewusstseinsveränderungen unterscheiden.
Quantitative Bewusstseinsveränderungen umfassen Zustände von vollständiger Wachheit bis zum Tiefschlaf, oder in pathologischen Fällen von abnormer Schläfrigkeit bis zum Koma, die mit einer graduellen Verminderung des Bewusstseins verbunden sind. Qualitativ ist das Bewusstsein dadurch charakterisiert, dass wir uns selbst von der Umwelt abgrenzen können, d.h. wir sind uns bewusst, welche Wahrnehmungen auf Vorgängen in der Umwelt beruhen und welche ausschließlich von unserem Gehirn generiert werden. Man spricht hier von sekundärem Bewusstsein. Beim sogenannten primären Bewusstsein gelingt diese Unterscheidung nicht, das ist beispielsweise bei Trugwahrnehmungen/Halluzinationen der Fall, aber auch im Traumerleben, wo uns im allgemeinen Träume als real erscheinen, obwohl sie keine Entsprechung in der Außenwelt haben.
Die Antwort stammt von Michael Nitsche, Leiter des Forschungsbereichs Psychologie und Neurowissenschaften am Leibniz-Institut für Arbeitsforschung an der TU Dortmund (ifADo).
Eine weitere Antwort stammt von Stefan Dürschmid vom Leibniz-Institut für Neurobiologie (LIN):
Bewusstsein ist eine Erfahrung, die ich mache: „wie ist es“, wenn ich etwas wahrnehme, wenn ich Schmerz aushalte oder wenn ich über eine Erfahrung nachdenke.
So vielfältig wie Erlebnisse sein können, so vielfältig sind auch die Theorien, was Bewusstsein eigentlich ist, gerade weil es so schwer zu erfassen ist. Im Alltag nehmen wir Dinge bewusst wahr, andere aber nicht. Das heißt aber wiederum nicht, dass nur weil etwas unserem Bewusstsein entgeht, wir kein Bewusstsein haben. Spirituelle Praktiken suchen zum Beispiel eine Art von Bewusstsein, in dem wir uns auf lebendige Art wahrnehmen, ohne durch Wahrnehmung von äußeren Reizen gestört zu werden. Nur: Demnach können komatöse Patienten auch Bewusstsein haben? Je besser wir also die Hirnprozesse verstehen, die mit Bewusstsein zusammenhängen, umso besser werden wir Koma-Patienten helfen können.
Allgemein betrachtet werden unter Bewusstsein neuronale Prozesse verstanden, die es ermöglichen, mit der Umwelt effizient zu interagieren d.h. dass wir Ereignissen eine Bedeutung zuschreiben und Schlüsse aus unvollständigen Informationen ziehen können. In dem Sinne ist Bewusstsein etwas, das aus den Merkmalen des Gehirns entsteht. Moderne neurowissenschaftliche Theorien gehen davon aus, dass Bewusstsein darauf basiert, dass große Netzwerke im Gehirn, deren Teilbereiche ganz unterschiedliche Informationen verarbeiten, wie die Bereiche der Hirnrinde und der Thalamus – das „Tor zum Bewusstsein“ – synchron feuern und dadurch die Informationen maximal integriert werden. Vermutlich ist Bewusstsein kein nur dem Menschen eigenes Attribut – zumindest hoch entwickelte Säugetiere verfügen auch darüber.
Der Grund für diesen Effekt (der auch einen Namen hat: Leisure Sickness oder Freizeitkrankheit) ist wahrscheinlich im Immunsystem zu suchen. Vor einem wichtigen Termin oder während stressiger Arbeitstage werden Stresshormone ausgeschüttet, die die Funktion des Immunsystems anregen können, um uns gesund zu erhalten. Im Urlaub, wenn der Stress auf einmal weg ist, hört diese Stimulation des Immunsystems plötzlich auf. Da das Immunsystem vorher auf Hochtouren gelaufen ist, ist es nun geschwächt. Daher können wir leichter an Infektionen erkranken. Was sich im Immunsystem aber genau verändert, weiß man leider noch nicht.
Am Leibniz-Institut für Arbeitsforschung an der TU Dortmund (IfADo) untersuchen wir unter anderem den Einfluss von Stress als arbeitsphysiologisch relevanter Faktor auf unser Abwehrsystem. Im weiteren Kontext der oben genannten Frage kann eine Forschungsarbeit von uns aus dem Jahr 2017 von Interesse sein: Wir haben auf Basis von immunologischen Parametern (Entnahme von Blut- und Speichelproben) sowie standardisierten Befragungen untersucht, wie sich Prüfungsstress auf das Immunsystem von 20 Studierenden auswirkt (https://www.ifado.de/blog/2017/11/22/voll-im-pruefungsstress/ sowie https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0188108).
Die Antwort stammt von Carsten Watzl, Leiter der Forschungsabteilung „Immunologie“ am Leibniz-Institut für Arbeitsforschung an der TU Dortmund (IfADo).
Die Gründe, warum wir träumen, sind leider immer noch nicht vollständig bekannt. Es gibt Hinweise darauf, dass während des Schlafs Gedächtnisinhalte verfestigt werden, wenn wir tagsüber etwas gelernt haben. Inwieweit hierfür jedoch Träume notwendig sind, ist nicht geklärt. Träume sind Erlebnisse, die im Gehirn generiert werden, insofern ist es bisher nicht möglich, sie – wie beispielsweise in einem Film – sichtbar zu machen. Wir wissen aber, dass in bestimmten Schlafphasen Träume besonders häufig auftreten und besonders bizarr sind. Diese Schlafphasen, es handelt sich hier um den „rapid eye movement“ oder REM-Schlaf, können wir durch Ableitung von Gehirnströmen erkennen.
Die Antwort stammt von Michael Nitsche, Leiter des Forschungsbereichs Psychologie und Neurowissenschaften am Leibniz-Institut für Arbeitsforschung an der TU Dortmund (ifADo).
Die gestellte Frage ist wissenschaftlich komplex und interessant.
Sauerstoff kam vor einigen tausend Millionen Jahren quasi als „Umweltgift“ in die Erdatmosphäre. Mit der Erhöhung der Gehalte an Sauerstoff dürfte sich das Leben auf der Erde dramatisch verändert haben. Somit klingt es auch sehr wahrscheinlich, dass jahreszeitliche Schwankungen an Sauerstoff messbar sein müssten. In unseren Breiten, mit dem Laubfall im Herbst und der blattlosen Zeit im Winter, klingt dies plausibel. Denn Pflanzen produzieren über die Photosynthese Biomasse und den Sauerstoff. Im Winter ruhen oder reduzieren sich diese Prozesse bei vielen Pflanzen, Algen und Bakterien. So konnte es auch nachgewiesen werden: Der Gehalt an Sauerstoff schwankt jahreszeitlich. Jahreszeitlichen Schwankungen sind messbar, allerdings physiologisch vernachlässigbar. Diese sind also nicht gesundheitlich relevant. Wäre dies anders, hätten wir Probleme auf einen Berg zu steigen, da in zunehmender Höhe der Sauerstoffgehalt dramatisch sinkt. Auf den höchsten Gipfeln der Erde beträgt dieser nur noch ein Drittel des Gehalts auf Meereshöhe.
Ausgangsstoff für die Photosynthese ist Kohlendioxid. Als „Klimagas“ besitzt CO2 eine hohe Aufmerksamkeit und Popularität. Allerdings sind die Gehalte in der uns umgebenden Luft im Vergleich zu Sauerstoff mit über 20 Prozent oder sogar Stickstoff mit knapp 80 Prozent extrem gering. Diese bewegen sich im Promillebereich. Somit lassen sich die hohen Sauerstoffgehalte in der Atmosphäre nicht allein durch biologische Soffkreisläufe erklären. Vielmehr profitieren wir und viele andere heute etablierte Lebensformen von einer über viele Millionen Jahre erfolgten Anreicherung des Sauerstoffs in der Atmosphäre. Auch dafür sind nicht ausschließlich biologische Faktoren wie Pflanzen, Algen und Blaualgen verantwortlich. Ein veränderter Vulkanismus und das Aufsteigen sauerstoffreicher Magmaschichten haben zur Anreicherung des einstigen „Umweltgifts“ geführt und damit zur Entstehung des Lebens, wie wir es kennen.
Die Frage zu Sauerstoff und Kohlendioxid kann gut erweitert werden.
Ein noch junges Forschungsfeld ist z. B. die Analyse von Sekundärstoffwechselprozessen und Produkten. So hat sich auch bei Pflanzen die Metaboliten-Profilierung als Forschungsgebiet entwickelt. Man weiß, dass Pflanzen ähnlich wie Bakterien sehr komplexe und vor allem vielfältige Chemiefabriken darstellen. Sie synthetisieren eines der stärksten Nervengifte – Nikotin. Neben den für das eigene Überleben essentiellen Stoffwechselprodukten synthetisieren Pflanzenzellen somit auch eine immense Vielfalt an sekundären Inhaltsstoffen. Dazu zählen auch volatile, also flüchtige Stoffe. Diese übernehmen vielfältige Funktionen zum Schutz, zur Kommunikation und Signalübertragung einer Pflanze oder von Pflanzen mit ihrer Umgebung. Einige dieser Stoffe haben auch auf unseren Körper eine physiologische Wirkung. Ohne in eine pseudowissenschaftliche Richtung abrutschen zu wollen – es gibt Hinweise, dass der Wald oder ein Waldspaziergang oder auch schon Waldluft auf Grund solcher von Pflanzen produzierten komplexen Stoffgemische eine gesundheitlich fördernde Wirkung besitzen. Was in der Vergangenheit auf Erfahrungswissen beruht hat, kann durch analytische Methoden auch faktisch nachgewiesen werden. Viele dieser volatilen Verbindungen sind in der Vegetationsperiode bedeutsam und unterliegen, da ihre Erzeugung für Pflanzen ressourcenaufwendig ist, jahreszeitlichen Schwankungen. So auch ihr Syntheseorte – das Blatt. Im Gegensatz zum Sauerstoffgehalt lässt sich auf Grund der spezifischeren Funktion solcher flüchtigen Verbindungen vermuten, dass kleinere Schwankungen in der Umgebung eine größere physiologische Wirkung entfalten können. Also nicht nur der Sauerstoffgehalt, sondern komplexe Stoffgemische sind spannende Forschungsfelder.
Ich hoffe, diese Gedanken helfen etwas weiter und wecken die Neugierde an Wissenschaft und der Pflanzenforschung.
Die Antwort stammt von Jens Freitag, Leiter der Geschäftsstelle des Leibniz-Instituts für Pflanzengenetik und Kulturpflanzenforschung (IPK).
Die Influenzaviruslinien zwischen Tieren und Menschen unterscheiden sich. Theoretisch könnten Sie zwar Ihre Katzen anstecken, aber dies ist praktisch unwahrscheinlich.
Die Antwort stammt von Günsah Gabriel, Abteilungsleiterin am Heinrich-Pette-Institut, Leibniz-Institut für Experimentelle Virologie (HPI).
Alex D. Greenwood, Abteilungsleiter Wildtierkrankheiten am Institut für Zoo- und Wildtierforschung (IZW), rät dennoch zur Vorsicht:
Katzen können sich bei einer Erkältung von Menschen anstecken, wenn es sich um das Influenzavirus H1N1 handelt. Daher sollten am Virus H1N1 erkrankte Menschen den Kontakt mit Haustieren meiden oder auf entsprechende Hygienemaßnahmen achten.
Eine einfache Frage, die eine schwierige Antwort nach sich zieht. Die Einflussmöglichkeiten, um lange gesund zu leben, sind vielfältig.
Natürlich gibt es einfache und für jeden einsichtige Verhaltensweisen, die Alter und Gesundheit positiv beeinflussen: ausreichend Bewegung, eine abwechslungsreiche Ernährung, nicht Rauchen und kein Alkohol. Aber neben diesen direkten Einflussmöglichkeiten des Einzelnen gibt es viele andere Faktoren, die entscheiden, ob jemand gesund und lange leben kann. Im Leibniz-Forschungsverbund Healthy Ageing forschen wir an diesen Faktoren. An einem Faktor kommt keiner vorbei: die Gene. Wer bereits langlebige und gesunde Großeltern und Eltern hat, hat selber gut Chancen auf ein gesundes, langes Leben. Wichtig ist dann noch, sich seinen Optimismus zu erhalten. Denn auch ein positives Bild vom Leben im Alter kann dieses erheblich verlängern. Wissenschaftler gehen davon aus, dass die Lebenseinstellungen einen ähnlichen Effekt haben wie Rauchen oder Nicht-Rauchen.
Die Lebenserwartung des Einzelnen und seine gesundheitliche Verfassung werden auch von der Umwelt bestimmt. Studien zeigen beispielsweise, dass eine gute Bildung und ein besseres Einkommen unmittelbar mit einer höheren Lebenserwartung verknüpft sind. Umgekehrt wirken sich ungünstige Wohnverhältnisse und Umweltbedingungen wie eine starke Belastung durch Schadstoffe und Lärm deutlich negativ auf die Gesundheit und die Lebenserwartung aus. Auch anhaltender Stress, soziale Isolation und Einsamkeit beeinträchtigen die Gesundheit und das Wohlbefinden im Alter. Positiv bemerkbar macht sich der Erhalt von kognitiver und körperlicher Fitness. Eine positive Rolle spielt auch das Einbinden älterer Menschen in die Familie und in außerfamiliäre soziale Netzwerke. Die Übernahme von sinnstiftenden Aufgaben in der Familie oder von Ehrenämtern in der Gesellschaft kann beispielsweise dazu beitragen, Kompetenzen langfristig zu erhalten. Eine wissenschaftlich fundierte Anti-Aging-Behandlung gibt es bisher nicht. Da muss jeder seine eigenen Strategien entwickeln.
Die Antwort stammt von Astrid van der Wall, Koordinatorin Leibniz-Forschungsverbund Healthy Ageing.
Das Darmmikrobiom enthält viele nützliche und manchmal auch schädliche Bakterien, Pilze und andere Einzeller. Der menschliche Darm wird von etwa 100 Billionen Mikroorganismen besiedelt¹. Diese mikrobielle Gemeinschaft wird als intestinale Mikrobiota - Darmflora ist veraltet und nicht korrekt- bezeichnet. Sie ist zu einem großen Teil individuell und von der Ernährung abhängig und beeinflusst zahlreiche Stoffwechselprozesse im Darmtrakt und in vielen anderen Organen des Menschen in positiver Weise².
Jeder Mensch hat seinen individuellen Rhythmus zur Darmentleerung. Mit jedem Stuhlgang wird eine ganze Menge dieser Mikroorganismen ausgeschieden. Untersuchungen haben gezeigt, dass sogar knapp die Hälfte unseres Stuhls aus Bakterien besteht. Die im Darm verbleibenden Bakterien vermehren sich wieder, wenn Nachschub an Nahrung von oben kommt. Ein ständiges Kommen und Gehen, bei dem ein Eingreifen von außen im Allgemeinen nicht notwendig ist.
Zur genauen Beantwortung Ihrer Frage müssen wir uns zunächst den Verdauungstrakt ansehen, der in der unteren Hälfte aus Dünn- und Dickdarm besteht. Beide Därme bestehen ihrerseits aus verschiedenen Teilen und sind zusammen rund fünf Meter lang, wovon etwa ein Meter auf den Dickdarm entfällt. Die verschiedenen Teile bieten den dort lebenden Mikroorganismen jeweils unterschiedliche Lebensräume. Das bedeutet, dass sich die Zusammensetzung der Mikrobiota im Verlauf des Darmtrakts je nach den vorherrschenden Bedingungen unterscheidet. Die Mikroorganismen können sich temporär auf einer Schleimschicht ansiedeln, die unsere Darmzellen natürlicherweise bedeckt. Der Darm bleibt bei gesunden Menschen ständig besiedelt, auch wenn große Teile des Darmmikrobioms natürlicherweise oft ausgetauscht werden. Wie genau diese Mikrobengemeinschaften aussehen und welche Rolle sie bei der Entstehung oder Therapie von Erkrankungen, wie z. B. Adipositas oder entzündlichen Darmerkrankungen wie Morbus Crohn, spielen, ist noch nicht vollständig aufgeklärt und bleibt weiterhin Gegenstand intensiver Forschung.
Wenn der Darm nun „künstlich“, also durch Nachhelfen von oben durch Abführmittel oder von unten durch einen Einlauf entleert wird, werden mehr Mikroorganismen als gewöhnlich ausgeschieden, so dass sich die Bakterienzusammensetzung tatsächlich ändern kann³. Viele Mikroorganismen verbleiben aber im Darm und so kann sich die Darmmikrobiota regenerieren und nach etwa zwei Wochen ist kaum ein Unterschied mehr vorhanden⁴. Beide Darmentleerungsmethoden sollten am besten unter ärztlicher Aufsicht stattfinden, da auch hier unerwünschte Nebenwirkungen, im schlimmsten Fall Verletzungen, auftreten können. Für die Mikroorganismen, speziell die Darmbakterien, sind Antibiotika in der Regel aber nachteiliger, da durch diese mehr Bakterien abgetötet werden und die Vielfalt und das Gleichgewicht an Bakterienstämmen gestört werden kann. Durch eine gesunde, pflanzenbasierte und ballaststoffreiche Ernährung regeneriert sich das Darmmikrobiom nach spätestens zwei Wochen wieder von selbst. Oft helfen auch pro – oder präbiotische Lebensmittel wie z. B. Sauerkraut und Naturjoghurt, die u.a. positiv wirkende Milchsäurebakterien⁵ enthalten, oder Chicorée, der den Ballaststoff Inulin enthält, den manche Darmbakterien bevorzugt verstoffwechseln.
Das Fasten an sich schadet der intestinalen Mikrobiota nicht: Genau wie wir Menschen können auch die Bakterien im Darm einige Zeit ohne Nahrung überleben. Je nach Dauer und Art der Fastenkur kann sich jedoch die Zusammensetzung des Darmmikrobioms etwas verändern. Das kann vorteilhaft bei der Behandlung von bestimmten Erkrankungen sein, die durch eine ungünstige Zusammensetzung der Darmmikrobiota ausgelöst werden, wie z.B. bestimmte Darmentzündungen oder eine Clostridium difficile-Infektion.
Die Antwort stammt von Tobias Goris & Tina Schifelbein, wissenschaftlicher Mitarbeiter (im EU-Projekt SynBio4Flav) und Doktorandin in der Forschungsgruppe Intestinale Mikrobiologie am Deutschen Institut für Ernährungsforschung Potsdam-Rehbrücke (DIfE).
Quellen:
- https://journals.plos.org/plosbiology/article?id=10.1371/journal.pbio.100253
- https://www.nature.com/articles/s41579-019-0256-8
- https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0062815
- https://www.nature.com/articles/s41598-019-40182-9
- https://link.springer.com/chapter/10.1007/978-981-13-7832-4_8
Die 16:8-Diät ist die moderateste Form des intermittierenden Fastens, auch Intervallfasten genannt. Sie bedeutet, dass man täglich 16 Stunden komplett auf Nahrung verzichtet, nur Wasser, Tee oder Kaffee (ungesüßt und ohne Milch) trinken darf, während sich das Essen auf ein Zeitfenster von 8 Stunden beschränkt. Gegessen wird zum Beispiel zwischen 10 und 18 Uhr oder zwischen 13 und 21 Uhr. Anschließend folgen 16 Fastenstunden. Der größte Erfolg stellt sich ein, wenn in den späten Nachmittagsstunden das letzte gegessen und bis zum nächsten Frühstück pausiert wird. Da dies für viele Menschen schwer in den Alltag integrierbar ist und ihnen das gemeinsame Abendessen mit dem Partner oder der Familie wichtig ist, verzichten sie auf das Frühstück. Gegessen werden sollte ausgewogen, mit viel Gemüse und Obst, auf Fast Food und Süßigkeiten sollte möglichst verzichtet werden. Ein Großteil derjenigen, die 16:8-Fasten durchführen, berichtet von einer guten Gewichtsabnahme und dass man sich besser fühlt, aber es gibt auch gegenteilige Äußerungen. Kontrollierte Studien an Tieren (z.B. an Mäusen und Rhesus-Affen) haben gezeigt, dass unter 16:8-Bedingungen das Körpergewicht – vor allem das Körperfett – reduziert wird. Zudem wurden diverse positive Effekte beobachtet, wie eine Verbesserung der metabolischen Flexibilität und der Insulinempfindlichkeit sowie ein Schutz vor kardiovaskulären Erkrankungen und Diabetes. Intermittierendes Fasten wie die 16:8-Diät kann aber nur dann zur Gewichtsabnahme führen, wenn tatsächlich weniger Kalorien konsumiert werden als vor dem Fasten, also etwa 10-15% weniger. Wer jedoch in den 8 Stunden die eingesparte Mahlzeit aufholt, wird gewichtstechnisch keine Erfolge verzeichnen.
Neben der 16:8-Diät zählt die 5:2-Diät und das alternierende Fasten zu den Intervallfastenformen. Bei der 5:2-Diät sind an zwei Tagen nur 500-600 Kilokalorien erlaubt, an fünf Tagen wird normal – also ausgewogen und gesund – gegessen. Beim alternierenden Fasten sollte möglichst über 36 Stunden nichts gegessen werden, gefolgt von 12 Stunden mit Mahlzeiten. Eine Forschergruppe um Prof. Frank Madeo aus Graz hat vor Kurzem im Fachjournal Cell Metabolism eine Studie veröffentlicht, in der gezeigt wurde, dass das alternierende Fasten über einen Zeitraum von 6 Monaten bei schlanken und gesunden Personen zu einer um etwa 30 Prozent verminderten Nahrungsaufnahme und einer Gewichtsabnahme von mehr als 4.5 Prozent geführt hatte, ohne dass der Grundumsatz erhöht war oder die Knochendichte beeinflusst wurde. Vor allem die Menge des Fettgewebes im Bauchbereich, die Cholesterin- und Triglyzeridwerte sowie die Spiegel des Schilddrüsenhormons T3 wurden gesenkt, was wahrscheinlich zusammen zur Verbesserung der Herz-Gesundheit der Studienteilnehmer beitrug (Stekovic et al., Alternate Day Fasting Improves Physiological and Molecular Markers of Aging in Healthy, Non-obese Humans, Cell Metabolism (2019))
Nach Beendigung des Intervallfastens und dem Rückfall in alte Verhaltensmuster ist mit einer Gewichtszunahme zu rechnen, d.h. auch hier wird dann ein Jo-Jo-Effekt ausgelöst. Sollte man also durch die 16:8-Diät sein Wunschgewicht erreicht haben, ist es ratsam, das Gewicht regelmäßig zu kontrollieren und vielleicht an 2-3 Tagen pro Woche im 16:8-Muster zu essen und an den anderen Tagen möglichst auf das Snacken zu verzichten.
Die Antwort stammt von Prof. Dr. Annette Schürmann, Leiterin der Abteilung Experimentelle Diabetologie am Deutschen Institut für Ernährungsforschung Potsdam-Rehbrücke (DIfE)
Derzeit leben etwa sieben Milliarden Menschen auf der Erde, im Jahr 2050 werden es rund neun Milliarden sein. Die Welternährungsorganisation FAO geht davon aus, dass der steigende globale Bedarf an Lebensmitteln und insbesondere der an tierischen Proteinen ohne die Berücksichtigung essbarer Insekten zur Humanernährung zukünftig nicht abgedeckt werden kann.
Da der Verzehr von Insekten, wissenschaftlich als Entomophagie bezeichnet, in vielen Ländern Asiens, Afrikas und Südamerikas etc. Tradition ist, essen etwa zwei Milliarden Menschen bereits regelmäßig Insekten – und das auch aus Genuss. Nach derzeitigem Kenntnisstand werden über 2000 essbare Insektenarten aufgelistet – im europäischen Raum besonders Mehlwürmer, Grillen und Heuschrecken. Die hierzulande eher als exotisch geltende Kost bietet eine interessante Inhaltsstoffzusammensetzung im Hinblick auf die ernährungsphysiologischen Eigenschaften. Viele Insektenarten weisen einen hohen Gehalt an hochwertigen Proteinen mit für die Humanernährung meist ausgewogenen Aminosäurespektren auf. Dieser liegt je nach Insektenspezies bei durchschnittlich 35 bis 77 Prozent, bezogen auf die Trockenmasse. Insekten sind häufig auch reich an Vitaminen und Mineralstoffen sowie frei von Cholersterol. Die Fettsäurezusammensetzung kann durch einen hohen Anteil an ungesättigten Fettsäuren vorteilhaft und vergleichbar mit Fisch sein, abhängig von der Insektenart, der Fütterung und der Verarbeitung.
Die Insektenzucht benötigt im Vergleich zu anderen Nutztierhaltungssystemen weniger Fläche und Wasser und hat ein niedrigeres Treibhauspotential was zu einer nachhaltigeren Umweltbilanz bei der Insektenerzeugung führt. Insekten können sich u. a. von Pflanzenresten und Lebensmittelabfällen ernähren und könnten dadurch prinzipiell zur Konversion und Aufwertung organischer Reststoffe beitragen.
Vor allem diese Fakten rücken vor dem Hintergrund der globalen Ernährungssicherung hinsichtlich der Bedarfsdeckung und Ressourcenschonung den Insektenverzehr auch in den westlichen Industrienationen zunehmend in den Fokus von Wissenschaft, Wirtschaft und Politik. Mit der überarbeiteten Novel Food-Verordnung ist es seit Januar 2018 auch innerhalb der EU prinzipiell möglich, Insekten und aus ihnen gewonnene Produkte auf den Markt zu bringen.
Ob sich Insekten in Zukunft als Alternative zu herkömmlichen tierischen Proteinen durchsetzen werden und welche Arten hierfür am ehesten geeignet sind, hängt vor allem von der Nährstoffzusammensetzung, der Umsetzbarkeit der nachhaltigen und kosteneffizienten Produktion im industriellen Maßstab, der Verarbeitbarkeit, sowie der Akzeptanz der Verbraucher ab.
Die Antwort stammt von Sara Bußler, Wissenschaftlerin im Forschungsprogramm Qualität und Sicherheit von Lebens- und Futtermitteln des Leibniz-Instituts für Agrartechnik und Bioökonomie (ATB).
Kohl oder genauer gesagt Brassicaceae-Gemüse wie Broccoli, Weißkohl, Rotkraut und Pak Choi enthält Glucosinolate, die entweder durch die Darmmikrobiota oder aber schon vorher, bei der Zerkleinerung, auf einem enzymatischen Weg zu gesundheitspräventiven Isothiocyanaten – das sind die scharf schmeckenden Verbindungen dieser Gemüse – oder aber Nitrilen abgebaut werden. Nitrile haben im Gegensatz zu Isothiocyanaten kaum gesundheitsfördernde Wirkung.
Roh entstehen in Kohl oft vor allem Nitrile anstelle der Isothiocyanate, da viele Kohlsorten weitere Enzyme besitzen, welche die Bildung von Isothiocyanaten zugunsten der Nitrile unterdrücken. Da diese Enzyme sehr temperaturempfindlich sind, kann durch sehr kurzzeitiges Erhitzen die Bildung von Isothiocyanaten – und damit der gesundheitliche Nutzen des Gemüses – erhöht werden. Dabei sollte im Gemüse allerdings die Temperatur von 60 Grad nicht überschritten werden.
Zudem empfiehlt es sich, das Kochwasser einfach mitzuverwenden: Ein Großteil der Glucosinolate geht beim Kochen ins Kochwasser über, da diese wie viele andere wichtige Inhaltsstoffe wasserlöslich sind. So bleiben mehr Glucosinolate bei einer kürzeren Kochzeit im Kohl erhalten.Bei einer längeren Kochzeit von mehr als 10 bis 15 min werden Glucosinolate (chemisch) abgebaut. Es gibt allerdings auch Brassicaceae-Gemüse, bei denen durch die Zellzerstörung beim Kauen hauptsächlich gesundheitsfördernde Isothiocyanate entstehen: z.B. Radieschen und Rucola– sie können einfach roh verzehrt werden.
In unserem Forschungsprojekt wollen wir untersuchen, wie wir die Isothiocyanatbildung in der Pflanze erhöhen können und zum anderen herausfinden, wie sich verschiedene Inhaltsstoffe auf die Stabilität der Glucosinolate beim Kochen auswirken.
Die Antwort stammt von Franziska Hanschen, Leiterin der Leibniz – Junior Research Group OPTIGLUP am Leibniz-Institut für Gemüse- und Zierpflanzenbau (IGZ).
In Maßen kann Zucker problemlos vom Körper verstoffwechselt werden. Allerdings nehmen wir durchschnittlich mehr Zucker auf als von der Weltgesundheitsorganisation (WHO) empfohlen. Wird zu viel und zu häufig Zucker verzehrt, kann dies die Entwicklung von Karies, Übergewicht und damit assoziierten Erkrankungen wie Typ-2-Diabetes, Krebs und Herz-Kreislauf-Erkrankungen begünstigen. Von möglichen gesundheitlichen Schäden sind insbesondere übergewichtige Menschen betroffen.
Gut zu wissen:
- Wo steckt viel Zucker drin? In Softdrinks, Süßigkeiten und anderen hochverarbeiteten Produkten mit Zuckerzusatz wie z. B. Joghurts. Aber auch natürliche Produkte wie Obst und Fruchtsäfte können zuckerreich sein.
- Welche Zuckerart ist besonders ungesund? Ob Fruchtzucker, Traubenzucker, Haushaltszucker oder spezielle Ersatzzucker besonders bedenklich sind, lässt sich noch nicht eindeutig beurteilen. Es ist also sinnvoll, insgesamt nur kleine Mengen an Zucker aufzunehmen.
- Sind Zucker und Kohlenhydrate das gleiche? Genau genommen bestehen alle Kohlenhydrate aus Zuckermolekülen. Es wird zwischen Einfach-, Zweifach- und Mehrfachzuckern unterschieden. Einfach- und Zweifachzucker, wie Traubenzucker, Fruchtzucker und Haushaltszucker, sollten nur in kleinen Mengen gegessen werden. Sie liefern viele Kalorien, sind dabei jedoch kaum sättigend, was Übergewicht begünstigen kann. Mehrfachzucker, wie beispielsweise Stärke und Ballaststoffe aus Vollkornprodukten und Kartoffeln, zählen hingegen zu den komplexen Kohlenhydraten und sättigen gut. Studien weisen darauf hin, dass Ballaststoffe das Risiko für bestimmte Krebserkrankungen, aber auch für Typ-2-Diabetes und andere „Wohlstandserkrankungen“ senken.
Die Antwort stammt von Stefan Kabisch, wissenschaftlicher Mitarbeiter/Studienarzt der Arbeitsgruppe Klinische Ernährung am Deutschen Institut für Ernährungsforschung Potsdam-Rehbrücke.
Autoimmunerkrankungen wie Rheuma lassen sich nach aktuellem Kenntnisstand nicht über das Darmimmunsystem diagnostizieren. Allerdings ist schon länger bekannt, dass Autoimmunerkrankungen in der Regel mit einer veränderten Zusammensetzung der Darmflora, oft mit reduzierter Vielfalt an Darmbakterien, einhergehen. Es ist noch nicht geklärt, ob solche Veränderungen der Darmflora, auch Dysbiose genannt, spezifisch für unterschiedliche Autoimmunerkrankungn sind und für die Diagnose genutzt werden können.
Die Forschung, unter anderem auch unsere Arbeitsgruppe, arbeitet aber daran, die Zusammenhänge zwischen der Darmflora und der Entstehung von Autoimmunerkrankungen besser zu verstehen. Es wäre daher in Zukunft vielleicht möglich, über die Zusammensetzung der Darmflora Autoimmunerkrankungen besser zu diagnostizieren und Krankheitsverlauf und Ansprechen auf Therapien vorhersagen zu können.
Die Antwort stammt von Prof. Hyun-Dong Chang vom Schwiete-Labor für Mikrobiota und Entzündungen am Deutschen Rheuma-Forschungszentrum Berlin (DRFZ), einem Institut der Leibniz-Gemeinschaft.
Innovation, Technik & Wirtschaft
Aus theoretischer Perspektive spricht zunächst nichts gegen fortgesetztes Wachstum trotz endlicher Ressourcen. Denn Wachstum, verstanden als Wachstumsrate der beispielsweise mit dem Bruttoinlandsprodukt (BIP) gemessenen Wirtschaftsleistung, bezieht sich auf eine monetäre, also in Geldeinheiten wie US-Dollar oder Euro gemessene Größe. Dabei misst das ‚reale‘, um die Inflation bereinigte BIP den monetären Wert der innerhalb eines Jahres im Inland hergestellten Waren und Dienstleistungen (Wertschöpfung, d.h. Vorleistungen für die Produktion anderer Waren und Dienstleistungen werden nicht berücksichtigt). Die Entwicklung dieser monetären Größe wird somit auch durch die Bewertung von Gütern seitens der Konsumenten getrieben – wenn Käuferinnen etwa eines Smartphones für das jeweils aktuelle Top-Modell eines Premiumherstellers von Jahr zu Jahr höhere Preise zu zahlen bereit sind (vielleicht aufgrund einer tatsächlich höheren Leistungsfähigkeit des Geräts), dann schlägt sich diese höhere monetäre Bewertung auch in einem höheren Beitrag zum BIP nieder (Eine Preissteigerung für ein unverändertes Modell würde sich nicht in einem höheren BIP niederschlagen – das wäre schlicht Inflation, die bei der Ermittlung des so genannten ‚realen‘ BIP herausgerechnet wird).
Bisher sind die Entwicklung der Wirtschaftsleistung und die (Über-)Nutzung natürlicher Ressourcen jedoch ganz eng gekoppelt – das Wirtschaftswachstum seit Beginn der Industrialisierung und nochmals forciert seit Ende des Zweiten Weltkrieges (im wissenschaftlichen Diskurs als ‚Great Acceleration‘, die ‚große Beschleunigung‘, beschrieben) ging in globaler Perspektive einher mit einem stetigen Wachstum der Weltbevölkerung und einem immer größeren Verbrauch natürlicher Ressourcen, der immer stärkeren Nutzung natürlich Senken (wie etwa der Atmosphäre als „Deponie“ für emittierte Treibhausgase, THG) sowie der Gefährdung und teils bereits irreversiblen Vernichtung von immer mehr Arten und Ökosystemen (Steffen et al. 2015). Dabei ist eine „relative Entkopplung“ in vielen Dimensionen schon seit längerer Zeit gelungen, d.h. unsere Wirtschafts- und Konsumweise wird ressourceneffizienter – für eine zusätzliche BIP-Einheit werden weniger „Umwelteinheiten“ verbraucht oder geschädigt als in der Vergangenheit. In globaler Perspektive werden diese relativen Fortschritte durch das Wirtschaftswachstum jedoch überkompensiert – die absoluten Verbräuche und Schädigungen steigen weiterhin, wofür der bisher nicht gestoppte Anstieg der globalen THG-Emissionen nur ein besonders bekanntes aber keinesfalls das einzige Beispiel ist. Das Konzept der planetaren Belastungsgrenzen („Planetary Boundaries“, Rockström et al. 2009) beschreibt neben dem Klimawandel acht weitere geo- bzw. bio-physikalische Erdsystemprozesse und Dimensionen, die für lebensdienliche Bedingungen auf unserem Planeten essentiell sind aber durch unsere bisherige Wirtschafts- und Lebensweise ernsthaft gefährdet werden (u.a. „Überdüngung“ der Weltmeere durch Stickstoff-Einträge, Biodiversitätsverluste infolge des Artensterbens).
Dringend erforderlich ist vor diesem Hintergrund, dass der Menschheit – angefangen in den technologisch führenden Industrieländern – möglichst schnell die absolute Entkopplung von Wirtschaftsleistung und Ressourcenverbrauch bzw. Umweltschädigungen gelingt. „Absolut“ bedeutet, dass die Wachstumsrate der Umweltnutzung nicht nur geringer ist als jene des Wirtschaftswachstums, sondern negativ, d.h. in Tonnen gemessen müssten bspw. die THG-Emissionen absolut zurückgehen – so weit und so schnell, dass überschrittene kritische Grenzen künftig wieder eingehalten und politisch definierte Ziele (wie etwa das 2- bzw. 1,5-Grad-Ziel des Pariser Klimaabkommens) erreicht werden können. Der Ansatz der absoluten Entkopplung bei weiterem Wirtschaftswachstum entsprechend politisch der „Green Growth“-Strategie. Das bekannteste und bisher umfassendste Beispiel für diese Strategie eines „grünen“ Wachstums ist der „Green Deal“ der EU-Kommission (Dröge 2022). Im Kern sollen dabei durch einerseits eine fast vollständige Umstellung der Energieversorgung auf Erneuerbare Energien und andererseits durch die Etablierung einer möglichst weit reichenden Kreislaufwirtschaft die Voraussetzungen dafür geschaffen werden, dass in Europa die planetaren Belastungsgrenzen künftig eingehalten werden – bei gleichzeitig fortgesetztem Wirtschaftswachstum.
Tatsächlich gibt es Erfolgsbeispiele von mehreren Ländern, denen in Bezug auf einzelne Umweltdimensionen, etwa bzgl. THG-Emissionen, eine absolute Entkopplung bereits gelungen ist (OWID 2021) – allerdings reicht die erzielte absolute Reduktion bisher nicht ansatzweise aus, um den „grünen Bereich“ schnell genug zu erreichen. Und im Weltmaßstab geht die aggregierte Entwicklung leider immer noch in die andere, falsche Richtung (OWiD 2020). Vor diesem Hintergrund gibt es auch Kritik an der (einseitigen) Fixierung auf eine Strategie des Grünen Wachstums von Akteuren, die bezweifeln, dass eine absolute Entkopplung hinreichend schnell und hinreichend umfassend verwirklicht werden kann. Wenn man die Argumente dieser Seite für hinreichend fundiert hält, dann wäre eine mögliche wirtschaftspolitische Konsequenz, dass es unter strikter Beachtung der ökologischen Restriktionen eine offene Frage ist, ob bzw. in welchem Umfang es künftig – im (globalen) Aggregat – noch Wirtschaftswachstum geben kann (Postwachstum-Position). Sollte man von der Unmöglichkeit einer hinreichend schnellen absoluten Entkopplung überzeugt sein, dann würde die Einhaltung der planetaren Grenzen implizieren, dass sich zumindest die Gesellschaften im reichen Norden für eine Zukunft ohne weiteres Wirtschaftswachstum und ggf. sogar Phasen der Schrumpfung wappnen (Degrowth-Position). Einen Überblick dieser unterschiedlichen Positionen und ihrer jeweiligen Implikationen hat das Umweltbundesamt veröffentlicht (Petschow, aus dem Moore et al. 2018).
Die Antwort stammt von Nils aus dem Moore, Leiter des Berliner Büros des RWI - Leibniz-Institut für Wirtschaftsforschung, und Leiter der Forschungsgruppe „Nachhaltigkeit und Governance“.
Die Frage, ob stetiges Wachstum erforderlich ist, damit das erreichte Wohlstandsniveau erhalten und Arbeitsplätze gesichert werden können, steht innerhalb der neuen Wachstumsdebatte im Zentrum der Auseinandersetzung um so genannte „Wachstumsabhängigkeiten“. Aus wissenschaftlicher Sicht besteht hier kein Konsens – einen Überblick der vertretenen Sichtweisen gibt ein vom Umweltbundesamt veröffentlichter Report (Petschow, aus dem Moore et al. 2018) und darauf aufbauende Publikationen (aus dem Moore und Hofmann 2019; Petschow, aus dem Moore et al. 2020). Im Fokus der Analysen stehen oft zwei Herausforderungen – einerseits die Frage nach der Finanzierung von sozialstaatlichen Institutionen (insbesondere Renten- und Krankenversicherung), andererseits die Beschäftigungseffekte in Szenarien mit einer stagnierenden oder gar schrumpfenden Wirtschaftsleistung.
Hinsichtlich der Sozialsysteme gilt aus einer technischen, d.h. in der ökonomischen Theorie gründenden Perspektive zunächst, dass diese keinen „Wachstumszwang“ auslösen. Ohne weiteres Wachstum kommt es aus theoretischer Sicht also nicht zwingend zum Zusammenbruch dieser Systeme. Die ökonomische Anforderung der so genannten „intertemporalen Budgetrestriktion“, dass also in einer längerfristigen Betrachtung die abgezinste Summe aller Ausgaben der abgezinsten Summe aller Einnahmen entsprechen muss, kann prinzipiell auch dadurch erfüllt werden, dass die Einnahmen auf andere Weise als durch Wirtschaftswachstum gesteigert werden (etwa ein späterer Renteneintritt und/oder höhere Beiträge), die Ausgaben im erforderlichen Umfang reduziert werden (durch späteren Renteneintritt bzw. geringere Rentenzahlungen oder ein geringeres Leistungsniveau im Bereich der Krankenversicherung) oder ein Kombination dieser Maßnahmen implementiert wird. Die genannten Beispiele weisen darauf hin, dass die „Notwendigkeit“ für weiteres Wirtschaftswachstum sich mithin nicht aus quasi-naturgesetzlichen ökonomischen Zwängen ergibt, sondern eher aus demokratischen bzw. politischen Erwägungen. Denn die „Beitrags-Leistungs-Relation“ fällt in Szenarien mit geringem bzw. gar keinem oder sogar negativem Wachstum immer ungünstiger aus als es in alternativen Szenarien mit positiven Wachstumsraten der Fall ist. Die entscheidende Frage ist insofern polit-ökonomischer Natur: Was kann demokratisch beschlossen und gesellschaftlich durchgehalten werden?
Bezüglich der Beschäftigungseffekte besteht ebenfalls ein komplexer Zusammenhang – denn es ist nicht so, dass Produktivitätsfortschritte einfach vom Himmel fallen und es daher eine stetig wachsende Menge von nachgefragten Gütern und Dienstleistungen braucht, um ansonsten drohende Entlassungen zu verhindern. Ein einfaches „Denken in Tonnen“, bei dem aufgrund eines exogenen Produktivitätsfortschritts drohende Entlassungen durch eine Steigerung der Absatzmenge ausgeglichen werden müssen, wird dem Problem nicht gerecht. Aus Sicht der modernen Arbeitsmarktökonomik stehen die Produktivitätsfortschritte vielmehr am Anfang der Wirkungskette: ermöglicht insbesondere durch technologischen Fortschritt aber auch durch Innovationen im Bereich von Organisation und Prozessen bilden sie die Grundlage für ein erst ex post im Aggregat diagnostiziertes Wirtschaftswachstum. Dieser Logik folgend würde eine Welt ohne Wirtschaftswachstum implizieren, dass es die entsprechenden Produktivitätsfortschritte auch nicht gegeben hat – dann müssten aber auch keine auf Produktivitätsfortschritten bei gleichzeitiger Mengenbegrenzung beruhenden Entlassungen befürchtet werden.
Das Bild stellt sich freilich anders dar, in jedem Fall übergangsweise, sofern man von starken politischen Regulierungen (bis hin zu Rationierungen oder Verboten) bestimmter Produkte oder Dienstleistungen ausgeht. So würde ein Verbot von Inlandsflügen natürlich dazu führen, dass ein Teil der Jobs in der Luftfahrtbranche verloren ginge. Wie die arbeitsmarktpolitischen Gesamteffekte der erforderlichen ökologischen Transformation insgesamt ausfallen werden, lässt sich ex ante aber nicht zuverlässig abschätzen. Wie bei jedem Strukturwandel stehen Verlusten in einigen Branchen auch Chancen für neue Arbeitsplätze in anderen Sektoren gegenüber. Eine zentrale politische wie unternehmerische Aufgabe besteht daher darin, durch die Ausweitung von Möglichkeiten der Weiter- und Requalifizierung drohende Beschäftigungsverluste so gering wie möglich zu halten.
(Der „Shareholder Value“-Ansatz spielt für die vorgenannte Frage keine unmittelbare Rolle – wobei die damit verbundene Forderung, dass sich das Management von Unternehmen vorrangig an den Interessen der Anteilseigner ausrichten und die Maximierung des Unternehmenswertes als prioritäres Ziel verfolgen sollte, natürlich Auswirkungen darauf hat, inwiefern die Unternehmensführung einem umfassenden Verständnis von Nachhaltigkeit gerecht werden kann. Die wissenschaftliche Literatur in diesem Bereich ist sich inzwischen einig, dass der „Shareholder Value“-Ansatz als Leitbild der Unternehmensführung viel zu kurz greift und eine umfassendere Perspektive erforderlich ist – nicht nur aus ökologischer oder gesellschaftlicher Sicht, sondern abgeleitet aus dem wohlverstandenen, langfristigen Eigeninteresse der Unternehmen und ihrer Anteilseigner (siehe bspw. Kelly 2019).
Die Antwort stammt von Nils aus dem Moore, Leiter des Berliner Büros des RWI - Leibniz-Institut für Wirtschaftsforschung, und Leiter der Forschungsgruppe „Nachhaltigkeit und Governance“.
Technisch umsetzbar wäre dieser Vorschlag mittlerweile. Es könnten zum Beispiel Bezahlkarten ausgegeben und dabei die Produktkategorien sowie Einsatzorte beschränkt werden. Aber: Was zählt dann? Nur der Bioladen? Der Wochenmarkt? Der Hofladen? Bio-Produkte im klassischen Supermarkt? Die Konzeption ist also schon schwieriger.
Auch bezüglich der Adressaten müsste überlegt werden: Beispielsweise könnten alle Hartz IV-Empfänger und „Aufstocker“ eine solche Karte bekommen. Komplizierter würde es allerdings, wenn dieser Kreis erweitert werden und eine Zusendung am genauen Einkommen festgemacht werden sollte. Eine scharfe Abbruchkannte bei einem bestimmten Gehalt erscheint mir in diesem Fall nicht sinnvoll, es sollten eher Übergangphasen angesetzt werden.
Die finanziellen Ressourcen wären – ohne dass ich das allerdings durchgerechnet habe – vorhanden. Ich sehe auch die umweltpolitische Lenkungsfunktion, die mit der Maßnahme verbunden ist: Menschen werden angehalten, Bio-Produkte zu kaufen.
Ob die Steuerung in der Form aber auch wirklich sinnvoll ist, kann ich nicht gut beurteilen. In diesem Zusammenhang müssten wir uns zudem fragen, ob nicht neben ökologischen auch gesundheitliche Ziele eine Rolle spielen? Beachtet werden müsste zudem, dass es Ausweichreaktionen und Preiseffekte geben dürfte: Die Bio-Supermärkte könnten die Preise erhöhen, um die Subventionen „abzugreifen“.
Alles in allem ein interessanter Vorschlag, der aber – um ihn vollständig beurteilen zu können – in einer umfassenden Studie überprüft werden müsste.
Die Antwort kommt von Prof. Dr. Andreas Peichl, Leiter des Zentrums für Makroökonomik und Befragungen am ifo Institut - Leibniz-Institut für Wirtschaftsforschung an der Universität München.
Derzeit wird in der Politik und von Unternehmen viel darüber diskutiert, welcher neue Kraftstoff den umweltschädlichen Diesel in der Schifffahrt ersetzen wird. Auch die riesigen Container- und Kreuzfahrtschiffe müssen bis 2030 vollständig klimaneutral unterwegs sein.
Zukünftig ist mit einem Mix an alternativen Schiffskraftstoffen zu rechnen, im Vergleich zu anderen neuen Kraftstoffen ist Ammoniak am günstigsten zu produzieren und wird bereits in großen Mengen verschifft.
Der kohlenstofffreie Ammoniak ist als maritimer Kraftstoff zwar noch ein relativ neues Thema, hat sich aber in den letzten Jahren schnell zum Hoffnungsträger für eine wirklich nachhaltig emissionsfreie maritime Mobilität etabliert.
Derzeit werden von nahezu allen Großmotorenherstellern Ammoniak-Verbrennungsprozesse für maritime Antriebssysteme entwickelt. Da Ammoniak schlechte Verbrennungseigenschaften besitzt, wird ein zweiter „Zündstoff" im Dualbetrieb verwendet. Ab 2025 werden erste Ammoniak-Bunker-Schiffe mit 2-Takt-Dual-Fuel-Motoren umgerüstet werden und dazu werden Ammoniak-Kraftstofftanks zunächst auf Deck installiert. Als Zündstoff wird z.B. klimaneutrales DME eingesetzt. Es werden zurzeit auch 4-Takt-Motoren entwickelt, die anstelle von DME Wasserstoff als Zündstoff einsetzen. Dieser wird an Bord mit Hilfe eines Ammoniak-Crackers aus Ammoniak erzeugt. Die Serienreife der 4-Takt-Motoren wird in fünf Jahren anvisiert, wobei auch rein mit Ammoniak betriebene Motoren entwickelt werden, die den Vorteil besitzen, keine Cracker mehr zu benötigen. Für alle Ammoniak-Motoren müssen die derzeitig für Diesel-Motoren eingesetzten Abgas-Nachbehandlungsanlagen speziell angepasst werden, um kein schädliches Lachgas mit einer 300-fachen Klimawirkung im Vergleich zu CO2 zu emittieren.
Fortschritte sind im Bereich der Direkten Ammoniak-Festoxid-Brennstoffzellen (DA-SOFC) zu verzeichnen, da auf Grund des weltweiten Hypes um die Upskalierung der Festoxid-Elektrolyseure mit einer beträchtlichen Kostenreduktion für die Fertigungsverfahren zu rechnen ist. Diese hat den Vorteil eines höheren Wirkungsgrades. Außerdem ist keine Abgasnachbehandlung erforderlich. Mit einem Marktdurchbruch der DA-SOFC in der Schifffahrt ist in 2027 zu rechnen.
Bis dahin müssen allerdings noch andere Hemmnisse adressiert werden. Beispielsweise müssen substantielle Investitionen in den Aufbau einer grünen Ammoniak-Infrastruktur getätigt werden sowie Sicherheitsvorschriften und technologische Lösungen dafür entwickelt und umgesetzt werden, um schwerwiegende Folgen für Personal, Passagiere und Meeresumwelt zu vermeiden.
Die Antwort kommt Dr. Angela Kruth, Sprecherin und Koordinatorin des CAMPFIRE-Bündnisses und Leiterin des Forschungs-bereichs „Materialien für die Energietechnik“ am Leibniz-Institut für Plasmaforschung und Technologie e.V. (INP) in Greifswald.
Ammoniak wird als Flüssigkeit in Druckbehältern gelagert und verdampft als farbloses Gas bei Normaldruck und Temperaturen um -33 Grad Celsius. Ein versehentliches Austreten von wasserfreiem Ammoniak ist eine gefährliche Situation, denn Ammoniak verursacht schwere Verätzungen und kann je nach Konzentration zu starken Schädigungen der Augen, Haut und Atemwege und zum Tod führen. Wegen der niedrigen Geruchsschwelle (bei ca. 5-10 ppm) beginnt die Gefährdung allerdings erst über der Erträglichkeitsgrenze bei 0,5 bis 1 Prozent.
Trotz des Stands der Technik entsprechender Maßnahmen für sicheres Handling von Ammoniak und zur Emissionsminderung für Ammoniak-Lager sowie deren Betrieb sind dennoch Gefahren gegeben. In der Regel führen Nachlässigkeiten bezüglich der Sicherheitsbestimmungen oder Bedienungsfehler zu einem versehentlichen Austritt und möglicherweise zu Verletzungen von Personen. Beispiele sind die Überfüllung von Tanks, die Verwendung von fehlerhaften Ventilen oder deren falsche Bedienung, verschlissene Leitungen oder ein Überhitzen der Tank-Container. Aus diesem Grund darf nur speziell ausgebildetes Personal mit wasserfreiem Ammoniak umgehen.
Die Lagerung von Ammoniak erfolgt in normierten Gebinden von Druckbehältern für bis zu 500 Kilogramm Ammoniak, die vor Erwärmung geschützt werden, um einen Druckanstieg und eine Berstgefahr zu vermeiden. Die Druckbehälter sind außerdem mit Sprühwasserinstallationen versehen, da Ammoniak bei Verdünnung mit Wasser nur noch eine mittelstarke Base bildet. So wird eine 25%ige Ammoniak-Lösung – auch Salmiakgeist genannt – im Haushalt als Reinigungs- und Entfettungsmittel eingesetzt. Alle Lagerbehälter für druckverflüssigtes Ammoniak unterliegen ab 3 Tonnen Lagerinhalt einer Genehmigungspflicht im Rahmen der Baugenehmigungsverfahren und des Immissionsschutzgesetzes. (Zum Vergleich – ein 1-MW-Ammoniak-Schiffsmotor kann mit dieser Menge ungefähr 75 Minuten betrieben werden). So wie für alle anderen Immissionsschutz-relevanten Anlagen sind für Ammoniak-Lager dieser Größe Schutzabstände festgelegt, die sich für Wohngebiete signifikant von denen für Sondergebiete mit gewerblichem oder industriellem Charakter unterscheiden.Die Antwort kommt Dr. Angela Kruth, Sprecherin und Koordinatorin des CAMPFIRE-Bündnisses und Leiterin des Forschungs-bereichs „Materialien für die Energietechnik“ am Leibniz-Institut für Plasmaforschung und Technologie e.V. (INP) in Greifswald.
Tatsächlich schreitet die Entwicklung im Bereich Sprachtechnologie rasant voran. Mit der Synthese der vor Jahrzehnten entwickelten Stimme von z.B. Stephen Hawking (https://en.wikipedia.org/wiki/Dennis_H._Klatt) hat moderne TTS (Text-To-Speech) nicht mehr viel zu tun. Analog zur automatischen Spracherkennung, bei der der Sprachschall in seine Einzelteile zerlegt und analysiert wird, wird bei der Synthese von Sprache aus vielen Einzelteilen wieder eine Stimme zusammengesetzt. Dabei ist teilweise schon die Intonation (Betonung) vorhanden, teilweise wird sie nachträglich unter die Sprachlaute (oder andere Einheiten, vgl. "Unit Selection", https://en.wikipedia.org/wiki/Speech_synthesis) gelegt (https://en.wikipedia.org/wiki/PSOLA). Dies geschieht je nach System mittels verschiedener technologischer Ansätze. Manche sind technologisch momentan überholt und sind nur noch von Forschungsinteresse, wie die Formantsynthese (vgl.: https://www.youtube.com/watch?v=huq2TSV99hI). Heutzutage haben Maschinelles Lernen (KI) und große Datenmengen das Zepter übernommen. Inwieweit die Sprachausgabe "natürlich" oder "richtig betont" klingt, ist natürlich streitbar, aber der Trend ist, dass sie auch in den kommenden Jahrzehnten "immer natürlicher" und "besser betont" klingen wird. Spannend, evtl. auch unheimlich, wird der Zeitpunkt werden, wenn es nur noch schwierig sein wird den Unterschied zwischen echter und künstlich erzeugter Sprache wahrzunehmen. (Glücklicherweise) wird das bei den Navigationssystemen so schnell wohl nicht eintreten, da die Probleme bei der Ausgabe von Orts- oder Straßennamen doch noch sehr frappierend sind. Man braucht nur einmal über die deutsch-französiche Ländergrenze fahren.
Dies sind ein paar flüchtige Einblicke in die Welt der Sprachsynthese. Praktisch ausprobieren lässt sich moderne Sprachsynthese z.B. via dem BAS web-Service der Phonetik an der LMU, München, vgl. "Mary TTS" auf https://clarin.phonetik.uni-muenchen.de/BASWebServices/interface. Dort kann man selbst eigene Sätze eintippen und akustisch per Stimme ausgeben lassen.
Die Antwort kommt von Dr. Jan Gorisch, wissenschaftlicher Mitarbeiter im Programmbereich „Mündliche Korpora" in der Abteilung „Pragmatik" am Leibniz-Institut für Deutsche Sprache (IDS) in Mannheim.
Wenn LEDs flackern, dann liegt das an deren elektronischer Ansteuerung. Häufig werden LEDs nicht gleichförmig betrieben, sondern gepulst. Über die Pulsbedingungen wird dann deren Helligkeit eingestellt. Bei welcher Frequenz, d. h. ob z. B. bei 100 Hz gepulst wird, kann man nicht generell sagen. Das hängt vom Gerät ab, in dem die LEDs verbaut sind. Wir gehen davon aus, dass man das bei einem Fernseher nicht ändern kann, aber natürlich kann man ggf. den Hersteller kontaktieren. Ob man die Pulsung wahrnimmt, d. h. wie schnell das Auge reagiert, müssten Biologen oder Mediziner beantworten. Soweit wir wissen, kann das menschliche Augen eine Frequenz von 100 Hz nicht mehr wahrnehmen, 50-60 Hz aber häufig schon.
Die Antwort kommt von Dr. Sven Einfeldt, Laborleiter am Ferdinand-Braun-Institut, Leibniz-Institut für Höchstfrequenz-technik (FBH).
Die Technik der Doppelmessermähwerke wird kontinuierlich verbessert, u.a. auch aufgrund ihrer großen Vorteile aus naturschutzfachlicher Sicht. Es gibt mittlerweile eine Vielzahl an unterschiedlicher Technik. Ihre Einsatzschwerpunkte haben diese Geräte auf Naturschutzflächen sowie auf hängigen bzw. wenig tragfähigen Standorten. Ihre Leistungsfähigkeit ist jedoch je nach System deutlich geringer als die der üblichen Mähwerke, wie z.B. Scheibenmäher. Außerdem ist die Wartung höher, vor allem bei nicht selbstschärfenden Systemen. Zu hoffen ist, dass der Einsatz von Doppelmessermähwerken in Zukunft deutlich besser honoriert wird.
Die Antwort kommt von Dr. Karin Stein-Bachinger, wissenschaftliche Mitarbeiterin am Leibniz-Zentrum für Agrarlandschaftsforschung (ZALF).
Natürlich gibt es Obsoleszenz, z.B. im technischen Sinn, im betriebswirtschaftlichen Sinn, in Bezug auf das Design eines Gebrauchsgegenstandes, oder weil dieser aus persönlichen Gründen nicht mehr gewünscht ist.
Das grundlegende Prinzip der Obsoleszenz ist aber der Produktion von technischen Gebrauchsgegenständen inhärent, es wird gewünscht oder billigend in Kauf genommen – und zwar sowohl von den Produzenten wie auch von den Käufern.
Von jedem produzierten Industriegut oder Gebrauchsgegenstand hat der Hersteller eine statistische Lebensdauererwartung festgelegt, die sich am Mitteleinsatz und Preis und den Wünschen der Kunden orientiert. Wer sich ein Paar Schuhe für 20 Euro kauft, ahnt wohl schon, dass sie nicht lange halten werden. Und wenn die Produzenten danach trachten, möglichst billig zu produzieren, wird ein Produkt halt geklebt statt geschraubt. Damit aber wird das Produkt schwerer reparierbar – was generell seine Lebensdauer erheblich erhöhen würde. Auch das Verbauen von Einmal-Akkus in Elektrogeräten, die sich nicht austauschen lassen, ist Teil der Obsoleszenz – aus falsch verstandener Sparsamkeit bzw. natürlich auch im Sinne von künstlicher Nachfrageerzeugung von Produzentenseite erwünscht.
Im Verdacht einer geplanten Obsoleszenz habe ich allerdings oft Software-Hersteller: Da kommt ein neues Betriebssystem auf den Markt, und man muss unter Umständen nicht nur seinen Computer, sondern auch gleich die ganze Peripherie wegwerfen, weil sie mit dem neuen Betriebssystem nicht funktioniert.
Was aber auf jeden Fall gegen Obsoleszenz hilft, ist – so wie kürzlich in der EU für bestimmte (noch zu wenige) Produkte beschlossen – ein Recht auf Reparatur, und die dementsprechende Ersatzteilbevorratung.
Reparatur und reparierbare Produkte helfen gegen Obsoleszenz, geplante und ungeplante. Und Reparieren hilft vor allem, unsere Ressourcen zu schonen, denen wir durch den ständigen Erneuerungszyklus der von uns allzu kurz genutzten und dann weggeworfenen Produkte schweren Schaden zufügen. Langlebigkeit und Reparierbarkeit sind der beste Ressourcen- und Umweltschutz!
Nicht zufällig arbeitet die Natur in vollkommenen Kreisläufen und wir sollten als Menschen auch von ihr die Kultur der Reparatur lernen. Die Repair-Café-Bewegung nimmt Gott sei Dank zunehmend Fahrt auf, nun müssen wir uns auch in Forschung und Entwicklung an das Thema molekulares Recyclen wagen, so wie es die Natur am Ende eines jeden Lebenszyklus natürlicher Objekte macht.
Die Antwort stammt von Prof. Dr. Wolfgang M. Heckl, Generaldirektor des Deutschen Museums (DM) in München, einem Leibniz-Forschungsmuseum.
Langfristspeicher können durchaus einen wichtigen Beitrag zur Energiewende leisten. Insbesondere grüner Wasserstoff oder auch E-Fuels, also aus Ökostrom hergestellte Kraftstoffe, können gleichzeitig als Speicher dienen, aber zum Beispiel auch im Bereich der Mobilität eingesetzt werden, etwa im Schwerlastverkehr, im Schiffs- oder auch im Flugverkehr. Langfristspeicher werden ab einer Größenordnung von 60 Prozent der Stromversorgung aus erneuerbaren Energien besonders wichtig. Dies zeigen unsere Studien:
https://www.diw.de/de/diw_01.c.497990.de/themen_nachrichten/stromspeicher_koennen_die_energiewende_laengerfristig_absichern.html
https://www.diw.de/sixcms/detail.php?id=diw_01.c.497924.de
DIW Aktuell 11/18 Die Energiewende wird nicht an Stromspeichern scheitern
https://www.diw.de/sixcms/detail.php?id=diw_01.c.591126.deDie Antwort kommt von Prof. Dr. Claudia Kemfert, Energieökonomin und Leiterin der Abteilung Energie, Verkehr, Umwelt am DIW Berlin - Deutsches Institut für Wirtschaftsforschung.
Man rechnet bei den Umweltwerten nicht nur die während des Betriebs gemessenen Emissionen und Umwelt- und Klimawirkungen ein, sondern die Werte des gesamten Lebenszyklus. Dabei schneiden alle Verbrennungsmotoren grundsätzlich viel schlechter ab. Bei der Herstellung von Wasserstoff benötigt man sehr viel Ökostrom, und zwar bis zu fünfmal so viel, als wenn man diesen direkt nutzen würde. Der Wirkungsgrad von Elektrofahrzeugen ist sehr viel besser und liegt deutlich über denen von Wasserstoff- beziehungsweise Brennstoffzellenfahrzeugen. Da Wasserstoff aufwendig hergestellt werden muss, ist er kostbar und sehr teuer. Daher sollte er nur dort zum Einsatz kommen, wo es keine direkte elektrische Alternative gibt, insbesondere im Schwerlastverkehr, im Flug- oder auch im Schiffsverkehr, zudem in der Industrie. Der Einsatz von Wasserstoff in Pkw ist pure Verschwendung und zudem enorm teuer. Verglichen mit dem heutigen Benzinpreis tankt ein E-Auto zu einem Drittel der Brennstoffpreise, ein Wasserstofffahrzeug hätte hingegen bis zu dreimal höhere Benzin- beziehungsweise Tankkosten.
Weiterführende Informationen:
Wie umweltfreundlich sind Elektroautos? Eine ganzheitliche Bilanz (bmu.de)
In der Forschung gibt es zahlreiche interessante Studien:
https://www.ffe.de/themen-und-methoden/mobilitaet/1035-klimabilanz-von-elektrofahrzeugenDie Antwort kommt von Prof. Dr. Claudia Kemfert, Energieökonomin und Leiterin der Abteilung Energie, Verkehr, Umwelt am DIW Berlin - Deutsches Institut für Wirtschaftsforschung.
LEDs sind grundsätzlich als Lichtquellen gedacht, sie emittieren Licht anstatt es zu vermessen. Man kann LEDs zur Messung der Lichtleistung „missbrauchen“, d. h. sie als Detektor verwenden. Dazu muss man sie mit spezieller Elektronik betreiben, um sie geeignet vorzuspannen und ein geeignetes Messsignal für die Lichtleistung zu gewinnen. Ob das funktioniert, hängt aber wesentlich von der Bauform der LED ab.
Generell würde man eher spezielle UV-Fotodetektoren verwenden, um Lichtleistungen im UVA- und UVB-Bereich zu vermessen. Wenn es um die Vermessung des Spektrums geht, d.h. wenn man zum Beispiel wissen will, wie viel Strahlung im UVA-Bereich im Vergleich zum UVB-Bereich vorliegt, würde man kalibrierte Spektrometer verwenden.
Die Antwort kommt von Dr. Sven Einfeldt, Laborleiter am Ferdinand-Braun-Institut, Leibniz-Institut für Höchstfrequenztechnik (FBH).
Es gibt viele etablierte Methoden, um Trinkwasser aus Meerwasser und Salzwasser zu erzeugen. Die meistgenutzten sind die Umkehrosmose, die mehrstufige Entspannungsverdampfung oder die Elektrodialyse. Ihnen gemein ist leider ein hoher Energiebedarf. Die Vereinten Nationen erwarten, dass 2025 14 Prozent aller Menschen von Wasserknappheit bedroht sind. Das Ziel muss daher sein, nicht nur bessere und leistungsfähigere Entsalzungsmethoden zu entwickeln, sondern zugleich auch solche, die weniger Energie verbrauchen und eine bessere CO2-Bilanz haben. Elektrochemische Prozesse, wie sie in Energiespeichern wie Batterien und Superkondensatoren zum Einsatz kommen, sind ein vielversprechender Ansatz. Durch das Laden von Elektroden werden nur die gelösten Ionen aus dem Salzwasser entfernt und genau die Menge an Strom verbraucht, die der Ladung der Ionen entspricht. Wie auch bei einem Energiespeicher geht die Ladung dabei nicht verloren, sondern wird bei der Regeneration der Elektroden zurückgeführt.
Die Antwort stammt von Volker Presser, Professor am INM – Leibniz-Institut für Neue Materialien und an der Universität des Saarlandes.
Die Digitalisierung ist im heutigen Leben allgegenwärtig. Kein Wunder also, dass sie auch in die Domäne der Zentralbanken Einzug hält. Das Aufkommen von Bitcoin im Jahr 2008 und die Ankündigung von Facebooks digitaler Währung Libra im Jahr 2018, die nun nächstes Jahr zumindest in Teilen kommen soll, haben das Interesse der Zentralbanken geweckt und eine gewisse Unruhe verursacht. Denn eben diese Innovationen stellen die ursprüngliche Funktion der Zentralbanken als Schöpfer sicherer Zahlungsmittel in Frage und öffnen zugleich die Tür für weniger zuverlässige Alternativen. Zuletzt haben Zentralbanken begonnen, eine unmittelbare Beteiligung als direkte Produzenten von digitalen Währungen oder digitalem Zentralbankgeld („Central Bank Digital Currency“, CBDCs) in Betracht zu ziehen. So hat die Europäische Zentralbank (EZB) kürzlich ihr Interesse an einer solchen Beteiligung signalisiert. Das Kommuniqué dazu war bisher zwar weitgehend unverbindlich, aber es gibt Anzeichen dafür, dass die EZB die Ausgabe eines „digitalen Euro“ nicht als komplett unrealistisch, sondern vielmehr als eine Frage der Zeit betrachtet.
Die EZB sollte sich das genau überlegen. Bekanntlich bergen CBDCs Risiken und bieten zugleich mögliche Vorteile; beides wird in einem kürzlich erschienenen Bericht der Bank für Internationalen Zahlungsausgleich (BIZ) erörtert. Es ist jedoch wichtig zu sehen, dass einige der mit CBDCs verbundenen Gefahren aufgrund der Besonderheiten der Währungsunion und des geldpolitischen Kontrollrahmens der EZB für den Euroraum von besonderer Bedeutung sind. Zunächst erleichtern CBDCs Runs auf Bankeinlagen, indem sie eine leicht verfügbare und sichere Alternative zu Bankeinlagen bieten. In einer Krise ziehen Einleger und andere kurzfristig orientierte Anleger ihre Investitionen aus unsicheren Banken ab, um Verluste zu vermeiden. Diese Verluste können so groß sein, dass keine Zinsstrafe ausreicht, um von der Flucht abzuschrecken. Jenes Risiko ist größer im Euro-Raum, dessen Bankenunion unvollendet ist, dem eine gemeinsame Einlagensicherung fehlt und in dem Rettungsklauseln existieren, die Verluste auf nicht versicherte Einlagen und andere Finanzierungsquellen zulassen.
Da in bestimmten Ländern die Konzentration an schwachen Banken nach wie vor hoch ist, können Runs leicht den Teufelskreis zwischen maroden Banken und insolventen Staaten wieder aufleben lassen. Euro-Ausstiegsängste können wieder entfacht werden, die bereits in der Euro-Krise von 2010/2011 und erneut in der Griechenland-Krise 2015 aufgetreten sind. Die Wurzel des Übels ist, dass es CBDCs einer nahezu risikofreien Institution (der Zentralbank) gestatten, mit risikoreichen Instituten (Privatbanken) im gleichen Marktsegment (Zahlungsmittel) zu konkurrieren. Dies ist ein Konstruktionsfehler, für den der Euroraum besonders anfällig ist.
Weiterhin würde ein digitaler Euro den operativen Rahmen der EZB stören. Im Rahmen der geldpolitischen Kontrolle des Euro bewegen sich die Geldmarktsätze innerhalb einer Bandbreite, die am oberen Ende durch den Strafzinssatz der Spitzenrefinanzierungsfazilität und am unteren Ende durch den Zinssatz für freie Tagesgeldeinlagen bei der Zentralbank definiert ist. Dieser „Korridor“ hat sich in den vergangenen Jahren nach unten verschoben, und die quantitative Lockerung hat die Marktsätze gezwungen, am unteren Ende dieser Spanne (der „effektiven Untergrenze“) zu bleiben – dem Einlagenzinssatz, der jetzt negativ ist. Der von der Zentralbank für den digitalen Euro festgelegte Zinssatz könnte kaum von dem der Einlagefazilität abweichen. Wenn dies der Fall wäre, würde dies zu Arbitragegeschäften führen, an denen Banken beteiligt wären, möglicherweise mit den Vermögen großer Unternehmen, die nicht im Finanzsektor tätig sind. Infolgedessen würde der Einlagenzinssatz, eine kritische geldpolitische Variable im Rahmen der quantitativen Lockerung, zur Geisel des Zinssatzes für den digitalen Euro, den die Zentralbank möglicherweise aus anderen als geldpolitischen Erwägungen anpassen möchte.
Schließlich wäre ein für alle verfügbarer digitaler Euro mit negativen Zinssätzen eine direkte Besteuerung, die den Bürgern von der Zentralbank auferlegt würde. Jegliche Seigniorage der Zentralbank ist im Wesentlichen eine Form der Besteuerung; der Unterschied wäre, dass bei einer CBDC das Erscheinungsbild anders wäre, was zu einer Besteuerung sowohl in der Form als auch in der Substanz führen würde. Auch wenn es schwierig ist, die politischen und rechtlichen Konsequenzen vorherzusehen, kann man sich durchaus Umstände vorstellen, unter denen die Unabhängigkeit der Zentralbank – zumindest bei der Festlegung des Zinssatzes – in Frage gestellt würde. Auch hier ist das Risiko in der Euro-Zone besonders groß, da die Befugnis zur Besteuerung ein nationales Vorrecht darstellt, das im EU-Vertrag verankert ist.
Die oben genannten Risiken wären dort am stärksten, wo der digitale Euro uneingeschränkt verfügbar wäre. Die Risiken würden gemildert, wenn Beschränkungen auferlegt würden, z.B. durch den Ausschluss von gewissen Inhabern oder die Segmentierung der Vergütung durch die Einführung eines Staffelungssystems. In diesem Fall würden jedoch auch die Vorteile verringert. Und wiederum würde die Segmentierung von möglichen Besitzern digitaler Währungen zu mehreren Arbitragemöglichkeiten führen, die ökonomische Verzerrungen verursachen und möglicherweise im Laufe der Zeit genau diese Segmentierung zerschlagen würden. Die Risiken und Nachteile wären jedoch geringer, wenn die CBDC-Bestände auf offizielle Institutionen wie ausländische Zentralbanken und Staatsfonds beschränkt würden. Eine CBDC-Regelung, die sich an diese Art von Besitzern richtet, würde die Risiken begrenzen und gleichzeitig den doppelten Vorteil bieten, dass die EZB auf dem neuesten Stand der Technologie für digitales Geld ist und die internationale Verwendung des Euro fördert.
Die Antwort stammt von Ignazio Angeloni, Senior Policy Fellow am Leibniz-Institut für Finanzmarktforschung SAFE und Senior Fellow an der Harvard Kennedy School.
Smartphones sind extrem universelle Geräte, die viele Funktionen von früher separaten Geräten übernommen haben. Ich denke, dass die Konzentration weiterer Funktionen im Smart-Phone weitergehen wird. So wird mit hoher Wahrscheinlichkeit die Funktion der Kreditkarte sowie die Funktion des Auto- und Hausschlüssels in das Smartphone wandern.
Ich kann mir gut vorstellen, dass es in Zukunft andere Formfaktoren für Smartphones gibt. So muss z.B. das Gerät nicht wie heute aus einer Einheit bestehen, sondern die Display-Funktion, die Audio-Funktion und die Bedienelemente können getrennt werden. So eine Tendenz sieht man beispielsweise bei den heute noch sehr experimentellen Varianten von Smart-Glasses. Es könnte also eine Art „verteiltes“ Smartphone entstehen.
Ich glaube allerdings nicht daran, dass es noch weitere so universelle Geräte wie das Smartphone geben wird. Für den menschlichen Benutzer ist es ja ein großer Vorteil, so viel Funktionalität wie möglich auf kleinem Raum und mit wenig Gewicht zu bündeln.
Die Antwort stammt von Rolf Kraemer, Abteilungsleiter System Design am Leibniz-Institut für innovative Mikroelektronik (IHP).
Chatten, E-Mails versenden, Informationen auf Webseiten suchen, Online-Banking oder Online-Shopping? Für viele jüngere Menschen ist das selbstverständlich. Doch anderen Bevölkerungsgruppen droht mit der zunehmenden Digitalisierung der Ausschluss von zahlreichen Kommunikations-, Informations-, Unterhaltungs- und Transaktionsmöglichkeiten. Studienergebnisse zeigen, dass ältere Bevölkerungsschichten das Internet deutlich weniger nutzen. Auch ist eine Schere zwischen den Bildungsgraden erkennbar. Personen mit einem niedrigeren Bildungsstatus nutzen digitale Angebote deutlich seltener und auch Frauen nutzen das Internet weniger als Männer (D21 Digital Index 2017/2018).
Die Unterschiede in dem Zugang zu und der Nutzung von Informations- und Kommunikationstechnologien, werden unter den Begriffen digitale Kluft („digital gap“) oder digitale Spaltung („digital divide“) diskutiert. Es wird davon ausgegangen, dass der Zugang zum Internet mit besseren gesellschaftlichen und wirtschaftlichen Chancen einhergeht. Immer mehr Lebensbereiche werden heutzutage digital gestaltet, sei es in der Wirtschaft und Berufswelt, in Bildung und Wissenschaft, in den Medien oder in Politik und Verwaltung. So beeinflusst die Digitalisierung die Art der Kommunikation, das Lernen und Arbeiten ebenso wie das Konsum- und Freizeitverhalten. Für die Kommunikation mit Freunden und Familie nutzen zwei Drittel der Deutschen soziale Medien. Dieses Beispiel zeigt, wie sich die neuen Kommunikationsformen unter anderem auf das soziale Miteinander auswirken. Der digitale Wandel wirkt sich aber nicht nur auf das soziale Miteinander aus, sondern auch auf das berufliche und politische Leben. So sind Menschen ohne Zugang zum Internet aus wichtigen Teilen der gesellschaftlichen Kommunikation ausgeschlossen. Auch wird argumentiert, dass Menschen mit dem Zugang sowie dem Wissen und der Fähigkeit, digitale Technologie zu nutzen, mehr Möglichkeiten haben, um beispielsweise berufliche Kontakte zu knüpfen oder Wissensressourcen abzurufen. Es wird auch davon ausgegangen, dass Minderheiten und Randgruppen wie beispielweise Migranten und Geflüchtete durch die Nutzung von Informations- und Kommunikationstechnologien einen besseren Zugang zu Informationen und Anbindung an die Gesellschaft finden können (Díaz Andrade und Doolin 2016).
Obwohl die Nutzung von Informations- und Kommunikationstechnologien viele neue Chancen mit sich bringt, können gleichzeitig auch negative Effekte auftreten. Daher sind Digitalkompetenzen wichtig, beispielsweise zur Einschätzung von Informationen im Internet, um kommerzielle oder falsche Inhalte zu identifizieren. Auch haben wissenschaftliche Studien vielfältige negative Auswirkungen bestätigt, die Internetnutzer empfinden können: von einem gesteigerten Neidempfinden bei der Nutzung von sozialen Medien bis hin zu psychischen Folgen, welche durch suchtähnliches Internet-Nutzungsverhalten hervorgerufen werden können (Krasnova et al. 2015).
Die Antwort stammt von Antonia Köster, Leiterin der Forschungsgruppe „Digitale Integration“ am Weizenbaum-Institut für die vernetzte Gesellschaft. Das Weizenbaum-Institut wird koordiniert vom Wissenschaftszentrum Berlin für Sozialforschung (WZB), einem Mitglied der Leibniz-Gemeinschaft.
Quellen:
- Initiative D21 e. V. (2018/2019) D21-Digital-Index: Jährliches Lagebild zur Digitalen Gesellschaft
- Antonio Diaz Andrade, Bill Doolin (2016) “Information and Communication Technology and the Social Inclusion of Refugees”, Management Information Systems Quarterly
- Krasnova, H., Widjaja, T., Buxmann, P., Wenninger, H., Benbasat, I. (2015) “Research Note – Why Following Friends Can Hurt You: An Exploratory Investigation of the Effects of Envy on Social Networking Sites among College-Age Users”, Information Systems Research
Zu beiden Fragen gemeinsam ist zu sagen: Das Wissen der Welt / der Menschheit ist sehr differenziert zu betrachten. Es reicht von Erfahrungen, die die Menschen in Papua-Neuguinea, die quasi noch in der Steinzeit leben, an ihre Kinder und Enkel mündlich weitergeben, bis zu umfangreichen digitalen Datenbeständen aus der Klimaforschung oder aus anderen technisch orientierten Fächern der Wissenschaft. Wissen hat viele Facetten, die von Fach zu Fach sehr unterschiedlich sind, und es gibt noch mehr Speicher, auf denen Wissen abgelegt ist. Hier reicht das Spektrum von alten Papyrusrollen z. B. in der Staatsbibliothek Preußischer Kulturbesitz in Berlin, über Massenschrifttum ab Mitte des 19ten Jahrhunderts bis zu komplexen elektronischen Datenbeständen z. B. des RatSWD.
Daher ist die Frage 1. dazu, wie man das Wissen archivieren kann, nicht so einfach zu beantworten. Je nachdem, welche Möglichkeiten und welche Inhalte eine Gedächtnisorganisation hat, kommen viele Wege in Frage. So können mittelalterliche Schriften, die oft wunderbar verziert sind, im Original erhalten werden über eine Restauration und sie müssen dann vor Schäden in der Benutzung geschützt und in klimatisch besonders ausgestatteten Räumlichkeiten gelagert werden. Um die Original zu schonen, können digitale Kopien erstellt werden, die dann über Verfahren der digitalen Langzeitarchivierung digital erhalten werden können. Bei Massenschrifttum ab den 40er Jahren des 19ten Jahrhunderts kann es ausreichen, die Werke zu digitalisieren und die digitalen Kopien über die digitale Langzeitarchivierung zu erhalten. Für weniger zentrale Werke, deren inhaltlicher Wert nicht so groß ist, dass die Verfügbarkeit in elektronischer Form wichtig ist, reicht auch eine Entsäuerung des Papiers. Digitale Forschungsdaten müssen der digitalen Langzeitarchivierung unterzogen werden, sonst veralten Formate, die Software zum Lesen, die Betriebssystem usw. und die Daten können nicht mehr ausgelesen werden. Es gibt kein Verfahren, was alle denkbaren Arten von Wissen und alle Medientypen behandelt, die es weltweit gibt. Es müssen immer eigene Lösungen erarbeitet werden.
Zu Frage 2. ist daher zu sagen, dass die Frage nach der Effizienz stark von der Aufgabe der Gedächtnisorganisation abhängt, die dieses Wissen speichert: Schon aus Kostengründen wird man jeweils das machen können, was man sich leisten kann. „Die“ effektive Methode der Speicherung und der Konservierung gibt es daher auch nicht.
Die Antwort stammt von Monika Zarnitz, Leiterin des Programmbereichs Benutzungsdienste und Bestandserhaltung am ZBW – Leibniz-Informationszentrum Wirtschaft.
Der Brexit ist vor allem für das Vereinigte Königreich selbst eine Katastrophe. Für Europa ist er in erster Linie eine politische Herausforderung, die viel Zeit und Energie gekostet hat, zu Lasten anderer, gravierender Probleme. Für die Menschen in Deutschland gibt es aber wirtschaftlich keinen Grund zur Panik. Ich vertraue darauf, dass London und die restliche EU selbst im Falle eines harten Brexits ein wirtschaftliches Chaos verhindern und sich auf Übergangslösungen einigen, die den größten Schaden abwenden.
Die meisten Menschen in Deutschland werden einen harten Brexit kaum selbst zu spüren bekommen. Vereinzelt könnten Produkte teurer werden, aber dies sollte die Ausnahme bleiben. Einzelne Unternehmen und Sektoren, die besonders stark mit dem Vereinigten Königreich im Handel sind, werden leiden. Insgesamt gehen sechs Prozent der deutschen Exporteure in das Vereinigte Königreich, der Löwenanteil davon sind industrielastige Güter wie zum Beispiel Autos. Ich erwarte dennoch keinen Anstieg der Arbeitslosigkeit in Deutschland durch den Brexit. Denn unsere deutsche Wirtschaft ist stark und unsere Exporteure verkaufen auf der ganzen Welt. Deutschland wird sicherlich einen Preis für den Brexit zahlen müssen. Gemessen am deutschen Bruttoinlandsprodukt dürfte dieser Brexit-Effekt aber sehr gering sein.
Die Antwort stammt von Marcel Fratzscher, Präsident des Deutschen Instituts für Wirtschaftsforschung (DIW Berlin).
Diese Frage kann zunächst ganz klar mit Nein beantwortet werden. Jedes Material in der Lebensmittelverpackung, auch für Getränke und Wasser, braucht eine Zulassung und dafür muss sichergestellt werden, dass das Material, z.B. Polyethylentherephthalat (PET) für Getränke-Flaschen, nicht in das Lebensmittel übergeht, weder das Verpackungsmaterial selbst, noch irgendwelche Zusatzstoffe, wie Farbstoffe oder Weichmacher.
Das gilt aber für das Material in seiner molekularen, also gelösten Form. Anders kann es aussehen, wenn wir hier Mikroplastik betrachten, also mikroskopischen Abrieb der Plastikverpackung. Wir haben am IPF im Auftrag der Sendung WISO untersucht, ob sich Mikroplastik-Partikel in Limonaden finden, die in Plastik(PET)-Flaschen abgefüllt sind. Tatsächlich werden Mikroplastikpartikel < 50 µm in Wasser/Limonadenflaschen gefunden, jedoch in geringen Mengen, wie sie z.B. auch in Trinkwasser aus der Leitung gefunden werden; Mikroplastikpartikel > 50 µm sogar nur sehr vereinzelt, also z.B. 20 Partikel in einer Flasche, was extrem gering ist. Haupteintragsquelle ist aber nicht das Material der Plastikflasche, sondern der Schraubverschluss der Flasche. Wenn dieser aufgedreht wird, wird durch das Aufreißen des Verschlusses Mikroplastik erzeugt, das in die Flasche fällt.
Die Antwort stammt von Brigitte Voit, Wissenschaftliche Direktorin und Leiterin des Institutes Makromolekulare Chemie am Leibniz-Institut für Polymerforschung Dresden (IPF).
Was wäre wenn wir mit neuen Katalysatoren aus Wasser sauberen Treibstoff gewinnen könnten? Wenn unsere Solarzellen effektiver wären und wir Energie dauerhaft speichern könnten? Wenn wir Fahrzeuge bauen könnten die gleichzeitig leichter und stabiler wären? Wenn wir Krebszellen zerstören könnten ohne umliegendes Gewebe zu schädigen? … Nanotechnologien versprechen vielfältige Lösungen zur Verbesserung unseres Alltags. Nicht nur für zukünftige Anwendungen werden Nanotechnologien einen wichtigen Beitrag leisten – bereits heute werden Nanomaterialien dazu genutzt, Produkten neuartige Eigenschaften zu verleihen.
Dabei müssen wir aber auch die sichere Anwendung von Nanomaterialien betrachten. Die speziellen Eigenschaften von Nanomaterialien gehen mit ihrer Kleinheit einher, die der Größe mancher Viren oder körpereigener Eiweißmolekülen entspricht. Zusätzlich können sie aus verschiedensten chemischen Elementen aufgebaut sein. Die Vielfalt der denkbaren Materialtypen und ihre unterschiedlichen Anwendungsfelder erfordern eine umfassende Betrachtung. Entscheidend sind dabei Antworten auf zwei Fragen: Kann das Material grundsätzlich negativ wirken? Kommt es in Kontakt mit Mensch und Umwelt und wenn ja auf welchem Weg?
Aktuell wird daran geforscht, die genaue Wirkweise der Nanomaterialien noch besser zu verstehen, um dieses Wissen in die Entwicklung sicherer Materialien einbringen zu können. Weitere Forschungsaktivitäten zielen darauf ab, neuartige und einfache Testsysteme zu entwickeln, die zuverlässige Aussagen über die Wirkung von Nanomaterialien zulassen. Beides sind Themen mit denen sich der Leibniz-Forschungsverbund Nanosicherheit befasst.
Die Antwort stammt von Annette Kraegeloh und Christiane Petzold, Leibniz Institut für Neue Materialien www.leibniz-inm.de
Weitere Informationen zum Leibniz-Forschungsverbund Nanosicherheit: www.leibniz-nanosicherheit.de.
Klassisch betrachtet würde man die Frage sicher mit einem klaren Nein beantworten.
Metalle sind in der Erdkruste in verschiedenen Mineralien enthalten. Man spricht auch von Erzmineralien, die an manchen Stellen in der Erdkruste stark angereichert sein können. Diese Anreicherungen werden dann Erzlagerstätten genannt, wenn man sie wirtschaftlich abbauen kann. Der Abbau der Erze erfolgt durch verschiedene Bergbauverfahren. Anschließend werden die im Erz enthaltenen Metalle mittels metallurgischer Verfahren ausgebracht. Um Erze aus der Erdkruste zu holen, betreiben die Menschen schon seit mehreren Tausend Jahren Bergbau. Wegen eines steigenden Metallbedarfs ist ein Ende des Bergbaus also bisher nicht abzusehen, zumal mit den Fortschritten in der Forschung auch immer wieder neue, oder besser ausgedrückt andere Metalle in den Fokus rücken, für die man bisher weniger Verwendungsmöglichkeiten hatte. Als aktuelles Beispiel sei hier das Lithium genannt, dessen Bedarf vor allem durch die Verwendung in Akkus stetig steigt. Man wird also weiterhin Bergbau betreiben müssen, um Metalle aus den Lagerstätten zu gewinnen, vielleicht nicht nur auf der Erde.
Doch auf den zweiten Blick ergeben sich vielleicht Perspektiven, die auch zu einer anderen als einer klaren Nein-Antwort führen können.
Weil Metalle so begehrt sind, die natürlichen Ressourcen begrenzt und der Bergbau teuer, wird heute daher auch intensiv Schrott verwertet. Durch Recycling von Metall- und Elektroschrott gewinnt man also quasi Metalle ohne Bergbau. Die Mengen sind aber insgesamt nicht ausreichend, um ohne weiteren Bergbau auskommen zu können. Eine andere Quelle für bestimmte Metalle ist auch das Wasser der Meere. So werden Methoden entwickelt, um z. B. Gold, Lithium und Uran aus dem Meerwasser zu extrahieren. Auch hier ist der klassische Bergbau nicht der Weg für die Gewinnung dieser Metalle, die Metallgewinnung wäre daher ohne Bergbau möglich. Es bleibt also sicher spannend, was die Forschung in Zukunft noch für Möglichkeiten eröffnet, um Metalle zu gewinnen ohne Bergbau zu betreiben.
Die Antwort stammt von Michael Ganzelewski, Sammlungsleiter im Montanhistorischen Dokumentationszentrum am Deutschen Bergbau-Museum Bochum.
Es ist ein allgegenwärtiges Erbe. Tüten, die in der Atmosphäre schweben, Kanister und Bauteile, die in Meeresströmungen zirkulieren; hinzu kommt die schier unendliche Masse von Mikropartikeln in Böden, Flüssen, Trinkwasser. Wir überschwemmen unsere Erde mit Plastik. Die Folgen unseres Verhaltens auf die Umwelt können wir noch gar nicht abschätzen. Wir wissen nur: Dieses Erbe werden wir lange mit uns herumtragen. Denn Plastik ist ein beständiger Werkstoff. Bis seine Grundbausteine, die Polymere, zersetzt sind, können Jahrhunderte vergehen. Wir erforschen eine Alternative: Biopolymere. Anders als herkömmliche Polymere werden sie nicht aus Erdöl gewonnen, sondern von Pflanzen und Mikroorganismen synthetisiert. Viele Bakterienstämme nutzen Polymere als Depots für überschüssigen Kohlenstoff. Wenn sie später Energie benötigen, zerlegen Enzyme die Polymere wieder in ihre Einzelteile. Biopolymere werden also nicht nur biologisch gebildet, sie sind auch biologisch abbaubar.
Im Labor arbeiten wir mit genetisch veränderten Escherichia coli-Bakterien. Wir füttern sie mit Zucker und einem Alkohol, dessen Moleküle sich zu langen Ketten verbinden. Je länger eine Kette ist, desto fester wird das Polymer, kurze Ketten machen es biegsam. In der Natur variiert die Länge dieser Ketten ständig, aber mit unseren E. coli-Bakterien können wir sie genau definieren: Jede Charge entspricht der nächsten. Um die Biopolymere zu ernten, brechen wir die Bakterienzellen auf und reinigen sie. Am Ende haben wir winzige Plastikkügelchen, die man zu Folien, Verpackungen und anderen Dingen verarbeiten kann. Doch noch können Biopolymere auf dem Markt nicht mithalten, weil sie teurer als erdölbasierte Kunststoffe sind. Die Forschung sucht deshalb nach Mikroorganismen, die Polymere aus landwirtschaftlichen Abfällen herstellen können.
Außerdem müsste die Politik klare Vorgaben machen: Alles, was in die Umwelt gelangen könnte, muss biologisch abbaubar sein. In einigen Bereichen setzen sich biologisch abbaubare Polymere schon heute durch. Für die Medizin werden sie zum Beispiel zu Fäden oder Netzen verarbeitet, die sich nach einer Weile selbst auflösen. Diese Netze stützen schwaches Körpergewebe, das sie umwächst und sich langsam festigen kann. Gleichzeitig beginnen die Zellen, die Biopolymere zu verdauen. Wenn die Verletzung verheilt ist, sind die Biopolymere verschwunden. Nichts bleibt zurück.
Die Antwort stammt von Miriam Agler-Rosenbaum, Leiterin des „Biotechnikum“ am Leibniz-Institut für Naturstoff-Forschung und Infektionsbiologie – Hans-Knöll-Institut.
Eine weitere Antwort gibt Johannes G. de Vries, Vorstandsmitglied und Bereichsleiter des Forschungsbereiches Katalyse mit erneuerbaren Rohstoffen am Leibniz-Institut für Katalyse e.V. Rostock (LIKAT):
Müssen wir tatsächlich Plastik ersetzen oder ist nicht ein achtsamer Umgang damit viel besser? Fast täglich werden wir durch die Medien mit riesigen Plastikmüllbergen konfrontiert, mit ganzen Teppichen von Plastikabfällen, die im Meer treiben und sowohl Meerestiere als auch -pflanzen gefährden. Was treibt da eigentlich genau und wie ist es dorthin gelangt?
Schauen wir uns zunächst einmal an, was da so im Meer treibt: hauptsächlich Verpackungsmüll aus Polyethylen (PE) oder Polystyrol (PS) und Flaschen aus PE, Polypropylen (PP) und Polyethylenterephthalat (PET). Grundsätzlich muss man sich die Frage stellen, ob wirklich so viel Plastik verwendet werden muss. Klar ist, dass nur die Reduktion von Plastikverpackungen die Plastikflut eindämmen kann. Nicht jede Tomate oder Gurke muss verpackt werden. Aber ist auch der Ersatz von Plastik durch andere Materialien eine Lösung des Umweltproblems? Nehmen wir das Material Polyethylen (PE), es gibt da zwei Möglichkeiten:
- PE kann in vielen Fällen durch Papier ersetzt werden. Papier ist biologisch abbaubar, hat aber im Vergleich zu PE einen höheren CO2-Fußabdruck (ein Maß für Umweltschädlichkeit). Die Papierproduktion erfordert sehr viel Energie, Wasser und den Einsatz giftiger Chemikalien. Darüber hinaus muss pro Verpackung deutlich mehr Papier als PE verwendet werden, weil es leichter reißt. Letztlich verlieren wir auf der einen Seite, was wir auf der anderen gewinnen.
- Ähnliches gilt für Plastikflaschen aus PE, PP oder PET. Die können durch Glas ersetzt werden. Auch die Produktion von Glasflaschen hat einen höheren CO2-Fußabdruck als die von PE. Und man benötigt mehr Energie für den Transport, weil Glasflaschen deutlich schwerer sind.
Kommen wir abschließend auf die Frage zurück, wie der Plastikmüll ins Meer gelangt. Es gibt noch immer viele Länder, die keine Infrastruktur für die Müllentsorgung haben. Die Menschen dort haben schlichtweg keine andere Wahl, als ihre Abfälle zu vergraben, im Fluss oder im Meer zu entsorgen. Dort gilt es, gut funktionierende, lokale Müllentsorgungs- und Recyclingsysteme aufzubauen. Bis vor kurzem haben auch Schiffe ihre Abfälle ins Meer entsorgt. Das ändert sich aktuell zwar durch neue Gesetze, allerdings noch (zu) langsam. Und die vielleicht wichtigste Ursache: Die Achtlosigkeit und Verantwortungslosigkeit von vielen Menschen auch bei uns in Europa.
Und da wären wir wieder beim Anfang: Wir müssen Plastik nicht verdammen, aber achtsam damit umgehen. Das wichtigste ist, im eigenen Leben das richtige zu tun: Verpackungsmaterial so gut es geht zu vermeiden, u.a. mit wiederverwendbaren Taschen, und unseren Müll verantwortungsvoll zu entsorgen.
Wie jeder andere Preis ergibt sich der Preis für Erdöl durch Angebot und Nachfrage.
Im Fokus vieler Überlegungen und Untersuchungen stehen angebotsseitige Faktoren, die den Preis beeinflussen. Allen voran ist dabei die Produktion selbst bzw. ihre Kapazitäten: Mit höherer Produktion sinkt der Preis und Bottlenecks, sowohl in der Produktion als auch der nachfolgenden Infrastruktur, erhöhen den Preis. Während Produktionsausfälle, beispielsweise durch Konflikte bedingt, den Ölpreis nach oben treiben können, haben wir in den letzten Jahren einen Trend zur bislang vorrangig US-amerikanischen Schieferölproduktion gesehen. Durch diese werden zuvor nicht wirtschaftliche Ölfelder mittels Techniken wie hydraulischem Fracking zu profitablen Ölquellen, welche über die letzten Jahre hinweg ein fester Bestandteil des globalen Ölmarkts geworden sind und durch die Angebotsausweitung den Preis nach unten getrieben haben. Es ist davon auszugehen, dass dieser Trend langfristig anhält und Schieferöl zukünftig auch in anderen Regionen das Angebot erweitert.
Ökonomen haben lange an das Prinzip geglaubt, dass der Preis von Ressourcen wie Erdöl langfristig steigen muss. Empirische Studien haben das allerdings weitgehend wiederlegt. Auch das in Populärmedien oft zitierte Ende von Öl lässt sich in Zahlen nicht nachweisen. Durch neue Funde und verbesserte Technologie sind die nachgewiesenen, verbliebenen Erdölreserven über die letzten Dekaden sogar gestiegen, statt zu sinken. Explodierende Preise wegen eines zur Neige Gehens der globalen Erdölvorkommen lassen sich für die nächsten Dekaden daher ausschließen.
Es spricht aber viel dafür, dass nachfrageseitige Faktoren die großen Unbekannten für den zukünftigen Ölpreis darstellen. In den vergangenen Dekaden ist der Erdölkonsum weitgehend vorhersehbar mit dem Wachstum der Weltwirtschaft mitgewachsen. Zurzeit ambivalente Klima- und Umweltpolitiken aber auch verschiedene Perspektiven für alternative Technologien können auf diesen Pfad für die Zukunft deutlich Einfluss nehmen und damit erhebliche Effekte auf den Preis haben. Auch deshalb sind staatliche Mechanismen wie Steuern auf Mineralölprodukte, aber auch die vieldiskutierte Kohlenstoffdioxidsteuer zentral in der Frage, wie der zukünftige Ölmarkt aussehen wird.
Die Antwort stammt von Dawud Ansari, wissenschaftlicher Mitarbeiter der Abteilung „Energie, Verkehr, Umwelt“ am Deutschen Institut für Wirtschaftsforschung DIW und Mitglied des Leibniz-Forschungsverbundes Energiewende.
Eine zweite Antwort stammt von Klaus-Jürgen Gern, Forecasting Center des Instituts für Weltwirtschaft (IFW):
Die Vorhersage des Ölpreises ist ein notorisch schwieriges Geschäft. Für die Konjunkturprognose (das heißt die kürzere Frist von ca. zwei Jahren) hat sich gezeigt, dass in der Regel die Annahme, dass der gegenwärtige Ölpreis unverändert bleibt, nicht systematisch zu schlagen ist. Denn im gegenwärtigen Ölpreis sind alle Informationen über die Zukunft, die verfügbar sind, durch die Interaktionen der Marktteilnehmer bereits enthalten. Dies gilt auch für absehbare Entwicklungen in der Zukunft, die über Arbitrage mit den Futuresmärkten auf den aktuellen Spotpreis wirken.
Wir weichen allerdings gelegentlich davon ab, wenn bestimmte Szenarien für die Prognose unterstellt werden, die Einfluss auf den Preis haben sollten. So haben wir im vergangenen Jahr angenommen, dass der Ölpreis ab der Jahresmitte deutlich anziehen und gegen Jahresende wieder nachgeben würde. Grund dafür war die Erwartung, dass sich das Ölangebot mit Einsetzen der Sanktionen gegenüber dem Iran verknappen würde und dass anschließend die OPEC (im Verein mit Russland) auf den gestiegenen Ölpreis mit einer Erhöhung ihrer Förderung reagieren würde. Im Prinzip ist dieses Preisprofil auch eingetreten, allerdings war der Preisrückgang deutlich stärker als erwartet und der Grund auch ein anderer, nämlich die Tatsache, dass die USA die Sanktionen für die größten Absatzmärkte des Iran ausgesetzt hatte.
Strukturell hat sich der Ölmarkt dadurch geändert, dass die Fracking-Technologie nicht nur das Ölangebot erhöht hat, sondern auch geeignet ist relativ rasch auf Veränderungen der Marktlage und dadurch verursachte Preisschwankungen zu reagieren. Sinkt der Preis unter die Wirtschaftlichkeitsgrenze (die derzeit wohl zwischen 40 und 50 Dollar/barrel liegt), wird die Bohraktivität und in der Folge auch die Produktion rasch heruntergefahren, steigt der Preis, nehmen auch Bohrungen und Förderung ebenso rasch zu. Diese Flexibilität dürfte das Preisband, in dem der Ölpreis schwankt, in den kommenden Jahren stärker beschränken, als es in den vergangenen Jahrzehnten der Fall war.
Längerfristig ist die große Frage, wie rasch die Umstellung insbesondere im Verkehrssektor auf Elektromobilität gelingt. Dieser Trend, der einer durch das globale Wirtschaftswachstum und insbesondere das Aufholen der Entwicklungs- und Schwellenländer bedingten Zunahme des Energiebedarfs entgegenwirkt, könnte dazu führen, dass der Ölmarkt in Zukunft immer stärker nachfrageseitig begrenzt ist und von daher die Ölpreise eher unter Abwärtsdruck stehen werden.
Mehr Informationen zum Thema finden Sie beim Leibniz-Forschungsverbund Energiewende.
Klima & Umwelt
Die einzige Lagermöglichkeit innerhalb eines Kernkraftwerks ist das Brennelemente-Nasslager, landläufig "Abklingbecken". Es befindet sich im Inneren des Reaktorgebäudes. Die Kompaktlager unserer Kernkraftwerke haben rund 1300 Stellplätze für Brennelemente, das Äquivalent von 6,8 Reaktorkernbeladungen. Mehr passt nicht rein, d.h.
auch in der Vergangenheit wurden die Brennelemente (BE) nach fünf Jahren Standzeit im Becken in Castor-Behälter verladen und in die Standortzwischenlager verbracht. Vor 2005 wurden sie gar nicht am Standort aufbewahrt, sondern zur Wiederaufarbeitung nach La Hague
(Frankreich) gebracht. Aus diesem Prozess muss Deutschland Glaskokillen mit den hochaktiven Reststoffen zur Endlagerung zurücknehmen. Letztgenannte kann man auch technisch nicht mehr in einem Nasslager eines KKW unterbringen.
Die Standortzwischenlager haben zwar nicht die Ausrüstung eines Reaktorgebäudes (1,8 Meter Beton-Außencontainment und innenliegender gasdichter Sicherheitsbehälter aus Stahl), aber sie sind ebenfalls gegen „Einwirkungen von außen“ wie Erdbeben, Flutkatastrophen und Flugzeugabstürze gesichert. Zudem sind die Castorbehälter selber gegen solche Einwirkungen gesichert. Zusammen ergibt das eine hinreichend robuste Barriere gegen diese Einwirkungen.
Die Betreiber der AKW sind bei uns gesetzlich verpflichtet, die Anlage komplett zurückzubauen, sobald sie brennstofffrei ist, d.h. das letzte BE im Castor die Anlage verlassen hat. Auch aus diesem Grund ist eine Lagerung über die übliche Abklingzeit hinaus im Nasslager nicht vorgesehen, denn sie würde den Rückbau verzögern, der Mitte bis Ende der 2030er Jahre vollendet werden soll.
Für die Langzeitlagerung, die bei uns nach Gesetzeslage der einzig erlaubte Umgang mit hochaktivem Atommüll ist, müssen die Brennelemente auf jeden Fall in Lagerbehälter umgepackt und in ein tiefengeologisches Lager verbracht werden, das bei uns ab den 2030er Jahren gebaut werden soll. In einem tiefengeologischen Langzeitlager aber übernehmen geologische und geotechnische Vorkehrungen die "Bewachung" des Atommülls, d.h. nach Verschluss des Endlagers müssen auch keine Wachleute das Lager bewachen und anderes Personal zur Sicherung der Anlage dort arbeiten. Das ist voraussichtlich dann ab den 2080er Jahren der Fall. Die KKW sollten dann schon längst wieder zur „Grünen Wiese“ geworden sein, so sehen das die Rückbaupläne vor.
Die Antwort stammt von Dr. habil. Anna Veronika Wendland, Forschungskoordinatorin in der Direktion des Herder-Instituts für historische Ostmitteleuropaforschung. An dem Marburger Leibniz-Institut befasst sie sich mit der Geschichte der Nukleartechnik in Ost und West.
Zunächst einmal: Für Chemtrails gibt es keine wissenschaftlichen Belege. Was wir als weiße Streifen am Himmel sehen, sind in der Tat die Kondensstreifen der Flugzeuge. Sie entstehen, wenn die Abgase der Flugzeuge auf kalte Luft (meist in der oberen Troposphäre) treffen, und setzen sich wie Wolken aus kleinen Wassertropfen bzw. Eiskristallen zusammen. Ihre Beobachtung lässt sich vielleicht darauf zurückführen, dass Kondensstreifen bei modernen Modellen wahrscheinlicher sind: Denn ihre Abgase sind kühler und haben dementsprechend einen höheren Wassergehalt. Außerdem halten sich die Kondensstreifen länger, weil die Flugzeuge höher fliegen und mehr Wasserdampf ausstoßen. Mehr Informationen dazu finden Sie etwa unter: https://www.quarks.de/umwelt/klimawandel/kondensstreifen-oder-chemtrails-werden-wir-manipuliert/. Auch das Umweltbundesamt, also die für die Umwelt zuständige Behörde des Bundes, hat deutlich gemacht, dass es keine Chemtrails gibt: https://www.umweltbundesamt.de/publikationen/chemtrails-gefaehrliche-experimente-atmosphaere .
Zu Emissionen von Flugzeugen forscht in Deutschland das Deutsche Zentrum für Luft- und Raumfahrt (DLR). Ende 2021 hat es z.B. eine neue Luftfahrtstrategie „Auf dem Weg zu einer emissionsfreien Luftfahrt“ veröffentlicht:https://www.dlr.de/content/de/artikel/news/2020/04/20201014_deutschland-auf-kurs-zum-klimaneutralen-fliegen.html ) Daten zur Luftqualität finden Sie etwa beim Umweltbundesamt (https://www.umweltbundesamt.de/daten/luft/luftdaten), Auskünfte zur Zusammensetzung des Niederschlags erhalten sie beim Deutschen Wetterdienst (https://rcc.dwd.de/DE/forschung/atmosphaerenbeob/zusammensetzung_atmosphaere/aerosol/inh_nav/regeninhaltsstoffe_node.html).
Die Antwort stammt von der Redaktion.
Um die Auswirkungen des Klimawandels auf den Golfstrom und die thermohaline Zirkulation, zu der er gehört, zu verstehen, müssen wir wissen, wie er funktioniert. Der Golfstrom ist Teil eines großen Systems zirkulierender Meeresströmungen, des so genannten Nordatlantischen Wirbels. Diese Strömungen werden von starken Winden angetrieben, die entlang des Äquators von Ost nach West und in den Subtropen von West nach Ost wehen. Der Golfstrom fließt entlang der Ostküste der USA nach Norden und bringt warmes, tropisches Wasser von der Südspitze Floridas bis etwa 40° Nord, auf Höhe der Stadt Philadelphia. Dort verlässt er die Küste und teilt sich in zwei Zweige. Ein Zweig mündet in den Kanarenstrom, der als Teil des Wirbels entlang der nordwestafrikanischen Küste zurück zum Äquator fließt. Der zweite ist die Nordatlantikdrift, die nach Norden und Osten in Richtung Europa fließt, wo das Wasser einen Großteil seiner Wärme an die Atmosphäre abgibt – also, zusammen mit den Westwinden, Wärme nach Europa bringt.
Je weiter das Wasser nach Norden kommt, desto mehr kühlt es ab. Bei Grönland und noch nördlicher formt sich Meereis, was das Wasser salziger und dichter werden und in die Tiefsee absinken lässt. Dieses Wasser, nordatlantisches Tiefenwasser genannt, fließt dann in etwa 1,5 bis 4 km Tiefe nach Süden Richtung Äquator zurück und gleicht damit wie bei einem Förderband die nordwärts gerichtete Wasserströmung an der Oberfläche aus. Insgesamt verläuft dieses Förderband in einer vertikalen Schleife, genannt atlantische Umwälzung (Atlantic Overturning Circulation).
Durch den Klimawandel steigen auch die Temperaturen in der Arktis und lassen in Grönland mehr und mehr Eis schmelzen. Dieses Schmelzwasser ist Süßwasser und verringert die Dichte des Wassers an der Meeresoberfläche. So sinkt Wasser weniger gut ab und verlangsamt die Strömung des nordatlantischen Tiefenwassers. Mit der Verlangsamung dieses Tiefenrückstroms muss auch der Golfstrom abnehmen, der das absinkende Wasser wieder auffüllt. Wird der warme Golfstrom weniger, der in den Nordatlantik fließt, müsste hier das Wasser an der Ozeanoberfläche kühler werden – und genau das wird in den letzten Jahrzehnten beobachtet.
Wenn wir in Zukunft nichts gegen die Erwärmung unternehmen, wird sich die atlantische Umwälzung, also das riesige Förderband, wahrscheinlich weiter abschwächen. Eine neuere Studie deutet auf eine Verringerung um 34-45 % bis zum Jahr 2100 hin. Aber es ist sehr schwer, vorherzusehen, wie sich die Zirkulation verhält und so bleibt unklar, wie nah wir an einem völligen Stillstand sind. Wenn die tiefe Zirkulation, also das zurücklaufende Förderband, sich weiter abschwächt oder gar versiegen sollte, würde das für Kontinentaleuropa eine Abkühlung und eine Verringerung der Niederschläge mit sich bringen – beides mit massiven Folgen für unsere Lebensweise. Deswegen müssen wir mit aller Kraft daran arbeiten, die Erwärmung zu begrenzen – zum Beispiel durch den Ausstieg aus fossilen Energien.
Die Antwort kommt von Dr. Willem Huiskamp, Klimawissenschaftler und Ozeanexperte am Potsdam-Institut für Klimafolgenforschung (PIK), einem Leibniz-Institut.
Ja, Vulkane können das Klima kurzzeitig abkühlen. So ging beispielsweise 1816 als „Jahr ohne Sommer“ in die Geschichte ein. Kurz zuvor war der indonesische Vulkan Tambora ausgebrochen und hatte große Mengen an Asche in die Atmosphäre geschleudert. Auch der Pinatubo-Ausbruch 1991 auf den Philippinen hatte Auswirkungen auf das globale Klima. Die Aschepartikel sorgten etwa drei Jahre lang für eine Abkühlung von rund einem Grad Celsius, weil sie das Sonnenlicht reduzierten. Ob und wie stark sich ein Vulkanausbruch auf das Klima auswirkt, hängt jedoch davon ab, wie viel Asche er wie hoch in die Atmosphäre schleudert. Asche, die es nicht höher als 10 Kilometer schafft, wird in der Regel nach wenigen Tagen vom Regen ausgewaschen und wirkt sich kaum aus. Winzige Aschepartikelchen, die es dagegen über die Troposphäre mit ihren Wolken hinaus schaffen, können sehr lange in der Atmosphäre bleiben und in der Summe kühlend wirken. Großen Einfluss hat auch die geographische Lage: Globale Auswirkungen haben meist nur Vulkane in der Nähe des Äquators, weil sich ihre Asche über die Nord- und die Südhemisphäre verteilen kann. So katastrophal einzelne Vulkanausbrüche vor Ort auch sind, ihre Wirkung auf das Klima ist, wenn überhaupt, dann nur kurz. Und die Ausbrüche können weder vorhergesagt noch gesteuert werden. Vulkane werden deshalb der Menschheit nicht helfen, den Klimawandel zu bremsen.
Die Antwort stammt von Prof. Dr. Ina Tegen, Leiterin der Abteilung Modellierung atmosphärischer Prozesse am Leibniz-Institut für Troposphärenforschung (TROPOS) und Professorin an der Universität Leipzig.
Politische Verantwortung tragen selbstverständlich die jeweiligen Regierungen der Länder, seit über 20 Jahren gibt es internationale Klimaverhandlungen. Dort haben sich die Länder zu entschlossenen Klimaschutzmaßnahmen verpflichtet. Allerdings waren sowohl die Zielsetzungen als auch die Umsetzungsmaßnahmen bisher unzureichend. Dies liegt auch daran, dass zum Teil schwammige politische Begriffe verwendet wurden, beispielsweise die Klimaneutralität bis 2050. Manche Regierungen haben darunter schlicht business as usual verstanden, sodass die globalen Emissionen eher gestiegen sind statt gesunken. Direkte Sanktionen gibt es keine, außer dass man vertragsbrüchig wird und bei erfolgreicher Klage nachsteuern muss.
Jüngst erlebte dies auch Deutschland durch das Urteil des Bundesverfassungsgerichts, das die Bundesregierung verpflichtet hat, beim Klimaschutz nachzusteuern. Direkte monetäre Sanktionen auf internationaler Ebene gibt es bei Vertragsbrüchigkeit aber nicht.
Die Antwort kommt von Prof. Dr. Claudia Kemfert, Energieökonomin und Leiterin der Abteilung Energie, Verkehr, Umwelt am DIW Berlin - Deutsches Institut für Wirtschaftsforschung.
Eine Übersicht über die Stromproduktion und Stromnachfrage zu jeder Minute im Jahr findet sich beispielsweise bei den Energy Charts (siehe Link unten). Aber auch "Agora Energiewende" bietet jede Menge Übersichten. In unseren Studien zeigen wir, dass eine Vollversorgung mit erneuerbaren Energien zu jeder Tages- und Nachtzeit immer möglich ist. Besonders interessant ist auch die Übersicht des SMC (siehe Link unten), wo Sie die Tage der Versorgungslücken simulieren und herausfinden können, wie eine zukünftige Strom- und Energieversorgung aus erneuerbaren Energien insgesamt aussehen kann. Viel Spaß beim Simulieren!
Links:
https://wie-gelingt-die-energiewende.smc.page/
Die Antwort kommt von Prof. Dr. Claudia Kemfert, Energieökonomin und Leiterin der Abteilung Energie, Verkehr, Umwelt am DIW Berlin - Deutsches Institut für Wirtschaftsforschung.
Die meisten Acrylfarben sind in Wasser löslich. Das bedeutet, dass die Farbe verdünnt und die Partikel im Wasser dispergiert werden - in einem Größenbereich, der mit Mikroplastikmethoden nicht messbar ist. Obwohl es sich um Polymere handelt, ist es vielleicht irreführend, sie hier als Kunststoffe zu bezeichnen. Solche Farben funktionieren, indem sich Polymere zu einem Feststoff verbinden, wenn das Wasser entfernt wird, und dies wäre dann Kunststoff an diesem (festen) Punkt. Wenn Wasser hinzugefügt wird, werden die Farben verdünnt und wenn zu viel Wasser hinzugefügt wird, werden diese Polymere, die so genannten Bindemittel, zu weit voneinander entfernt, um sich richtig miteinander zu verbinden, weshalb Acrylfarben, wenn zu stark verdünnt, keine einheitliche, feste Beschichtung bilden. Wenn sehr große Mengen an Wasser zugeführt werden, wie zum Beispiel beim Ausspülen einer kleinen Menge Farbe in den Abfluss eines Haushalts, werden die Polymere, aus denen das Bindemittel besteht, vollständig getrennt und binden sich überhaupt nicht, sondern bleiben flüssig, wobei mit immer höherer Verdünnung einzelne Homopolymere oder Co-Polymere in Wasser suspendiert sind.
Letztendlich würde ich erwarten, dass die Polymere hydrolysieren, aber wie und wann, ist schwer zu sagen, da die in Farben verwendeten Polymere sehr unterschiedlich sein können und oft ein wohlbehütetes Geheimnis der Hersteller sind.
Es gibt bereits Methoden zur Behandlung von Abwässern, bei denen ein hoher Anteil an Acrylfarbe zu erwarten ist (z. B. Abwasser von Farbenherstellungsbetrieben) mit Hilfe von Koagulation/ elektrochemischen Verfahren (Mehr Informationen in: Da Silva et al., 2016; Körbahti und Tanyolac, 2009; Asilian et al., 2006), aber es ist unwahrscheinlich, dass solche gezielten Behandlungen für häusliches Grauwasser eingesetzt werden. Bitte beachten Sie jedoch, dass dies spekulativ ist.Die Antwort kommt von Dr. Alexander Tagg, Postdoc-Wissenschaftler in der Arbeitsgruppe Umweltmikrobiologie am Leibniz-Institut für Ostseeforschung Warnemünde (IOW).
Die Frage ließe sich kurz beantworten: Das werden wir nicht schaffen. Etwas ausholen möchte ich aber schon:
Mikroplastik wird mehrheitlich definiert als die Plastikteile die kleiner als 5 mm sind, wobei man ab eine Größe unter 100 nm von Nanoplastik spricht. Plastik besteht neben einem Grundgerüst aus Polymeren wie Polyethylen (PE) aus verschiedenen Zusatzstoffen wie Weichmacher und UV-Stabilisatoren.
Es gibt im Bereich Mikroplastik in Böden bisher in jeder Hinsicht nur wenige Kenntnisse. Über Nano-Plastik in Böden gibt es sogar fast keine Kenntnisse, da die Analysemethoden dafür noch nicht weit genug entwickelt sind.
(Mikro)-Plastik gerät in landwirtschaftliche Böden beispielsweise durch Düngung mit Kompost und Klärschlamm, durch Verwendung von landwirtschaftlichen Folien und durch externe Quellen wie dem Abrieb von Autoreifen und Abfall von angrenzenden Straßen. Teilweise kommt das Plastik direkt als Mikro- oder Nanoplastik in den Boden. Darüber hinaus werden größere Plastikteile in den Boden eingetragen und dort durch verschiedene Prozesse in kleinere Partikel zerteilt. Manche solcher winzigen Plastikpartikel werden ziemlich fest in organische Verbindungen in Böden eingebaut, so dass man ab einem gewissen Punkt gar nicht mehr in der Lage ist, sie zu identifizieren, geschweige denn ihre Wirkungen zu erfassen.
Ein mutmaßlich in der Regel sehr kleiner Teil des Mikroplastiks in Böden wird ausgewaschen und durch Erosion ausgetragen. Ansatzpunkte für aktives „Herausbekommen“ von Mikroplastik gibt es aber nicht. Selbst wenn Methoden zur Extraktion von Mikroplastik aus Böden entwickelt werden würden, wäre es unmöglich diese auf allen Böden oder zum Beispiel auf die 11,7 Mio. ha Ackerböden in Deutschland anzuwenden und das auch noch, ohne die Böden dabei massiv zu stören und zu schädigen.
Es muss noch viel geforscht werden, um Prozesse und Risiken durch Mikroplastik in Böden zu erfassen und Möglichkeiten zu bewerten, wie man damit umgehen kann. Letztlich bleibt uns, um möglichst wenig Mikroplastik in unseren Böden zu haben, nichts anderes übrig, als den Eintrag von Plastik in Böden so weit wie möglich zu verringern. Dabei ist es auch wichtig, Plastikeinträge in den Kompost beziehungsweise die Biotonne zu vermeiden. Selbst sogenanntes biologisch abbaubares Plastik sollte dort nicht rein, weil dessen Abbau nur unter speziellen Bedingungen stattfindet, die in natürlichen Umgebungen nicht gegeben sind, und weil auch nicht garantiert ist, dass keine schädlichen Stoffe zurückbleiben.
Die Antwort stammt von Anja-Kristina Techen vom Leibniz-Zentrum für Agrarlandschaftsforschung (ZALF) e.V., die gleichzeitig Wissenschaftlerin im BonaRes-Zentrum für Bodenforschung ist.
Quellen:
- Bläsing M, Amelung W (2018) Plastics in soil: Analytical methods and possible sources. Science of The Total Environment 612:422-435. doi:https://doi.org/10.1016/j.scitotenv.2017.08.086
- Braun M, Amelung W (2019) Synthetische Kunststoffe (Plastik). In: Wilcke W, Wilke B, Litz N (eds) Bodengefährdende Stoffe: Bewertung ‐ Stoffdaten ‐ Ökotoxikologie ‐ Sanierung. Wiley-VCH, Weinheim, pp 1-44. doi:10.1002/9783527678501.bgs2018001
- Rillig MC (2018) Microplastic Disguising As Soil Carbon Storage. Environmental Science & Technology 52 (11):6079-6080. doi: pubs.acs.org/doi/10.1021/acs.est.8b02338
- SAPEA (2019) A Scientific Perspective on Microplastics in Nature and Society. SAPEA, Berlin. doi:https://doi.org/10.26356/microplastics
Die drei Hauptursachen dafür, dass überhaupt Plastik in die Umwelt gelangt, wo es nicht hingehört, sind vor allem mangelhafte Abfallwirtschaft, unangemessenes menschliches Verhalten und Verschmutzung durch die unterschiedlichsten Unfälle. Dies konstatierte der britische Wissenschaftler David Barnes bereits vor zehn Jahren in einer großen Überblicksstudie. Speziell ins Meer sind die Eintragswege für Plastik vielfältig: Die Forschungen an unserem Institut zeigen am Beispiel der Ostsee, dass Plastik oft über Flüsse dorthin gespült wird, aber auch direkt von Strandbesuchern eingetragen werden kann. Auch Schiffsunfälle oder der Schiffsverkehr allgemein sind bekannte Quellen für Plastikmüll im Meer. Für Mikroplastik – also Plastikpartikel kleiner als 5 Millimeter – gilt für die Eintragswege im Prinzip dasselbe wie für Makroplastik. Die Kleinstpartikel werden entweder primär hergestellt, etwa um sie Kosmetika beizumischen, oder sie entstehen sekundär durch den Zerfall von größeren Plastikteilen – schon an Land, wie beispielsweise der Abrieb von Autoreifen, oder im Meer durch die Einwirkung von Wind, Wellen und UV-Licht.
Ob in letzter Zeit tatsächlich immer mehr Plastik ins Meer gelangt, ist schwer zu sagen, da es bislang keine Möglichkeit gibt, das Phänomen der Meeresvermüllung in seinem ganzen Ausmaß systematisch und damit wissenschaftlich belastbar zu erfassen. Aus eigener Forschungserfahrung hier am IOW wissen wir, dass Mikroplastik-Analysen sehr aufwändig sind und man heutige Methoden nur schwer mit der Herangehensweise von vor zehn Jahren vergleichen kann. Fakt ist aber, dass immer mehr Produkte aus Plastik produziert werden, laut PlasticsEurope waren es 335 Millionen Tonnen im Jahr 2016, also über 200 mal so viel, wie zu Zeiten der Anfänge der Plastikproduktion im Jahr 1950 mit 1,5 Millionen Tonnen.
Außerdem ist für uns Wissenschaftler inzwischen klar: Egal wo wir hinschauen, wir finden (Mikro-)Plastik überall: im Erdboden, in der Wassersäule und Sedimenten von Binnengewässern und Meeren weltweit, selbst in entlegensten Gebiete und menschenfernsten Ökosystemen, wie dem arktischen Eis und der Tiefsee. Zudem mehren sich die wissenschaftlichen Berichte darüber, dass Mikroplastik in Lebewesen nachgewiesen wurde. In unseren heimischen Meeren Nord- und Ostsee sind das beispielsweise Miesmuscheln (Mytilus edulis) und der Wattwurm (Arenicola marina), die wichtige Bestandteile des marinen Nahrungsnetzes sind, so dass alle Tiere, die sich davon ernähren, ebenfalls Mikroplastik aufnehmen. Sogar im menschlichen Kot wurde es gefunden – ein Indiz dafür, dass uns Menschen das allgegenwärtige Mikroplastik über die Nahrungskette längst erreicht hat.
Zur Schädlichkeit von Mikroplastik gibt es noch viele offene Fragen, die intensiv erforscht werden – auch hier bei uns am IOW. Aber allein seine Allgegenwart ist besorgniserregend und das, was man jetzt schon über die Schädlichkeit von Plastik in Meeresökosystemen weiß, ist Grund genug, gegen den massiven Plastikeintrag in die Umwelt schnellstmöglich vorzugehen. Eine einzelne Maßnahme reicht da nicht. Auf mehreren Ebenen müssen Schritte ergriffen werden. Zum Beispiel können auf politischer Ebene gesetzliche Bestimmungen und Richtlinien helfen, die Abfallwirtschaft zu optimieren und Schiffs- und anderen Unfällen vorzubeugen. Im Weiteren sollte, wie in der dieses Jahr von der EU verabschiedeten Plastikstrategie vorgesehen, die Kreislaufwirtschaft gefördert und optimiert werden. Hierbei ist die Interaktion und Absprache von Plastik produzierender und Recycling-Industrie sehr wichtig: Komponenten im Plastik oder Plastikmischungen, die ein Recycling erschweren und nicht unbedingt nötigt sind, sollten vermieden werden.
Es kann aber auch jeder Einzelne etwas bewirken. Als Verbraucher können wir unseren Plastikkonsum überdenken und nach den „RRRR“-Ansätzen – Reduce, Reuse, Replace und Recycle – handeln. Das heißt für jeden Einzelnen:
- bewusst weniger Plastik verbrauchen oder Plastik mehrfach verwenden
- Alltagsgegenstände aus Plastik durch solche aus anderen Materialien ersetzen
- verbrauchtes Plastik sinngemäß entsorgen und somit dem Kreislauf wieder zuzuführen.
Plastik ist in der Regel sehr beständig, ein Grund warum wir es so intensiv in vielen Bereichen nutzen. Wir sollten uns dieser eigentlich sehr wertvollen Eigenschaft von Plastik wieder bewusst werden und wieder gezielt Gebrauch davon machen, anstatt Plastikprodukte nach kurzer Nutzdauer als unbrauchbar und wertlos zu entsorgen.
Die Antwort stammt von Franziska Klaeger, Koordinatorin des Forschungsprojektes MicroCatch_Balt am Leibniz-Institut für Ostseeforschung Warnemünde (IOW).
Die heutigen Mittvierziger in Deutschland müssen zurückblickend auf ihre Kindheit in den 80ern feststellen, dass es damals doch deutlich mehr Tage mit „Rodelwetter“ gab. Gleiches gilt für deren Eltern, blicken sie auf ihre Zeit in den 50er oder 60er Jahren zurück. Dank langer Wetteraufzeichnungen lässt sich diese subjektive Wahrnehmung durch Messdaten heute wissenschaftlich belegen und in einen größeren Zusammengang stellen. Monatsmitteltemperaturen fallen gegenwärtig häufiger zu warm aus als noch in der Vergangenheit und die Anzahl der Tage mit Dauerfrost haben spürbar abgenommen. Im Flachland fällt kaum noch Schnee, geschweige denn bleibt er auch über mehrere Tage liegen, und in den Mittelgebirgen verlagert sich die Schneesicherheit immer weiter in die höheren Kammlagen. Wenn es denn doch mal schneit, dann durchaus auch mal kräftiger. Doch das sind eher Ausnahmen. Was die heutigen Kinder in 30 Jahren ihren Nachkommen mal später über den Winter und Schnee berichten werden, bleibt offen. Klar ist: Messdaten werden die Entwicklung weiter dokumentieren und zeigen, was nach physikalischen Grundprinzipien längst absehbar schien.
Die Antwort stammt von Peter Hoffmann, Experte zum Thema „Climate Impacts & Vulnerabilities“ am Potsdam-Institut für Klimafolgenforschung (PIK) .
Der kalendarische Frühlingsanfang, auch astronomischer Frühlingsanfang genannt, wird durch jenen Tag definiert, an dem auf der Nordhalbkugel zum ersten Mal im Jahr Tag und Nacht gleich lang sind, die Sonne also den Himmelsäquator überquert. Beginnend mit dem kalendarischen Frühlingsanfang werden die Tage demnach wieder länger als die Nächte. Dieser Tag kann kalendarisch gesehen auf den 19., 20. oder 21. März fallen. Da dieser schwankende Beginn für klimatologische Auswertungen unvorteilhaft ist, wurde in der Meteorologie festgelegt, dass immer ganze Monate in die Jahreszeitenstatistik einfließen sollen, folglich Jahreszeiten am Monatsanfang beginnen. Die Wahl für den Frühlingsanfang fiel auf den 1. März. Obwohl der 1. April eigentlich deutlich näher am kalendarischen Frühlingsanfang läge, bietet sich die Klassifizierung des März als Frühjahrsmonat an, da dieser in unseren nördlichen Breiten im langjährigen Mittel deutlich wärmer ausfällt als die anderen Wintermonate Januar und Februar und auch wärmer als der Dezember, der folglich ebenfalls dem meteorologischen Winter zugeschlagen wird. Damit beginnen alle meteorologischen Jahreszeiten im Schnitt ca. 3 Wochen vor den kalendarischen Jahreszeiten.
Die Antwort stammt von Robert Wagner vom Leibniz-Institut für Troposphärenforschung (TROPOS)
Biomasseverbrennung galt lange als klimaneutral da die Bäume im Wald im Gegensatz zu fossilen Brennstoffen nachwachsen. Gemessen an Kohle oder Erdöl und -gas stimmt das zwar, aber diese Einschätzung gilt inzwischen nicht mehr als zeitgemäß. Zum einen sind diese fossilen Brennstoffe eben nicht mehr der Maßstab, sondern Wind- oder Solarenergie. Und zum anderen ist die Nachfrage nach Holz inzwischen so stark angewachsen, dass es fraglich ist, ob überhaupt genug Waldflächen zur Verfügung stehen können, um ausreichend Brennholz nachhaltig zu produzieren.
Gegen ein Verbrennen von Holz nur der Gemütlichkeit wegen gibt es viele Argumente: Im jüngsten Bericht des Weltklimarates (IPCC) ist von so genannten negativen Emissionen die Rede, um die Klimaerwärmung zu bremsen. Das heißt: Die Menschheit sucht händeringend nach Möglichkeiten, Kohlenstoff aus der Atmosphäre zu entnehmen und einzulagern. Das Aufforsten von Wäldern könnte eine Variante sein, die natürlich nur funktioniert, wenn der Kohlenstoff im Holz bleibt und nicht im Kamin wieder zu Kohlendioxid in der Luft wird. Dafür, dass ihr Brennholz am lebenden Baum mehr für das Klima tun kann als im Kamin, sprechen noch andere Gründe: Alte, möglichst natürliche Wälder können wesentlich mehr Kohlenstoff speichern als junge, künstliche Wälder. Und je älter und größer ein Baum wird, umso mehr kann er zum Beispiel im Sommer im Hinterhof Schatten spenden und kühlen. Naturnahe Wälder helfen nicht nur dem Klima, sie tragen auch zum Schutz der Artenvielfalt bei – eine weitere große Herausforderung, vor der die Menschheit aktuell steht. Und nicht zuletzt tun Sie etwas Gutes für Ihre Gesundheit, wenn Sie auf das gemütliche Kaminfeuer verzichten: Deutschlandweit produzieren die Kaminöfen inzwischen mehr Feinstaub als der gesamte Straßenverkehr. Dazu kommen viele polyzyklische aromatische Kohlenwasserstoffe, die krebserregend wirken. Ähnliches gilt auch für bedrucktes Papier – egal ob trocken oder feucht. Das klassische Holzfeuer ist eine Erfindung aus der Steinzeit, die eben insgesamt nicht mehr zeitgemäß ist, wenn wir Klima, Artenvielfalt und Gesundheit schützen wollen. Schließlich möchten wir heute deutlich älter werden als unsere Urahnen, die Mammuts auf offenem Feuer gegrillt haben. Der Trend zum Kamin ist daher leider ein Schritt rückwärts.
Die Antwort stammt von Hartmut Herrmann vom Leibniz-Institut für Troposphärenforschung (TROPOS).
Die Oberflächentemperaturen flacher Seen folgen meist dem Trend der Lufttemperaturen. Im Zusammenhang mit der globalen Erwärmung sind die sommerlichen Oberflächentemperaturen von Seen seit 1985 um 0.34°C pro Jahrzehnt angestiegen (O’Reilly et al. 2015). Tiefe Seen, die im Winter normalerweise eisbedeckt sind, weisen sogar einen durchschnittlichen Erwärmungstrend von 0.72°C auf, wenn sie in Gebieten liegen, in denen neben den Lufttemperaturen auch die Sonneneinstrahlung ansteigt – also der Bewölkungsgrad abnimmt.
Das hat vor allem zwei Gründe: Erstens führt die Kombination aus kürzerer Eisbedeckung und klimatischen Veränderungen wie höherer Lufttemperatur und stärkerer Strahlung dazu, dass Seen zeitiger im Frühjahr eine thermische Schichtung ausprägen. Über viele Monate durchmischt sich dann ihre Wassersäule nicht mehr bis zu den kühleren Schichten am Grund des Gewässers, sodass sich das Oberflächenwasser stärker erwärmen kann als die vergleichbaren Lufttemperaturen. Zweitens sind Seen in der Lage, die Wärme der Sonnenstrahlung zu akkumulieren und zu speichern. Die Eis- und Schneedecke in den Wintermonaten wirkt dem entgegen, da sie einen Großteil der Strahlung reflektiert. Je kürzer also die Eisbedeckung andauert, desto schneller erwärmt sich ein See – eine Wechselwirkung ähnlich wie wir sie aktuell in der Arktis beobachten können. Eine gegenläufige Tendenz zeigt sich aber z.B. in Hochgebieten, wo durch die Klimaveränderungen die atmosphärische Transparenz abnimmt. Seen bekommen dort weniger Strahlungswärme und so steigt ihre Temperatur langsamer als die Lufttemperaturen.
In unserem Dossier „Seen im Klimawandel“ erklären wir übrigens, welchen Veränderungen Seen schon heute unterliegen und welche Szenarien wir voraussichtlich zu erwarten haben.
Die Antwort stammt von Rita Adrian, Abteilungsleiterin Ökosystemforschung am Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB).
Der beobachtete Meeresspiegelanstieg der letzten 100 Jahre ist eine direkte Auswirkung der globalen Erwärmung, mehrere Jahrtausende lang war der Meeresspiegel zuvor recht stabil. Gegenwärtig steigt der Meeresspiegel um etwa 3 mm pro Jahr, die Geschwindigkeit des Anstiegs hat sich in den letzten Dekaden deutlich beschleunigt. Der Meeresspiegel steigt durch die Erwärmung der Ozeane sowie das Schmelzen von Gebirgsgletschern und der Eisschilde Grönlands und der Antarktis. Projektionen zum Anstieg des Meeresspiegels bis zum Ende des Jahrhunderts hängen stark davon ab, wie viele CO2-Emissionen künftig emittiert werden. Im schlechtesten Fall könnte der Meeresspiegel bis 2100 um bis zu einen Meter steigen, im Vergleich zu Beginn des 21.Jahrhunderts. Es ist jedoch wichtig zu wissen, dass Veränderungen der Ozeane und der Eisschilde über sehr lange Zeiträume stattfinden, und dass der Meeresspiegel nicht direkt mit der globalen Temperatur steigt. Auch wenn es der Menschheit gelingt, das Klima in diesem Jahrhundert zu stabilisieren, wird der Meeresspiegel noch auf einige Jahrhunderte weiter ansteigen – angestoßen durch unsere CO2-Emissionen der Vergangenheit. Deshalb ist es auch so wichtig, welchen Pfad die Menschheit jetzt einschlägt zur Vermeidung weiterer Klima-Emissionen. Denn was wir tun oder nicht tun, wird sich noch lange auf den künftigen Meeresspiegelanstieg auswirken.
Die Antwort stammt von Andrey Ganopolski vom Potsdam-Institut für Klimafolgenforschung (PIK).
Ja, der Klimawandel ist menschgemacht. Beim Heizen, Autofahren oder in unseren Fabriken verbrauchen wir sehr viel Energie. Um diese Energie zu erzeugen, verbrennen wir Kohle, Öl, Gas und dabei entsteht Kohlendioxid. Seit der Industrialisierung gelangt deshalb viel mehr Kohlendioxid in die Luft als zuvor und es wird immer wärmer: Die Gletscher in den Bergen schrumpfen, das Eis an den Polen schmilzt, Hitzewellen und Dürren belasten Natur und Mensch, Wetterextreme wie Stürme oder Starkregen nehmen zu.
Am PIK erforschen wir das Klima der Vergangenheit über Millionen von Jahren: In der Erdgeschichte gab es zwar Zeiten, in denen noch mehr Kohlendioxid in der Atmosphäre war als heute. Doch wir verändern die Kohlendioxid-Konzentration, und damit die Temperatur, gerade viel rasanter als bisher in unserer Erdgeschichte. Das gesamte Erdsystem hat dadurch viel weniger Zeit sich daran anzupassen. Die seltenen Ereignisse der Erdgeschichte, in denen sich die Temperaturen sehr schnell und stark änderten, hatten dramatische Auswirkungen für die Erde und ihre Lebewesen. Da wir die heutigen Klimaveränderungen verursachen, können wir sie aber auch aufhalten: etwa, indem wir weniger Auto fahren und fliegen, auf Windstrom statt auf Kohlekraftwerke setzen oder Energiesparbirnen statt Glühlampen verwenden.
Die Antwort stammt von Julia Brugger, Potsdam-Institut für Klimafolgenforschung (PIK).
Ja, wir können das Klima stabilisieren, doch wir stehen dabei vor einer riesigen Herausforderung: Abgase aus Kraftwerken, Autos und Flugzeugen tragen dazu bei, dass es auf der Erde immer wärmer wird. So haben wir unser Klima seit Beginn der Industrialisierung global bereits um 1°C aufgeheizt, die Folgen wie Wetterextreme waren im vergangenen Sommer auf der gesamten Nordhalbkugel spürbar. Wenn wir so weiter machen wie bisher leben wir Ende des Jahrhunderts wohl in einer 4°C wärmeren Welt.
Auf der Pariser UN-Klimakonferenz 2015 haben sich Vertreter aus allen Ländern der Welt deshalb auf die Begrenzung des Klimawandels geeinigt, mit einem anzustrebenden Ziel von 1,5°C globaler Erwärmung. Wenn uns das gelingt, erhöhen wir unsere Chancen, den Anstieg des Meeresspiegels und das Risiko verheerender Wetterextreme zu begrenzen. Jedes zehntel Grad könnte einen Unterschied machen, daher müssen wir rasch handeln. Und dabei zählt der Beitrag jedes einzelnen von uns: weniger Fleisch und mehr regionales, saisonales Gemüse, Fahrrad, Bus und Bahn statt Auto und Flugzeug.Die Antwort stammt von Julia Brugger, Potsdam-Institut für Klimafolgenforschung (PIK).
Kosmos & Physik
Die maximale Ausbreitungsgeschwindigkeit von Signalen ist eine grundlegende Eigenschaft der Raumzeit unseres Universums. Warum unser Universum so ist, wie es ist, wissen wir letztlich nicht. Das "Warum" können wir nicht direkt untersuchen, das "Wie" schon – also wie sich die Raumzeit verhält, wie sich Signale ausbreiten, was passiert, wenn wir versuchen, etwas auf Überlichtgeschwindigkeit zu beschleunigen, und welche Folgen sich ergeben würden, wenn das irgendwie gelingen würde.
Experimentell misst man, dass sich Licht im Vakuum immer mit der gleichen Geschwindigkeit ausbreitet, egal, wie schnell sich die Messapparatur selbst bewegt. Das ist anders als bei Wasserwellen, welche sich relativ zu einem Schiff, je nach dessen Fahrtrichtung und Tempo, unterschiedlich schnell bewegen. Die Geschwindigkeit des Lichts im Vakuum gilt deswegen als Naturkonstante. Diese Entdeckung war Anstoß für Einstein, die Relativitätstheorie zu entwickeln.
Theoretisch könnte man anstatt Licht einer elektromagnetischen Welle auch Gravitationswellen nutzen. Vor wenigen Jahren konnte man deren Geschwindigkeit erstmals messen. Bei der Kollision zweier Neutronensterne entstanden sowohl elektromagnetische als auch Gravitationswellen. Diese kamen nach 140 Millionen Jahren Signallaufzeit mit einem Abstand von nur 1,7 Sekunden auf der Erde an. Auch diese minimale Abweichung lässt sich plausibel damit erklären, dass das elektromagnetische Signal etwas später abgestrahlt wurde.
Gravitationswellen bewegen sich also auch mit Lichtgeschwindigkeit.
Man könnte auch Teilchen (wie Elektronen) auf hohe Geschwindigkeit beschleunigen und zur Signalübertragung nutzen. In Teilchenbeschleunigern zeigt sich aber, wie auch theoretisch erwartet, dass man immer mehr Energie für eine weitere Beschleunigung aufwenden muss, je näher man der Lichtgeschwindigkeit kommt. Formal würde man unendlich viel Energie brauchen, um die Lichtgeschwindigkeit zu erreichen. Dieser Ansatz scheidet also auch aus.
Würde es hypothetisch gelingen, Signale mit Überlichtgeschwindigkeit zu übertragen, würde die Relativitätstheorie dafür paradoxe Folgen vorhersagen. Ein Signal mit Überlichtgeschwindigkeit würde sich für einen schnell bewegten Beobachter in der Zeit rückwärts ausbreiten. Man könnte dann durch Hin- und Hersenden Nachrichten in die Vergangenheit schicken. Dies wäre für Lotto-Spieler sicher praktisch, würde aber alle unsere Vorstellungen von Ursache und Wirkung über den Haufen werfen.
Die Antwort kommt von Dr. Ewald Puchwein, Wissenschaftler in der Abteilung Kosmologie am Leibniz-Institut für Astrophysik Potsdam (AIP).
Einsteins Allgemeine Relativitätstheorie von 1915 beschreibt die Schwerkraft und hat sich seit über hundert Jahren in vielen Beobachtungen auf der Erde und im Weltall bewährt. Sie beruht wesentlich auf der Beobachtung, dass alle Massen im Gravitationsfeld sich gleich bewegen, wenn Ausgangsort und Geschwindigkeit gleich sind. Einstein nannte diese Beobachtung und das daraus folgende Phänomen, dass ein frei fallender Beobachter keine Schwerebeschleunigung beobachtet, Äquivalenzprinzip. Dieses wurde durch Fallversuche mit unterschiedlich zusammengesetzten Körpern mit hoher Genauigkeit bestätigt. Daraus folgt die Möglichkeit, das Gravitationsfeld durch eine Krümmung der Raum-Zeit zu beschreiben. Die Krümmung wird dabei durch die Massen und Energien der Materie bestimmt. Allerdings gibt es schon angefangen von Einstein selbst verschiedene Versuche, diese geometrische Basis der Beschreibung des Gravitationsfeldes zu modifizieren. Darunter sind Versuche, Einsteins Gleichungen zu verallgemeinern, oder die Einführung eines sogenannten Torsionsfeldes, das lokal ein Drehsinn verursacht. Andere Verallgemeinerungen sind die Einführung von höherdimensionalen Räumen als den vier Raum-Zeit-Richtungen. Motiv ist dabei die Einbeziehung von elektromagnetischen sowie schwachen und starken Kernkräften. Allerdings sind diese Elementarteilchen-Wechselwirkungen viel stärker als die vor allem von großen Massen ausgehenden Schwerewirkungen und haben unterschiedliche Reichweiten. Deshalb werden in den Modellen die über vier hinausgehenden Dimensionen streng getrennt von der Raum-Zeit und mikroskopisch klein gedacht. Bisher sind noch keine neuen experimentell überprüfbaren Voraussagen aus diesen Theorien hervorgegangen.
Im Gegenteil, alle Aussagen der Allgemeinen Relativitätstheorie wurden bestätigt bei Messungen der Rotverschiebung von Signalen und Spektrallinien im Erdschwerefeld, im Feld der Sonne und besonders um kompakte Sterne. Die Theorie wird auch bestätigt durch den Nachweis von Schwarzen Löchern als Endstadien der Entwicklung massereicher Sterne und von supermassiven Schwarzen Löchern in den Zentren von Galaxien. Die Theorie hat auch erfolgreich die Krümmung von Lichtstrahlen am Sonnenrand, um kompakte Doppelsterne und in Galaxien und Galaxienhaufen vorhergesagt. Besonders bemerkenswert ist die Messung von Gravitationswellen, die bei der Verschmelzung von Schwarzen Löchern emittiert wurden. Die Genauigkeit der Bestätigung der Effekte von Einsteins Theorie ist dabei in den letzten Jahren immer besser geworden.
Trotzdem weist die Theorie selbst auf ihre Grenzen hin: Sowohl im Zentrum von Schwarzen Löchern als auch im Urknall versagt die Allgemeine Relativitätstheorie. Aus Analogie zu den anderen Wechselwirkungen vermuten wir, dass diese sogenannten Singularitäten durch Quanteneffekte des Gravitationsfeldes vermieden werden könnten. Eine solche Quantengravitation ist aber noch nicht vollständig entwickelt. Es gibt Ansätze, kleine Abweichungen von klassischen Gravitationsfeldern als Quantenfelder zu beschreiben. Das wird bei der sogenannten Hawking-Strahlung von Schwarzen Löchern und auch bei Quanteneffekten in den ersten Bruchteilen der Entwicklung des Kosmos in einer inflationären Entwicklungsphase wirksam, als die Keime für alle beobachteten kosmischen Strukturen, von Galaxien, Sternen und Planeten, gelegt wurden. Diese Effekte sind aber noch als hypothetisch einzuschätzen, auch wenn wir schon Messungen der Form und des Spektrums der kosmologischen Strukturbildung haben. Eine volle Quantengravitation ist aber noch nicht in Sicht.
Vor der Allgemeinen hat Einstein 1905 seine Spezielle Relativitätstheorie aufgestellt, welche auf der Konstanz der Lichtgeschwindigkeit beruht, von welchem gleichförmig bewegten Messgerät diese auch immer bestimmt wird. Das führte zu einer grundlegenden Umgestaltung unserer Vorstellungen von Raum und Zeit und beeinflusst seitdem alle Bereiche der Physik, die mit großen Geschwindigkeiten und hohen Energien zu tun haben. Besonders wichtig ist die aus der Theorie folgende Äquivalenz von Masse und Energie. Immer hat sich die Spezielle Relativitätstheorie dabei bewährt und verursacht eine große Zahl von grundlegenden Beobachtungen, so dass wir an ihrer universellen Gültigkeit nicht zweifeln.
Die Antwort stammt von Volker Müller. Er forscht seit 1992 am Leibniz-Institut für Astrophysik Potsdam (AIP) zur Kosmologie und lehrte bis zur Emeritierung 2016 an der Universität Potsdam und der Humboldt-Universität in Berlin.
Zeitreisen sind nach derzeitigem Wissen nicht möglich. Zwar hat die Vorstellung, man könnte sich in eine andere Epoche versetzen, immer wieder Eingang in fantastische Romane und Science-Fiction gefunden, aber sie beruht nicht auf wissenschaftlichen Erkenntnissen. Aus der Perspektive der modernen Physik kann man die Möglichkeit jedenfalls ausschließen.
Was es in der Astrophysik allerdings gibt, ist der Blick (aber keine Reise!) in die Vergangenheit des Universums. Da die Lichtgeschwindigkeit einen endlichen Wert hat, braucht das Licht entfernter Objekte (Sterne, Galaxien) bis zu uns eine gewisse Zeit. Das bedeutet, wir sehen diese Objekte, wie sie in der Vergangenheit waren. Für den Mond macht das nur gut eine Sekunde aus, für die Sonne bereits achteinhalb Minuten, für den nächstgelegenen Stern etwas mehr als vier Jahre – und für die fernsten bekannten Galaxien über 13 Milliarden Jahre. Das ist beinahe so viel wie das Alter des Universums seit dem Urknall. Wir sehen diese fernen Galaxien also zu einem Zeitpunkt, als sie noch nicht einmal 1/20 ihres jetzigen Alters hatten. Dieser Blick in die Vergangenheit ist ein ganz wichtiger Aspekt der astronomischen Forschung.Die Antwort stammt von Prof. Dr. Lutz Wisotzki, Leiter der Abteilung Galaxien und Quasare am Leibniz-Institut für Astrophysik Potsdam (AIP) und Professor an der Universität Potsdam.
Sehen wir uns zunächst die im kosmischen Sinne nähere Umgebung unseres Sonnensystems an. Unser Sonnensystem ist Teil der Milchstraße, einer Spiralgalaxie, die aus ca. 100 Milliarden Sternen besteht. Unsere Sonne ist einer davon und befindet sich ca. 26 Tausend Lichtjahre vom Zentrum der Milchstraße entfernt. Sie liegt also eher in einem der "Randbezirke" der Milchstraße.
Unsere Milchstraße wiederum ist Teil einer Galaxiengruppe, die aus der Andromedagalaxie, der Milchstraße sowie einigen kleineren Galaxien besteht. Unsere Galaxiengruppe, genannt Lokale Gruppe, ist nun wieder Teil einer noch viel größeren Galaxienansammlung, des Virgo-Superhaufens, mit einem Durchmesser von ca. 100 Millionen Lichtjahren. Die Lokale Gruppe befindet sich wieder eher in einem "Randbezirk" des Virgo-Superhaufens.
Auf noch größeren Skalen, über Bereiche von mehreren 100 Millionen Lichtjahren gemittelt, sieht das Universum in alle Richtungen recht ähnlich aus. Es findet sich also in allen Regionen dieser Größe ungefähr gleich viel Materie. Bis zu den größten Entfernungen die wir beobachten können, sticht keine Region besonders hervor. Es gibt also keinen Hinweis darauf, dass es irgendwo ein ausgezeichnetes Zentrum des Universums gibt. Man kann sich das ein bisschen so vorstellen, wie in einer Wüste zu stehen und überall bis zum Horizont nur gleichmäßig verteilte Sanddünen zu sehen– dort könnte man auch kein Zentrum der Wüste ausmachen.
Aus theoretischen Überlegungen folgt außerdem, dass das Universum kein ausgezeichnetes Zentrum haben muss. Siehe dazu auch die Antwort auf die Frage "Welche Form hat das Universum und wo liegt sein Zentrum?".
Die Antwort kommt von Dr. Ewald Puchwein, Wissenschaftler in der Abteilung Kosmologie am Leibniz-Institut für Astrophysik Potsdam (AIP).
Danke für Ihre Frage und die Beobachtungen! Dass Sie die Alpen vom Ammersee heute öfter und besser sehen können als vor 70 Jahren, ist plausibel. Der Grund ist einfach: Die Luft ist heute im Schnitt klarer als damals, weil eine Vielzahl von Umweltschutzmaßnahmen wie der Austausch dreckiger Kohleheizungen oder die Partikelfilter in Autos die Atmosphäre sauberer gemacht haben. Vor 70 Jahren war es noch nicht möglich, die winzigen Partikel (Aerosole) in der Luft zu messen. Eine der längsten Messungen in Deutschland sind unsere Messungen in der Region Leipzig, die erst in den 1990er Jahren begonnen haben, aber klar zeigen, dass inzwischen viel weniger Partikel in der Luft sind als früher. Die meteorologische Sichtweite wird übrigens bei den Wetterstationen des Deutschen Wetterdienstes mit erfasst.
Ob der Himmel vor 70 Jahren am Gardasee meist azurblau gewesen war, heute aber meist diesig ist, wissen wir leider nicht, weil wir dort nicht messen. Die Luft am Gardasee wird stark von der Po-Ebene in Norditalien beeinflusst, die eine dicht bevölkerte Region mit viel Industrie und Verkehr ist, was die Umwelt entsprechend belastet. Vielleicht haben Sie die Region noch in Erinnerung, als es in den Nachkriegsjahren noch weniger Industrie gab als heute. Aus Beobachtungen im Urlaub sollten aber besser keine Trends abgeleitet werden, weil man aus wenigen Tagen nicht auf das ganze Jahr schließen kann. Um Ihre These zu bestätigen, bräuchte es tägliche Langzeitmessungen über 70 Jahre. Da uns keine Messdaten dazu vorliegen, können wir leider nicht sagen, ob Ihre Beobachtung stimmt oder nicht.
Die Antwort stammt von Prof. Dr. Andreas Macke, Direktor und Leiter der Abteilung Fernerkundung atmosphärischer Prozesse am Leibniz-Institut für Troposphärenforschung (TROPOS) und Professor an der Universität Leipzig.
Zu diesem Thema gibt es Grafiken, die eine Art Trichter darstellen. Sie sind gar nicht so schlecht. Man muss aber beachten, dass der Trichter nicht beliebig tief ist. Ein Beispiel für gute Bilder sind diese hier. Da sieht man, dass es kein echter Trichter ist, sondern eine Vertiefung mit einem Boden, also kein Loch im Boden. Die Tiefe des Bodens und damit auch die Stärke der Krümmung hängt von der Masse ab. Je weniger Masse, desto schwächer die Krümmung. Die Richtung der Krümmung orientiert sich immer in Richtung der Masse. Wenn also nur ein Objekt da ist, dann zeigt sie ins Massenzentrum. Der Krümmungsvektor ist also an jeder Position anders. Je weiter man weg vom Objekt ist, desto schwächer ist die Krümmung und desto "kleiner" die Länge des Krümmungsvektors. Bei gleichem Abstand von der Masse, aber gegenüberliegender Seite, würde der Vektor (gleich lang, da gleicher Abstand) in die entgegengesetzte Richtung zeigen.
Bei mehreren Objekten ist das Problem nicht so einfach beschreibbar. Dann sind mehrere "Dellen" im Raum und der Vektor zeigt abhängig vom Ort und der Nähe zu verschiedenen Massen unterschiedlich stark in unterschiedliche Richtungen. Ein gutes Bild dazu wäre dieses. Da sieht man zwei Objekte und wenn man sich mal zwischen beide Objekte setzt, dann gibt es eine Stelle, an der sich keine Krümmung zur Sonne oder Erde ergibt. Näher an der Sonne oder näher an der Erde ändert sich die Krümmung in Richtung der jeweiligen Masse. Da beide Objekte unterschiedliche Massen haben, ist die "Gravitationsmitte" auch nicht in der geometrischen Mitte zwischen beiden Objekten, sondern verschoben.
Wenn man jetzt Massen immer größer macht und konzentrierter (z.B. Schwarze Löcher), dann wird der Boden der Delle immer tiefer. Und wenn man gedanklich alle Masse in einen Punkt quetscht, dann entsteht ein unendlich tiefer Trichter. Dort können sich im Grenzfall die Trichterseiten berühren. Die Konsequenzen einer solchen Singularität sind vielfältig - nicht nur die Krümmung des Raumes, auch die Verzögerung der Zeit und die Entstehung einer Umgebung, von der auch Licht nicht entweichen kann (Stichwort Ereignishorizont beim Schwarzen Loch).
Eine kleine Anmerkung noch: Bei der Krümmung des Raumes lassen sich mathematisch nicht einfach so Vektoren verwenden, sondern Tensoren. Wenn man also da weitersuchen und mehr drüber wissen will, dann ist das Stichwort "Krümmungstensor".Die Antwort stammt von Philipp Girichidis, Kosmologe am Leibniz-Institut für Astrophysik Potsdam (AIP).
Die Form des Universums ist noch unbekannt. Die einfachste Annahme geht
von einer Kugelform aus, jedoch mit einer so geringen Krümmung, dass es
lokal flach aussieht. In anderen Worten: zwei parallel verlaufende
Laserstrahlen weichen erst nach langer Zeit von ihrer Parallelität ab.
Es könnte aber auch wie ein Donut geformt sein, so dass man, wenn man
lange genug in eine Richtung fährt, wieder an den Ausgangspunkt
zurückkehrt.Es gibt keinen Mittelpunkt des Universums. Genauso verhält es sich übrigens
mit der Erdoberfläche - obwohl die Erde als Kugel einen Mittelpunkt hat,
hat ihre Oberfläche keinen. Die Ausdehnung des Universums kann man sich
wie einen aufgehenden Hefeteig mit Rosinen vorstellen: Alle Rosinen
bewegen sich voneinander weg, befinden sich aber nicht im Zentrum der
Ausdehnung.Die Antwort stammt von Noam Libeskind. Er leitet die Gruppe „Kosmographie und großräumige Strukturen“ am Leibniz-Institut für Astrophysik Potsdam (AIP).
Um eine solche Frage beantworten zu können, braucht man extrem empfindliche Beobachtungen. Mit dem bloßen Auge können wir ja gerade einmal 3 Galaxien am ganzen Himmel erkennen (die Andromedagalaxie am Nordhimmel sowie die Kleine und die Große Magellansche Wolke am Südhimmel). Mit großen Teleskopen sind es viel mehr; am meisten sieht man mit dem Hubble-Weltraumteleskop, das sich außerhalb der Erdatmosphäre befindet und deshalb auch noch ganz schwache ferne Galaxien erkennen kann, die selbst mit den größten Teleskopen am Erdboden nicht zu finden wären. Die meisten Galaxien lassen sich in einer Aufnahme finden, die das Ergebnis einer superlangen Belichtung mit Hubble ist (und auf Englisch das “Hubble Ultra-Deep Field” genannt wird). In einem Gebiet, das einen Winkel von nur einem zwanzigstel Grad am Himmel umfasst (etwa entsprechend einem Stecknadelkopf in einem Meter Entfernung), konnten über 10000 Galaxien gefunden werden. Allerdings ist es undenkbar, den ganzen Himmel auf diese Weise zu erfassen, dafür würde Hubble über eine Million Jahre benötigen. Wir müssen also die Ergebnisse aus dem Hubble Ultra-Deep Field auf den ganzen Himmel hochrechnen; das ergibt dann etwa 100 Milliarden Galaxien am gesamten Himmel. Zusätzlich dürfte es auch noch viele Galaxien geben, die selbst für Hubble zu lichtschwach sind; wenn man deren Anzahl noch hinzuschätzt, vergrößert sich die Gesamtzahl je nach Annahme dann auf bis zu einer Billion Galaxien.
Das ist die Zahl der Galaxien im *beobachtbaren* Universum. Inzwischen wissen wir aber auch, dass das Universum unendlich ist – es gibt also vermutlich auch unendlich viele Galaxien. Die allermeisten davon liegen allerdings außerhalb unseres beobachtbaren Horizonts, wir werden also nie in der Lage sein, ihre Existenz tatsächlich zu bestätigen. Deshalb ist es sinnvoller, sich bei der Beantwortung der Eingangsfrage auf Galaxien im beobachtbaren Universum zu beschränken.
Die Antwort stammt von Lutz Wisotzki, Leiter der Forschungsabteilung Galaxien und Quasare am Leibniz-Institut für Astrophysik Potsdam (AIP) und Professor für „Beobachtende Kosmologie“ an der Universität Potsdam.
Unter dem Urknall verstehen wir Astrophysiker den Anbeginn von Raum und Zeit. Dem gegenwärtigen Wissensstand zufolge gab es anfangs einen heißen Urknall. Durch die Expansion des Universums kühlte es sich im weiteren Verlauf ab. Als Physiker können wir aber keine Aussagen über die exakte Stunde Null treffen, da dort unsere physikalischen Grundgesetze ihre Gültigkeit verlieren und zusammenbrechen. Unsere Theorien sind erst einen winzigen Wimpernschlag später gültig, ab der sogenannten Planckzeit: Diese beträgt etwa 10^{-43} Sekunden, was eine Null Komma Null, gefolgt von weiteren 41 Nullen und einer Eins ist.
Kurz nach der Planckzeit hat das Universum wahrscheinlich eine sehr interessante Phase durchlaufen: Der gegenwärtig favorisierten Theorie der kosmischen Inflation zufolge hat es sich immer schneller ausgedehnt, so dass wir hier von einer beschleunigten Expansion sprechen. Während diese Theorie auf sehr elegante Weise einige Probleme des Standardmodells der Kosmologie löst und es einzelne Beobachtungshinweise auf sie gibt, ist sie noch nicht abschließend nachgewiesen worden. Im Anschluss an diese inflationäre Epoche wurde das Universum wieder abgebremst. Dieser Bremsvorgang hat die Materie wieder auf unvorstellbar hohe Temperaturen aufgeheizt, so dass weder Atome noch Atomkerne existierten und die einzelnen Elementarteilchen (Quarks, Elektronen, …) in der kosmischen Ursuppe miteinander wechselwirken konnten.
Die kosmische Expansion kam dabei allerdings nicht zum Stillstand, das Universum expandierte weiter – jedoch langsamer als zuvor. In den ersten drei Minuten unseres Universums wurden die ersten leichten chemischen Elemente gebacken (zumindest deren Atomkerne), welches die Ära der Nukleon-Synthese darstellt. Durch die kosmische Expansion wurden gegenseitige Teilchen-Stöße immer seltener und schließlich konnten sich neutrale Wasserstoff-Atome bilden. Während Lichtteilchen zuvor mit den geladenen Ionen und Elektronen wechselwirkten, konnte das Licht sich nun ungehindert ausbreiten. Wir können das Licht, welches damals freigesetzt wurde, noch heute empfangen – allerdings verlor es aufgrund der Expansion Energie und wurde in den Wellenlängenbereich der Mikrowellen verschoben. Daher sprechen wir vom kosmischen Mikrowellenhintergrund, welcher es uns ermöglicht, auf sehr genaue Weise die kosmologischen Parameter zu bestimmen und die Theorie des Urknalls (erfolgreich) zu testen. Dieser Mikrowellenhintergrund wurde etwa 400.000 Jahre nach dem Urknall freigesetzt, also relativ kurz nach dem Urknall im Vergleich zum Alter unseres Universums von 13,7 Milliarden Jahren. Würde man das Zeitalter des Universums mit dem eines Menschen vergleichen, so stellten Beobachtungen dieses kosmischen Mikrowellenhintergrunds Babybilder des Universums dar.
Wir haben mittlerweile diese frühen und späten Phasen der kosmischen Expansion genau vermessen und können mit Sicherheit sagen, dass es einen heißen Urknall kurz nach Anbeginn der Zeit gegeben haben muss. Wir können allerdings keine Aussagen über Zeiten vor der Planck-Zeit machen, da für diese kleinen Zeitintervalle unsere physikalischen Gesetze nicht gültig sind. Also können wir auch keine Aussagen darüber treffen, wie der Urknall entstanden sein könnte. Natürlich gibt es auch darüber verschiedene Theorien, wie beispielsweise die (spekulative) Theorie des ekpyrotischen Universums (vom altgriechischen ekpyrosis „Weltenbrand“) welches ein zyklisches Universum darstellt, das sich ausdehnt, wieder zusammenzieht und nach erneuter Kollision wieder expandiert. Diese Frage nach dem Urknall und andere spannenden Fragen der Kosmologie machen den Reiz dieser Wissenschaft aus und geben uns Hoffnung, weitere neuen Erkenntnisse über unser Universum zu erlangen.
Die Antwort stammt von Christoph Pfrommer, Abteilungsleiter „Kosmologie und großräumige Strukturen“ am Leibniz-Institut für Astrophysik Potsdam (AIP).
Bereits Mitte des vergangenen Jahrhunderts bekamen besonders schwere Wirbelstürme im Atlantik und Pazifik vom US-Wetterdienst einen Namen zugewiesen, um sie besser unterscheiden zu können. Seit 1954 werden auf Initiative des Meteorologie-Instituts der Freien Universität Berlin (FU Berlin) alle Hoch- und Tiefdruckgebiete, die das Wetter in Mitteleuropa beeinflussen, mit einem Namen versehen. Die „Tiefs“ bekamen fortan weibliche, die „Hochs“ männliche Namen. Die Benennung erfolgte dabei nach einer Liste, die jeweils 260 Namen (je 10 Namen pro Buchstabe) umfasste und nacheinander vergeben wurden.
In den folgenden Jahrzehnten war dieses System meist nur bei Meteorologen bekannt, bevor in den 1990er Jahren einige schwere Sturmtiefs in den Medien größere Aufmerksamkeit erhielten und damit auch die Namensvergabe von Hoch- und Tiefdruckgebieten. Seit 1998 wechselt die Zuordnung weiblicher und männlicher Vornamen zu Hoch und Tiefs jährlich. Dies geschah zur Vermeidung einer möglichen Diskriminierung von Frauen, da Tiefdruckgebiete landläufig eher mit schlechtem Wetter, Hochdruckgebiete dagegen mit schönem Wetter in Verbindung gebracht werden. Zur Finanzierung ihrer studentischen Wetterbeobachtung bietet die FU Berlin seit 2002 „Wetterpatenschaften“ an. Seitdem können die Namen für Tiefdruckgebiete für 199€ und solche für die langlebigeren Hochdruckgebiete für 299€ von Jedermann erworben werden, z.B. als Geburtstagsgeschenk.
Mittlerweile taufen auch andere europäische Länder vorzugsweise schwere Sturmtiefs, allerdings nach eigenen Kriterien, sodass diese Tiefs je nach Region mehrere, verschiedene Namen erhalten können.
Die Antwort stammt von Robert Wagner vom Leibniz-Institut für Troposphärenforschung (TROPOS).
Die Natur bietet uns eine Vielzahl nachwachsender Rohstoffe. Die Frage ist, ob wir sie für unsere Bedürfnisse überhaupt nutzbar machen und wofür wir sie einsetzen können. Viele der nachwachsenden Rohstoffe gibt es nämlich nicht in ausreichender Menge, was deren ökonomische Verwendung unmöglich macht. Oder ihre einzelnen Inhaltsstoffe lassen sich nur mühsam voneinander abtrennen, wie z.B. bei natürlich vorkommenden Proteinen, die aus 20 verschiedenen Aminosäuren bestehen. Einige nachwachsende Rohstoffe – Stärke und Zucker, z.B. aus Mais, Zuckerrübe oder Zuckerrohr, sind unsere Nahrungsgrundlage. Deren Nutzung für andere Zwecke ist nicht tragbar. Algen werden häufig als nachwachsender Rohstoff mit viel Potential gehandelt. Allerdings wird für deren Anwendung extrem viel Wasser benötigt und viele der Methoden zur Nutzbarmachung sind unwirtschaftlich und letztlich nicht so ökologisch wie erhofft.
Die Bereitstellung ausreichender Mengen von Energie- und Kraftstoffen aus nachwachsenden Rohstoffen ist aktuell nicht realistisch. Deswegen ist die Energiegewinnung aus Sonne, Wasser, Wind und geothermischen Quellen auch so wichtig. Unser Bedarf an Chemikalien allerdings kann durch nachwachsende Rohstoffe gedeckt werden. Bringt uns das weiter? Ja, denn Chemikalien bilden die Grundlage für viele Gebrauchsgegenstände unseres Alltages: so z.B. Medikamente, Reinigungs- & Waschmittel, Lacke & Farben, Kosmetik, Duftstoffe, Düngemittel für die Landwirtschaft und nicht zuletzt Kunststoffe.
Der bislang interessanteste nachwachsende Rohstoff für die Herstellung von Chemikalien ist Lignocellulose. Davon gibt es ausreichende Mengen, z.B. in Form von Holz, als Abfälle der Landwirtschaft oder der Papierindustrie. Genügend, um allen heutzutage existierenden Chemikalien als Rohstoff zu dienen.
Wie geht man also weiter vor? Aus Lignocellulose wird Cellulose abgetrennt und daraus Zucker hergestellt. Der Zucker dient dann entweder als Ausgangsstoff für die fermentative – also biochemische – Herstellung von Chemikalien oder für die Herstellung in katalytischen Prozessen. Zwar werden noch nicht alle heutzutage verwendeten Chemikalien auf diese Weise hergestellt, aber es werden täglich neue Verfahren publiziert da sehr viele Wissenschaftler auf diesem Gebiet arbeiten. Lignin, das nach der Abtrennung von Cellulose aus Lignocellulose überbleibt, kann noch nicht so effektiv genutzt werden. Aber auch auf diesem Gebiet arbeiten Forscher intensiv an Lösungen zur Nutzbarmachung für die Chemikalienherstellung.
Rohstoffe, die heute auch schon Verwendung finden, sind Fettsäuren, die man aus Fetten gewinnen kann und Terpene, die bei der Papierproduktion anfallen. Immer häufiger dienen auch Abfälle aus der Landwirtschaft und sogar der Fischerei – hier sei Chitin genannt – als Rohstoffe. Auch hier gibt es noch Potential.
Es ist natürlich nicht auszuschließen, dass es weitere, noch nicht bekannte nachwachsende Rohstoffe gibt. Es ist aber eher unwahrscheinlich, dass diese in ausreichenden Mengen vorhanden sind.
Die Antwort stammt von Johannes G. de Vries, Vorstandsmitglied und Bereichsleiter des Forschungsbereiches Katalyse mit erneuerbaren Rohstoffen am Leibniz-Institut für Katalyse e.V. Rostock (LIKAT).
Es gibt prinzipiell zwei Arten von Fälschungen bei Diamant:
(1) Imitationen, d.h. Verwendung von natürlichen oder künstlichen Stoffen, die durch Aussehen oder Farbe den natürlichen Diamant imitieren, aber nicht seine physikalischen Eigenschaften oder chemische Zusammensetzung besitzen. Hierzu wird Moissanit, Zirconia, u.a. verwendet. Diese Imitationen können aufgrund der abweichenden physikalischen Eigenschaften (Kristallstruktur, z.B. durch Röntgenanalyse oder Raman-Spektroskopie bestimmbar) oder chemischen Zusammensetzung (z.B. durch energiedispersive Röntgenspektroskopie ermittelbar) erkannt werden. In vielen Fällen hilft auch die Untersuchung der Wärmeleitfähigkeit in Kombination mit der elektrischen Leitfähigkeit. Diese beiden physikalischen Parameter werden einzeln oder in Kombination in vom Handel erhältlichen Diamantenprüfgeräten eingesetzt. Allerdings sind inzwischen auch modifizierte Moissanit-Imitationen auf dem Markt, die von solchen Diamantenprüfgeräten nicht mehr erkennt werden können, so dass hier nur die Ermittlung der chemischen Zusammensetzung und/oder Kristallstruktur weiterhilft.
(2) Synthetische Diamanten, d.h. Diamanten, die in einem industriellen Prozess aus Kohlenstoff durch Hochdrucksynthese hergestellt wurden. Diese unterscheiden sich in ihren physikalischen Eigenschaften und der chemischen Zusammensetzung nicht von natürlich entstandenen Diamanten und sind daher viel schwieriger, manchmal auch gar nicht zweifelsfrei von natürlichen Diamanten zu unterscheiden. Viele synthetisch produzierte Diamanten sind vom Hersteller gekennzeichnet und mit einem durch einen Laser eingravierten Monogramm „CREATED“ + Labor-Identifikationsnummer versehen. Dies kann bei einer optischen Untersuchung des Stückes unter dem Mikroskop erkannt werden. Allerdings halten sich nicht alle Hersteller von synthetischen Diamanten an diese Übereinkunft. Weitere Erkennungsmöglichkeiten von synthetischen Diamanten sind manchmal noch Reste eines metallischen Flussmittels, die sich in winzigen metallischen Körnern als Einschlüsse wiederfinden oder die im Diamant vorhanden Einschlüssen. Hier zeigen synthetische Diamanten oft keine bzw. andere Einschlüsse als natürliche Diamanten.
Die Antwort stammt von Ralf Thomas Schmitt, Kurator der mineralogischen Sammlung am Museum für Naturkunde Berlin.
Die chemischen Elemente sind in mehreren Phasen entstanden:
- In einem Zeitraum von bis zu wenigen Sekunden nach dem Urknall entstanden bei der Abkühlung des Plasma die Bausteine der Elemente, die sich innerhalb von wenigen Minuten zu den leichtesten Elementen Wasserstoff und Helium sowie in geringen Mengen Lithium und Beryllium verbanden.
- Mehrere hundert Millionen Jahre später entstanden die ersten Sterne, in deren heißen Zentren Kernreaktionen einsetzten. Dabei fusionierten Wasserstoff und Helium zu schwereren Elementen. In diesem Prozess können Elemente bis zur Ordnungszahl 26, dem Eisen, gebildet werden.
- Elemente mit höherer Ordnungszahl als 26 entstehen in den letzten Entwicklungsstadien massereicher Sterne, den sogenannten Roten Riesen, und in gewaltigen Sternexplosionen, den Supernovae.
Die Antwort stammt von Ralf Thomas Schmitt, Kurator der mineralogischen Sammlung am Museum für Naturkunde Berlin.
Wie groß ist das Weltall? Die ehrliche Antwort ist: Wir wissen es nicht – und es spielt eigentlich auch keine Rolle. Wir wissen, dass das Universum etwa 13,8 Milliarden Jahre alt ist. Da die Lichtgeschwindigkeit endlich ist, können wir nicht weiter sehen als maximal 13,8 Milliarden Lichtjahre, also die Distanz, die das Licht in dieser Zeit zurücklegen kann. In der Tat kommen wir dieser Grenze sehr nahe, die gemessene kosmische Hintergrundstrahlung entstand, als das Universum gerade einmal 400.000 Jahre alt war.
Wir erreichen die theoretische Grenze unseres Horizonts also bis auf 400.000 Jahre. Innerhalb dieses Horizonts sehen wir keinerlei Hinweise auf eine Grenze, im Gegenteil: Alles spricht dafür, dass das Universum sehr viel größer ist als der Teil, den wir beobachten können. Womöglich ist es sogar unendlich groß. Allerdings hat die genaue Größe auch keine unmittelbare Bedeutung, denn da sich alle Kräfte im Kosmos ebenfalls maximal mit Lichtgeschwindigkeit ausbreiten können, entfalten mögliche Bereiche des Universums außerhalb unseres Horizonts auf den uns sichtbaren Bereich keine Wirkung.
Die Antwort stammt von Matthias Steinmetz, wissenschaftlicher Vorstand des Leibniz-Instituts für Astrophysik Potsdam (AIP) und Direktor des Forschungsbereichs Extragalaktische Astrophysik.
Kommt darauf an, was man mit Außerirdischen meint. Bislang hat die Menschheit einige Tausend Planeten in anderen Sonnensystemen entdeckt. Diverse davon befinden sich in einer Umlaufbahn, wo theoretisch flüssiges Wasser auf der Planetenoberfläche existieren könnte – dies gilt allgemein als eine Grundbedingung für Leben, wie wir es kennen. Wenn man von den bisher entdeckten Planeten hochrechnet, dann kann man sogar erwarten, dass etwa einer von sechs Sternen einen erdähnlichen Planeten in dieser sogenannten „bewohnbaren Zone“ beherbergen könnte. Damit kommt man auf wirklich sehr viele Planeten allein in unserer Milchstraße, auf denen sich Leben entwickelt haben könnte – vermutlich mehr als 10 Milliarden. Zumindest das Entstehen von einfachen Lebensformen wie Bakterien auf irgendeinem anderen Planeten ist bei einer solch großen Zahl von Chancen nicht unwahrscheinlich. Wenn man mit Außerirdischen aber nicht Einzeller, sondern ganze Zivilisationen meint, dann wird es natürlich sehr viel schwieriger. Da bleibt als Antwort nur ein sehr dehnbares „Vielleicht“.
Die Antwort stammt von Katja Poppenhäger vom Leibniz-Institut für Astrophysik (AIP).
Kunst, Kultur & Philosophie
Wie jede Frage enthält auch diese dreiteilige schon viele Antworten und Annahmen. Drei Annahmen erscheinen mir bemerkenswert. Die beiden ersten sind problematisch; die dritte ist schön und liefert im Grunde auch schon einen Ansatz für eine aussichtsreiche Antwort.
(1) Die erste implizite Voraussetzung der Frage ist, dass es „den Sinn des Lebens“ gibt. Problematisch daran sind vor allem der Singular und das Subjekt, das diesen Sinn erfahren könnte. Denn zweifellos erfahren sehr viele Menschen einen Sinn in ihrem Leben, dieser jeweilige Sinn unterscheidet sich aber vielfach. Er kann in der gewissenhaften Erfüllung der eigenen Aufgaben liegen, im Austausch mit anderen, in der Unterstützung und Förderung anderer Menschen oder nichtmenschlicher Wesen, im Kampf für Werte wie Gerechtigkeit, demokratische Rechtsstaatlichkeit und Frieden oder gegen Armut, Unterdrückung und Krieg, in der bewussten Gestaltung des näheren oder weiteren eigenen Umfeldes, im Schaffen von Werken und in vielem mehr. Ob aber in dieser Vielfalt das eine Subjekt „der Menschheit“ noch einen Sinn wird erfahren können, ist eine Frage, die zumindest schon einmal eine größere Konjunktur hatte als in unserem Zeitalter der Diversität. Eine klassische (geschichtsphilosophische) Antwort auf die Frage lautete: Kultivierung, Zivilisierung, Moralisierung – diese drei Schritte könnten, Immanuel Kant zufolge, unserer Gattung einen orientierenden „Leitfaden“ geben. Gemeint ist damit bei Kant unter anderem ein Kampf gegen „Ungleichheit“ und „Unterdrückung“ – eine weitere Einengung der Vielfalt sinnvoller Ziele im Leben der Einzelnen ist damit aber nicht verbunden. Eine daran anschließende Antwort könnte also lauten: Wenn die Menschheit den Sinn des (d.h. ihres) Lebens erfahren würde, dann hätte sie eine Gesellschaft geschaffen, in der es keine Ungleichheit und Unterdrückung mehr gibt, in der alle ihren besonderen Interessen nachgehen können, ohne die anderen in der Ausübung ihrer Interessen einzuschränken. „Moralisch“ wäre dieser Zustand in dem Sinne, dass das Fremde im Eigenen nicht nur äußerlich berücksichtigt, sondern innerlich präsent wäre, indem das Wohl der anderen jeweils auch der eigene Zweck wäre.
(2) Die zweite problematische Annahme in der Frage versteckt sich im zweiten Teil der Frage. Sie besteht darin, dass die Suche der Menschheit nach ihrem Lebenssinn überhaupt irgendetwas mit der „Welt“ und „Zeit“ zu tun hat. Darin liegt eine Anthropozentrik, die das Denken bis in die Moderne bestimmt hat. Seit der Mensch sich aber selbst aus dem Zentrum der Welt vertrieben hat, würde die neue Perspektive doch eher dafür sprechen, dass sich am Lauf der Welt und der Zeit herzlich wenig ändert, sollte der Mensch seine Identitäts- und Sinnfrage für sich klären. Denn die „Welt“ besteht doch nun einmal aus weit mehr als nur Menschen, und warum sollte die „Zeit“ ‒ was ja erstmal ein sehr grundlegender ontologisch-physikalischer Begriff ist ‒ an ihr Ende kommen, wenn der Mensch zu sich selbst gefunden hat?
(3) Die in meinen Augen vielversprechende dritte Annahme der Frage besteht in der Suggestion, dass etwas für den Menschen Wesentliches an sein Ende käme, wenn der Sinn gefunden und erfahren würde. Daraus folgt, dass Sinn etwas mit Suche und Bewegung zu tun hat, dass, wenn der Sinn also gefunden ist, etwas vorbei ist. Aber dieses Etwas wäre wohl kaum „die Welt“ oder „Zeit“. Wenn die Menschheit, um an die klassische Antwort anzuschließen, endlich kultiviert, zivilisiert und moralisiert wäre – was übrigens Prozessbegriffe sind, die selbst eine Bewegung und keinen Zustand markieren ‒, dann wäre immer noch viel Raum für Veränderung, für Austausch, für Ausgestaltung der kleinen eigenen und großen gemeinsamen Welt. Aber das ist Utopie. Vielleicht das Wesentliche der Sinnfrage ist, dass sie mehr eine Richtung betrifft als einen Zielzustand. Und welche Richtung das ist ‒ oder genauer: welche Richtungen, denn es sind doch mehrere –, darüber kann eigentlich kein Zweifel bestehen. Und er besteht erstaunlicherweise auch nicht. Denn wer wollte in Abrede stellen, dass unser Menschheitssinn in der Realisierung von Werten bestehen muss, im Kampf für Gerechtigkeit und Frieden und gegen Armut und Unterdrückung im Großen ebenso wie für Empathie, Rücksicht und Achtung im Kleinen sowie in der Herstellung ästhetischer und wissenschaftlicher Werte, die sich in der außermenschlichen Welt nicht finden? Das Schöne für uns Einzelne dabei ist, dass wir für diese Werte arbeiten können, und dadurch Sinn erfahren, auch wenn die Menschheit insgesamt noch weit davon entfernt ist, den Sinn ihres Lebens zu erfahren und ihn vielleicht auch nie erfährt und nicht einmal erfahren kann.
Diese letzte Einsicht lässt sich auch umdrehen, und die Antwort damit insgesamt kurz machen: Wenn „die Menschheit“ den Sinn ihres Lebens erfahren würde (vielleicht sind wir ja sogar schon so weit, weil es über die groben Richtungen doch keinen großen Streit gibt), müssten damit noch längst nicht auch alle Menschen einen Sinn in ihrem Leben erfahren, auch wenn das dann wohl wahrscheinlicher wäre. Die Welt würde nicht aufhören, weil nichts gegen (aber vieles für) eine Welt mit Menschheitssinn spricht, und auch die Zeit würde ganz normal weitergehen, weil sie von uns so gedacht wird und bestimmt ist, dass ihr Lauf (anders als der von „Geschichte“) von dem Schicksal der Menschheit unabhängig ist. Das Gegenteil ist Fiktion, wenn auch vielleicht eine schöne – etwa in der Variante von Douglas Adams, der zufolge die Frage nach dem Sinn und deren Antwort („42“) nicht nebeneinander in der gleichen Welt existieren können – was aber mehr darüber sagt, wie manche den Sinnbegriff gerne hätten, als wie er für viele andere tatsächlich funktioniert.
Die Antwort kommt von PD Dr. Georg Toepfer, Philosoph und Leiter des Programmbereichs „Lebenswissen“ und des Projekts „Diversität. Begriffe, Paradigmen, Geschichte“ am Leibniz-Zentrum für Literatur- und Kulturforschung (ZfL) in Berlin.
Zu den Wesenseigenschaften Gottes gehört das ewige Sein. Gottes Identität entzieht sich den Vorstellungen von Zeit und Endlichkeit und damit auch der Vorstellung, seine Existenz habe einen zeitlichen Anfang und ein zeitliches Ende.
In der hebräischen Bibel, bzw. im Alten Testament, offenbart sich Gott dem Mose unter Nennung seines Namens (vgl. Ex 3,14): JHWH. Dieser Gottesname bedeutet übersetzt „Ich bin, der ich bin“ oder „Ich werde sein, der ich sein werde“. Die Septuaginta übersetzte diese Stelle später mit „ἐγώ εἰμι ὁ ὤν“, d.h. „ich bin der Seiende“. Damit wird ausgesagt, dass man dem Gott Israels, dem Gott der Juden und später auch der Christen, eine ewige und unergründliche Identität zuschreibt. Als Schöpfer des Himmels und der Erde existiert er vor aller Zeit und jenseits all dessen, was sinnlich wahrnehmbar ist. Allmacht, Allwissenheit und Allgegenwart gelten daher als göttliche Attribute. Der jüdische Theologe Moses Mendelssohn übersetzte im 18. Jahrhundert die in Ex 3,14 überlieferte Selbstoffenbarung Gottes wie folgt: „Gott sprach zu Mosche: »Ich bin das Wesen, welches ewig ist.«“ Das im Christentum gefeierte Weihnachtsfest bezieht sich auf das geheimnisvolle Kommen des ewigen Gottes in Menschengestalt und damit in ein zeitlich begrenztes Erdenleben.
Die Antwort kommt von Prof. Dr. Irene Dingel, Direktorin der Abteilung für Abendländische Religionsgeschichte am Leibniz-Institut für Europäische Geschichte Mainz (IEG).
Die Diskussionslage zum Thema „Seele“ ist so komplex, dass einfache Antworten kaum möglich sind.
Nicht nur wird die Frage, ob es überhaupt eine Seele gibt, unterschiedlich beantwortet, sondern es gibt auch keine einhellige Definition dessen, was unter „Seele“ zu verstehen ist. Fest steht aber, dass das Verhältnis von Leib und Seele seit jeher in Religionen und philosophischen Systemen eine Rolle gespielt hat und weiterhin spielt.
Die entscheidende Frage dabei ist, ob die Seele als eine eigenständige, im menschlichen Körper angesiedelte bzw. gefangene Substanz gilt, oder ob Leib und Seele als untrennbare anthropologische Einheit definiert werden.
Sofern die Seele als eigenständiger, immaterieller und unsterblicher Teil des Menschen angesehen wird, herrscht die Vorstellung, dass die Seele durch den Tod freigesetzt wird und transzendent weiter existiert bzw. schläft bis zu einer – im Christentum – erwarteten Wiederauferstehung. Andere Religionen – aber z.B. auch der christliche Aufklärer Gotthold Ephraim Lessing – haben Reinkarnations- und Seelenwanderungsvorstellungen entwickelt und kultiviert.
Dagegen vertreten jene Strömungen, die die anthropologische Einheit des Menschen betonen, die Sterblichkeit der Seele. Für sie steht fest, dass der ganze Mensch – Leib und Seele – stirbt und durch den Tod keine Trennung der Substanzen eintritt. Die geglaubte Auferstehung wird dann konsequenterweise nicht als Zusammenführung einer fortexistierenden Seele mit einem gestorbenen, in neuer Form wiedererstehenden Leib, sondern als Auferstehung des gesamten Menschen in neuer Integrität gesehen.
Ob mit dem Tod alles aus ist oder nicht, ist und bleibt also eine Glaubensfrage.
Die Antwort kommt von Prof. Dr. Irene Dingel, Direktorin der Abteilung für Abendländische Religionsgeschichte am Leibniz-Institut für Europäische Geschichte Mainz (IEG).
Glücklich zu sein bedeutet mit seinem Leben zufrieden zu sein. Wir untersuchen mit Methoden der empirischen Sozialforschung, wie zufrieden die Menschen in Deutschland in einzelnen Lebensbereichen sind. Dafür stellen wir den rund 30.000 Befragten unserer Langzeitstudie Sozio-ökonomisches Panel (SOEP) jedes Jahr die gleiche Frage: „Wie zufrieden sind Sie gegenwärtig, alles in allem, mit Ihrem Leben?“ Diese Frage wird – auch bezogen auf verschiedene Lebensbereiche – auf einer Punkteskala von 0 bis 10 beantwortet. So können wir unter anderem herausfinden, wie zufrieden die Menschen mit ihrer Arbeit, ihrem Einkommen, ihrer Familie oder der Demokratie in Deutschland sind.
Die Antwort stammt von Jürgen Schupp, Vize-Direktor des Sozio-ökonomischen Panels am Deutschen Institut für Wirtschaftsforschung (DIW) und Professor für Soziologie der Freien Universität Berlin.
Wie Frieden in einem konkreten Forschungsprojekt definiert wird, hängt davon ab, was erforscht wird und woran die Forschenden interessiert sind. Allgemein können wir aber zwischen engen und weiten Friedensverständnissen unterscheiden: Zunächst kann man Frieden definieren als die Abwesenheit von Krieg bzw. von direkter organisierter physischer Gewalt zwischen Personen verschiedener Gruppen. Das wird in der Friedens- und Konfliktforschung auch als „negativer Friede“ bezeichnet, weil Frieden über die Abwesenheit von organisierter (militärischer) Gewaltanwendung bestimmt wird. Dieses Verständnis ist zum Beispiel in der Duden-Definition von Frieden erkennbar als „Zustand des inner- oder zwischenstaatlichen Zusammenlebens in Ruhe und Sicherheit“, der gegebenenfalls vertraglich gesichert ist. Ein solches Friedensverständnis war bis zum Ende des Zweiten Weltkrieges vorherrschend, engte den Blick aber auf den Bereich militärischer Sicherheitspolitik ein.
In der Friedens- und Konfliktforschung wurde der Friedensbegriff dann erweitert um den Begriff des positiven Friedens. Ein positiver Frieden zeichnet sich zusätzlich durch die Abwesenheit struktureller Gewalt aus. Strukturelle Gewalt wirkt indirekt und geht von den politischen, gesellschaftlichen oder wirtschaftlichen Strukturen und damit einhergehenden Abhängigkeits-, Unterdrückungs- und Ausbeutungsverhältnissen aus. Positiver Frieden setzt negativen Frieden voraus, fasst den Begriff aber breiter. Ein solches breites Verständnis von Frieden wurde von Friedensforschern wie dem Norweger Johan Galtung in den 1960er Jahren verbreitet und stark gemacht. Insbesondere deutsche Friedensforscher, wie Dieter Senghaas und Ernst-Otto Czempiel betrachteten Frieden auch nicht mehr als Zustand, sondern als Entwicklungsprozess. Frieden soll demnach als ein andauernder Prozess verstanden werden, in welchem sich die Verhältnisse weg von organisierter militärischer Gewaltanwendung hin zu gewaltfreier Konfliktbearbeitung, Kooperation und Herstellung sozialer Gerechtigkeit entwickeln.
Frieden ist nach einer solchen Definition durch eine stetige Entwicklung gekennzeichnet, in der physische Gewalt abnimmt, Gerechtigkeit zunimmt und Konflikte verlässlich gewaltfrei bearbeitet werden. Mit einer solchen prozesshaften Definition schwingt auch mit, dass die Grenzen zwischen einem Kriegszustand und Friedenszeiten nicht immer klar bestimmbar sind. Außerdem wird unterstrichen, dass Sicherheit, Frieden, Entwicklung, Gerechtigkeit und Menschenrechte eng zusammenhängen. Dieses prozedurale Friedensverständnis ist auch Teil der Institutsverfassung des Leibniz-Instituts Hessische Stiftung Friedens- und Konfliktforschung. Aus meiner Sicht wird ein solches breites Verständnis von Frieden den Herausforderungen unserer Zeit auch am ehesten gerecht, denn es unterstreicht, dass man an der Entwicklung des Friedens immer weiter arbeiten muss.
Die Antwort stammt von Gregor P. Hofmann, wissenschaftlicher Referent am Leibniz-Institut Hessische Stiftung Friedens- und Konfliktforschung (HSFK)
Diese Aufgabe klingt in den Ohren eines Angewandten Mathematikers zunächst nach einem Optimierungsproblem dichtester Kugelpackungen. Bei genauerer Betrachtung der Frage kommen ihm allerdings ein paar Modellierungsfragen: Welche Form hat denn ein Engel? Ist sie dreidimensional oder liegt sie in einem speziellen topologischen Raum? Welche Definition eines Engels soll denn verwendet werden? „Gottesbote“ hilft nicht viel weiter. Sind die benutzten Engel alle gleich? Wie groß ist ein Engel? Und andererseits: Wie groß ist die Nadelspitze? Ziemlich schnell versteht er, dass „Nadelspitze“ synonym sein soll für „ein Punkt“. In Zeiten eines Elektronenmikroskops kann man allerdings eine Nadelspitze durchaus auch molekular auflösen und ihren Molekülen geometrische Angaben zuordnen wie Dicke, Abstände, Volumina. Aber da unser Angewandter Mathematiker auch nach längerem Nachdenken und Googeln keine Idee hat, welches räumliche Modell er für einen Engel ansetzen soll, kommt er bald zum Schluss, dass das Problem eher ein philosophisches ist.
Er kommt auf eine neue Bedeutungsebene: Die Nadelspitze ist nur ein Punkt im elementarsten Sinne des Wortes; sie hat keinerlei räumliche Ausdehnung. Und ein Engel kann auch nichts Räumliches sein, sondern etwa eine Idee, etwas Immaterielles. So weit gekommen, ist der nächste Reflex unseres Angewandten Mathematikers, dass die Frage trivial ist in der Hinsicht, dass natürlich unendlich viele solche unfassbaren, materielosen Dinge in einem Punkt Platz haben müssen, denn sie nehmen ja nicht einmal den unendlich kleinen Raum ein, den ein Punkt bietet. Aber schon tauchen die nächsten Fragen auf: Wie viele Engel sind es denn, die ich zur Verfügung habe, um sie in diesen Punkt zu setzen? Endlich viele? Unendliche viele? Überabzählbar viele? Aus der Maßtheorie kennt man ja den Umgang mit der Unendlichkeit, dass Unendlich mal Null gleich Null ist, aber was soll „Überabzählbar unendlich mal Null“ sein? Auch Null? Am einfachsten wäre es, wenn es nur endlich viele Engel gäbe, aber wer kann das einem schon garantieren? Schon der Umgang mit abzählbarer Unendlichkeit ist nicht leicht und hielt und hält die Mathematik seit Jahrhunderten auf Trab.
Beim weiteren Grübeln und Suche nach einem guten mathematischen Modell kommt unserem Angewandten Mathematiker eine weitere Frage: Wo ist diese Nadelspitze eigentlich? Ist sie irgendwo verortet, kann man hinreisen? Oder steht sie einfach nur für einen „Ort“ schlechthin? Vielleicht auch gar nicht in einem euklidischen Vektorraum, nicht einmal in einer hyperbolischen Mannigfaltigkeit, sondern vielleicht nur in den Gedanken eines Menschen? Welches Menschen? Ich kann doch nicht gemeint sein, oder? Vielleicht sollte man hier die Gedanken eines Menschen ansetzen, der sich auskennt mit den Voraussetzungen des Problems? Da gibt es doch ziemlich viele. Aber dann bin ich eigentlich doch gar nicht zuständig!
Und so kommt schließlich unser Angewandter Mathematiker zum endgültigen Schluss, dass dieses Problem gar nicht seine Sache ist, sondern am besten in die Hände eines Geistlichen gelegt werden sollte. Als er ein wenig weiter googelt, stellt er plötzlich fest, dass er mit dieser Ansicht auch gar nicht alleine ist: Jemand aus einer ganz anderen Zunft, nämlich der Zunft der Dichter, hat dies schon lange vor ihm geschlossen:
Scholastikerprobleme I
Wieviel Engel sitzen können
auf der Spitze einer Nadel –
wolle dem dein Denken gönnen,
Leser sonder Furcht und Tadel!„Alle!“ wirds dein Hirn durchblitzen.
„Denn die Engel sind doch Geister!
Und ein ob auch noch so feister
Geist bedarf schier nichts zum Sitzen.“Ich hingegen stell den Satz auf:
Keiner! – Denn die nie Erspähten
können einzig nehmen Platz auf
geistlichen Lokalitäten.[…]
Christian Morgenstern (1871-1914)
—————————————————
Die Antwort stammt von Wolfgang König, stellvertretender Direktor und Leiter der Forschungsgruppe „Stochastische Systeme und Wechselwirkungen“ am Weierstraß-Institut sowie Professor für Wahrscheinlichkeitstheorie am Institut für Mathematik der Technischen Universität Berlin.
Dies ist eine Glaubensfrage, die zu allen Zeiten immer wieder gestellt wurde. Jeder und jede muss sie individuell, für sich selbst beantworten. Denn wissenschaftlich nachweisen kann man die Existenz Gottes bzw. eines Gottes nicht. Aber überliefert sind uralte Geschichten, die, wie z.B. in der Bibel, von menschlichen Begegnungen mit einem Gott erzählen, der sich – im Alten Testament – selbst als Jahwe vorgestellt und sich – wie die Geschichten des Neuen Testaments berichten – später in einem Menschen offenbart habe, der den Namen Jesus trägt und aus Nazareth stammt. Dies sind religiöse Traditionen, deren Wahrheitsgehalt nur geglaubt, nicht aber bewiesen werden kann. Dennoch hat man schon im Mittelalter versucht, die Existenz Gottes wissenschaftlich-philosophisch zu erweisen. Der Theologe Anselm von Canterbury entwickelte (vor dem Hintergrund einer platonisch-augustinischen Ontologie und Erkenntnistheorie) einen aus Selbst- und Welterkenntnis abgeleiteten Gottesbeweis, der in Gott das erkennt, „über das hinaus nichts Größeres gedacht werden kann“ und das zugleich das „höchste Gut(e)“ ist. Thomas von Aquin erstellte einen Gottesbeweis auf der Basis des Kausalitätsdenkens und definierte Gott als den „ersten Beweger“. Dennoch blieb er zutiefst davon überzeugt, dass die menschliche Vernunft die Existenz Gottes nicht begründen könne. Selbst ein Aufklärer wie René Descartes entfaltete einen Gottesbeweis, der davon ausging, dass der Mensch als endliches, begrenztes Wesen die Idee eines unendlichen göttlichen Wesens nicht selbst hervorgebracht haben könne, sondern dass ihm diese Gottesidee eingepflanzt sei. Der Begriff des Unendlichen müsse also dem Endlichen vorausgehen.
Die Zeit der Gottesbeweise ist heute lange vorbei. Schon im frühen 19. Jahrhundert wurde das Bestreben, die Existenz Gottes mit wissenschaftlichem Objektivitätsanspruch nachzuweisen, endgültig aufgegeben. Theologie, Geistes- und Naturwissenschaften bildeten gemeinsam den Wissenschaftskosmos der Neuzeit. Denn weder die theologischen Wissenschaften noch die Religionsgeschichte zielen darauf, solche Nachweise zu entfalten. Ihr Anliegen ist vielmehr zu analysieren, wie Gottesglaube und Religion zu allen Zeiten das Zusammenleben der Menschen beeinflussten und die Welt in ihren politischen und gesellschaftlichen Konstellationen beständig veränderten, unabhängig davon, ob ein Gott letzten Endes existiert oder nicht. Gibt es Gott? Darauf kann nur der individuelle Glaube antworten, nicht aber die Wissenschaft.
Die Antwort stammt von Irene Dingel, Direktorin des Leibniz-Instituts für Europäische Geschichte (IEG).
Eine weitere Antwort stammt von Samuli Schielke, Leibniz-Zentrum Moderner Orient (ZMO):
Unabhängig davon, ob Gott eine Erfindung von Menschen ist oder ihr Schöpfer, kann man sagen, dass es ihn gibt. Wenn Gläubige ihn anbeten, ihre Hoffnungen und Werte an ihn knüpfen, ist das aus Sicht der Sozialwissenschaften eine unbestreitbare Realität. Gottes Befehle werden in Praxis umgesetzt, seine Gnade und Liebe bieten Menschen Trost, und die Androhung seiner Strafe nach dem Jüngsten Gericht lässt Menschen ihn fürchten. Diese Handlungen und Gefühle gibt es. Ohne solche Beziehungen, die Menschen mit Gott und Göttern pflegen, kann man Religionen nicht richtig verstehen. Ob das nun aber daher rührt, dass Menschen von sich aus in einer sinn- und seelenlosen Welt Sinn und Seelen erfinden und erschaffen, oder ob eine unsichtbare übermenschliche Wirklichkeit dahinter steht – solche Fragen gehören nicht in den Aufgabenbereich der Sozialwissenschaften.
Weiterführende Informationen von Samuli Schielke zum Thema finden Sie hier.
Medien & Kommunikation
Die Deutschlehrer/-innen haben recht: Es existieren ca. 200 Definitionen darüber, was ein Satz ist. Das ist dadurch begründbar, dass es sich beim Satz um einen Gegenstand handelt, der aus vielen Perspektiven betrachtet werden kann und wird. Die Vielfalt der Ansätze, den Satz zu definieren, wird bestimmt durch das Modell der sprachwissenschaftlichen Forschung und Theorie, die jeweilige Forschungsperspektive und die Wahl oder Schwerpunktsetzung bei der Definition von Satz aus der Perspektive der Adressat/-innen. Und das ist vermutlich noch erweiterbar. Dass dies überhaupt möglich ist, erlaubt anzunehmen, dass mit der Bezeichnung Satz jeweils ein Ausschnitt aus einem umfassenden Konzept in den Definitionen zum Satz hervorgehoben werden kann. Deshalb verzichten auch manche Grammatiken darauf eine einzelne umfassende Definition des Satzbegriffs vorzunehmen. Stattdessen werden formbezogene, inhaltliche, funktionale und andere Eigenschaften meist gebündelt, die für Sätze als typisch und kennzeichnend erachtet werden.
In der Grammatik der Deutschen Sprache- GDS (in Ausschnitten im Grammatischen Informationssystem grammis des Leibniz-Institut für Deutsche Sprache zugänglich: "Systematische Grammatik". DOI: 10.14618/grammatiksystem mit dem Permalink: https://grammis.ids-mannheim.de/systematische-grammatik/212) werden Sätze als kommunikative (Ausdrucks)-Einheiten aufgefasst, beschrieben und definiert. Es wird einerseits eine semantisch-funktionale Perspektive eingenommen, wonach Sätze Sachverhalte darstellen, die in ihrer jeweils ausgedrückten grammatischen Form als Propositionen gelten. Die konstitutiven semantischen Bestandteile einer Proposition bilden das Prädikat und die Argumente und werden in Sätzen als Verbalkomplex und Komplemente grammatisch kodiert und mit einer Aussageabsicht versehen, mit der direkt sprachlich gehandelt werden kann: Aussage vornehmen (Ein Punkt kann einen Satz abschließen.), Frage stellen (Kann ein Punkt einen Satz abschließen?), Wunsch ausdrücken (Würde ein Punkt doch nur einen Satz abschließen.), Nachdruck verleihen (Was einen Satz alles abschließen kann!). Neben diesen kommunikativ selbstständigen Sätzen können Teilsätze in komplexen Gefügen aber auch kommunikativ unselbstständig sein und aus formalen Gründen nicht allein vorkommen (..., dass der Satz mit einem Punkt abschließen kann.). Obwohl sie aus formalen Gründen unselbstständig sind, sind sie trotzdem satzförmig. Nicht-satzförmig im o.g. Sinn sind einfache kommunikative Ausdruckseinheiten, zu denen jeweils leicht ein passender Kontext dazugedacht werden kann: Einmal Venedig sehen!, Rasen nicht betreten., Feuer!, Worauf warten?
Solche Konstruktionen sind in der geschriebenen Sprache in bestimmten Textsorten, als Überschrift oder Schlagzeile und in der gesprochenen Sprache nicht ungewöhnlich. Werden diese Konstruktionen verschriftlicht, wird mit sog. (Satz)Schlusszeichen (Punkt, Ausrufe- und Fragezeichen) ihre Aussageabsicht markiert – bei nicht-satzförmigen Konstruktionen also genauso wie bei selbstständigen satzförmigen Konstruktionen. Das zeigt, dass mit den sog. (Satz)Schlusszeichen zwar alle kommunikativen Ausdruckseinheiten (satzförmig wie nicht-satzförmig) abgeschlossen werden können, aber dass bei der Verwendung eines (Satz)Schlusszeichens keine Bedingung vorliegen muss, dass es sich nur um eine formal satzförmige Konstruktion handeln muss. D.h.: Schreibende setzen einen Punkt immer dann, wenn eine kommunikative Einheit als abgeschlossen markiert werden soll; sie muss nicht das Kriterium der Satzförmigkeit erfüllen. In einer Definition für den orthographischen Satzes muss genau diese Besonderheit herausgestellt werden.
Die Antwort kommt von Prof. Dr. Angelika Wöllstein, Leiterin der Abteilung Grammatik “ am Leibniz-Institut für Deutsche Sprache (IDS) in Mannheimund Universitätsprofessorin für germanistische Linguistik an der Universität Mannheim.
Die menschliche Sprache ist in ständigem Wandel begriffen. Warum das so ist, hat viele Gründe. Nicht der unwichtigste darunter ist, dass sich die Welt um uns herum, die wir mit unserer Sprache „besprechen", ebenfalls unablässig verändert. Schwieriger ist es schon, für bestimmte einzelne Veränderungen Gründe anzugeben. Mag man noch erklären können, warum ein bestimmtes einzelnes Wort neu aufkommt (denken Sie etwa an „Instagram" oder „Coronavirus"), sind andere Phänomene schon deutlich schwieriger zu erklären. Warum etwa Deutschsprecher ab dem 12. Jahrhundert zunehmend „Haus" statt „Hus" und „Maus" statt „Mus" gesagt haben, ist kaum zu erklären.
In anderen Bereichen bleiben sprachliche Elemente bestehen, auch wenn gute Gründe dafür sprechen, dass sie sich verändern könnten. Auch dafür findet man oft kaum befriedigende Erklärungen. Warum man etwa im Südwesten des deutschen Sprachraums sowie in Norddeutschland die Entwicklung von „u" zu „au" nicht mitgemacht hat, ist ebenso schwer zu erklären, wie der Wandel in anderen Regionen.
Ein häufiger Fall ist, dass ein neues Ding eine neue Bezeichnung entweder mit sich bringt, oder doch recht schnell nach sich zieht: Das Handy wird erfunden, und wenig später das Wort „Handy". Das Smartphone wird erfunden, und mit ihm das Wort „Smartphone". Obwohl beide Dinge letztlich Telefone sind, nennen wir sie nicht so. Anders etwa beim Automobil. Zwar haben wir Wörter wie „Automobil" und „Auto", aber daneben halten sich bis heute alte Bezeichnungen wie „Wagen" oder, abwertend, „Karre(n)".
Eine Neuerung in der außersprachlichen Welt (oder in unserem Wissen darüber) kann sich also, muss sich aber nicht, in einer Neuerung im Wortschatz widerspiegeln. Dies trifft auf die Wörter „Sonnenaufgang" und „Sonnenuntergang" zu: Wir wissen zwar, dass sich die Erde dreht, und nicht die Sonne um sie, in der Sprache spiegelt sich dieses Wissen aber nicht wieder. In diesem Fall wird das vermutlich dadurch gestützt, dass dieses Wissen um die astronomischen Fakten für den Alltag der meisten Menschen keine Rolle spielt, sodass man das alte Wort beibehalten kann, ohne mit der Astronomie in Konflikte zu geraten.
Die Antwort kommt von Dr. Dominik Brückner, wissenschaftlicher
Mitarbeiter in der Abteilung „Lexik“ und Leiter des Projekts „Neubearbeitung des Deutschen Fremdwörterbuchs“ am Leibniz-Institut für Deutsche Sprache (IDS) in Mannheim.Die beste Quelle für Fragen dieser Art ist der „World Atlas of Language Structures Online“, kurz WALS (https://wals.info/). Hier gibt es drei Kapitel zu diesem Thema („Number of Genders“, „Sex-based and Non-sex-based Gender Systems“ sowie „Systems of Gender Assignment“), die alle von Greville G. Corbett verfasst wurden.
Zur Beantwortung der Frage müssen wir erst einmal einen Schritt zurückgehen und Sprachen, die überhaupt ein Genussystem haben, von denen ohne Genussystem unterscheiden. Der WALS verzeichnet 145 Sprachen, die kein Genus aufweisen. Zu diesen zählen europäische Sprachen wie Baskisch, Finnisch oder Ungarisch, aber auch Mandarin oder Ost-Armenisch. Hier gibt es also an keiner Stelle des Sprachsystems, sei es an Nomen, Pronomen oder Artikeln, ein grammatisches Geschlecht. Somit sind diese Sprachen vom Sprachsystem her klar als geschlechtsneutrale Sprachen einzuordnen.
Die Sprachen mit einem Genussystem unterscheiden sich nun wiederum danach, in welchen Bereichen der Sprache sich diese Kategorisierung wiederfindet und wie stark das grammatische System mit der entsprechenden semantischen Kategorie verbunden ist. So findet sich laut WALS bei den dravidischen Sprachen (gesprochen u.a. im Südteil Indiens inklusive Sri Lanka) fast eine vollständige Übereinstimmung zwischen grammatischer und semantischer Kategorie, d.h. dass männliche Personen mit einem maskulinen Substantiv bezeichnet werden und maskuline Substantive fast immer männliche Personen bezeichnen. Anders ist es z.B. in den indoeuropäischen Sprachen wie Deutsch, Französisch oder Russisch, bei denen zwar männliche Personen meist mit einem grammatisch männlichen Substantiv bezeichnet werden, andersherum die Übereinstimmung aber nicht gilt: Grammatisch maskuline Substantive können auch Artefakte (z.B. der Stuhl) oder Abstrakta (z.B. der Freiheitsbegriff) bezeichnen, nicht nur männliche Personen. Der WALS verzeichnet dabei 50 Sprachen, die über zwei Genera und 26, die wie das Deutsche über drei Genera verfügen.
Was das Pronominalsystem angeht, sind die Sprachen der Welt auch wieder sehr unterschiedlich. Darüber gibt Kapitel 44 in WALS Auskunft. In 61 Sprachen wird das Geschlecht nur in der dritten Person Singular markiert (ich, du, wir, ihr, sie für alle vs. er/sie/es), das gilt für das Deutsche wie auch für Holländisch, Englisch oder Neugriechisch, um nur einige zu nennen. Dagegen gibt es 18 Sprachen, in denen die Geschlechtsmarkierung sich neben der dritten Person auch in der ersten und zweiten finden. Dazu gehören Spanisch und Hebräisch, d.h. hier müssen Frauen und Männer unterschiedliche Pronomen verwenden, wenn sie „ich“ sagen.
Quellen:
Greville G. Corbett. 2013. Number of Genders.
In: Dryer, Matthew S. & Haspelmath, Martin (eds.)
The World Atlas of Language Structures Online.
Leipzig: Max Planck Institute for Evolutionary Anthropology.
(Available online at wals.info/chapter/30, Accessed on 2021-12-22.)Greville G. Corbett. 2013. Sex-based and Non-sex-based Gender Systems.
In: Dryer, Matthew S. & Haspelmath, Martin (eds.)
The World Atlas of Language Structures Online.
Leipzig: Max Planck Institute for Evolutionary Anthropology.
(Available online at wals.info/chapter/31, Accessed on 2021-12-22.)Greville G. Corbett. 2013. Systems of Gender Assignment.
In: Dryer, Matthew S. & Haspelmath, Martin (eds.)
The World Atlas of Language Structures Online.
Leipzig: Max Planck Institute for Evolutionary Anthropology.
(Available online at wals.info/chapter/32, Accessed on 2021-12-22.)Anna Siewierska. 2013. Gender Distinctions in Independent Personal Pronouns.
In: Dryer, Matthew S. & Haspelmath, Martin (eds.)
The World Atlas of Language Structures Online.
Leipzig: Max Planck Institute for Evolutionary Anthropology.
(Available online at wals.info/chapter/44, Accessed on 2021-12-22.)Die Antwort kommt von Prof. Dr. Carolin Müller-Spitzer, Leiterin des Programmbereichs „Lexik empirisch und digital" der Abteilung „Lexik" und des Projekts „Empirische Genderlinguistik“ am Leibniz-Institut für Deutsche Sprache (IDS) in Mannheim.
Ein Wort im Wortschatz einer Sprache (der „Nehmersprache“) wird als Lehnwort im engeren Sinne bezeichnet, wenn es nachweislich aus einer anderen Sprache (der „Gebersprache“) übernommen (entlehnt) worden ist, sich aber lautlich (und, wo dies relevant ist, auch in der Schreibung) sowie hinsichtlich der Formenbildung und Beugung (Morphologie) nicht mehr von einem Erbwort unterscheiden lässt. Im Deutschen sind Pflanze und Münze typische Beispiele für Lehnwörter lateinischen Ursprungs.
Entlehnungen wie der deutsche Computer oder das Wort Moneten (das letztlich auf dasselbe lateinische Wort wie Münze zurückgeht), die heute noch aus lautlichen oder morphologischen Gründen als solche erkennbar sind, werden üblicherweise als Fremdwörter, im weiteren Sinne aber auch als Lehnwörter bezeichnet. Der Übergang zu Lehnwörtern im engeren Sinne (die „Eindeutschung“) ist aber fließend.
Im Gegensatz zu entlehnten Wörtern sind Erbwörter, salopp gesagt, „schon immer“ in der betreffenden Sprache. Für das Deutsche etwa lässt sich die Geschichte von Erbwörtern wie Horn oder drei über einen Zeitraum von tausenden von Jahren zurückverfolgen, bis hin zu den lediglich rekonstruierten Sprachstufen des Germanischen und schließlich des sogenannten Proto-Indoeuropäischen (im Folgenden kurz PIE) als hypothetischer Vorgängersprache u.a. der meisten europäischen Sprachen. In ihrer Entwicklung durchlaufen Erbwörter typischerweise regelhafte und systematische Lautveränderungen.
Der Übersichtlichkeit halber werden wir uns im Folgenden auf den elementaren Sachverhalt beschränken: „Ein Lexem (Wort als Einheit im Wortschatz) W1 der Geber-Sprachvarietät S1 wurde in einem bestimmten Zeitraum T in eine Nehmer-Sprachvarietät S2 entlehnt und ist danach in S2 zu einem Lehnwort W2 im engeren Sinne geworden.“ Eine solche Aussage ist zunächst stets eine sprachwissenschaftliche Hypothese, die durch Evidenz gestützt oder im Idealfall auch widerlegt werden können muss. Wir sprechen hier etwas abstrakt von Sprachvarietät, da das Resultat eines Entlehnungsvorgangs stark davon abhängen kann, welche Dialekte, Soziolekte etc. genau an dem Vorgang beteiligt waren.
Schon aus den eingangs gegebenen kurzen Begriffsklärungen folgt, dass synchron, also bei ausschließlicher Berücksichtigung des Zustandes einer Sprache zu einem gegebenen Zeitpunkt, gar nicht zu klären ist, ob ein Wort ein Lehnwort oder ein Erbwort ist. Nur vor dem Hintergrund der Geschichte der Nehmersprache und auch der mutmaßlichen Gebersprachen kann unter Umständen eine begründete Entscheidung gefällt werden.
Dass das deutsche Lehnwort Ziegel ein sehr altes Lehnwort aus dem gleichbeutenden lateinischen tegula ist, ist nicht nur kulturhistorisch plausibel, sondern entspricht auch einem lautlichen Muster, für das es sehr viele weitere Beispiele gibt. Der lateinische Laut t wurde am Wortanfang in das als solche nicht überlieferte (West-)Germanische als t entlehnt und ist genau so in vielen heutigen ‚Tochtersprachen‘ des Westgermanischen heute noch erhalten, vgl. englisch tile ‚Ziegel‘. Beim Übergang vom Westgermanischen zum seit ca. 750 n.Chr. belegten Althochdeutschen hat sich regelhaft jedes anlautende (am Wortanfang stehende) t zu dem Laut verändert, den wir als z schreiben. Wörter, die erst nach dem Ablauf dieser sogenannten zweiten Lautverschiebung aus dem Lateinischen entlehnt wurden, wie deutsch Tafel aus lateinisch tabula, zeigen dagegen das ursprünglichere t.
Das Deutsche ist nun aber mit dem Lateinischen auch genetisch verwandt, d.h. beide Sprachen sind modellhaft als Tochtersprachen des – lediglich in in Teilen rekonstruierbaren – PIE und haben daher aus dem PIE gemeinsamen Wortschatz ererbt. Könnte es also nicht sein, dass Ziegel und tegula in diesem Sinne beides ererbte Wörter sind? Aufgrund des umfangreichen überlieferten Textmaterials zu diesen und anderen indoeuropäischen Sprachen haben Sprachhistoriker genug sprachgeschichtliches Wissen erworben, um dies klar ausschließen zu können. Beginnt ein heutiges deutsches Erbwort mit z, so ist dieser Laut im Zuge der zweiten Lautverschiebung aus germanischem t und dieses wiederum letztlich im Zuge der sog. ersten Lautverschiebung aus PIE d entstanden. Ein solches d erscheint aber im Lateinischen als d (daher entspricht das lat. Zahlwort duo ‚zwei‘ dem deutschen zwei; das Duo ist ein Fremdwort). Ein lateinisches t wie das in tegula geht jedoch regulär auf PIE t zurück – und das erscheint im Deutschen regelhaft als d! Tatsächlich gibt es deutsche Erbwörter, die (mit bestimmten Komplikationen) denselben Ursprung wie tegula haben, z.B. Deckel und Dach. Zugrunde liegt hier ein Wortkern des PIE mit der groben Bedeutung ‚bedecken‘ (so auch die Bedeutung des zugehörigen lateinischen Verbs tegere). Schon diese hier nur holzschnittartig angerissenen Beispiele (mehr speziell zum Deutschen beispielsweise hier) lassen erahnen, wie zur Beurteilung sprachhistorischer Gegebenheiten viele Hypothesen ineinandergreifen müssen, die sich vorher unabhängig voneinander bereits an einer größeren Zahl von anderen Fällen bewährt haben müssen.
Dass Ziegel ein Lehn-, Deckel ein Erbwort ist, lässt sich, um dies erneut zu betonen, nicht aus den isoliert betrachteten Gegebenheiten des heutigen Deutsch ableiten. Leider ist die große zeitliche Tiefe und der Umfang der Überlieferung in den indoeuropäischen Sprachen weltweit eher der Ausnahmefall. Liegen keine hinreichenden Daten vor, ist man auf Mutmaßungen anhand von Erfahrungswerten angewiesen. Bloße lautliche und/oder Bedeutungsähnlichkeit im Einzelfall sind i.d.R. nicht aussagekräftig.
In vielen Fällen ist aber auch z.B. für das Deutsche die Geschichte eines Wortes nicht mehr klar rekonstruierbar. Wörter können über lange Ketten von Entlehnungen von einer Sprache in die nächste „wandern“ und auf Umwegen auch als Rückentlehnungen wieder in eine Gebersprache „zurückkehren“. Die Erforschung der Etymologie wird hier zum Indizienprozess, bei dem, etwa bei Internationalismen oder den sogenannten Wanderwörtern, auch unser Wissen über früheste Belege dieser Wörter in den in Frage kommenden Sprachen eine Rolle spielen kann. Auch soziale und kulturelle Faktoren können eine große Rolle spielen, wenn es darum geht zu beurteilen, aus welcher Sprache in welche andere(n) entlehnt wurde, z.B. dann, wenn lautliche Kriterien allein keine Entscheidung bringen: Wortschatzbezogener Sprachkontakt ist oft asymmetrisch, Gebersprache ist gerne die Sprache mit dem höheren Prestige bzw. die Sprache der kulturell oder politisch dominierenden Gruppe.
Der Begriff der „filter bubble“ wurde vom amerikanischen Internet-Aktivisten Eli Pariser geprägt. Demnach sorgen Algorithmen in sozialen Medien dafür, dass Menschen im Netz vor allem jene Informationen angeboten werden, die – vermeintlich oder tatsächlich – die eigene Meinung bestätigen. Wenn die eigene Meinung permanent bestätigt und Gegenmeinungen ausgeblendet werden – so Pariser – dann hat dies negative Auswirkungen auf die Gesellschaft (Polarisierung).
Tatsächlich haben Filteralgorithmen einen großen Einfluss darauf, wie leicht man bestimmte Informationen im Netz auffindet. Auch zeigt sich, dass „Likes“ oder andere „gefällt mir“-Angaben einen Einfluss auf unser Verhalten ausüben, weil sie gewissermaßen wie eine Währung funktionieren. Man sieht anhand der Likes, welches Meinungsbild in einer Community vorherrscht, und man ist eher geneigt, sich dementsprechend zu verhalten. Das Problem der „filter bubble“ würde sich demnach abschwächen, wenn bei Plattform-Anbietern andere Algorithmen verwendet werden, wenn dort Likes abgeschafft werden (was tatsächlich aktuell bei vielen Anbietern ausgetestet wird), oder wenn es statt Likes andere soziale Feedback-Formate gibt. Im Übrigen gilt: Niemand muss auf die empfohlenen News auch wirklich klicken. Man kann sich also von den Algorithmen befreien, in dem man nicht jedem vorgeschlagenen Link folgt und stattdessen selber nach Informationen sucht.
Das ist aber bei genauerer Betrachtung auch nur eine Teillösung. In der Wissenschaft wird der Begriff „filter bubble“ nur sehr selten verwendet, hier nutzt man eher den Begriff der „Echokammer“ des amerikanischen Rechtswissenschaftlers Cass Sunstein. Auch Sunstein ist der Meinung, dass Algorithmen dazu verwendet werden können, um die bestehende Meinung von Internet-Nutzern zu bestätigen. Doch das Problem sitzt nicht nur bei der Technik, sondern auch bei den Menschen selbst. Die psychologische Forschung zeigt tatsächlich, dass Menschen auch ganz ohne Technik eine sehr starke Tendenz haben, Informationen aufzusuchen und zu verbreiten, die das eigene Weltbild unterstützen. Der natürlichen Tendenz zur Meinungsbestätigung kann man am ehesten durch Medienkompetenz entgegenwirken, wie sie etwa in Schulen vermittelt werden könnte. Letztlich geht es darum, sich selbst öfter folgende Fragen zu stellen: Gibt es Gegenmeinungen zu meinem Weltbild? Wenn ja, bin ich in der Lage, die Argumente der Gegenseite zu benennen? Und wie gehe ich mit diesen Gegenargumenten um? Tue ich sie ab, indem ich der Gegenseite Dummheit, Uninformiertheit oder böswillige Absichten unterstelle? Oder gelingt es mir, die Gegenargumente durch eigene Argumente zu entkräften? Wer über solche Fragen reflektiert, wird auch aus der „filter bubble“ ausbrechen können.
Die Antwort stammt von Jürgen Buder, Kommissarischer Leiter der Arbeitsgruppe Wissensaustausch vom Leibniz-Institut für Wissensmedien (IWM) in Tübingen.
Weitere Informationen:
Projekt des Leibniz-WissenschaftsCampus Tübingen „Cognitive Interfaces“ zu Echokammern: https://www.wissenschaftscampus-tuebingen.de/www/de/forschung/forschungsbereiche/projekt01/index.html
Interview zu Echokammern: https://media-bubble.de/me-my-echo-chamber-and-i-radikalisierung-in-selbstbestaetigungsgruppen/
Zunächst ist unklar, was mit dem Begriff „ausreichender Schutz“ gemeint ist. Eine denkbare Interpretation ist die Verfügbarkeit der Ressourcen, um zu kommunizieren, eine andere ob die Kommunikation gegen Manipulation bzw. Mithören geschützt ist (IT-Sicherheit).
Verfügbarkeit:
Die Art der Kommunikation – also analog oder digital – hat auf die verfügbaren Ressourcen grundsätzlich keinen Einfluss. Entscheidend ist, ob z.B. für Notrufe entsprechende Kapazitäten reserviert werden. Wenn dieses getan wird, können alle notwendigen Verbindungen aufgebaut und bedient werden. Die Frage, ob solche Reservierungen in öffentlichen IP (Internet Protocol) basierten Netzen gestattet werden sollen, wird aktuell diskutiert. Einerseits sollen im Internet alle Datenströme gleichartig behandelt werden, andererseits gibt es den berechtigten Wunsch, einige Dienste vorrangig zu behandeln. Letzteres erscheint durchaus sinnvoll und wird sich wahrscheinlich zumindest mittelfristig durchsetzen.
Zusätzlich zur Nutzung der öffentlichen Netze betreibt das Innenministerium die Bundesanstalt für den Digitalfunk der Behörden und Organisationen mit Sicherheitsaufgaben – kurz BDBOS. Das BDBOS betreibt zusammen mit Bund und Ländern ein einheitliches digitales Funknetz für alle Behörden und Organisationen mit Sicherheitsaufgaben in Deutschland, z.B. Polizei, Feuerwehr und THW. Dieses Netz bietet eine Ende-zu-Ende-Verschlüsselung und wird parallel zur Infrastruktur der öffentlichen Netze betrieben.
IT-Sicherheit:
Digitale Kommunikation lässt sich deutlich leichter verschlüsseln als analoge und damit gegen unerlaubtes Mithören und Manipulation schützen. Hier bietet die Digitalisierung also erhebliche Vorteile.
Die Antwort stammt von Steffen Ortmann und Peter Langendörfer, beide Experten im Bereich Sensor-Netzwerke und Middleware-Plattformen am Leibniz-Institut für innovative Mikroelektronik (IHP).
Smartphones sind extrem universelle Geräte, die viele Funktionen von früher separaten Geräten übernommen haben. Ich denke, dass die Konzentration weiterer Funktionen im Smart-Phone weitergehen wird. So wird mit hoher Wahrscheinlichkeit die Funktion der Kreditkarte sowie die Funktion des Auto- und Hausschlüssels in das Smartphone wandern.
Ich kann mir gut vorstellen, dass es in Zukunft andere Formfaktoren für Smartphones gibt. So muss z.B. das Gerät nicht wie heute aus einer Einheit bestehen, sondern die Display-Funktion, die Audio-Funktion und die Bedienelemente können getrennt werden. So eine Tendenz sieht man beispielsweise bei den heute noch sehr experimentellen Varianten von Smart-Glasses. Es könnte also eine Art „verteiltes“ Smartphone entstehen.
Ich glaube allerdings nicht daran, dass es noch weitere so universelle Geräte wie das Smartphone geben wird. Für den menschlichen Benutzer ist es ja ein großer Vorteil, so viel Funktionalität wie möglich auf kleinem Raum und mit wenig Gewicht zu bündeln.
Die Antwort stammt von Rolf Kraemer, Abteilungsleiter System Design am Leibniz-Institut für innovative Mikroelektronik (IHP).
Chatten, E-Mails versenden, Informationen auf Webseiten suchen, Online-Banking oder Online-Shopping? Für viele jüngere Menschen ist das selbstverständlich. Doch anderen Bevölkerungsgruppen droht mit der zunehmenden Digitalisierung der Ausschluss von zahlreichen Kommunikations-, Informations-, Unterhaltungs- und Transaktionsmöglichkeiten. Studienergebnisse zeigen, dass ältere Bevölkerungsschichten das Internet deutlich weniger nutzen. Auch ist eine Schere zwischen den Bildungsgraden erkennbar. Personen mit einem niedrigeren Bildungsstatus nutzen digitale Angebote deutlich seltener und auch Frauen nutzen das Internet weniger als Männer (D21 Digital Index 2017/2018).
Die Unterschiede in dem Zugang zu und der Nutzung von Informations- und Kommunikationstechnologien, werden unter den Begriffen digitale Kluft („digital gap“) oder digitale Spaltung („digital divide“) diskutiert. Es wird davon ausgegangen, dass der Zugang zum Internet mit besseren gesellschaftlichen und wirtschaftlichen Chancen einhergeht. Immer mehr Lebensbereiche werden heutzutage digital gestaltet, sei es in der Wirtschaft und Berufswelt, in Bildung und Wissenschaft, in den Medien oder in Politik und Verwaltung. So beeinflusst die Digitalisierung die Art der Kommunikation, das Lernen und Arbeiten ebenso wie das Konsum- und Freizeitverhalten. Für die Kommunikation mit Freunden und Familie nutzen zwei Drittel der Deutschen soziale Medien. Dieses Beispiel zeigt, wie sich die neuen Kommunikationsformen unter anderem auf das soziale Miteinander auswirken. Der digitale Wandel wirkt sich aber nicht nur auf das soziale Miteinander aus, sondern auch auf das berufliche und politische Leben. So sind Menschen ohne Zugang zum Internet aus wichtigen Teilen der gesellschaftlichen Kommunikation ausgeschlossen. Auch wird argumentiert, dass Menschen mit dem Zugang sowie dem Wissen und der Fähigkeit, digitale Technologie zu nutzen, mehr Möglichkeiten haben, um beispielsweise berufliche Kontakte zu knüpfen oder Wissensressourcen abzurufen. Es wird auch davon ausgegangen, dass Minderheiten und Randgruppen wie beispielweise Migranten und Geflüchtete durch die Nutzung von Informations- und Kommunikationstechnologien einen besseren Zugang zu Informationen und Anbindung an die Gesellschaft finden können (Díaz Andrade und Doolin 2016).
Obwohl die Nutzung von Informations- und Kommunikationstechnologien viele neue Chancen mit sich bringt, können gleichzeitig auch negative Effekte auftreten. Daher sind Digitalkompetenzen wichtig, beispielsweise zur Einschätzung von Informationen im Internet, um kommerzielle oder falsche Inhalte zu identifizieren. Auch haben wissenschaftliche Studien vielfältige negative Auswirkungen bestätigt, die Internetnutzer empfinden können: von einem gesteigerten Neidempfinden bei der Nutzung von sozialen Medien bis hin zu psychischen Folgen, welche durch suchtähnliches Internet-Nutzungsverhalten hervorgerufen werden können (Krasnova et al. 2015).
Die Antwort stammt von Antonia Köster, Leiterin der Forschungsgruppe „Digitale Integration“ am Weizenbaum-Institut für die vernetzte Gesellschaft. Das Weizenbaum-Institut wird koordiniert vom Wissenschaftszentrum Berlin für Sozialforschung (WZB), einem Mitglied der Leibniz-Gemeinschaft.
Quellen:
- Initiative D21 e. V. (2018/2019) D21-Digital-Index: Jährliches Lagebild zur Digitalen Gesellschaft
- Antonio Diaz Andrade, Bill Doolin (2016) “Information and Communication Technology and the Social Inclusion of Refugees”, Management Information Systems Quarterly
- Krasnova, H., Widjaja, T., Buxmann, P., Wenninger, H., Benbasat, I. (2015) “Research Note – Why Following Friends Can Hurt You: An Exploratory Investigation of the Effects of Envy on Social Networking Sites among College-Age Users”, Information Systems Research
Zu beiden Fragen gemeinsam ist zu sagen: Das Wissen der Welt / der Menschheit ist sehr differenziert zu betrachten. Es reicht von Erfahrungen, die die Menschen in Papua-Neuguinea, die quasi noch in der Steinzeit leben, an ihre Kinder und Enkel mündlich weitergeben, bis zu umfangreichen digitalen Datenbeständen aus der Klimaforschung oder aus anderen technisch orientierten Fächern der Wissenschaft. Wissen hat viele Facetten, die von Fach zu Fach sehr unterschiedlich sind, und es gibt noch mehr Speicher, auf denen Wissen abgelegt ist. Hier reicht das Spektrum von alten Papyrusrollen z. B. in der Staatsbibliothek Preußischer Kulturbesitz in Berlin, über Massenschrifttum ab Mitte des 19ten Jahrhunderts bis zu komplexen elektronischen Datenbeständen z. B. des RatSWD.
Daher ist die Frage 1. dazu, wie man das Wissen archivieren kann, nicht so einfach zu beantworten. Je nachdem, welche Möglichkeiten und welche Inhalte eine Gedächtnisorganisation hat, kommen viele Wege in Frage. So können mittelalterliche Schriften, die oft wunderbar verziert sind, im Original erhalten werden über eine Restauration und sie müssen dann vor Schäden in der Benutzung geschützt und in klimatisch besonders ausgestatteten Räumlichkeiten gelagert werden. Um die Original zu schonen, können digitale Kopien erstellt werden, die dann über Verfahren der digitalen Langzeitarchivierung digital erhalten werden können. Bei Massenschrifttum ab den 40er Jahren des 19ten Jahrhunderts kann es ausreichen, die Werke zu digitalisieren und die digitalen Kopien über die digitale Langzeitarchivierung zu erhalten. Für weniger zentrale Werke, deren inhaltlicher Wert nicht so groß ist, dass die Verfügbarkeit in elektronischer Form wichtig ist, reicht auch eine Entsäuerung des Papiers. Digitale Forschungsdaten müssen der digitalen Langzeitarchivierung unterzogen werden, sonst veralten Formate, die Software zum Lesen, die Betriebssystem usw. und die Daten können nicht mehr ausgelesen werden. Es gibt kein Verfahren, was alle denkbaren Arten von Wissen und alle Medientypen behandelt, die es weltweit gibt. Es müssen immer eigene Lösungen erarbeitet werden.
Zu Frage 2. ist daher zu sagen, dass die Frage nach der Effizienz stark von der Aufgabe der Gedächtnisorganisation abhängt, die dieses Wissen speichert: Schon aus Kostengründen wird man jeweils das machen können, was man sich leisten kann. „Die“ effektive Methode der Speicherung und der Konservierung gibt es daher auch nicht.
Die Antwort stammt von Monika Zarnitz, Leiterin des Programmbereichs Benutzungsdienste und Bestandserhaltung am ZBW – Leibniz-Informationszentrum Wirtschaft.
1. Es kommt darauf an, über welchen Zeitraum wir sprechen
Auf sehr lange Sicht werden Print-Medien weitgehend verschwinden und ersetzt durch elektronische Medien, vorerst elektronische Versionen der Printmedien. Wenn sie verschwinden, dann nicht aufgrund von Verboten, sondern weil sie nicht mehr profitabel sind. Und nicht mehr profitabel werden sie, wenn diejenigen, die an ihnen bisher so interessiert sind, dass sie dafür ihr Geld ausgeben, die interessierenden Inhalte leichter oder preiswerter ohne Papier bekommen und sie leichter und angenehmer nutzen können.
Die Vervielfältigung von Printmedien ist schon heute teurer als die elektronische Vervielfältigung der gleichen Inhalte.
Hinzu kommt die Verbreitung, also die Zustellung zu den Leserinnen und Lesern, sei es mit der Post, über den Zeitschriftenhandel, den Buchhandel oder über Bibliotheken. Für die Zustellung von Zeitschriften, Zeitungen und Briefen gelten bei der Post bisher besonders günstigere Konditionen als für Briefe mit gleichem Gewicht. Es ist aber ungewiss, wie lange das so bleiben wird.Trotz der höheren Vervielfältigungs- und Vertriebskosten gibt es die Printmedien immer noch. Es gibt also weitere Kriterien. Eine davon ist die Gewohnheit: viele Menschen sind es (noch) nicht gewohnt, die Inhalte von Printmedien (Bücher, Zeitschriften, Zeitungen) elektronisch zu nutzen. Sie bevorzugen die Printmedien u. a. deshalb, weil sie die Medien überall hin mitnehmen, mit anderen teilen und ohne technisches Gerät nutzen und leicht entsorgen können (weil es fast überall „Papierkörbe“ gibt).
2. Es kommt darauf an, über welche Printmedien wir sprechen.
Als stärksten betrifft es die Zeitschriften. Fachzeitschriften werden wohl am schnellsten als Printmedien verschwinden, weil für die berufliche Nutzung der schnelle Zugriff über das Netz ein Vorteil ist gegenüber der Ausleihe aus einer Bibliothek. Es gibt bereits Fachzeitschriften, die nur noch elektronisch erscheinen, ganz ohne eine Printausgabe.
Auch bei Publikumszeitschriften gibt es einen Trend zur Verbreitung der gleichen Inhalte über das Internet. Zum Beispiel wird die ADAC-Mitgliederzeitschrift, eine der auflagenstärksten Zeitschriften in Deutschland, den Mitgliedern wahlweise nicht mehr als Printmedium, sondern elektronisch zugestellt. Das US-Nachrichtenmagazin Newsweek wurde 2013 gar nicht mehr als Printmedium, sondern nur noch elektronisch verbreitet. Dies war jedoch wirtschaftlich ein Misserfolg, so dass Newsweek seit 2014 auch wieder als Printmedien erscheint.Zeitungen werden das nächste Printmedium sein, das nach und nach verschwindet. Die Druck- und Vertriebskosten sind hoch, andererseits werden die Haushalte kleiner, so dass sich häufig nicht mehrere Personen ein Zeitungsabonnement die Nutzung und die Kosten teilen, sondern diese Kosten von einer einzelnen Person getragen werden müssen. Ein Beispiel für den starken Zuwachs der Online-Verbreitung von Zeitungen ist die New York Times. Sie hatte Ende 2018 noch etwa 900.000 Print-Abonnenten, aber rund 3,4 Mio. Digital-Only-Abonnenten.
Auch bei Büchern ist es sehr verbreitet, dass sie gleichzeitig als Print-Ausgabe und als E-Book erscheinen. Hier scheinen sich die Gewohnheiten der Leserinnen und Leser aber erst allmählich zu verändern. Wenn aber der Absatz von gedruckten Büchern stärker zurückgeht, kann es zu einem Kreislauf kommen, in dem immer mehr Buchhandlungen geschlossen werden, der direkte Zugang der möglichen Kundschaft zum vielfältigen Buchangebot eingeschränkt wird und damit der Absatz gedruckter weiter sinkt und damit E-Books schneller an Bedeutung gewinnen.
Vornehmlich bei Schulbüchern ist anzunehmen, dass sie für die Unterrichtung der jüngeren Kinder noch sehr lange Bestand haben werden. Das mag außerdem für regional oder lokal verbreitete Wurfsendungen wie Prospekte gelten, die versuchen, auch Leserinnen und Leser zu erreichen, die nicht bewusst nach Inhalten mit kommerzieller (oder politischer) Werbung suchen, bei denen es sich aber bis auf weiteres lohnt, sie damit zu konfrontieren. Auch hier werden letztlich die Verbreitungskosten der ausschlaggebende Faktor sein.
Die Antwort stammt von Hermann-Dieter Schröder, Senior Researcher Medienwirtschaft & Medienorganisation am Leibniz-Institut für Medienforschung, Hans-Bredow-Institut (HBI).
Foto JENS KUIPER