Plenarvorträge 1992

Sitzung am 11.12.1992
Herbert Beckert (Leipzig), Ordentliches Mitglied der Mathematisch-naturwissenschaftlichen Klasse:


„Über das Unendliche“

In den Kulturkreisen des Altertums spielte das Unendliche keine wesentliche Rolle. Für die Menschen dieser Zeiten war das Unendliche mit dem Erfahrungsinhalt für das Unbegrenzte identisch. Die Größenordnungen, mit denen man lebte, spiegelten sich auch in den Religionen wider. Man rückte den Sitz der Gottheiten in die unmittelbare Umgebung der Menschen. So war der Kosmos der Griechen endlich und bestand aus der Erde und den sieben Himmelssphären. Hinter der Sphäre der Fixsterne dehnte sich das Empyreion aus, also keine Welt mehr. Diese endliche Welt beinhaltete auch den Sitz der Götter, gewissermaßen als Abschluß. Ähnliche Vorstellungen waren auch in anderen Kulturkreisen des Altertums vorherrschend. In der griechischen Mathematik brauchte man das Unendliche nicht, wie auch in Babylon, Ägypten, China und bei den Indern. Die Nichtbeachtung dauerte auch während des wissenschaftlichen Niedergangs in dem folgenden Jahrtausend an, sieht man von Aristoteles, der das Unendliche als unbegrenzt fortsetzbaren Prozeß deutet, und weiter von den interessanten Gedankengängen über das aktual Unendliche in der scholastischen Philosophie, u.a. von Augustin und Thomas von Aquino, ab. In der Renaissance tritt eine Wendung ein. Es ist die Zeit der epochemachenden Leistungen in der Kunst und Architektur, die die Grenzen des bisher Erreichten weit hinausschieben und leuchtende Ideale schaffen, die Zeit der großen Seefahrer Vasco da Gama, Kolumbus und Fernando de Magallanes. In der Zeit des Aufbruchs nach der jahrtausendjährigen Stagnation, in dem sich die Größenordnungen, mit denen man lebte, weit nach außen verschoben, reifte auch für die Theologie und den herrschenden Klerus die Zeit heran, den Horizont zu erweitern und für die Größe Gottes einen unendlichen Raum zu fordern, nicht einen endlichen Kosmos wie bei den Griechen. Die Unendlichkeit des Weltraums wurde als Glaubenssatz der christlichen Kirche bis in die neueste Zeit mit Leidenschaft empfunden und verteidigt. Die Einführung des Unendlichen in die Religion hatte keinen Einfluß auf die Entwicklung der Mathematik. Es dauerte noch über hundertfünfzig Jahre bis zur ersten und wohl aller Zeiten folgenreichsten Anwendung des Unendlichen, besser des unendlich Kleinen, in der Mathematik, der Erfindung der Infinitesimalrechnung durch I. Newton (1643–1727) und G. Leibniz (1646–1716). Wir können hier nur auf Ausschnitte meines Vortrags eingehen und vermerken, daß die Infinitesimalrechnung erstmals das Instrumentarium bereitstellte, die Naturgesetze exakt zu formulieren und Vorgänge in der Natur vorauszuberechnen. Dies geschah schon vorwiegend mit Hilfe von Differentialgleichungen und Variationsprinzipien, woraus sich in den folgenden Jahrhunderten das große Teilgebiet der Mathematik, die Analysis entwickelte. In seinem Vortrag ging der Verfasser noch auf die Wahrscheinlichkeitsrechnung, Statistik und Fehlertheorie ein, worin der Mathematiker in beinahe natürlicher Weise vom Übergang von stets endlichen Gesamtheiten zu unendlichen Gesamtheiten profitiert, wie die Herleitung aller klassischen Wahrscheinlichkeitsverteilungen zeigt. So konvergiert die Binomialverteilung für eine Alternative bei n unabhängigen Versuchen asymptotisch für n → ∞ gegen die analytisch handliche Normalverteilung von Laplace/Gauß, analoges gilt für die Verteilung einer Summe von n kleinen voneinander unabhängigen zufälligen Fehlerbeiträgen einer Messung, von denen ein jeder eine sehr kleine Streuung hat, für n→ ∞ .

In der Mathematik stoßen wir auf das Unendliche von zwei Fragestellungen aus. In der Analysis haben wir es nur mit dem unendlich Kleinen und unendlich Großen als Grenzwertbegriff zu tun, mit dem, wie man sagt, potentiellen Unendlichen, als etwas Entstehendem, Werdendem, etwa, wenn wir eine Größe beliebig genau approximieren,wie das Verhältnis π des Umfangs eines Kreises zum Durchmesser, darstellbar durch einen unendlich langen Dezimalbruch π = 3,14159265 … Die endlichen Abschnitte πn dieses unendlichen Dezimalbruchs approximieren π mit beliebig vorgebbarer Genauigkeit, die stets von einem hierfür geeigneten n ab zutrifft. Wir sagen dann, 1tn konvergiert gegen π, oder π ist der Grenzwert von πn . Dieser Sachverhalt rechtfertigt erst, den unendlichen Dezimalbruch mit π selbst zu identifizieren. Es handelt sich hierbei nur um einen speziellen Fall für die eindeutige Darstellbarkeit aller reeller Zahlen durch Dezimalbrüche. Geht man mit G. Cantor allgemeiner von der Gesamtheit aller konvergenten Folgen rationaler Zahlen aus, dann erhält man am Ende nichts Neues, also ebenfalls die Menge aller reellen Zahlen. Einen zweiten Zugang zum Unendlichen in der Mathematik, dem eigentlichen Unendlichen, öffnet die Mengenlehre, wenn man Mengen mit unendlich vielen Elementen „gewissermaßen als fertig“ zu einer Einheit zusammenfaßt. Der Übergang zum Unendlichen wird hier im Symbol für die betreffende Menge vollzogen, wie z.B. in der Menge N aller natürlichen Zahlen N ( 1,2,3, … ). Eine Gerade g kann als Inbegriff ihrer unendvielen Punkte aufgefaßt werden. Man spricht hier vom aktual Unendlichen. Die Mengenlehre wurde Ende des vorigen Jahrhunderts von G. Cantor aufgebaut und ist heute ein wichtiges Teilgebiet der Mathematik, und doch zeigte sich bald, daß die schrankenlose Handhabung des Aktualunendlichen nach den ursprünglich evident erscheinenden Axiomen der Mengenlehre zu Paradoxien führen kann. Ich gehe hier nicht auf die erfolgten, die Paradoxien vermeidenden, neuen Begründungen der Mengenlehre noch auf die durch Arbeiten von Hilbert, Brouwer und Gödel bestimmten Entwicklungen der mathematischen Grundlagenforschung während der ersten Jahrzehnte dieses Jahrhunderts ein. Wir verlassen die Mathematik zugunsten der wichtigen Frage nach dem möglichen Auftreten des Unendlichen in der Natur.

Der naive Verstand hält die Zeit für etwas Absolutes. Das Bewußtsein der Menschen ruht gewissermaßen in der dahinfließenden Zeit. Dieser Bewußtseinsinhalt trennt die Zukunft über die Gegenwart von der Vergangenheit und ermöglicht eine ablaufgetreue Einordnung des Erlebten in das Gedächtnis. Erst dadurch wird es dem Menschen wie auch den Tieren möglich, aus Erfahrungen zu lernen, diese in das richtige Verhältnis von Ursache und Wirkung einzuordnen. Die Widerlegung eines absoluten zeitlichen Ablaufs in der Natur ergibt sich aus der durch viele Experimente gesicherten zeitlichen Verschiebung, die in zwei relativ zueinander bewegten Systemen zu beobachten ist, andererseits auch auf Grund der unterschiedlichen Wahrnehmung des zeitlichen Ablaufs im Tierreich. Die Ergebnisse der Physik haben dazu geführt, die Zeit in eine Raumzeitstruktur einzubetten. Nach der allgemeinen Relativitätstheorie von A. Einstein sind die geometrischen Eigenschaften dieser Raumzeitstruktur durch die Verteilung der Massen im Weltraum bestimmt, und umgekehrt legen diese geometrischen Eigenschaften ihrerseits die Bewegung fest. Die Frage nach der Endlichkeit oder Unendlichkeit des Kosmos wurde durch die Entdeckung der Rotverschiebung in den Spektren des Lichts, das extragalaktische Systeme aussenden, entschieden. Man erkennt hieraus, daß sich die Sternensysteme voneinander entfernen, das Weltall also in Expansion begriffen ist. Diese durch eine Unzahl von Messungen gesicherte Tatsache führte durch Interpolation zurück in die Vergangenheit zur Hypothese des sogenannten Urknalls. Danach wurden Raum und Zeit vor 15 bis 18 Milliarden Jahren durch Explosion einer die gesamte Energie dieser Welt enthaltenden engen Bündelung geschaffen. Die 2,7-Kelvin-Hintergrundstrahlung, welche gleichmäßig über den ganzen Kosmos „verschmiert“ ist, aus der Zeit, als sich die Photonen nach der Theorie von der expandierenden Materie trennten, ist neben der gesicherten Expansion des Weltalls die stärkste Stütze für die Theorie des Urknalls. Man schätzt, daß es in unserer Galaxie, der Milchstraße, über 100 Milliarden Sterne gibt, und man hält eine Gesamtzahl von mehreren Milliarden von Galaxien im Universum für möglich. Aus der Endlichkeit unseres Weltzeitraums folgt die Endlichkeit der Zahl der Atome und deren nach den Gesetzen der Quantentheorie möglichen diskreten Zustände und weiter die Endlichkeit aller Elementarteilchen. Zusammengefaßt besagt dies, daß es in unserer materiellen Raumzeitwelt nichts Unendliches gibt. Das Unendliche ist offenbar eine Erfindung des Menschen!

Wir fragen weiter, ob es in der belebten Natur etwas Unendliches gibt. Die biologischen, chemischen und physikalischen Vorgänge in der Zelle, dem Baustein der belebten Natur, sind wie die Wechselwirkungen mit benachbarten Zellen von endlicher Vielfachheit, was den atomaren und molekularen Austausch betrifft. Der Verfasser wies u.a. noch darauf hin, daß das Unendliche auch in der genetischen Informationsübertragung nicht vorkommen kann und wandte sich dann den Lebensfunktionen zu, welche vom Gehirn gesteuert werden. Es gibt wahrscheinlich etwa 100 Milliarden Nervenzellen, die Neuronen, im Gehirn eines Menschen. Das Gehirn ist ein riesiges Netzwerk, die höchstentwickelte und komplizierteste Struktur, die man im Universum kennt. Die Informationsübertragung über Transmitter von einer Neuronenzelle aus wird durch Austausch von positiv und negativ geladenen Ionen erzeugt und reguliert. Dabei sind in jedem festen Zeitraum nur endliche Gesamtheiten wirksam. Wir begnügen uns hier mit diesen Andeutungen und bemerken, daß jede bewußte oder unbewußte Lebenssituation, die sich aus den Wahrnehmungen, der Verstandestätigkeit und aus der Steuerung aller Organe des Körpers zusammensetzt, einem gewissen Zustand der Gehirnneuronen und der Informationsübertragung längs der Axonen und Dentriten entspricht. Wenn auch die moderne Hirnforschung über Lokalisation und Steuerung der sensorischen Prozesse und motorischen Systeme eines Menschen große Fortschritte gemacht hat, bleibt doch für alle Zeiten die enge Kopplung zwischen den neuronalen Mechanismen und dem erkennenden Bewußtsein nach Zweck und Sinn unserem rationalen Denken verschlossen. Setzen wir voraus, daß die genannte Kopplung eindeutig ist, so erhalten wir das bemerkenswerte Ergebnis, daß es in dem riesigen Dom menschlicher Schöpfungen und der Vorstellungskraft des menschlichen Verstandes nichts Unendliches gibt. Um nämlich zu einer Schranke für die überhaupt möglichen verschiedenen Zustände des menschlichen Gehirns in einem Zeitraum T zu gelangen, führen wir die folgenden Schranken ein:

A = Schranke für die Zahl der Neuronen im menschlichen Gehirn,

B = Maximalzahl der von einem einzelnen Neuron ausgehenden Verbindungen (Axon, Dentriten) im Gehirn,

C = Maximalzahl der verschiedenen Zustände eines Neurons,

E = Maximalzahl der in einem Axon oder Detriten möglichen Signale (Transmitter, Aktionspotentiale ),

δ = Minimalzeitdauer zwischen zwei für eine bestimmte Aktivität relevanten, benachbarten Zuständen des Gehirns.

Man findet dann leicht die folgende unvorstellbar große Zahl als eine Schranke:

Beckert-Formel.jpg

für die überhaupt denkbaren verschiedenen Aktivitäten des Gehirns im Zeitraum T. Zur Minimalzeitdauer δ ist zu bemerken, daß die Informationsübertragung im Netzwerk des Gehirns elektrochemisch erfolgt, um Größenordnungen langsamer als die auf elektronischer Basis beruhende Übertragung in einem Computer. Das Wesentliche und der erkenntnistheoretische Wert von (+) ist, daß es überhaupt eine Schranke für die verschiedenen Zustände des menschlichen Gehirns gibt. In einer demnächt erscheinenden Abhandlung gehe ich ausführlicher auf die Gegenstände dieses Vortrags ein.

 

Vortrag am 11.12.1992
Ernst Ullmann (Leipzig), Ordentliches Mitglied der Philologisch-historischen Klasse:


„Albrecht Dürer – Selbstbildnisse und autobiographische Schriften als Zeugnisse der Entwicklung seiner Persönlichkeit“

Der Vortrag wurde zu Ehren des Ordentlichen Mitglieds Johannes Lahn (1892–1976) gehalten, dessen Geburtstag sich am 22.11.1992 zum hundersten Male jährte, und er schloß an die Dürer-Forschungen der Ordinarien für Kunstgeschichte der Leipziger Universität an, die alle Ordentliche Mitglieder der Sächsischen Akademie waren.

Mit einem ausgezeichneten Selbstbildnis (Wien, Albertina) begann Albrecht Dürer 1483 als Dreizehnjähriger sein künstlerisches Werk, Ende 1523, knapp fünf Jahre vor seinem Tode, erfolgte die Niederschrift seiner „Familienchronik“; zwischen diesen beiden im damaligen Europa einzigartigen und wegweisenden Leistungen wandelte sich mehrfach die Form der Selbstbetrachtung und Selbstdarstellung: Am Anfang standen die autonomen Selbstbildnisse, die von einer getreuen Wiedergabe des äußeren Erscheinungsbildes ausgingen, dann soziale Ziele artikulierten und schließlich – im Münchener Selbstbildnis von 1500 (München, Bayerische Staatsgemäldesammlung, Ältere Pinakothek) – eine geradezu programmatische Gestalt annahmen. Darauf folgen die Selbstbildnisse in assistenza (Rosenkranzspende, Prag, Nationalgalerie; Marter der Zehntausend, Wien, Kunsthistorisches Museum; Heller-Altar, verbrannt; Allerheiligenbild, Wien, Kunsthistorisches Museum), in denen Dürer sich nachdrücklich als Schöpfer des Werkes zu erkennen gab und seine Herkunft nannte. Parallel dazu begannen erste autobiographische Aufzeichnungen im sogenannten „Gedenkbuch“. Von zwei Zeichnungen abgesehen, endeten mit den Selbstbildnissen in assistenza die bildnerischen Selbstdarstellungen. Aussagen zur eigenen Person, ihrer seelischen Befindlichkeit und ihrer sozialen Stellung erfolgten von nun an in Briefen, innerhalb kunsttheoretischer Studien, Buchwidmungen, dem Tagebuch der Niederlandreise und eben der „Familienchronik“. Das im Bilde Artikulierte wurde meist erst Jahre später in Worte gefaßt. So wie hier der Weg von der Anschauung zur Reflexion führte, geschah dies auch in anderen Formen der Auseinandersetzung Dürers mit seiner Welt (Proportions studien, Perspektive, darstellende Geometrie). Innerhalb der Entwicklung sind zwei Zäsuren zu beobachten – 1500/1505 und 1511/13. Sie zeichnen sich in der Form der Selbstbildnisse und Schriften ebenso ab wie in dem Bemühen um die theoretischen Grundlagen der Kunst und im Stil.

Die Entwicklung, die die Lösung des Künstlers vom Handwerk und das Bewußtwerden eigener Leistungen deutlich erkennen läßt, war eingebettet in den allgemeinen Prozeß des Übergangs vom Mittelalter zur Neuzeit. Ähnliche Leistungen italienischer und niederländischer Meister waren Dürer vertraut, er knüpfte an diese an und überbot sie.

 

Vortrag am 27.11.1992, Öffentliche Gesamtsitzung
Dietrich Uhlmann (Dresden), Ordentliches Mitglied der Mathematisch-naturwissenschaftlichen Klasse:


„Die Beschaffenheit der Gewässer als Anzeiger für den Zustand der Umwelt“

Anthropogene Eingriffe in die Struktur und den Stoffhaushalt der Gewässer-Ökosysteme und ihrer Einzugsgebiete haben weltweit ein so großes Ausmaß erreicht, daß es immer schwieriger wird, Vergleichsobjekte zu finden, die noch den natürlichen Zustand repräsentieren.

Fließgewässer sind die Drainagen der Landschaft, daher in ihrer Struktur geprägt durch ihre Einzugsgebiete. Am deutlichsten erkennt man dies bei Fließgewässern der hohen Gebirgslagen (Gletschertrübe). Auch bei Waldbächen ist, infolge Beschattung, der Stoffhaushalt weitgehend extern gesteuert (keine nennenswerte eigene photosynthetische Produktion). Hingegen sind Seen nicht auf Stoffimporte angewiesen, die im System vorhandenen Nährstoffe können weitgehend im Kreislauf genutzt werden. Der Einfluß des Menschen ist aber heute so groß, daß auch die Beschaffenheit der Seen weitgehend durch Stoffimporte geprägt wird. Noch intakte Gewässer-Einzugsgebiete zeichnen sich, wenn man von den obersten Gebirgslagen einmal absieht, durch relativ geringe Stoffverluste aus. Fließgewässer, die in tropischen Regenwäldern entspringen, sind im Regelfall klar, nährstoffarm und ausdauernd. Dagegen sind in entwaldeten Einzugsgebieten der warmen Klimazonen die Stoffverluste extrem hoch. Die Massenströme/Verluste an Ionen, gelösten organischen Substanzen sowie Feststoffen werden hauptsächlich durch folgende Faktoren bestimmt: Gefälle und Abflußmenge, Intensität von Auslaugungs- und Verwitterungsprozessen, atmosphärische Depositionen, Einleitung von Abwässern, Abschwemmung und Auslaugung von Stoffen aus bebauten oder landwirtschaftlich genutzten Flächen. Am Beispiel des Nitratgehaltes der Elbe kann demonstriert werden, daß mit zunehmender Wasserführung nicht nur keine Verdünnung eintritt, sondern im Gegenteil eine Konzentrationszunahme. Anthropogene Einflüsse (Versauerung) zeichnen sich auch in der Ionenkomposition der Gewässer ab: Vorherrschend ist (neben Calcium) vielfach nicht mehr das Hydrogenkarbonat, sondern das Sulfat. Der Zustand der Gewässer und ihrer Einzugsgebiete wird in hohem Maße durch physikalische/meteorologische Steuergrößen bestimmt.

Die mittlere Temperatur des Tiefenwassers von thermisch geschichteten Seen steht in einer sehr engen Beziehung zur geographischen Breite sowie zur Höhe über dem Meeresspiegel. Das Tiefenwasser tropischer Seen weist oft Temperaturen von mehr als 20 °C auf (im Gegensatz zu den Kühlschranktemperaturen in Seen der gemäßigten Breiten), wodurch die sauerstoffverbrauchenden Prozesse und die Rückführung von Nährstoffen (Phosphat) in den Kreislauf sehr beschleunigt werden. Daher sind Massenentwicklungen des Phytoplanktons und dadurch induzierte Abbauprozesse im Tiefenwasser (Anreicherung von gelöstem Eisen und Mangan) noch viel häufiger als in Seen und Talsperren der gemäßigten Breiten. Stauseen in Gebieten mit hoher Luftemperatur und -feuchtigkeit sind oft so stabil geschichtet, daß sich im Tiefenwasser Schwefelwasserstoff anreichert, der zu starken Erosionsschäden an Bauwerken (Turbinen) und zu chronischer Vergiftung der unterhalb der Staumauer lebenden Bevölkerung führen kann. Klimatische Faktoren sind auch die wichtigsten Steuergrößen für die biologische Struktur flacher Seen.

Die chemische Beschaffenheit der Gewässer wird vor allem durch die der Zuflüsse (Gehalt an Kalk, Huminstoffen, Mineralsäuren, Nährstoffen, Metallen und organischen Xenobiotica) bestimmt. Der Mobilisierungsgrad der Nährstoffe ist sowohl vom Vertikalgradienten des Sauerstoffgehaltes als auch von der Struktur des pelagischen Ernährungsgefüges (z.B. Anteil an Raubfischen sowie der Bestandsdichte der Unterwasserpflanzen abhängig). Der systeminterne Stoffkreislauf steuert sich innerhalb bestimmter Grenzen selbst. Jedoch kann die Einführung/Einschleppung neuer Arten irreversible Änderungen nach sich ziehen (z B. die katastrophale Abnahme des Bestands an Fischarten, die nur dort vorkamen, im Victoriasee nach künstlichem Besatz mit einem großen Raubfisch, dem Nilbarsch).

Das Antwortverhalten der Gewässer-Ökosysteme gegenüber Umweltänderungen durch den Menschen wird vor allem durch deren Intensität und „Frequenzmuster“ bestimmt. Entwaldung, intensivierte landwirtschaftliche Produktion, übermäßige Wasserrückhaltung für Bewässerung, Versiegelung von Flächen durch Bebauung führen zur Verschlammung, Auflandung, teilweisen Austrocknung (z.B. Aralsee, Totes Meer), zur Überlastung mit mineralischen Trübstoffen, Nährstoffen (vor allem Nitrat) und Bioziden. Die Einleitung von Laststoffen aus Kommunen und Industrie führt zur Saprobisierung, Eutrophierung, Versauerung oder zu einem erhöhten Gehalt an Fremdstoffen bzw. toxischen Schwermetallen. Die kombinierte Wirkung derartiger Effekte ist kaum vorhersagbar bzw. bisher wenig erforscht. In entwaldeten und übermäßig genutzten Wassereinzugsgebieten der Tropen und Subtropen ist die Belastung der Stauseen mit Sinkstoffen aus Erosionsprozessen oft so hoch, daß die Lebensdauer der Gewässer nur wenige Jahrzehnte beträgt.

Während Fließgewässer auf eine Änderung der Belastung im allgemeinen sehr schnell reagieren, kann die entsprechende Zeitverzögerung bei Seen viele Jahrzehnte betragen. Dies bedeutet, daß Fließgewässer auf Stoßbelastungen schnell und empfindlich reagieren (wie z.B. die Organismen des Rheins nach dem Brand im Chemiewerk Sandoz). Standgewässer hingegen besitzen Dämpfungen und Pufferungen. Dies bedeutet aber, daß irreversible Schäden oftmals erst zu einem Zeitpunkt sichtbar werden, an dem die Ausschaltung der Belastungsquellen, kurzfristig betrachtet, vollkommen wirkungslos sein kann. Eine Kombination von fehlender Pufferung und starker Zeitverzögerung ist für tiefe Grundwasserleiter kennzeichnend. In dem Moment, in dem eine Kontamination erkannt wird, kann es für eine Nutzung als Trinkwasser schon zu spät sein.

Die Sedimente vieler Standgewässer dokumentieren in ihrer Struktur und ihrem stofflichen Bestand die Belastungsgeschichte des Ökosystems. Für eutrophierte oder versauerte Trinkwassertalsperren läßt sich dies anhand der verschiedenen Phosphatfraktionen bzw. des Aluminiumgehaltes im Bodensediment demonstrieren.

Die Stoffverluste aus den Einzugsgebieten der Gewässer sind gegenüber dem natürlichen Zustand weltweit angestiegen, oft um mehr als das Zehnfache, stellenweise um mehr als das Hundertfache. Dies ist ein sichtbares Anzeichen dafür, daß die Tragfähigkeit der meisten Gewässer-Ökosysteme überschritten wird. In den tropischen und subtropischen Klimaten verliert die Vegetationsdecke immer mehr ihre für die Wasserversorgung und Landwirtschaft lebenswichtige Funktion als Puffer- und Speichersystem. Die Weltwirtschaft funktioniert, im wörtlichen Sinne, ohne Rücksicht auf solche Verluste, fördert dadurch die genannten Degradierungsprozesse vor allem in den Ländern, denen die Mittel für Gegenmaßnahmen weitgehend fehlen. Wenn es nicht gelingt, die Lawine der Degradierungsprozesse zu bremsen und letztlich zum Stillstand zu bringen, wird auf unserem Planeten die ökonomische und dadurch auch politische Instabilität unvermeindlich weiter ansteigen.

 

Vortrag am 9.10.1992
Lothar Eißmann (Leipzig), Ordentliches Mitglied der Mathematisch-naturwissenschaftlichen Klasse:


„Klimabefunde im Känozoikum aus mitteldeutscher Sicht“

Hauptanliegen des Vortrages ist es, den tiefen Wandel in der Klima-, Bio- und Geosphäre Mitteleuropas während der letzten 65 Millionen Jahre unserer Erdgeschichte in Befunden des mitteldeutschen Raumes zu spiegeln und darauf hinzuweisen, daß durch unzureichende Bearbeitung einer großen Anzahl von künstlichen Aufschlüssen in Mitteldeutschland eine Fülle von Klimainformationen und anderen wesentlichen erdgeschichtlichen Indizien aus dem Känozoikum für immer verlorengeht. Dies ist um so bedauerlicher, als der gegenwärtige, holozäne Zustand der Erde sich unmittelbar aus diesem sensiblen Zeitraum heraus entwickelte und daher für die Wissenschaft und ihre Anwendung (Prognostik) eine hohe Informationsdichte erstrebenswert ist.

Übersicht
In seiner Gesamtheit gesehen, war das Klima des Tertiärs (ca. 65 bis 2 Mill. Jahre vor heute) gleichförmiger als im gegenwärtigen Quartär (ca. 2 Mill. Jahre bis heute), wärmer (Mitteltemperatur der erdnahen Atmosphäre über 20°C) und feuchter. Im Alttertiär war die heutige warme Zone der Nordhalbkugel zweitweise 10 bis 15 Breitengrade nordwärts verschoben. Auch der subtropische Trockengürtel läßt episodisch eine Nordverschiebung erkennen (Salz- und Gipsabscheidungen u.a. im Oberrheintalgraben, in Rheinhessen, im Pariser Becken). In der Antarktis setzte die große Vereisung spätestens im Miozän ein. Speziell in Mitteleuropa sind floristisch etwa 20 Klimaschwankungen (Mai u. Walther 1985) auf hohem Temperaturniveau nachgewiesen, zeitweilig mit Amplituden, die denen des Quartärs oder Eiszeitalters nur wenig nachstehen. Über lange Zeiträume hinweg herrschten hier warm-feuchte, subtropische, doch wohl zu keiner Zeit des Tertiärs wirklich tropische und vollaride Klimaverhältnisse.

Während sich der mit dem Quartär auf niedrigem Temperaturniveau beginnende extreme Klimawandel in den warmfeuchten Tiefländern der niederen Breiten nur sehr gedämpft widerspiegelt, wurde das Weltmeer gewissermaßen zum Oszillographen und die nördliche gemäßigte Zone der Erde zur Bühne des Geschehens. Zwar hatte sich das quartäre Klima schon tief im Tertiär angekündigt, dennoch ist kaum ein größerer Gegensatz denkbar als zwischen dem Tertiär und dem Quartär dieses Gürtels. Das Klima greift nunmehr in nahezu alle exogenen Prozesse spürbar ein und steuert sie. Dieser Eingriff wirkt sich in vielfältiger Weise in den Sedimenten, in umwelt- bzw. klimaspezifischen Strukturen („Marken“), in der Makro- und Mikromorphologie und schließlich in den Veränderungen von Flora und Fauna aus.

Befunde in Mitteldeutschland
In Mitteleuropa ist dieser känozoische Klimawandel fast lehrbuchartig in der durch Braunkohlentagebaue großräumig erschlossenen Schichtenfolge des Saale-EIbe-Gebietes konserviert. Auf relativ engem Raum sind hier alle wesentlichen floristischen, faunistischen und sedimentfaziellen Belege einer festländischen Entwicklung von warmgemäßigten bis zu polaren Bedingungen überliefert. Hauptmerkmal des Quartärs ist der mehrfache Wechsel von periglaziärer und mehrzyklischer glaziärer Sedimentfazies. Bis in das mittlere Miozän bildete das Gebiet eine weithin von Braunkohlensümpfen bedeckte flache Flußlandschaft, die während des mittleren Tertiärs mehrfach vom Meer erreicht und zeitweilig überflutet wurde. Die Pflanzenwelt und anorganische Klimaindikatoren weisen auf ein im ganzen warmgemäßigtes Klima hin. Die allmähliche Heraushebung des Gebietes seit dem höheren Miozän (eine erste kräftige Aufwölbung erfolgte schon im höheren Oligozän) leitete eine lange Erosionsperiode ein, mit der Bildung flacher, offenbar nur wenig gestufter Muldentäler. Bis in das höhere Pliozän gediehen nach Beobachtungen in den Nachbarräumen noch bis 20 % exotische Pflanzen wie Schierlingstanne, Schirmtanne, Mammutbaum und Tulpenbaum. Dann erfolgte der Umschlag. Nach Jahrmillionen weitgehend kontinuierlicher Abtragung, die sich wahrscheinlich sonst bis in die Gegenwart fortgesetzt hätte, beginnt ohne tektonische Veranlassung ein fluviatiler Einschnitt und ein mehrfacher Wechsel von Erosion und Akkumulation, die Zeit der Flußterrassenbildung. Gleichzeitig vollzieht sich der Übergang von der Quarzschotterfazies im fernen Gebirgsvorland bzw. der intensiv verwitterten Geröllgemeinschaft am Fuß der Mittelgebirge zu relativ frischen polymikten fluviatilen Geröllassoziationen mit der Vorherrschaft instabiler Schwermineralgemeinschaften. Es spiegelt sich darin der Übergang von der vorwiegend chemischen Verwitterung bis in das Pliozän zu der hauptsächlichphysikalischen im Quartär wider. Schon in den älteren frühpleistozänen Aufschüttungszeiten ertranken weite Flächen der Hügelländer und des Tieflandes im fluviatil aufgearbeiteten Frostschutt. Es ist der Ausdruck einer Überlastung der Flüsse durch ein zu hohes Schuttangebot. Die Jahresdurchschnittstemperatur sank in diesem weit vor der ersten Inlandeistransgression liegenden Zeitabschnitt zweitweise einige Grad unter 0 °C, denn es sind in den alten Schottern nicht nur verbreitet intensive Verbrodelungserscheinungen als Ausdruck des Frostwechsels nachgewiesen, sondern auch Dauerfrostindikatoren in Form von solitären und gelegentlich auch netzförmig verbundenen Eiskeilpseudomorphosen. Eiskeile wachsen gegenwärtig bevorzugt in Gebieten mit geschlossenem Permafrostboden und einer Jahresmitteltemperatur bei etwa -6 bis -10 °C und tiefer. Bis zu Beginn der Elstervereisung erfuhr die Flußeintiefung mindestens vier Unterbrechungen, in denen bis zu 20 m mächtige Schotterkörper aufgeschüttet wurden, die sogenannten frühpleistozänen und frühelstereiszeitlichen Flußterrassen. Bemerkenswert ist, daß die Häufigkeit der Dauerfrostzeugen mit abnehmendem Alter der Schotterkörper zunimmt und ihr erstes Maximum in der jüngeren frühpleistozänen Schotterterrasse und der frühen Elstereiszeit liegt. Die Temperaturen hatten weiter ab- und die Dauer der Permafrostzeiten weiter zugenommen.

In der Elstereiszeit erreichte das mehrere hundert Meter mächtige Inlandeis erstmalig das Saale-EIbe-Gebiet und bedeckte es bis zum Fuß des Erzgebirges. Die Täler wurden abgeriegelt und die Fluß- und Schmelzwässer zu beachtlichen Glazialseen aufgestaut. In diesen Seen sind rund 100 Warven abgesetzt worden, über die sich eine Vorstoßgeschwindigkeit des Eises von etwa 250 m pro Jahr errechnen läßt. Die Witterungsschwankungen im Eiszeitsommer finden in der rhythmischen Feinschichtung der Sommerlagen ihren Niederschlag. Es sind 5 bis 20 Sedimentationszyklen zu erkennen, die noch weiter unterteilt werden können. In anderen Gebieten sind bis 200 Feinstschichten gezählt worden, die als tägliche Abschmelzvorgänge gedeutet werden. In Sommerlagen eingeschlossene Dropsteine und Dropmoränen belegen eine rege Eisbergdrift auf den Stauseen. Lößartiges Substrat im Bänderton weist auf Winde am Eisrand hin, die Staub auf den überfrorenen Seen absetzten, der im späten Frühjahr auf den Seegrund sank. Am Rand und im fernen Vorland des Eises kam geringmächtiger, von einer kältebeständigen Schneckenfauna besiedelter Löß zum Absatz. Der Boden war hier tiefgründig dauergefroren. An Hand von Tropfenböden läßt sich ermitteln, daß er im Sommer in den Tälern bis 1,5 m auftaute. Als Wirkung kleiner, jedoch überregionaler Klimaschwankungen stieß das Elstereis zweimal vor. Zwischen beiden Vorstößen lebten die Flüsse erneut auf, und es bildete sich auf den vom Eis freigegebenen Flächen wieder Dauerfrostboden, ein Zeichen nur geringer Erwärmung. Mit dem endgültigen Eiszerfall setzte eine kräftige Erosion ein. Sie spricht gegen die häufig vertretene Vermutung verminderter Niederschläge in der abschwingenden (kataglazialen) Phase einer Eiszeit. Mit der Wiederausbreitung der Vegetation in der folgenden Holsteinwarmzeit wurde die Erosion gehemmt, und die Flüsse arbeiteten sich nur noch langsam in die Breite und Tiefe vor. Pollenprofile aus tiefen gletscherbürtigen Sedimentfallen belegen für dieses Interglazial eine kontinuierliche Entwicklung von kühlen über warmgemäßigte zu wieder kühlen Klimazuständen. Mit ihnen beginnt die Periode der Saaleeiszeit, die in der zweiten großen Inlandeistransgression kulminiert. Zuerst reagierten wiederum die Flüsse auf die Temperaturabsenkung. Im Tiefland des Saale-Elbe-Raumes waren am Ende des Saalefrühglazials bis zu 40% der Fläche in Flußschottern ertrunken. Die in die Schotter eingeschlossene Fauna besteht überwiegend aus kälteliebenden bzw. kälteresistenten Tieren wie Mammut, Wollhaarnashorn, Rentier, Moschusochse. Baumlose Zeiten wechselten offenbar mit denen lichter Birken- und Kiefernwälder. Auch existieren Hinweise auf Vegetationen mit höheren Klimaansprüchen, die Erwärmungsphasen (Interstadiale bis kurze Interglaziale) erkennen lassen. Innerhalb der Schotterkörper sind Brodelstrukturen und dauerfrostanzeigende Eiskeilpseudomorphosen weit verbreitet. Damit erweist sich das Saalefrühglazial als ein klimatisch differenzierter Zeitraum aus strengen Frostabschnitten und Erwärmungsphasen, in denen der Dauerfrostboden vielleicht wieder aufgetaut war. Die Eistransgression vollzog sich in zwei Etappen: der maximalen Eisentfaltung bis zum Harzrand, Zeitz, Altenburg, Döbeln, Meißen und Görlitz mit zwei deutlichen Eisrandoszillationen in der Leipziger Tieflandsbucht (sogenannte Zeitzer und Leipziger Phase der Saalevereisung), einem größeren Eiszerfall und einer Wiederausdehnung des Inlandeisfeldes bis mindestens zum Fläming und dem Lausitzer Grenzwall (Warthe-Phase der Saalevereisung). Alles lief ab wie während der Elstervereisung: Abriegelung der Täler, Bildung von Stauseen, Sedimentation von Bänderton, Lößaufwehungen, südlich der Stauseen fortschreitende fluviale Schotteranhäufungen. Der endgültige Eiszerfall vollzog sich wiederum relativ rasch. Die hinterlassenen glazialen Senken füllten sich mit Wasser und erhielten sich als Seen teilweise über die Eemwarmzeit hinweg bis in die frühe Weichseleiszeit.

In den 80er Jahren wurden fast gleichzeitig in den Braunkohlentagebauen Gröbern, Delitzsch-SW und Neumark-Nord vollständige oder nahezu vollständige Sedimentsequenzen der letzten oder Eemwarmzeit freigelegt. Palynologisch und mit Hilfe von Makroresten ließ sich die Florenentwicklung von einer Birkenzeit über eine Kiefern-Birkenzeit, Kiefern-Eichenmischwald-Zeit, Eichenmischwald-Hasel-Zeit, Hasel-Eiben-Linden-Zeit, Hainbuchen-Zeit, Hainbuchen-Tannen-Zeit, Kiefern-Fichten-Tannen-Zeit bis zu einer erneuten Kiefernzeit rekonstruieren. In konkordanter Folge sind darüber noch Sedimente von zwei bewaldeten (Kiefern-Lärchen-Fichten-Formation) Interstadiale der frühen Weichseleiszeit erhalten, für die kurze, warme Sommer und lange, kalte Winter anzunehmen sind. Die Station Gröbern ist nicht nur durch ihre vollständige Warmzeitfolge mit Übergang in die Weichseleiszeit bekannt geworden, sondern auch durch den Fund eines mittelpaläolithischen Waldelefanten-Schlachtplatzes.

Lange bevor das skandinavische Inlandeis ein drittes Mal die Ostsee überschritt und vor rund 20000 Jahren die Linie Guben, Brandenburg, Pritzwalk, Schwerin und Kiel erreichte, herrschten bereits wieder glaziale Bedingungen mit langen Abschnitten einer negativen Wärmebilanz (Jahresmitteltemperatur -3 bis -10°C). Unter kühl-feuchten, später trockenkalten Verhältnissen entstanden die fluviatilen Schotterplatten der Niederterrasse. Zunehmende Aridisierung des Klimas kommt in dem vorwiegend von westlichen Winden abgesetzten, bis zu 15 m mächtigen Lößkomplex nördlich und südlich der Mittelgebirge zum Ausdruck.

Mit Staub und Eiskristallen beladene Winde in der offenen Landschaft des Weichselglazials (aber auch der älteren Glaziale) werden auch durch Steinsohlen mit zahlreichen Windkantern und durch polierte genarbte und gestriemte Felsklippen belegt, beispielweise in den Hohburger Bergen bei Leipzig. Sie liefern Anzeichen für häufige Starkwinde aus Nordost. Klimaschwankungen innerhalb des Weichselglazials sind in Verwitterungshorizonten bzw. schwachen Böden innerhalb der Lößfolge und in mehreren Generationen von Eiskeilen und Brodelböden in der Niederterrasse angezeigt. Ein vollständigeres Bild vom Gang des weichseleiszeitlichen Klimas bietet die Sedimentfolge des Ascherslebener Sees. Sedimentationsablauf, Klimamarken, Ostrakodenfauna und andere Befunde lassen hier auf mindestens neun Kleinzyklen des Klimas schließen, in denen Abkühlungen bis zu arktischen Verhältnissen mit der Bildung von Eiskeilpolygonen erreicht worden sind und Wiedererwärmungen bis zu kühlgemäßigtem Klima. In der „klassischen Landschaft deutscher Eiszeitforschung“ um Halle und Leipzig lassen sich mehr als 20 nachtertiäre Klimaschwankungen nachweisen. Dabei handelt es sich offenbar um Klimaänderungen bzw. -schwankungen sehr unterschiedlicher Größenordnungen. Mindestens sechs Ereignisse entsprechen einem vollen Warmzeit-Kaltzeitwechsel.

Anhand kryogener Strukturen (sog. Mollisoldiapire, Eiskeilpseudomorphosen) kann in Mitteldeutschland während des Quartärs mit folgenden Mindesttiefen des Dauerfrostbodens gerechnet werden:

  • jüngeres (präelstereiszeitliches) Frühpleistozän       bis 10 m
  • frühes Elsterglazial                                                           bis 30 m
  • frühes Saaleglazial                                                           bis 40 m
  • Weichselglazial                                                                  bis 50 m

Es gibt Hinweise auf noch weit mächtigeren Permafrostboden in Mitteleuropa, das wohl überwiegend in der Zone „nichtgeschlossenen Permafrosts“ lag. Es existieren gegenwärtig rund 50 Hypothesen zur Entstehung der lang- und kurzfristigen Klimaänderungen. In Anlehnung an Schwarzbach vertreten wir vor allem hinsichtlich der Eiszeiten eine multilaterale Entstehung, bei der irdischen Ursachen eine Hauptrolle zugebilligt wird: Änderung der Paläogeographie, Kontinentaldrift, Änderungen in der Zusammensetzung der Erdatmosphäre („Kohlensäure-Hypothese“).

 

Vortrag am 9.10.1992
Elke Blumenthal (Leipzig), Ordentliches Mitglied der Philologisch-historischen Klasse:


„Kuhgöttin und Pharao – Ein altägyptisches Bildmotiv“

Die 40 x 30 cm große Kalkstein-Stele Inv. 5141 des Ägyptischen Museums der Universität Leipzig wurde im Kunsthandel erworben, so daß ihre Fundumstände unbekannt sind. Doch lassen sich Herkunft und Datierung mit Hilfe des in 9 senkrechten Zeilen geschriebenen hieroglyphischen Textes bestimmen, der dem kniend betenden Mann im unteren Stelenregister in den Mund gelegt ist. Die Inschrift enthält einen kleinen Hymnus aus zwei Strophen zu je vier Versen auf die Göttin Hathor von Theben und anschließend die Selbstvorstellung des Beters. Er war Wächter in Deir el-Medine, der Wohnsiedlung der Arbeiter, die im Neuen Reich (2. Hälfte des 2. Jahrtausends v. Chr.) die Königsgräber in West-Theben anlegten und ausgestalteten. Penbui ist außerdem durch sein Grab, das er nahe seinem Wohnort besessen hat, und von anderen Einzelfunden her bekannt, die heute in mehreren europäischen Museen aufbewahrt werden. Er hat unter König Ramses II. gelebt (13. Jahrhundert v. Chr.), dessen Name aus Zeichenresten neben der Königsgestalt im Bildfeld ergänzt werden kann.

Weniger eindeutig als der Ursprung ist der Gehalt des Gedenksteins zu erklären. Der Hymnus weist Hathor als Totengöttin aus, deren Schutz sich der Beter zu Lebzeiten wie im Tode anbefiehlt. Ihre Darstellung als Kuh in einem Papyrussumpf, geschmückt mit Sonnenscheibe, Lichtfedern und einem schweren Perlengehänge am Hals und mit einer Königsfigur unter dem Kopf zeigt sie ebenfalls als Totengöttin, und zwar in der Gestalt, in der sie auf den großen Königs- und Beamtenfriedhöfen des Neuen Reiches auf dem westlichen Nilufer Thebens verehrt wurde. Im Unterschied zu den dort häufig anzutreffenden Bildern der Hathorkuh ist aber auf dem Gedenkstein des Penbui nicht die Statue eines längst verstorbenen oder anonymen Königs mit der Göttin verbunden, sondern der regierende König in voller Lebendigkeit.

Bereits mehrere Generationen vor Ramses II. hat ein neues Gott-König- Verhältnis einen Statuentyp hervorgebracht, bei dem der König einer ihn an Größe überragenden Gottheit so zugeordnet ist, daß Unterordnung und Schutzbedürftigkeit, aber auch Gottesnähe und Geborgenheit des Königs anschaulich werden. Gruppenplastiken dieser Art wurden als Gegenstände des Staatskults in den Tempeln errichtet und sicherten dem Pharao über seinen Tod hinaus kultische Verehrung in Gemeinschaft mit der Gottheit; auch Ramses II. hat mit mehreren solcher „Schutzstatuen“ unterschiedlicher Götter für sein ewiges Heil gesorgt.

Eine Schutzstatue der kuhgestaltigen Hathor hat anscheinend auch in dem Ortsheiligtum der Arbeitersiedlung Deir el-Medine gestanden. Sie ist nicht erhalten, aber Votivreliefs, die die Gläubigen ihrer Lokalgöttin gestiftet haben, und Abbildungen in ihren Gräbern lassen vermuten, daß die zugehörige Königsstatue meist als einer der in Theben-West bestatteten Könige der Vergangenheit verstanden wurde. Erst zur Zeit Ramses’ II. erscheint gelegentlich auch der regierende König als Objekt der Mit-Anbetung, allerdings nirgends so klar wie auf der Leipziger Stele als Zeitgenosse, nicht als Standbild, und nur hier sind die persönlichen Wünsche des Beters implizit auch an ihn gerichtet.

Es gibt mannigfache Zeugnisse dafür, daß Ramses II. die jedem ägyptischen König per theologiam zukommende Göttlichkeit kultisch und religionspolitisch in bisher ungekannte Ausmaße gesteigert hat, um seinen universalen Geltungsanspruch zu festigen. Deutlicher als seine Mitbewohner bezeugt der Penbui der Leipziger Stele, daß dieser Pharao über den offiziellen Kult auch in die private Religiosität Eingang gefunden hatte.

 

Vortrag am 12.6.1992
Wolfgang Fritsche (Jena), Ordentliches Mitglied der Mathematisch-naturwissenschaftlichen Klasse:


„Mikrobiologie des Recycling“

Viele Umweltbelastungen sind darauf zurückzuführen, daß Produkte und Abprodukte der Industrie, des Verkehrs und der Energiewirtschaft nicht wieder in die Stoffkreisläufe eingehen, so daß es zur Akkumulation in der Umwelt kommt. Für die Sanierung bereits eingetretener Umweltschäden und die Vermeidung weiterer Belastungen ist es unbedingt notwendig, das Recycling-Prinzip einzuhalten. Dafür ist eine Theorie des Recycling erforderlich, für die aus mikrobiologischer Sicht folgende Beiträge vorgestellt wurden:

  • Naturstoffe sind zwar prinzipiell mineralisierbar, in der Natur werden jedoch schwer abbaubare Stoffe wie Lignin nach dem Abbau zu aromatischen Bausteinen z.T. wieder in die Bildung von Humusstoffen einbezogen. Recycling sollte auch Produktsynthesen berücksichtigen.
  • Bei den organischen Fremdstoffen (Xenobiotika) ist zwischen persistenten, unvollständig abbaubaren und mineralisierbaren Verbindungen zu differenzieren.
  • Der unvollständige Abbau erfolgt durch die Potenz der Mikroorganismen, in Gegenwart von Naturstoffen Fremdstoffe zu metabolisieren (Cometabolismus). Diese Prozesse führen zu einem breiten Metabolitenspektrum. Durch ökotoxikologische Untersuchungen muß die Umweltrelevanz dieser Metabolite geklärt werden.
  • Der vorbeugende Umweltschutz erfordert Produkte, die mineralisierbar sind. Für Umweltchemikalien wie Pestizide stellen bioaktive Naturstoffe gute Modelle für die chemische Synthese dar.
  • Die großflächige Sanierung umweltbelasteter Regionen wird vor allem durch die Förderung des natürlichen Selbstreinigungspotentials möglich werden. Mikroben-PflanzenAssoziationen und der Fremdstoffeinbau in Humus sind Wege dazu.

Die weitere Erforschung und Wahrung des Recycling-Prinzips bietet gute Bedingungen für die Sanierung umweltbelasteter Regionen. Renaturierung ist keine Utopie, sie muß zu einer die Wissenschaft bestimmenden Vision werden.

 

Vortrag am 12.6.1992
Rolf Lieberwirth (Halle-Wittenberg), Ordentliches Mitglied der Philologisch-historischen Klasse:


„Über die Glosse zum »Sachsenspiegel«“

Der um 1225 entstandene „Sachsenspiegel“ ist das bedeutendste deutsche Rechtsbuch. Er hat über Jahrhunderte die Rechtsentwicklung in den nördlichen Gebieten Deutschlands und in den östlichen Nachbarländern beeinflußt. Inzwischen sind rund 460 Handschriften und Fragmente in mittelniederdeutscher und mitteldeutscher Sprachform, aber auch in lateinischer und niederländischer Sprache nachgewiesen. Eine gewisse Schwierigkeit in ihrer Einschätzung bestand lange Zeit darin, daß diese zahlreichen Handschriften von keinem einheitlichen Text getragen sind, sondern nach Formen und Fassungen unterschieden werden müssen, bis die Textgestaltung mit der „Vulgata“ im 15. Jahrhundert ihren endgültigen Abschluß fand.

Eine bedeutende, aber bisher zuwenig beachtete Rolle spielen die 114 Handschriften mit „Sachsenspiegel“-Glosse; denn seit dem ersten Drittel des 14. Jahrhunderts fand die in Italien am römischen und kanonischen Recht entwickelte Arbeitsmethode der Glossierung des gesamten Rechtsstoffs auf den „Sachsenspiegel“ Anwendung, womit die gelehrte Literatur zum einheimischen Recht entstand. Ihre ersten Bearbeiter gingen von der irrtümlichen Annahme aus, daß die lateinische Fassung des Landrechts auf Privilegien deutscher Kaiser seit Karl dem Großen beruhe, was das Verhältnis des „Sachsenspiegels“ zum eindringenden römisch-kanonischen Recht positiv beeinflußte.

Der gegenwärtig erreichte Wissensstand über die Entstehung des „Sachsenspiegels“ und über seine Wirkungsgeschichte ist sehr beachtlich, doch es ist zu bedauern, daß der Glosse zum „Sachsenspiegel“ viel zu wenig Beachtung geschenkt wurde. Es mangelt nach wie vor an einer textkritischen Ausgabe der Glosse. Einige beachtliche Ansätze sind zu verzeichnen. Nach dem Ableben der letzten Bearbeiter ruht die Glossenforschung vollends. Wenn nun im Rahmen der Sächsischen Akademie der Wissenschaften zu Leipzig auf Anregung der Monumenta Germaniae Historica eine Arbeitsstelle Glossenforschung eingerichtet wird, so ist ihre Arbeit von Anfang an auf eine breitere Grundlage zu stellen, und es muß für eine kontinuierliche Forschung bis zum endgültigen Abschluß einer textkritischen Ausgabe gesorgt werden.

 

Vortrag am 15.5.1992
Ernst Schmutzer (Jena), Ordentliches Mitglied der Mathematisch-naturwissenschaftlichen Klasse:


„Allgemeine Relativitätstheorie heute: Ausgewählte Fragestellungen und Fortschritte“

1. Einführung in die Thematik
Um die Einordnung der Allgemeinen Relativitätstheorie in das Gesamtgebäude der Theoretischen Physik besser verständlich zu machen, werden wesentliche Inhalte folgender Theoriengruppen besprochen:

  • Newtonsche Mechanik (nichtrelativistisch) (1687),
  • Newtonsche Gravitationstheorie (nichtrelativistisch) (1687),
  • Einsteinsche Gravitationstheorie (oft in nicht ganz korrekter Weise dafür synonym Allgemeine Relativitätstheorie) (1915),
  • Maxwellsche Elektromagnetik (relativistische Theorie im Vakuum, Materialgleichungen damals semirelativistisch in Medien) (1864), – Thermodynamik/Statistik,
  • nichtrelativistische Quantenmechanik (Heisenberg 1925, Schrödinger 1926),
  • relativistische Quantenmechanik (Dirac 1928),
  • nichtrelativistische Quantenfeldtheorie (ab 1928),
  • relativistische Quantenfeldtheorie (ab 1945),
  • Elementarteilchentheorie,
  • fundamentale Wechselwirkungen: gravitative, elektromagnetische, schwache, starke,
  • Darlegung der Idee der von Heisenberg ab etwa 1955 entwickelten spinoriellen, nichtlinearen, relativistischen Urmaterietheorie,
  • Unifikationsproblem von Allgemeiner Relativitätstheorie und Quantenfeldtheorie,
  • Erläuterung der prinzipiellen mathematischen Schwierigkeiten, die sich im Zusammenhang mit der Einsteinschen Gravitationsfeldgleichung aus dem Konzept des Gravitationsfeldes als klassisches Feld und der Elementarteilchenfelder als quantische Felder ergeben,
  • Hinweis auf die prinzipiellen physikalischen Schwierigkeiten, die aus dem Quantisierungsvorhaben in der aus der Einsteinschen Gravitationstheorie folgenden Krümmung der Raum-Zeit resultieren.
    In dieser Skizze der heutigen Theoretischen Physik werden Auftreten und Einbindung der wenigen bisher uns bekannten Naturkonstanten analysiert:
  • Newtonsche Gravitationskonstante bzw. Einsteinsche Gravitationskonstante in den Gravitationstheorien,
  • Vakuum-Lichtgeschwindigkeit in der Elektromagnetik,
  • Plancksches Wirkungsquantum,
  • elektrische Elementarladung bzw. Sommerfeldsche Feinstrukturkonstante in den Quantenmechaniken und Quantenfeldtheorien.

Auf theoretische Fingerzeige für die Einführung einer Elementarlänge als Naturkonstante wird eingegangen. Die Sonderrolle der Thermodynamik und Statistik mit dem Auftreten der Boltzmann-Konstante als Naturkonstante wird herausgestellt.


2. Relativitätstheorie
2.1. Spezielle Relativitätstheorie

Die Spezielle Relativitätstheorie verdankt nach Vorarbeiten von Lorentz, Poincare u.a. ihr Entstehen in erster Linie Einstein (1905) und ihre vierdimensionale Fassung Minkowski (1908). Die Beseitigung des Konzepts eines Weltäthers durch Einstein gab den Weg zur Formulierung des Speziellen Relativitätsprinzips frei, dessen mathematische Umsetzung auf die Lorentz- Transformation führte.

Eine entscheidende Erkenntnis der Speziellen Relativitätstheorie ist die der Vierdimensionalität der Raum-Zeit mit Pseudo-Euklidischer Geometrie. Daraus resultiert die Relativierung von Raum und Zeit. Konsequenzen davon sind die Preisgabe der absoluten Gleichzeitigkeit, die Längenkontraktion und die Zeitdilatation. In mechanischer Hinsicht führte diese Erkenntnis zur Massenveränderlichkeit und zur Masse-Energie-Relation.

2.2. Allgemeine Relativitätstheorie
Diese Theorie wurde unter Mithilfe von Marcel Großmann in mathematischen Fragen von Einstein (1915) geschaffen. Entscheidende Mängel der Speziellen Relativitätstheorie waren:

  • Bindung der Formulierung dieser Theorie an Inertialsysteme für die Beobachter unter Verwendung der geradlinigen Galilei-Koordinaten,
  • Absolutheit der Raum-Zeit, also Außer-acht-Lassung des Einflusses der Materie auf die Strukturiertheit der Raum-Zeit,
  • Nichtgelingen einer mit der Empirie in Übereinstimmung stehenden speziell relativistischen Gravitationstheorie.

Diese drei Mängel konnten von Einstein auf folgende Weise überwunden werden: Mit Hilfe des unter Zugrundelegung von krummlinigen Koordinaten entdeckten differentialgeometrischen Ricci-Kalküls gelang ihm der Zuschnitt der Theorie auf beliebig bewegte (also insbesondere auch beschleunigte) Bezugssysteme, wobei dieser Kalkül die Einbeziehung der Gravitation mittels der Riemannschen Geometrie (Krümmung der Raumzeit) gestattete. Die Einsteinsche Gravitations-Feldgleichung beinhaltet von sich aus die Überwindung der Loslösung der Strukturierung der Raum-Zeit von der Materieverteilung.

2.3. Einige Konsequenzen aus der Einsteinsehen Gravitationstheorie
Die durch Schwarzschild 1916 gefundene strenge Lösung der Einsteinsehen Gravitations-Feldgleichung für eine punktförmige Masse führte zu folgenden, inzwischen experimentell sehr gut bewiesenen Effekten in der Umgebung einer solchen Zentralmasse:

  • Lichtablenkung bei dem Vorbeigang des Lichts an der Zentralmasse,
  • Periheldrehung der Planeten (seit Jahrhunderten für Merkur beobachtet),
  • Frequenzverschiebung elektromagnetischer Wellen im Gravitationsfeld (mit großer Genauigkeit mit Hilfe des Mößbauer-Effekts gemessen),
  • Shapiro-Effekt der Laufzeitverzögerung elektromagnetischer Signale im Gravitationsfeld der Sonne.

Die Einsteinsehe Gravitationstheorie erweist sich bisher als die beste theoretische Grundlage für das Verhältnis einer Reihe sonst unerklärbarer Eigenschaften der sogenannten exotischen Himmelskörper (Himmelskörper mit völlig neuartigen Eigenschaften): Die riesige Massenkonzentration in Quasaren und Neutronensternen (Pulsaren) erfordert nämlich die Zugrundelegung der Einsteinsehen Gravitationstheorie. Aus dieser Theorie resultiert weiter die Voraussage der Existenz der Schwarzen Löcher: Das sind angenommene Himmelskörper mit einer derartig großen Massenkonzentration, daß selbst Licht nicht zu entweichen in der Lage ist, die aber durch ihre gravitative Wirkung nach außen bemerkbar sind. Des weiteren erwähnen wir den durch die Einsteinsche Theorie eröffneten neuen Zugang zur Kosmologie: Die Friedmansche kosmologische Lösung für eine homogene und isotrope Massenverteilung eröffnete das Zeitalter der wissenschaftlichen Kosmologie. Dadurch entstanden die Grundlagen für das Verständnis der von Hubble entdeckten kosmologischen Expansion des Weltalls. Auch für die von Penzias und Wilson entdeckte elektromagnetische Hintergrundstrahlung des Kosmos resultierte auf der Basis des Expansionskonzepts ein natürliches Verständnis.

Nun noch einige Gedanken zur Gravitationswellen-Problematik: Die Einsteinsche Gravitations-Feldgleichung enthält auch wellenartige Lösungen, die zur Voraussage der Existenz von Gravitationswellen Anlaß geben. Seit drei Jahrzehnten wird international intensiv an der Entdeckung der Gravitationswellen gearbeitet, wobei folgende Detektoren verwendet werden:

  • an einem Seil im Gleichgewicht aufgehängte Weber-Zylinder aus Aluminium,
  • Monokristallkonfigurationen nach Braginsky mit ähnlicher Aufhängung, aber viel kleinerer Masse, viel kleinerer geometrischer Ausdehnung und einem viel besseren Material-Gütefaktor,
  • Michelson-Interferometerapparaturen, bei denen der Einfluß der Gravitationswellen in optischen Interferenzerscheinungen sichtbar werden soll.

Es liegen gute Argumente dafür vor, daß die Existenz von Gravitationswellen bereits indirekt empirisch gesichert ist: Der Taylorsche Binärpulsar mit der größten bisher beobachteten Periastrondrehung zeigt eine abklingende Bahngeschwindigkeit, die sich am besten durch Energieverlust infolge der Ausstrahlung von Gravitationswellen-Energie erklären läßt. Quantitativ stimmen die Meßergebnisse ziemlich gut mit der Einstein-Eddingtonschen-Quadrupolstrahlungsformel für linearisierte Gravitationswellen überein.


3. Gedanken zu einer einheitlichen Feldtheorie der Materie
3.1. Physikalisch-philosophische Grunderkenntnisse aus der Allgemeinenen Relativitätstheorie

Echte Gültigkeitsgrenzen der Einsteinschen Gravitationstheorie sind bei extrem hohen Massendichten zu erwarten, bei denen Quanteneffekte eine gegebüber den klassischen Effekten dominierende Rolle spielen. Insbesondere wirkt sich diese Einschränkung dort aus, wo quantisch bedingte Abänderungen der Zustandsgleichungen der Materie notwendig werden. Als von mir angesehene Pseudoargumente gegen die Einsteinsche Gravitationstheorie und dabei insbesondere gegen die Krümmung der Raum-Zeit werden von den Gegnern dieser Theorie oft vorgebracht:

  • Nichtexistenz ausgezeichneter (nämlich geradliniger) Koordinaten in der gekrümmten Raum-Zeit,
  • Nichtexistenz ausgezeichneter (nämlich inertialer) Bezugssysteme in der Raum-Zeit,
  • Nichttrennbarkeit von Schwere und Kinematik im Sinne des Äquivalenzprinzips von schwerer und träger Masse,
  • Einschränkung der aus der nichtrelativistischen Physik bekannten Erhaltungssätze für Energie, Impuls, Drehimpuls und Schwerpunkt,
  • Nichtlokalisierbarkeit der Energie.

Die hier aufgeführten Konsequenzen der Einsteinschen Gravitationstheorie sind von prinzipieller Natur und haben einen hohen philosophischen Stellenwert, dessen Tragweite in der philosophischen Literatur weitgehend noch nicht erkannt und ausgewertet wurde.

3.2. Annotationen zu Versuchen einer einheitlichen Feldtheorie
Nach dem großen Erfolg der Geometrisierung der Gravitation bemühte sich eine Reihe von Theoretischen Physikern und Mathematikern darum, in einer einheitlichen Feldtheorie von Gravitation und Elektromagnetismus auch den Elektromagnetismus zu geometrisieren. Am intensivsten befaßte sich Einstein selbst auch mit dieser Aufgabe. Die unternommenen Versuche kann man wie folgt systematisieren: Beibehaltung einer vierdimensionalen Raum-Zeit, aber mit einer veränderten Geometrie (neben der Krümmung auch Zulassung von Torsion, Preisgabe der Metrizität der Geometrie, wie z.B. bei der Weylschen semimetrische Geometrie; nichtsymmetrische Geometrie, z.B. unsymmetrischer metrischer Tensor oder Unsymmetrie in den Affinitäten), Zugrundelegung eines fünfdimensionalen Raums mit Riemannscher Geometrie oder eines fünfdimensionalen projektiven Raums mit Krümmung und Torsion („projektorelle Geometrie“). Der erste Zugang wurde von Kaluza und Klein eingeleitet, während der zweite Weg zur Projektiven Relativitätstheorie führte. Eine besonders eingehend ausgearbeitete Variante dieser Art ist meine Projektive Einheitliche Feldtheorie (fünfdimensionaler projektiver Raum mit Krümmung und Torsion). Diese Theorie führte zu einer Vereinheitlichung dreier Naturphänomene: Gravitation, Elektromagnetismus, Skalarismus (falls dieses Phänomen in der Natur existiert).

Mit Blick auf eine einheitliche Elementarteilchentheorie entstand die Klasse der Eichfeldtheorien sowie die Theorie der Supergravitation auf der Basis von Supersymmetrien. Theorien dieser Art sind bis zu beliebig hoher Dimensionenzahl entwickelt worden. Durchschlagende Erfolge sind bei diesen hochdimensionalen Theorien bis heute allerdings weitgehend ausgeblieben. Im letzten Jahrzehnt sind String- Theorien verschiedenen Typs und verschiedener Dimensionenzahl ausgearbeitet worden, bei denen das String-Konzept sowohl im Mikrokosmos (Elementarteilchen) als auch im Makrokosmos (Galaxien) Anwendung findet. Auch hier sind erreichte Erfolge umstritten.

 

Vortrag am 15.5.1992
Wolfgang Paul Rudolf Schmid (Göttingen), Korrespondierendes Mitglied der Philologisch-historischen Klasse:


„Zwischen Baltikum und Balkan – Sprachwissenschaftliche Bemerkungen zu einer alten Grenzzone“

Nach einer kurzen allgemeinsprachwissenschaftlichen Einleitung wird eine sich vom Baltikum zum Balkan erstreckende Zone vorgestellt, die noch heute durch das Aufeinandertreffen und das wechselseitige Durchdringen westlicher Kentum- und östlicher Satemsprachen charakterisiert ist. Als Grundlage für die Betrachtungen dienen zwei noch heute lebendige, leider aber erst seit dem 16. Jh. durch Texte bezeugte Sprachen bzw. Sprachgruppen, das Albanische auf der einen Seite, die baltischen Sprachen auf der anderen. Es zeigt sich, daß in dieser Zone auf allen Ebenen der Grammatik außer der alten Kentum-Satem-Differenz weitere Besonderheiten auftreten, die zugleich als Neuerungen etwa gegenüber dem z.B. durch das Griechische repräsentierten Sprachzustand angesehen werden müssen. Auf der lautlichen Seite werden die unvollständige Palatalisierung der k-Laute auf der Satemseite, die Unsicherheit in der Labiovelarvertretung, die doppelte Entwicklung der -l-, -r-Vokale genannt. Auf die morphologische Ebene gehören u.a. die Ausbildung der Dehnungsperfekta im Germanischen, Baltischen und Albanischen, mit Antritt der e- und a-Suffixe nur im Baltischen und Albanischen, die Verteilung der m-Partizipia oder das Nebeneinander bestimmter Präsensbildungen. Zum Bereich des Wortschatzes zählen die Verteilung zweier Wurzeln für weiß (*albh-, *bhel-), die Bezeichnungen für Meer (alb. det, thrak. iuras), Wasser (aqua-, ap-), Ort (alb. vend, lit. vieta, thrak. deua, bria) und Hirsch (*brendon – lit. briedis). Diese baltisch-balkanischen Sprachbeziehungen stellen sich in einen größeren Rahmen anderer Verwandtschaftsverhältnisse, in welchen sich immer wieder das Baltische als zentraler Bezugspunkt erweist und für deren weitere Analyse der Vortrag einen Baustein liefern möchte.

 

Vortrag 10.4.1992, Öffentliche Gesamtsitzung
Eberhard Paul (Leipzig), Ordentliches Mitglied der Philologisch-historischen Klasse:


„Das Echte am sogenannten Falschen – Fälschungen antiker Kunst“

Das Thema Antikenfälschungen gilt in weiten Kreisen der Fachwissenschaft nach wie vor als suspekt, was nicht zuletzt auf die Schwierigkeit zurückzuführen ist, einmal den Begriff klar zu definieren und zum anderen den Tatbestand eindeutig zu fixieren. Am Beispiel der berühmten Wachsbüste der Flora der Staatlichen Museen in Berlin-Dahlem ist die ganze Bandbreite unterschiedlicher Bewertung sogenannter Fälschungen von „Original“ über „Wiederholung“ oder „Kopie“ bis hin zum Verdikt „Fälschung“ sinnfällig zu demonstrieren, die in diesem Fall über 80 Jahre die unterschiedliche Einordnung dieses Werkes bestimmt haben. Hier und bei allen anderen sogenannten „Fälschungen“ nach der Antike erweist sich der fast durchgängig mangelnde Nachweis der Täuschungsabsicht als methodisches Hemmnis für jede Beschäftigung mit dem Thema.

Dessen ungeachtet scheint aber eine Einschränkung des Fälschungsbegriffes auf „nachweisliche“ Fälschungen unzulässig. Da es sich hier um keine juristische, sondern vorrangig um eine kunstwissenschaftliche, also stilistische Fragestellung handelt, ist die Wirkung eines nicht antiken Werkes als antik unter bestimmten jeweils zu untersuchenden Umständen als Ergebnis eines unterschiedlichen Erkenntnisstandes von größter Bedeutung. So sind Untersuchungen zum Problem der Fälschungen – spezielle Antikenfälschungen von der Renaissance bis zur Gegenwart – nur vom Standpunkt der wissenschaftsgeschichtlichen Einschätzung von zu einem bestimmten Zeitpunkt als „modern“ erkannter, zuvor aber für antik gehaltener Kunstprodukte her zu stellen.

Die Geschichte der Antikenfälschungen wird auf diesem Wege zu einer Geschichte der Antikerezeption am Material der entweder in Täuschungsabsicht hergestellten „antiken“ oder durch Unkenntnis der Betrachter für antik gehaltenen nachantiken Werke, wobei die Dauer des Erfolges einer Fälschung und der Zeitpunkt der Entdeckung des Irrtums in Relation zum jeweiligen Zeitstil und wissenschaftlichen Stand die Grundlage für die Bewertung des Phänomens liefert.

 

Vortrag am 13.3.1992
Hans-Heinz Emons (Goslar), Korrespondierendes Mitglied der Mathematisch-naturwissenschaftlichen Klasse:


„Metalle – Geschmolzene Salze. Ein Beitrag zur Elektrolytforschung“

Die Wechselbeziehungen Salz – Metall werden seit Jahrtausenden bestimmt durch die Metallgewinnung, mit Ausnahme der wenigen in der Natur vorkommenden edlen Metalle, aus typischen Salzen wie Halogeniden, Sulfaten, Sulfiden und im weiteren Sinne Oxiden.

Unter geschmolzenen Elektrolyten versteht man Flüssigkeiten, die ganz oder überwiegend aus beweglichen Ionen aufgebaut sind. Nahezu alle Salze zeigen im geschmolzenen Zustand Eigenschaften, die in erster Linie durch interionische Wechselwirkungen bestimmt werden. Die gute elektrische und Wärmeleitfähigkeit, niedrige Viskosität und Oberflächenspannung, der breite Temperaturbereich des flüssigen Zustandes, relativ geringe Dampfdrücke, hohes Lösevermögen für Metalle, Oxide, Gase sind Basis für eine breite Anwendung in der Praxis.

Die Herausbildung der Chemie und Elektrochemie geschmolzener Salze als ein relativ selbständiges, durch spezifische experimentelle Methoden und teilweise eigene theoretische Ansätze gekennzeichnetes Untersuchungsgebiet der Chemie setzte Ende der 40er und besonders in den 50er Jahren unseres Jahrhunderts ein. Neben dem Bestreben, die wissenschaftliche Basis z.B. für eine Optimierung der Schmelzflußelektrolysen zu schaffen, den ersten Ansätzen für den Molten-Salts-Reactor und der Verwendung als Reaktionsmedien, zogen die geschmolzenen Salze besonders aus der Sicht der Entwicklung allgemeiner Strukturmodelle für Flüssigkeiten die Aufmerksamkeit auf sich.

Ein Teilgebiet betrachtet die Wechselbeziehungen zwischen Metallen und ihren Salzen im geschmolzenen Zustand, über das im folgenden auf der Basis des internationalen Erkenntnisstandes und eigener Forschungsergebnisse berichtet werden soll. Dabei standen zunächst Fragen nach dem Auflösungsvorgang und dem Status des gelösten Metalls im Vordergrund. Die Metall-Salz-Lösungen können prinzipiell in zwei Kategorien eingeteilt werden:

  1. in solche, die zumindest eine teilweise elektronische Leitfähigkeit besitzen, und
  2. in solche, deren Leitfähigkeit sich wie die in typisch ionischen Lösungen verhält.

Zur ersten Gruppe gehören die Systeme der Alkalimetalle, der Erdalkalimetalle und der Seltenen-Erd-Metalle mit ihren Halogeniden. Der zweiten Kategorie können u.a. die entsprechenden Systeme des Zinks, Cadmiums und Bismuts zugeordnet werden.

Für die Auflösung der Metalle sind im wesentlichen drei Mechanismen zu diskutieren:

  1. Ionisation des Metalls nach
    M → Mn+ + ne
    und Einbau der freien Elektronen in das Quasigitter der Schmelze,
  2. Auflösung des Metalls unter Bildung dimerer oder oligomerer Ionen nach
    Mn+ + zM → (MZ+1)n+
  3. 3Auflösung des Metalls unter Bildung niederwertiger Ionen (Subionen)
    zM+ Mn+(z+1)Mm+.

Aus der Kenntnis des Zustandes des gelösten Metalls ergeben sich wichtige Rückschlüsse auf die Elektrodenreaktionen, die für eine exakte Berechnung der Stromausbeuten bei technischen Elektrolysen erforderlich sind. Da unter praktischen Bedingungen die Anwesenheit von Sauerstoff, Stickstoff und Wasserstoff nicht immer ausgeschlossen werden kann, treten durch Nebenreaktionen unerwünschte Reaktionsprodukte, gebildet aus den Metallen, auf, die zum Auffinden der Erdalkalimetallhydyridhalogenide und Erdalkalimetallnitridhalogenide führten.

Während sich auf der einen Seite aus der Löslichkeit von Metallen in Salzschmelzen neuartige Synthesewege ergeben, wirkt sich die Metallöslichkeit bei anderen Prozessen wie den Schmelzflußelektrolysen negativ aus. Eine mögliche Beeinflussung dieses Vorgangs durch Veränderung der Zusammensetzung der Salzschmelze ist deshalb von besonderem Interesse. Wie neue Untersuchungen zeigen, ist neben dem Ionenpotential des Metalls die Donator-Akzeptor-Wechselwirkung zwischen den Ionen der Schmelze entscheidend. Durch Zugabe von Salzen, die z.B. stärkere Chloriddonatoren darstellen, werden die Metallatome aus der Wechselwirkung mit den Kationen herausgedrängt, was zu einer Erniedrigung der Löslichkeit führt. So konnte experimentell bestätigt werden, daß die Löslichkeit der Erdalkalimetalle in ihren Halogeniden durch Zugabe von Alkalihalogeniden fast auf Null reduziert wird.

Ein derzeit beachtenswertes Anwendungsgebiet der geschmolzenen Salze ist die elektrolytische Beschichtung von Metallen mit besonderer Bedeutung für Korrosionsschutz und damit verbunden der Oberflächenhärtung. Daraus resultieren umfangreiche Arbeiten sowohl zur Abscheidung traditioneller Materialien wie Zinn oder Zink, aber auch solcher Metalle wie Aluminium, Beryllium, Titanium, Zirkonium u.a. Zunehmend beobachten wir Untersuchungen zur Diffusionsbeschichtung, d.h. die Sättigung der Oberfläche von Substraten mit Elementen wie Bor, Kohlenstoff, Silicium, Stickstoff unter Bildung von „intermetallischen“ Verbindungen oder Diffusionsschichten.

Analysiert man die neuesten Entwicklungen, so lassen sich folgende Gruppen von möglichen Verfahren ableiten:

  • Beschichtung mit niedrigschmelzenden Schwermetallen bei Temperaturen oberhalb des Schmelzpunktes des Metalls,
  • Aluminiumbeschichtung bei Temperaturen unterhalb des Schmelzpunktes des Aluminiums,
  • Beschichtung mit hochschmelzenden Metallen,
  • Bildung von Diffusionsschichten.

Schließlich sei die Mehrkomponentenabscheidung angesprochen, die hinsichtlich der Bildung von Boriden, Carbiden und Nitriden und der damit erzeugten mechanischen und chemischen Stabilität zunehmender Diskussionsgegenstand ist.

 

Vortrag am 13.3.1992
Ernst Werner (Leipzig), Ordentliches Mitglied der Philologisch-historischen Klasse:


„Sakramentale Mentalität und Antijudismus in Frankreich im 12. Jahrhundert: Abt Petrus Venerabilis (1122–1156)“

Im Rahmen antijüdischer Polemik des Hochmittelalters nahm der Cluniazenserabt eine herausragende Position ein. In seinem Traktat „Adversus Iudeorum inveteratam duritiem“ (1147) setzte er sich mit den kaum bekannten Talmudlegenden in betont antichristlichem Sinne auseinander. Im Rückgriff auf das Johannesevangelium bildeten für ihn die Juden eine Synagoge des Satans, die keinen Brückenschlag zum Christentum erlaubte, weshalb die Teufelssöhne ausgegrenzt werden mußten, ohne sie jedoch zu töten. In aggressiven Formulierungen enthumanisierte er die jüdische Religion und setzte sie mit tierischer Blindheit gleich. J.-P. TorreIl und D. Bouthillier konnten zeigen, daß hinter diesen Invektiven ein dämonisches Weltbild stand. Daraus leiteten die Cluniazenser ihre Verpflichtung zu einem spirituellen Kampf gegen die Teufelsbrut von Juden, Muslimen und Ketzern ab. Zwei Bücher von „Miracula“ ergänzten den Antijudentraktat. Sie zeigen, daß für Petrus, genauso wie für Laien, Wunder Realität besaßen. Der Wunderglaube sollte die Transzendenz unter die Kontrolle der Kirche bringen (A. I. Gurjevič). Da sich für den Abt die Welt als Sakrament offenbarte, konnte alles ein Wunder sein. Wunder waren ihm Zeichen für die Intervention Gottes in den Lauf der Geschichte. Genauso wie die Volksfrömmigkeit sahen auch die Mönche in dem „Weltlichen“ potentiell etwas Böses, das man durch Sakralisierung zu neutralisieren versuchte. In diesen Konnex gehören ebenso die Liturgiepflege und die Ritualisierung der Vita monastica des cluniazensischen Kultmönchtums. Unter diesen Voraussetzungen gab es für Petrus keinen Dialog mehr zwischen Kirche und Synagoge, so wie er im Frühmittelalter noch möglich war. Folgerichtig zog daher der Abt auch die Vernichtung des Talmud in Erwägung. In der Endkonsequenz endeten daher in Nordfrankreich im 13. Jahrhundert öffentliche Disputationen zwischen Rabbi und Klerikern. Jeder Kontakt zu jüdischen Gelehrten sollte unterbunden werden. Den Anfang dieser geistigen Ghettoisierung machte Petrus Venerabilis.

 

Vortrag am 14.2.1992
Dieter Lohmann (Leipzig), Ordentliches Mitglied der Mathematisch-naturwissenschaftlichen Klasse:


„Der Diabetes mellitus – Gesichter einer Krankheit“

Verschiedene Symptome prägen das Gesicht einer Krankheit. In der Klinik wird auch von Krankheitsbildern gesprochen. Krankheiten geben sich dabei nicht immer mit einem äußeren Merkmal zu erkennen; sie zeigen ihr Gesicht zum Teil erst, wenn der Patient mit besonderen Augen (z.B. durch Mikroskopie oder Röntgen) oder mit chemischen bzw. physikalischen Methoden betrachtet wird. Das Gesicht der Krankheiten hängt weitgehend von der Entwicklung solcher Methoden ab.

In vielen älteren medizinischen Texten werden bereits die typischen Symptome des Diabetes mellitus beschrieben, die auch heute noch das klinische Bild bestimmen. Dazu gehören vor allem die Polyurie und Polydipsie. Erst mit dem Einzug naturwissenschaftlichen Denkens und der Entwicklung chemischer Meßmethoden konnte dem klinischen Erscheinungsbild ein definierter Meßwert zugeordnet werden.

Die ersten exakten Daten stammen von Claude Bernard, der im Blut erhöhte Zuckerwerte feststellte und im Experiment die Zuckerbildung in der Leber nachwies (berühmter wurde sein „Zuckerstich“, bei dem er durch eine cerebrale Läsion einen Diabetes auslöste und der die Ursachenforschung lange in eine falsche Richtung lenkte). Der Diabetes mellitus bot unter dieser Betrachtung das Bild einer Stoffwechselkrankheit. Mit den Methoden der Biochemie wurden die Störungen im Intermediärstoffwechsel weiter aufgeklärt. Dabei zeigten sich Abweichungen nicht nur im Kohlenhydrat-, sondern auch im Eiweiß- und Fettstoffwechsel.

Die den klinischen und biochemischen Kennzeichen zugrundeliegende Ursache wurde topographisch in den verschiedensten Organen vermutet: vom Gehirn bis zu den Nieren. Bei Untersuchungen zur exkretorischen Pankreasfunktion entdeckten von Mering und Minkowski 1889 zufällig, daß durch die Entfernung der Bauchspeicheldrüse ein Diabetes mellitus ausgelöst werden kann. Danach stand das Pankreas im Mittelpunkt aller pathogenetischen Betrachtungen. Einen entscheidenden Fortschritt in der Aufklärung der Pathogenese und vor allem der Therapie brachte die Extraktion einer blutzuckersenkenden Substanz aus dem Pankreas – dem Insulin – und seine Anwendung bei diabetischen Kindern durch Banting und Best 1921. Genauere Einblicke wurden möglich, nachdem es Berson und Yalow gelungen war, Insulin im Blut direkt zu bestimmen. Entsprechend den unterschiedlichen klinischen Bildern können dabei verschiedene Formen der Störung der Insulinsekretion nachgewiesen werden. Der Diabetes mellitus bietet unter endokrinologischer Sicht das Gesicht einer endokrinologischen Erkrankung mit qualitativen oder quantitativen Störungen der Insulinsekretion. Die Bestimmung weiterer Hormone zeigte, daß beim Diabetes mellitus offensichtlich das Gleichgewicht zwischen blutzuckersenkenden und blutzuckersteigernden Hormonen gestört ist. Unter dem Blickwinkel der Kybernetik wäre der Diabetes mellitus als eine Regulationskrankheit zu betrachten.

Die Ursachen für die gestörte Insulinsekretion blieben lange Zeit ungeklärt. Morphologisch waren an den Inseln akut verstorbener jugendlicher Diabetiker Veränderungen beschrieben worden, deren Bedeutung man nicht erklären konnte. Bei immunologischen Studien über andere endokrine Erkrankungen fand Bottazzo 1974 zufällig, daß sich im Blut von jugendlichen Diabetikern Antikörper befinden, die mit Zellen der Pankreasinseln reagieren. Diese Befunde wurden in den folgenden Jahren bestätigt und erweitert. Verschiedene Aspekte sprechen aber dagegen, daß diese humoralen Immunreaktionen für die Zerstörung der insulinproduzierenden Betazellen der Inseln verantwortlich sind. In eigenen Untersuchungen konnte gezeigt werden, daß spezifische immunkompetente Zellen der Diabetespatienten zu einer Auflösung der Betazellen führen können. Da ein auslösender Faktor für diese Immunreaktionen nicht bekannt ist, muß der Diabetes der jüngeren Patienten (= Typ 1-Diabetes) als Autoimmunkrankheit betrachtet werden.

Seit langem ist bekannt, daß der Diabetes mellitus familiär gehäuft auftritt. Auch hier erfolgte nach langen Phasen der Beschreibung des Phänomens in jüngster Zeit eine Aufklärung bis in die molekulargenetische Ebene. Aus der Sicht der Genetiker ist der Diabetes mellitus als eine Erbkrankheit anzusehen. Die verschiedenen Gesichter des Diabetes mellitus bestehen nicht unabhängig nebeneinander, sondern beeinflussen und bedingen sich gegenseitig. Für den Typ 1-Diabetes läßt sich dies im zeitlichen Ablauf darstellen.

Für die medizinische Betreuung stellt die Incidenz und Praevalenz einer Krankheit eine entscheidende Größe dar. Der Diabetes mellitus gehört in allen hochtechnisierten Ländern derzeit zu den häufigsten Erkrankungen. Bemerkenswert ist vor allem, die starke Zunahme in den vergangenen Jahrzehnten, die sich nicht aus der genetischen Belastung allein erklären läßt. Aus der Sicht eines gesundheitlichen Betreuungssystems muß der Diabetes mellitus als eine Volkskrankheit bezeichnet werden. Letztendlich stellt der Diabetes mellitus eine ärztliche Herausforderung dar. Dabei müssen alle Gesichter der Erkrankung zu einem einheitlichen Aspekt wieder zusammengefügt werden.

Der Arzt bedient sich dabei verschiedener Betrachtungshilfen. Die Anamnese und klinischen Symptome sind Ausgang diagnostischer Überlegungen und Handlungen. Mit biochemischen Meßverfahren wird ein Einblick in die Störungen des Stoffwechsels gewonnen. Daraus leiten sich bereits therapeutische Maßnahmen – wie z.B. Diätvorschriften ab. Die Kenntnisse um die endokrinologischen Störungen sind Grundlage für den Einsatz des Insulins – entsprechend einer Hormonsubstitution, wie dies auch bei anderen endokrinologischen Erkrankungen bei einem Hormonmangel geschieht.

In Einzelfällen wird auch versucht, durch Pankreas- oder Inseltransplantation den Verlust zu ersetzen. Die Kenntnisse um die Immunpathogenese des Typs 1-Diabetes sind derzeit Grundlage für verschiedene therapeutische Bemühungen, durch eine sogenannte Immunintervention den Prozeß der Destruktion der Inseln aufzuhalten. Die Identifizierung genetischer Marker dürfte für genetische Beratungen in Diabetesfamilien eine zunehmende Bedeutung erlangen. Die Häufigkeit und die starke Zunahme der Erkrankung sollten Anlaß geben, intensiver nach auslösenden Noxen zu suchen.

 

Vortrag am 14.2.1992
Winfried Hacker (Dresden), Ordentliches Mitglied der Philologisch-historischen Klasse:


„Zur Funktion des Arbeitsgedächtnisses im Textverstehen“

Das Verstehen von Text hat mehrere Grundlagen, insbesondere das (Wort-) Wissen, Zugangsprozesse zum Wissensbesitz und Leistungen des Arbeitsgedächtnisses (AG). Als AG-Leistung wird eine komplexe Vorgangskooperation betrachtet, die wenigstens Behaltensund Verarbeitungsprozesse einschließt.

Seit längerem fand das AG Interesse sowohl für die Erklärung als auch die trainierende Veränderung der interindividuellen Unterschiede beim Behalten, Verstehen (als Erschließen impliziter Information) und Nutzen von Textaussagen. Dazu trägt das Wissen um Komponenten des AG, z.B. um die Artikulationsschleife, bei, die einige elementare Effekte in der Sprachverarbeitung aufklären können (beispielsweise den phonologischen Ähnlichkeitseffekt). Im Hinblick auf die Operationalisierung und Messung des AG wird die Lesespanne erörtert, die sich im Gegensatz zur Ziffern- oder Wortspanne als guter Indikator der Textverarbeitung erweist.

Es wird über experimentelle Untersuchungen berichtet, die sich einordnen in die Validierung der Lesespanne und der bewältigbaren Distanz von Pronominalinferenzen als Indikatoren der Kapazität des mentalen Verarbeitens bei gleichzeitigem Behalten. Die Hauptergebnisse sind: Das Textverstehen wird von den Textmerkmalen nicht signifikant beeinflußt, wohl aber vom Arbeitsgedächtnis. Bei Texten ohne Verständlichkeitserschwernisse erreichen Probanden mit überdurchschnittlichem Arbeitsgedächtnis signifikant bessere Verstehensparameter als solche mit unterdurchschnittlichem; bei Texten mit Erschwernissen bewirkt das Arbeitsgedächtnis dagegen keine signifikanten Unterschiede. Erste Erklärungen werden erörtert.

 

Vortrag am 10.1.1992
Gottfried Geiler (Leipzig), Ordentliches Mitglied der Mathematisch-naturwissenschaftlichen Klasse:


„Die Rheumatoid-Artritis – eine immunologische Erkrankung“

Die Rheumatoid-Arthritis (RA) ist eine entzündliche Allgemeinerkrankung mit bevorzugtem Gelenkbefall. Ihre Ätiologie ist unbekannt. Paraklinische und klinische Befunde weisen auf eine gestörte Immunregulation hin. Von dieser Vorstellung geleitet, werden die Ergebnisse eigener immunpathologischer Untersuchungen vorgestellt, die an Gelenken erhoben wurden. Zum besseren Verständnis werden Informationen zur Struktur und Funktion der normalen Gelenke und des Immunsystems voraus gestellt. Unter normalen Bedingungen ist das Immunsystem nicht strukturell im Gelenk manifestiert. Bei der RA dagegen wird die Synovialmembran der Gelenke mit Lymphozyten so ausgedehnt besiedelt, daß sie einem sekundären Immunorgan vergleichbar ist. Mit Hilfe monoklonaler Antikörper lassen sich die einzelnen Lymphozytenpopulationen exakt definieren und quantifizieren. Die Tatsache, daß T- und B-Lymphozyten vorhanden sind, schafft die Voraussetzung für die Entwicklung zellvermittelter und humoraler pathogener Immunreaktionen, die zu Gewebszerstörung und Entzündung führen. Aus der Synovialmembran entwickelt sich ein makrophagenreiches überschießendes Granulationsgewebe, das den Gelenkknorpel infiltriert und destruiert. Da der Gelenkknorpel nicht regenerationsfähig ist, resultiert eine bleibende Gelenkzerstörung. Neben den verschiedenen Lymphozytenpopulationen (T-Lymphozyten, B-Lymphozyten, Helferzellen, Suppressorzellen, aktivierte Lymphzyten) kommt besondere Bedeutung den Makrophagen zu, die sich durch eine funktionelle Vielfalt auszeichnen und enzymatisch den Destruktionsprozeß begleiten. Die Ergebnisse dokumentieren, daß die gestörte Immunregulation ein wesentlicher Pathogenesefaktor der RA ist. Die moderne Therapie der RA ist trotz dieses Erkenntnisstandes noch unbefriedigend.

 

Vortrag am 10.1.1992
Karlheinz Blaschke (Dresden), Ordentliches Mitglied der Philologisch-historischen Klasse:


„Der sächsische Adel in der frühbürgerlichen Bewegung. Eine Denkschrift zur gesellschaftspolitischen Lage aus dem Jahre 1542“

Die aus Kreisen des sächsischen Adels stammende, im Staatsarchiv Dresden aufbewahrte Denkschrift beleuchtet schlaglichtartig die bedrohte Lage, in der sich der Adel im Zusammenhang mit dem Vordringen der Geldwirtschaft sah. Es werden Argumente gegen die Einführung des Gemeinen Pfennigs als einer Reichssteuer angeführt, die als eine bewußte Taktik der „Städte und Kaufleute“ hingestellt wird, um die Freiheit der deutschen Fürsten und des Adels zu beseitigen und sie dem „gemeinen Mann“ gleichzumachen. Der unbekannte Verfasser entwirft das Schreckbild einer bürgerlich-republikanischen Gesellschaft ohne Adelsprivilegien nach Schweizer Vorbild und vertritt damit das Konzept der mittelalterlichen Sozialstruktur mit der Ungleichheit aller Menschen ohne soziale Mobilität. Dabei wird das Geld als Instrument der Einebnung verstanden, dessen Macht aus der Sicht einer alten Führungsschicht, die als Produkt der Naturalwirtschaft eine tiefgehende Abneigung gegen das Geld empfindet, erbittert angeklagt wird. Gegen den bereits begonnenen und unaufhaltsamen Siegeszug der Geldwirtschaft werden Argumente aus der spätmittelalterlichen Reichsverfassung angeführt, die 1542 nicht mehr als stichhaltig angesehen werden können. Der voll im Gange befindliche Übergang vom mittelalterlichen Personalitätsprinzip zur institutionalisierten, auf Behörden und Beamte gestützten Ausübung öffentlicher Gewalt wird als Tatsache zur Kenntnis genommen, aber abgelehnt. Im Hintergrund steht die entscheidende Frage, auf welcher Ebene öffentlicher Gewalt das Recht auf Besteuerung der Untertanen durchgesetzt werden kann: auf der des Reiches oder jener der Landesherren. Da Sachsen im Reformationszeitalter infolge seiner politischen Bedeutung, seiner wirtschaftlichen Leistungsfähigkeit im System des Frühkapitalismus und als Ursprungsland der religiösen Erneuerung ein besonders vorwärtsdrängendes, aber auch ein konfliktgeladenes Land war, kennzeichnet die Denkschrift als eine beachtenswerte Quelle zur Mentalität einer in Bedrängnis geratenen alten Elite die allgemeine gesellschaftspolitische Lage in Deutschland. In ihr begegnen sich sächsische Landesgeschichte und allgemeine deutsche Geschichte.

Denkströme

Denkströme IconDas Open Access (Online-)Journal der Sächsischen Akademie der Wissenschaften:

www.denkstroeme.de

Diffusion Fundamentals

Diffusion Fundamentals IconInterdisziplinäres Online Journal für Diffusionstheorie in Kooperation mit der Universität Leipzig:
diffusion.uni-leipzig.de

Internationale Konferenzreihe:
saw-leipzig.de/diffusion