Plenarvorträge 1996

 

Vortrag am 13.12.1996
von Günter Haase (Leipzig), Ordentliches Mitglied der Mathematisch-naturwissenschaftlichen Klasse:


„Das Geom – Ein regionischer Normtyp der Naturraumgliederung“

Für die Geographie, insbesondere für die geographische Landschaftslehre gilt, daß alle Inhalte der Geosphäre von so großer Vielfalt sind, daß eine wissenschaftlich einwandfreie Ordnung, Klassifikation und schließlich Systematisierung sehr erschwert ist.

Die Beherrschung dieser geosphärischen Mannigfaltigkeit gehört zu den methodologischen Grundproblemen der Physiogeographie und ihrer Nachbardisziplinen, in den Geo-, Bio- und Technikwissenschaften.

In Annäherung an Ernst Neef stehen in der geographischen Landschaftsforschung drei Ordnungsverfahren zur Verfügung:

  1. Ordnungen der geosphärischen Substanz unter Betonung ihrer strukturellen, auf Substanz und Prozesse (Dynamik) orientierten Merkmale. Dieses Verfahren führt zu einer typologischen Ordnung und über diese zur Klassifikation und Systematisierung nach Struktur- bzw. Inhaltstypen.
  2. Ordnungen der geosphärischen Substanz unter besonderer Betonung ihrer Arealstruktur (Lagequalitäten, räumliche Beziehungen). Dieses Verfahren führt zur räumlichen (arealstrukturellen) Ordnung und findet seinen Ausdruck in Raumgliederungen.
  3. Ordnungen der geosphärischen Substanz unter besonderer Hervorhebung der zeitlichen Entwicklung. Das führt zu genetischen Entwicklungsreihen (Landschafts-Sukzessionen) .

In der Physiogeographie wurde in den letzten Jahrzehnten viel für die theoretische und methodische Begründung der räumlichen Ordnung der gesamten Geosphäre getan. Dabei ist deutlich geworden, daß in der Landschaftslehre noch keine zureichende Grundlage für ein typologisches Verfahren von geosphärischen Strukturtypen in der planetarischen und in der regionischen Dimension entwickelt ist. Diese Aufgabe ist nur zu lösen, wenn die inhaltsstrukturellen und die raumstrukturbezogenen Ordnungsverfahren enger miteinander verbunden werden, um eine reproduzierbare, mit objektiv gefaßten Kriterien vorgenommene Ordnung nach isomorph zu erkennenden Strukturmerkmalen vorzunehmen.

Die Diskussion um die besonderen inhaltlichen und arealen Merkmale von Naturraumregionen wird von zwei Ausgangspunkten geführt:

  1. Auf dem Weg der Sonderung vom Allgemeinen zum Speziellen werden die Inhaltsmerkmale von regionischen Einheiten aus den Integrationserscheinungen der voneinander unabhängigen tellurischen und solar-zonalen Geofaktoren abgeleitet. Dahin führen vor allem einige integrierende Gliederungsmerkmale der Geosphäre: Die allgemeine Zirkulation der Atmosphäre mit den zellulären Luftdruck- und Windgürteln, die Maritimität und Kontinentalität, die (klimagenetische ) Formungstendenz des Reliefs, die paläogeographischen Entwicklungsreihen der Pedo- und Lithosphäre.
  2. Die volle geosphärische Merkmalkombination wird schließlich durch Merkmale des Ökoklimas, des Wärme- und Wasserhaushalts, der Bodendynamik und insbesondere der Vegetationsausstattung repräsentiert.

In der Klimatologie sind vor allem die auf ökologischen Grundlagen beruhenden weltweiten Gliederungen von Troll und Paffen und die Klima-Diagramme von Walter und Lieth für diese Gliederungen geeignet. Den Zusammenhang von Wärme- und Wasserhaushalt der Geosphäre hat vor allem Budyko in mathematischer Form zu fassen versucht. In der Bio-Geographie gibt es seit einem Jahrhundert zahlreiche Versuche, die Biosphäre der landfesten Teile der Erdoberfläche nach vergleichbaren, reproduzierbar anzuwendenden Kriterien zu gliedern. Das führt zum Begriff des „Bioms“ als dem regionischen Grundtyp der Bio-Geosphäre. In der Bodengeographie haben seit den grundlegenden Arbeiten von Dokučaev zur Boden-Zonalität die Arbeiten zum regionischen Normtyp der Bodenbildung eine gleiche Aussage erbracht.

Mit einem großangelegten Versuch, auf der Grundlage des Geosystem-Konzepts eine raumstrukturelle Ordnungsreihe der Geosphäre in der regionischen Dimension zu schaffen, hat der russische Geoökologe Viktor B. Sočava (ein Mitglied unserer Akademie) den Begriff „Geom“ eingeführt. Die Inhaltsstruktur eines Geoms wird bezeichnet durch eine Vegetationsformation, einen morphogenetischen Bodentyp, die klimagenetischen Formen der Reliefgestaltung und die Modifikation eines subzonalen Klimagürtels. Das Geom faßt zahlreiche topische und chorische Standortqualitäten unter einem „Normtyp“ des Geosystems zusammen. Es beschreibt die Homogenitätsbedingungen, unter denen eine regionische Naturraumeinheit als isomorph erkannt werden kann.

 

Vortrag am 13.12.1996
Lothar Kreiser (Leipzig), Ordentliches Mitglied der Philologisch-historischen Klasse:


„Vom Identitätskalkül zum Prädikatenkalkül “

Das Anliegen des Vortrages ist die Entwicklung einer Hypothese über den Erkenntnisweg Freges hin zu seiner „Begriffsschrift, eine der arithmetischen nachgebildete Formelsprache des reinen Denkens“ (1879). Die Hypothese folgt folgendem spezifizierten logisch-hermeneutischen Ansatz: Nimmt man einen literarisch verbürgten Ausgangspunkt seines Erkenntnisstandes und ein Frege zugängliches Werk, so ist zulässig, diese beiden objektiven Tatbestände durch die Frage aufeinander zu beziehen, ob in jenem zugänglichen Werk Probleme enthalten oder mit ihm verbunden sind, deren Bearbeitung mit der sanften Gewalt der Vernunft das Fregesche Denken – gemäß den durch das eigene Werk gesetzten Rahmenbedingungen – in die Richtung einer Begriffsschrift als dem relativen Endpunkt drängten. Diese logischhermeneutische Verfahrensweise wird im Vortrag näher erläutert.

Das Verfahren darf natürlich von Bemerkungen Freges auf ihn anregende Fragen Gebrauch machen, nicht aber von der „Begriffsschrift“ selber. Ihr Ertrag hängt wesentlich ab von den herangezogenen Werken. Ausgangspunkt für Freges Erkenntnisstand ist seine 1874 vorgelegte Habilitationsschrift mit dem Titel: „Rechnungsmethoden, die auf einer Erweiterung des Grössenbegriffes gründen“. Das zur Spiegelung der Ausreifung seines Erkennens hin zur Begriffschrift herangezogene Werk ist Robert Grassmanns „Wissenschaftslehre“, und zwar dessen I. und II. Teil (1872).

Geht man diese Arbeiten R. Grassmanns allein unter dem Gesichtspunkt durch, ob alles und nur das in seiner formalen Darstellung ausgedrückt ist, was durch die Sache und ihre natürlichsprachliche Beschreibung gefordert wird, so stößt man auf Lücken, deren Schließung auf Freges Ansatz fuhrt. Die Folge dieser Lücken und die dementsprechende Reihenfolge ihrer Bearbeitung deckt sich weitgehend mit der Gliederung von Freges „Begriffsschrift“.

Besondere Beachtung beansprucht bei dieser Spiegelung der Übergang zur Prädikatenlogik. In Grassmanns Größenlehre lassen sich alle mittels einer Operation definierbaren Relationen zwischen Größen (in dem von Grassmann definierten Sinne) einfuhren, wie z.B. die Größer-Relation. Dadurch erweitert sich ihr Ausdrucksreichtum. Sie bietet aber kein Mittel, um z.B. die Behauptung auszudrücken, daß es zu jeder Größe mindestens eine Größe gibt, die in der Größer-Relation auf sie folgt. Grassmanns Theorie der Logik, die „Begriffslehre“, hilft hier auch nicht weiter, denn sie beschränkt sich auf einstellige Relationen. Es fehlt ihr mit einem Zugriff auf die Gegenstände eines Bereiches auch ein Ausdruck für die Allgemeinheit einer Relation. Frege löst dieses Problem durch Einführung der Quantifikatoren.

Wie aber kam Frege, dem es doch nicht daran lag, Grassmanns Größenlehre zu verbessern, zu dieser Problemlösung? Durch die als Selbstverständlichkeit in die „Begriffsschrift“ aufgenommene Unterscheidung der Aussagen in solche, die das Fallen eines Gegenstandes unter einen Begriff (Subsumtion), das Stehen von Gegenständen in einer Beziehung (Subordination) oder (als Subalternation) die Einordnung einer n-stelligen Beziehung in einen Begriff (zweiter Stufe) behaupten. In der Tradition des Kantianismus gesprochen hat Frege eine neue Urteilstafel geschaffen. Eine diese Urteilsunterscheidungen ausdrückende „Formelsprache des reinen Denkens“ als eine lingua characteristica im Leibnizschen Sinne ist Freges primäres Anliegen, der rechnende Kalkül dagegen zunächst nur eine willkommene Folgeerscheinung.

Die Vermutung liegt nahe, daß sich Frege, wenn er denn ausgehend von seiner Habilitationsschrift und unter C. Fortlages Einfluß diesen Weg von der Aussagenlogik zur Prädikatenlogik gegangen sein sollte, sich deshalb gar nicht intensiv mit den bis 1879 erschienenen Arbeiten zur Algebra der Logik beschäftigt hat. Dafür lag vom Zweck her kein zwingender Grund vor. Es wäre sonst leicht gewesen, in die „Begriffsschrift“ aufzunehmen, was er später in Antwort auf Rezensionen der Begriffsschrift vortrug oder als Artikel vergeblich Zeitschriften zu ihrer Verteidigung anbot.

Die Hypothese läßt den Erkenntisweg Freges hin zur „Begriffschrift“ verstehen, ohne daß man freilich zwingend behaupten kann, daß er genau so und nicht anders gedacht habe. Keinen Zweifel aber läßt sie daran, daß wenn Frege diesen Ausgangspunkt gewählt hätte, er dann mit Sicherheit so vorgegangen wäre.

 

Vortrag am 15.11.1996, Öffentliche Gesamtsitzung
Albrecht Gläser (Halle-Wittenberg), Ordentliches Mitglied der Mathematisch-naturwissenschaftlichen Klasse:

 

„Grenzen zwischen Leben und Tod. Probleme der Intensivmedizin“

Die Entwicklung der Intensivmedizin mit der Möglichkeit, die spontane Atmung über lange Zeit und die Funktion des Herzens zumindest über viele Stunden durch künstliche Maßnahmen zu ersetzen, erfordert, die bisherige Definition des Todes als Folge von Stillstand von Atmung und Kreislauf zu überdenken. Die Begriffe klinischer Tod, Hirntod und biologischer Tod beschreiben den Tod als einen stufenlosen Übergang vom Ausfall lebenswichtiger Organe bis zur letzten Körperzelle. Der Hirntod beinhaltet das Ende der Gesamtpersönlichkeit, der Einheit von Geist und Körper, bei verbliebenen vegetativen Residualfunktionen und schließt damit die Möglichkeit ein, den Organismus als Organspender für Transplantationen zu verwenden. Die Erhaltung von Teilfunktionen des Hirnstammes erfordert eine klare Grenzziehung zwischen Leben und Tod, um die Gefahr einer „Entsorgung Behinderter“ auszuschließen.

Die Erfolge der modernen Medizin haben eine Erwartungshaltung, die den Tod als natürliches Ende verdrängt, aber auch den Vorwurf einer seelenlosen Apparatemedizin geschaffen. Die Verpflichtung des Arztes aus Jahrtausende alter Tradition zu allen Bemühungen um Heilung oder Besserung der Leiden schließt bei einem multimorbiden Patienten ohne Aussicht auf Besserung das Aufgeben der Therapie ein, da sie nur eine Verlängerung des Leidens und Sterbens bedeutet. Umfangreiches Wissen und große Erfahrung des Arztes bilden im Einzelfall die Voraussetzung für die Entscheidung zwischen der aus der Ehrfurcht vor dem Leben begründeten Erhaltung des Lebens um jeden Preis – auch ökonomisch gesehen – und der ärztlichen Verpflichtung, Hilfe beim Sterben zu leisten. Trotz naturwissenschaftlich begründeter Verhaltensnormen für ärztliches Handeln in der Phase zwischen Leben und Tod bleiben im Einzelfall immer notwendige, aber die Kompetenz menschlichen Handeins überschreitende Entscheidungen, die eine gemeinsame Verantwortung von juristischer, theologischer und philosophischer Seite einschließen.

 

Vortrag am 11.10.1996
Hans Joachim Fiedler (Dresden), Ordentliches Mitglied der Mathematisch-naturwissenschaftlichen Klasse:


„Schwefelbelastung von Waldstandorten und Fichten im Osterzgebirge“

Zwischen 1900 und 1980 nahm die europäische SO2-Immission von 10 106 auf 30 106 t S a–1 zu, wobei der stärkste Anstieg nach 1950 erfolgte. Das Osterzgebirge gehört seit Jahrzehnten zu den besonders stark mit SO2 belasteten Waldgebieten. In den 60er Jahren lagen die SO2-Jahresmittel der Luft hier über 100 μg m–3 mit Kurzzeitspitzenwerten von über 4 mg m–3. Selbst 1993 wurden noch Spitzenwerte von > = 300 μg m–3 registriert, wenn auch der Jahresmittelwert auf < 50 μg m-3 gesunken war. Hohe Belastungen bringen SE-Winde aus dem Böhmischen Becken mit sich.

Die SO4-S-Freilandeinträge lagen bis 1988 im Tharandter Wald bei 33 bis 37 kg ha–1 a–1 und die SO4-Einträge aus der Kronentraufe der Fichtenbestände bei 100–160 kg SO4-S ha–1 a–1. Letztere fielen nach der Wende im Osterzgebirge auf 40–60 kg ha–1 a–1, unabhängig von der Höhenlage, ab. Die S-Deposition liegt damit erheblich über dem S-Bedarf der Vegetation von nur wenigen kg, was zu einer Schwefeleutrophierung der Waldökosysteme geführt hat.

Unter Berücksichtigung des gleichzeitigen Stickstoffeintrags ergibt sich eine derzeitige H-Ionenbelastung von 0,4 kg ha–1 a–1 mit dem Freilandniederschlag und 1,6–2,6 kg ha–1 a–1 mit dem Bestandesniederschlag. Dabei wirkt sich die verstärkte Reinigung der Abgase seit 1991 auf das SO4: Ca-Verhältnis im Trauf ungünstig aus (Anstieg von 2 auf 5), die Niederschläge sind saurer geworden. Die Säure- und Sulfatbelastung führt zu einem Sulfat- sowie Ca- und Mg-Austrag aus dem Boden mit dem Sickerwasser. Die Versauerung des Bodens äußert sich ferner darin, daß ein erheblicher Teil der erzgebirgischen Böden im Aluminium-Pufferbereich liegt und AI-Ionen mit dem Sickerwasser an die aquatischen Ökosysteme abgibt.

Im Auflagehumus der Waldböden unter Fichte erreicht der S-Gehalt Werte bis 3400 mg, im Mittel 2500 mg S kg–1, im A-Horizont von etwa 700 mg und im B- und BC-Horizont von 200–400 mg S kg–1 TM. Damit übertreffen die Erzgebirgsböden vergleichbare Tieflandsböden mit schwächerer SO2-Belastung im S-Gehalt um den Faktor 2. Im O-Horizont ist der Schwefel zu etwa 90 % organisch und vorwiegend direkt an Kohlenstoff gebunden, während im B-Horizont der gesamte Schwefel in sulfatischer Bindung vorliegt und dabei teils als AI(OH)SO4 gespeichert ist. Estersulfatschwefel (nicht an Kohlenstoff gebunden) tritt verstärkt im Unterboden auf. Das C : S-Verhältnis im O- und Ah-Horizont liegt im Bereich von 130–190, es sinkt im Mineralboden auf Werte zwischen 20 und 90 ab.

Im Wassereinzugsgebiet des Wernersbaches (Tharandter Wald) wurden in 40 cm Tiefe Werte von 25–50 (90) mg l–1 SO4-S im Bodenwasser gemessen. Der S-Gehalt der Quellen liegt im Mittel bei 20–35 mg l–1. In den Bachwässern haben die Sulfationen einen Anteil von 55–90 % an der Anionensumme. Der S-Austrag aus dem Wassereinzugsgebiet liegt bei 160–480 kg S ha–1 a–1. Ein- und Austrag des Schwefels entsprechen sich in den Kammlagen, zeitweise wirkt der Boden in den unteren Lagen sogar als „Quelle“ für Sulfatschwefel.

Die Fichten werden über die Nadeln durch SO2, H2SO4 und Sulfate, über die Wurzel durch SO4-Ionen belastet. Dies äußert sich in Nadelverlusten sowie erhöhten Gesamt-S-Gehalten der verbliebenen Nadeln. Bei Überschreiten eines Grenzwertbereiches von 25–50 μg SO2 m–3 Luft kommt es über beide Wege zu einer starken Sulfatakkumulation in den Nadeln und zu einer beschleunigten Zerstörung der Wachsschicht derselben. In den Kammlagen des Osterzgebirges erreicht der S-Gehalt der Nadeln junger Fichten Gehalte von 0,19–0,24 % i. d. TM.

Kalkung des Bodens zur Verbesserung des Al-Ca-Verhältnisses in der Bodenlösung, Senkung des SO2-Gehaltes der Luft sowie ein Wechsel im Anbau von Fichte zu Buche tragen zu einer allmählichen Verbesserung des Waldzustandes bei.

 

Vortrag am 11.10.1996
Helmar Junghans (Leipzig), Ordentliches Mitglied der Philologisch-historischen Klasse:


„Martin Luther und die Rhetorik“

Die Lutherforschung hat erst vor etwa 30 Jahren begonnen, auf Luthers Verwendung der von Humanisten des ausgehenden Mittelalters erneuerten antiken Rhetorik zu achten, und dadurch neue Gesichtspunkte für die Lutherinterpretation gewonnen.

Luther hat bei der Interpretation von Bibeltexten vorliegende rhetorische Tropen und Figuren benannt und damit die inhaltliche Auslegung vertieft; er hat sie aber auch bewußt in seinen eigenen Texten verwendet. Er hat die rhetorischen Anleitungen zum Auffinden der zu behandelnden Teile einer Rede bzw. Schrift benutzt und nach rhetorischen Regeln Dispositionen konzipiert. Er hat die rhetorische Anthropologie, wonach der Mensch sich vor den anderen Lebewesen vor allem durch seine Fähigkeit zum Reden auszeichnet, übernommen, ja sogar im Zusammenhang mit der Lehre von der Gottebenbildlichkeit des Menschen und unter Verwendung von Bibelstellen Gott als den redenden Gott beschrieben, dem der hörende Mensch zugeordnet ist. Damit hatte er ein wichtiges Strukturelement für seine Theologie gewonnen.

Da heutigen Lesern rhetorische Kenntnisse oft fehlen, muß für Editionen von Texten gefordert werden, daß die von ihren Autoren angewendeten rhetorischen Elemente in der Kommentierung benannt werden.

 

Vortrag am 14.6.1996
Armin Uhlmann (Leipzig), Ordentliches Mitglied der Mathematisch-naturwissenschaftlichen Klasse:


„Über die Unbestimmtheit in Heisenbergs Unbestimmtheitsrelation“

Die Quantentheorie ruht auf einem System sich gegenseitig stützender sehr allgemeiner Behauptungen, das mit unserem experimentellen Wissen im Einklang ist. Ihr nichtklassischer Charakter läßt ihre Folgerungen oft als höchst paradox erscheinen.

Seit ihrer Entdeckung ist die Heisenbergsche Unbestimmtheitsrelation, ∆ x ∆ ≥ ħ / 2 das beliebteste Objekt in den Diskussionen zur Deutung der Quantenphysik. Sie markiert besonders anschaulich den Bruch mit „klassischen“ Vorstellungen, ohne selbst eines der grundlegenden Postulate der Quantentheorie zu sein; denn sie ist aus diesen ableitbar. Die mit jeder Observablen A verbundenen Unbestimmtheiten (Unschärfen) ∆ A, in den Heisenbergschen Relationen für die Ortskoordinate x und den Impuls p zu bilden sind, lassen die Rolle des Zufälligen erkennen. Der Zufall gehört zur Logik der Quantentheorie.

Die Meßwerte fast jeder beobachtbaren Größe in fast jedem Zustand eines physikalischen Systems sind nicht vorherbestimmbar. Determiniert sind nur ihre Verteilungen, falls es gelingt, die Messung an hinreichend vielen Kopien des gleichen Zustandes zu wiederholen. Bei makroskopischen Körpern ist jedoch die Unbestimmtheit (zum Beispiel des Ortes) so klein, daß sie weitab gegenwärtiger Meßmöglichkeiten liegt und der Meßwert als eindeutig definierbar erscheint. Für mikroskopische Systeme kann diese Unbestimmtheit jedoch signifikant und der einzelne Meßwert vollständig zufällig sein. Als „Ersatz“ zeigt der Meßwert aber an, in welchen Zustand das System durch den Meßakt übergegangen ist.

Während der Entdeckung der Quantentheorie wurde die Unvorhersagbarkeit von Meßergebnissen heuristisch mit der Vorstellung einer „unkontrollierbaren Wechselwirkung“ zwischen Meßinstrument und Quantenobjekt verknüpft. Hieraus freilich etwa schließen zu wollen, ein Elektron habe schon einen Ort, nur könnten wir ihn nicht erkennen, wäre ein fataler Irrweg. Vielmehr ist der Zustand eines Elektrons generisch nicht-lokal, wenn auch meist nur in mikroskopischen Dimensionen. Der Begriff des Ortes (wie auch anderer Größen) ist nur approximativ zu verstehen und manchmal einfach leer. Seine Signifikanz ändert sich von Zustand zu Zustand. Nach Max Born wird all dieses logisch konsistent, indem man dem Zufall und der Wahrscheinlichkeit den ihnen gebührenden Platz zuweist: Wenn z.B. das Elektron keinen definierbaren Ort besitzt, eine Ortsmessung aber eine Lokalisierung erzwingt, kann diese nur zufällig, wenn auch im Rahmen einer berechenbaren Wahrscheinlichkeitsverteilung sein. Als Belege wurden im Vortrag Interferenz, Tunneleffekt und chemische Bindung angeführt.

Das zum Meßprozeß Gesagte ist von sehr allgemeiner Natur. Zum Beispiel bei chemischen Reaktionen, in Stoßprozessen und beim radioaktiven Zerfall geht der Eingangszustand verschieden wahrscheinlich in jeden der möglichen Endzustände über. Es ist daher nicht verwunderlich, daß immer wieder nach „verborgenen Parametern“ gefragt wurde, deren Unkenntnis sich in den Unbestimmtheiten der Quantentheorie manifestieren sollten. „Can quantum mechanical description of physical reality be considered complete?“ fragten Einstein, Podolsky und Rosen 1935 in einer oft zitierten Arbeit. Heute hierauf mit „ja“ zu antworten ist sicher korrekt, wenn auch nicht im Sinne der Autoren.

Quantenzustände sind Ganzheiten, die als Ganzes reagieren können. Dies führt zu erstaunlichen Folgerungen, wenn ein oder wenige Elementarteilchen (oder Atome) makroskopisch delokalisiert sind. Eine Reaktion in einem Teilgebiet kann das System veranlassen, als Ganzes „instantan“ einen neuen Zustand einzunehmen. Allerdings regiert auch hier der Zufall: Welcher Zustand aus der Reihe der möglichen tatsächlich eingenommen wird, ist unvorhersagbar. Nur Wahrscheinlichkeiten sind hierfür angebbar. Für den Einzelfall aber sind Wahrscheinlichkeiten, wenn sie nicht sehr nahe bei 0 oder 1 liegen, bedeutungslos. Wegen des (fast) instantanen Wandels eines Zustandes in einen anderen (im Rahmen eines definierten Kontingents) verhindert gerade dessen zufällige Wahl das Durchbrechen des Kausalitätsprinzips: Die instantane Zustandsänderung ist nicht geeignet, Information zu transportieren.

Die beruhigende Konsistenz mit den Forderungen der Relativitätstheorie schließt jedoch keinesfalls die Nutzung dieses eigenartigen Verhaltens zum Aufbau von „Quantenkanälen“ und anderen „Quanteninstrumenten“ aus, die zusammen mit klassischen Transportmechanismen zu einer neuen Informationstechnik führen könnten. Als Beispiel wurden im Vortrag die Versuche zur Quantenkryptographie angeführt, bei denen Informationsübertragungen bis zu einigen zehn Kilometern gelangen. Hochinteressant ist auch die Vision des Quantenrechners. Ein solches Instrument ist für die heutige Experimentierkunst illusionär. Jedoch widerspricht kein bekanntes physikalisches Prinzip seiner möglichen Existenz. Quantencomputer wären nicht an die Grenzen der Berechenbarkeit digitaler Rechner gebunden.

 

Vortrag am 14.6.1996
Gerhard Helbig (Leipzig), Ordentliches Mitglied der Philologisch-historischen Klasse:


„Grammatik und Lexikon“

Im traditionellen Verständnis werden Grammatik und Lexikon als die zwei grundlegenden Komponenten der Sprache angesehen, die sich zwar notwendig ergänzen, sich aber gleichzeitig auch gegenüberstehen. Vielfach wird die Grammatik nicht nur dem Lexikon, sondern auch der Semantik gegenübergestellt. Dieses herkömmliche Bild hat sich als zu einfach erwiesen, da sich neben dem engeren Konzept von Grammatik (= Morphologie + Syntax, also ausschließlich des Lexikons, der Semantik und der Phonetik/Phonologie) ein weiteres Konzept von Grammatik (als Abbildung des gesamten Sprachsystems als reguläre Zuordnung der Form- und Bedeutungsseite, also einschließlich des Lexikons, der Semantik und der Phonetik/Phonologie) immer mehr verbreitet hat und da Bedeutung nicht nur den lexikalischen Einheiten, sondern auch den morphosyntaktischen Kategorien zukommt (die Semantik die Morphosyntax und die Lexik folglich nicht trennt, sondern verbindet). Dafür spricht bereits der Umstand, daß manche Bedeutungen lexikalisch und/oder grammatisch im engeren Sinne (= morphosyntaktisch) ausgedrückt werden können oder müssen – das gilt schon in einer Sprache, erst recht im Vergleich mehrerer Sprachen.

Es hat sich die Erkenntnis durchgesetzt, daß sich Grammatik und Lexikon auch nicht prinzipiell und funktional voneinander unterscheiden lassen (etwa in dem Sinne, daß die Lexik der Bezeichnung von Erscheinungen und die Grammatik der Verknüpfung von Wörtern diene), daß es sich vielmehr vor allem um einen Unterschied im Aspekt und im Grad der Verallgemeinerung handelt. Teilweise sind es dieselben Fakten, die unter unterschiedlichen Aspekten dargestellt werden: einerseits unter dem Aspekt des Allgemeinen (der grammatischen Klassenbildung), andererseits unter dem Aspekt des Besonderen und Einzelnen (der Bindung an die Lexikoneinheit). Das hat Folgerungen für die neuere Grammatikographie und Lexikographie mit sich gebracht: Grammatische Regeln werden zunehmend exemplifiziert durch Lexikoneinheiten (auf die sie zutreffen), Grammatiken enthalten immer mehr Lexikon-Fragmente, die Grammatik wird vielerorts auch als integraler Bestandteil des Lexikons aufgefaßt. Deshalb ist eine Grammatik ohne lexikalische Informationen und ein Lexikon ohne grammatische Informationen heute kaum noch denkbar. Die ursprünglich starr erscheinende Grenzziehung zwischen Grammatik und Lexikon wird nicht nur von grammatikographischer und lexikographischer Seite in Frage gestellt, sondern zunehmend auch in der grammatiktheoretischen Diskussion (vor allem innerhalb der generativen Grammatik): Das Lexikon – ursprünglich an der Peripherie angesiedelt und eher Auffangbecken für irreguläre Einheiten – ist in das Zentrum der Aufmerksamkeit gerückt und zu einer selbständigen, ja zentralen Komponente der Grammatik geworden, da es auch im Lexikon um die Zuordnung von Form und Bedeutung geht – wenn auch gebunden an die einzelne lexikalische Einheit und aus integrativer Sicht (Informationen aus den anderen Repräsentationsebenen erscheinen gebündelt).

 

Thematische Klassensitzung  der Mathematisch-naturwissenschaftlichen Klasse am 10.5.1996


Diese Sitzung sowie die vom 12. Mai 1995 dienten der Vorbereitung bzw. der Konstituierung der Technikwissenschaftlichen Klasse.

 

Thematische Klassensitzung der Philologisch-historischen Klasse am 10.5.1996

Mit der thematischen Klassensitzung vom 12. Mai 1995 zusammengefaßt von Herrn Nowak

Mit ihrer Sitzung vom 12. Mai 1995 eröffnete die Philologisch-historische Klasse ein auf mehrere Jahre angelegtes Studien- und Diskussionsprogramm. Es steht unter der Überschrift „Wertvorstellungen in den Geisteswissenschaften“. Das Thema ist für Wissenschaften, Staat und Gesellschaft generell von Bedeutung, besitzt aber wegen der strukturellen Verwerfungen des Wissenschaftsbetriebs in den neuen Bundesländern zusätzliche Dringlichkeit. Die in den westdeutschen Debatten über Selbstverständnis und Aufgabenbereich der Geistes- und Sozialwissenschaften verwendeten Begriffe „Kulturwissenschaften“ und „Gesellschaftswissenschaften“ erzeugen auf dem Boden der ehemaligen DDR semantische Irritationen. Sie wecken Erinnerungen an die Kultur- und Gesellschaftswissenschaften der SED-Zeit. Andererseits wird die Neubestimmung der Funktion und des gesellschaftlichen Ortes der Geistes- (und Sozial-) Wissenschaftler im Horizont der gegenwärtigen zivilisatorischen Herausforderungen als dringlich empfunden.

Die thematische Klassensitzung vom 12. Mai 1996, moderiert von OM Große und angereichert durch Diskussionspapiere der Herren Grüß, Hogrebe, Lerchner, Nowak und Zöllner, diente der näheren Fokussierung des Studien- und Diskussionsprogramms, das sich über einen Zeitraum von fünf Jahren hinweg entfalten soll.

In der Klassensitzung vom 10. Mai 1996 eröffnete OM Rolf Lieberwirth Teil I des Studien- und Diskussionsprogramms mit seinem Beitrag „Macht, Moral und Recht“. Aus der Perspektive des Rechtshistorikers entwickelte OM Lieberwirth Grundzüge des deutschen Rechtslebens mit Schwerpunkten im Mittelalter, der Frühen Neuzeit und im 20. Jahrhundert unter dem Cantus firmus der Legitimation von Macht und Recht im Horizont der moralischen Ansprüche des einzelnen wie der Gesellschaft. Dem Vortrag folgte eine lebhafte Debatte.

Im Mai 1997 wird das Studien- und Diskussionsprogramm mit Teil II fortgesetzt.

Thema wird das durch Religion (namentlich durch das Christentum) ermöglichte und vermittelte Orientierungsverhalten sein.

 

Vortrag am 12.4.1996
Wolfgang Fritsche (Jena), Ordentliches Mitglied der Mathematisch-naturwissenschaftlichen Klasse:


„Stoffkreisläufe und Wertschöpfung der Natur“

Die Menschheit steht vor der Herausforderung, die Beziehungen zwischen Natur und Technik neu zu gestalten, um ihre Existenzgrundlagen zu bewahren. Die heutige Zivilisation beruht auf den Werten, welche durch die Evolution und erdgeschichtliche Entwicklung in Jahrmillionen geschaffen wurden. Dazu gehören die fossilen Energieträger, die Zusammensetzung der Erdatmosphäre und die Artenvielfalt der Ökosysteme.

Der Fluß der Strahlungsenergie der Sonne durch die natürlichen Stoffkreisläufe der Ökosysteme ist der entscheidende Wertschöpfungsprozeß der Natur. Darauf beruhen die vermeintlichen Gratisleistungen, reine Luft, sauberes Wasser, fruchtbarer Boden, nachwachsende Nahrungs- und Rohstoffe. Die Sonnenenergie ist die „Kraft“, die durch die Photosynthese die hochorganisierte Ordnung der Organismen und Ökosysteme immer wieder neu herstellt und weiter entwickelt.

Mit der Entwicklung des menschlichen Geistes ist der Mensch aus dem natürlichen Evolutionsprozeß herausgetreten. Die kulturelle Evolution führte zu naturwissenschaftlichen Erkenntnissen, mit deren Anwendung Mühsal, Hunger, Krankheit und Leiden in vielen Teilen der Welt gemindert wurden. Zugleich schuf sich der Mensch mit der Technik Werkzeuge, die seine Kräfte zur Naturaneignung potenzierten. Die technische Entwicklung erreicht eine Eigendynamik, die von der Naturnutzung zur Naturausbeutung führt. Es geht darum, diesen Prozeß zu erkennen und unsere Verantwortung für die Natur wahrzunehmen.

Um dem Werteverbrauch der modernen Industriegesellschaft zu begegnen, ist eine Integration der industriellen Prozesse in die natürlichen Kreisläufe notwendig. Für Naturwissenschaft und Technik ist das eine doppelte Herausforderung. Zum nach- und vorsorgenden Umweltschutz kommt die umfassende Erschließung, Nutzung und Rezyklierung nachwachsender Rohstoffe und regenerierbarer Energiequellen. Vergegenwärtigt man sich die technischen Leistungen der Vergangenheit, so werden diese Aufgaben zu lösen sein, wenn sie erkannt und umfassend in Angriff genommen werden.

Diese Aufgaben werden wir nur bewältigen, wenn wir uns als Teil der Natur verstehen. Die vielfach beschworene Einheit von Ökonomie und Ökologie bleibt eine Phrase, so lange wir die Natur nur als Ressource betrachten. Die Natur ist ein Wert an sich, der verantwortungsvolle Umgang mit der Natur ist ein Teil unserer Selbstverwirklichung, unserer Kultur. Die zunehmende Naturabhängigkeit wird zu einem tiefen Naturverständnis führen. Ein Zurück zur Natur gibt es nicht, wohl aber, durch die Einheit von Mensch, Natur und Technik, ein Voran zur Natur.

 

Vortrag am 12.4.1996
Gerhard Kaiser (Freiburg i. B.), Korrespondierendes Mitglied der Philologisch-historischen Klasse:


„Spiegelungen Christi in der Literatur. Beispiele von Goethe bis Dürrenmatt“

Die kulturelle Wirkungskraft des Christentums reicht so tief in die säkulare Welt und ihre Literatur hinein, daß noch die antichristliche Polemik der Modeme aus ihr zehrt – siehe etwa Nietzsches „Ecce Homo“. Ich gehe auf dieser Spur einigen literarischen Texten nach, die den christlichen Glaubenszusammenhang völlig verlassen, aber trotzdem, und sei es im Gegenwurf, auf das christologische Konzept des Heilsbringers und Erlösers zentral Bezug nehmen.

Am Anfang steht ein christologischer Reflex der Goetheschen Faustdichtung: die Selbststilisierung des verzweifelten Faust in der Paktszene zum Schmerzensmann, der durch seinen Dialogpartner Mephistopheles hindurch Gott selber demonstrativ die Verfehltheit und Unerlösbarkeit der Menschheit vorzuleben unternimmt. Dieser Text steht im Vorfeld der Thematik, sofern es sich hier um das temporäre Selbstverständnis einer Figur, nicht um den objektiven Weltdeutungszusammenhang des Gesamtwerks handelt, das ja in eine – freilich nichtchristliche – Erlösung Fausts mündet.

Die Beispielreihe schließt mit Friedrich Dürrenmatts Komödie „Die Ehe des Herrn Mississippi“, die als modernes Weltspiel vier Männer um Frau Welt, die große Hure, kreisen läßt. Sieger ist der Typus des ihr ebenbürtigen, hemmungslosen Opportunisten, der, jeden Umsturz überdauernd, immer am Schalthebel der Macht bleibt. Die drei anderen repräsentieren die geschichtsmächtigsten geistigen Programmentwürfe Europas: das Gesetz Mosis, den Marxismus und das Christentum. Alle scheitern, aber der Repräsentant des Christentums erfahrt eine tragikomische, äußerst provozierende Apotheose, in der er zur Mitte des Stücks wird: Seine unbedingte Liebe zu Frau Welt macht ihn nun tatsächlich zum christusförmigen Schmerzensmann einer tatsächlich unerlösbaren Welt. Christus verschmilzt mit Don Quijote, das Kreuz mit den Windmühlenflügeln. Die Vernichtung wird zur Himmelfahrt über einen molochartigen Gott hinweg. Die Liebe kann die Welt nicht erlösen, aber sie kann, indem sie sich auf sich selbst zurückzieht, auch nicht von der Welt widerlegt werden.

Zwischen diesen Extremen stehen zwei Prosawerke des 19. Jahrhunderts, die aus der Christologie Bilder einer strikt innerweltlichen Weltdeutung beziehen. Wilhelm Raabes Roman „Pfisters Mühle“ (1884) gibt der Geschichte eines der ersten Umweltprozesse in Deutschland eine apokalyptische Perspektive. Die Schlüsselgestalt, ein Chemiker, ist eine Antichristfigur: Dem die Welt reinigenden Erlöser Christus, nach biblischem Verständnis der neue, Leben bringende Erdenmann Adam, tritt August Adam Asche gegenüber: Asche ist Erde unter dem Aspekt der Trauer und des Todes, Adam ist August als neuer Weltherrscher und dummer August zugleich, weil er mit einer Großreinigungsfabrik die Welt vergiftet.

Ist der christologische Bezug hier Mittel einer radikalen Gesellschaftskritik, so wird er in Conrad Ferdinand Meyers Novelle ,,Die Versuchung des Pescara“ (1887) zum Ausdruck einer radikal pessimistischen Geschichtsdeutung. Der Held, siegreicher Feldherr Kaiser Karls V., soll nach dem Willen italienischer Patrioten, hinter denen sich doch nur fürstlich-partikularstaatliche Interessen verstecken, zum triumphierenden politischen Messias der Befreiung und Einigung Italiens werden und den Kaiser verraten. In einer Paraphrase der biblischen Versuchungsgeschichte Matthäus 4 aber ergibt sich eine zweite Christusparallele, die ihn unter das Zeichen der Passion stellt. Er hat in der siegreichen Schlacht bei Pavia eine von ihm verheimlichte, oberflächlich verheilte, aber tatsächlich tödliche „Seitenwunde“ empfangen, die ihn der Versuchbarkeit entrückt. Der Schweizer Landsknecht, der sie ihm zufügte, hat auf einem Kreuzigungsbild Modell für den Lanzenträger gestanden, der Christus am Kreuz tötet. Nach abermals siegreicher Schlacht Frieden bringend und gnädig über die Feinde des Kaisers Gericht haltend, wird Pescara zum Messia des letzten Herrn der Geschichte, des Todes.

Die in diesen wenigen Beispielen nur angedeutete säkulare Kulturbedeutung des Christentums hat auch einen innerchristlichen Aspekt. Aus großer Feme kann eine blitzartige, ja durch Verfremdung schockartige Erhellung zentraler biblischer Aussagen des Christentums stattfinden. Jedenfalls bezeugt unsere zeitgenössische Kultur auch da die Ausstrahlungskraft des Christentums, wo sie ihm den Rücken kehrt.

 

Vortrag am 15.3.1996
Horst Hennig (Leipzig), Ordentliches Mitglied der Mathematisch-naturwissenschaftlichen Klasse:


„Chemische Speicherung von Sonnenenergie – eine alternative Energiequelle?!“

Zu den Energiequellen zählt man fossile bzw. nachwachsende Brennstoffe, Wasserkraft oder die Kernspaltung. Dazu kommen alternative Quellen, die auf der direkten bzw. indirekten Nutzung von Sonnenenergie, aber vorwiegend auf physikalischen Wirkprinzipien beruhen, wie z.B. Photovoltaik, Windenergie, Gezeitenkraftwerke, Thermokollektoren sowie Wärmepumpen. Dagegen spielen Möglichkeiten einer chemischen Speicherung von Sonnenenergie gegenwärtig eine untergeordnete Rolle, obwohl die Natur mit der Photosynthese der grünen Pflanzen ein Modell bietet, das in seiner Dimension im Vergleich zu allen zivilisatorisch bedingten Stoff- und Energiewandlungsprozessen konkurrenzlos ist.

Wilhe1m Ostwald war wohl der erste, der bereits zu Beginn dieses Jahrhunderts auf die Konsequenzen einer globalen Nutzung oder Nichtnutzung der Sonnenenergie hingewiesen hat. Man muß feststellen, daß die Verwirklichung seiner Visionen heute mehr denn je zu den zentralen Aufgaben der Menschheit gehört, deren Erfüllung sowohl politischer und ökonomischer als auch wissenschaftlicher Instrumente bedarf, die sich zum gegenwärtigen Zeitpunkt jedoch immer noch im Anfangsstadium ihrer Entwicklung befinden.

Resümierend wird das gegenwärtig verfügbare wissenschaftliche Instrumentarium vorgestellt, das zum Zwecke der chemischen Wandlung von Sonnenenergie zur Verfügung steht. Das Wesen der chemischen und photochemischen Energiespeicherung, eine allgemeine Diskussion der wesentlichsten chemischen Grundlagen der Photosynthese der grünen Pflanzen und einige ausgewählte photokatalytische Systeme zur Umwandlung von solarer in chemische Energie bilden den Rahmen dieses Überblicks.

Der Grad der Energiespeicherung spiegelt sich im Wärmeinhalt einer chemischen Verbindung wider, der durch ihre Verbrennung freigesetzt und in nutzbare Arbeit umgewandelt werden kann. So kann man z.B. näherungsweise die Energiebilanz berechnen, die der Bildung von Kohlenhydraten aus Kohlendioxid und Wasser entspricht. Der Betrag von 2830 kJ entspricht der gespeicherten Energie, die wiederum bei chemischen Umsetzungen von Kohlenhydraten (C6H1206) zum Teil nutzbar gemacht werden kann, z.B. zur Aufrechterhaltung von Stoffwechselvorgängen.

Eine Energiespeicherung erfolgt unter photochemischen Bedingungen über eine sogenannte elektronische Anregung, die zu einer direkten Umwandlung von photonischer in chemische Energie führen kann, die im Produkt gespeichert ist.

Für die Initiierung chemischer Reaktionen durch elektronische Anregung mittels solarer Photonen ist zu berücksichtigen, daß die auf die Erde eintreffende Sonnenstrahlung arm an energiereicher ultravioletter Strahlung ist. Die Konsequenzen, die sich aus dieser Energieverteilung für photochemische Reaktionen ergeben, liegen darin begründet, daß nur solche chemische Verbindungen einer direkten elektronischen Anregung unterliegen können, die in der Lage sind, relativenergiearme Photonen zu absorbieren und für chemische Umsetzungen zu nutzen. Diese Bedingungen sind in hohem Maße bei der Photosynthese der grünen Pflanzen erfüllt.

Sehr vereinfacht handelt es sich nach Ostwald bei der Photosynthese um unterschiedliche, durch „Sonnenlicht angetriebene Mühlen“ (Photosystem I und II), die Elektronen und Protonen aus Wasser (unter Bildung von O2) auf das energetische höhere Niveau von Kohlendioxid unter Bildung eines hochreaktiven H2CO-Synthesebausteins „pumpen“, der dann zu Kohlenhydraten, d.h. zu den Brennstoffen der Pflanzen umgesetzt wird.

Im Prinzip entspricht die Photosynthese einer chemischen Energiespeicherung, die auf einem extrem trickreichen System zur lichtgetriebenen Elektronen- und Protonenübertragung von Wasser auf Kohlendioxid beruht und eine Umwandlung von Sonnenenergie in chemische Energie sowie deren Speicherung in Form von Kohlenhydraten ermöglicht.

Einige ausgewählte chemische Wirkprinzipien, die dem Ziel einer Umwandlung von Sonnenenergie in chemische Energie bzw. einer chemischen Transformation von Sonnenenergie in andere nutzbare Energieformen dienen, repräsentieren den gegenwärtigen Stand der Forschung auf diesem Gebiet. Dafür gibt es die unterschiedlichsten Ansätze. Für die Umwandlung in nutzbare Energie stehen die photokatalytische Spaltung von Wasser in Wasserstoff und Sauerstoff (Knallgaserzeugung z.B. zur direkten bzw. indirekten Erzeugung von Elektrizität) oder zu Wasserstoff (der aus verschiedenen Gründen einfachere Weg), die photoelektrochemische Erzeugung von elektrischer Energie oder die Speicherung auf dem Wege von Molekülumlagerungen, die thermisch auf katalytischem Wege unter Abgabe von Wärmeenergie rückgängig gemacht werden können, im Mittelpunkt vielfältigster Untersuchungen. Einer indirekten chemischen Energiespeicherung dient die Nutzung von Sonnenenergie für photochemische bzw. photokatalytische Stoffwandlungsprozesse mit dem Ziel der Hoch- bzw. Höchstveredlung von einfachen Synthesebausteinen.

Die prinzipielle Bedeutung von solaren Photonen für eine chemische Energiespeicherung (z.B. auf dem Wege einer Wasserstofftechnologie) sowie zur Entwicklung einer „sanften Chemie“, insbesondere zur Hoch- und Höchstveredlung bestimmter Rohstoffe, wird in absehbaren Zeiträumen zu einer völlig neuen strategischen Bewertung des Umgangs mit der Sonnenenergie führen.

 

Vortrag am 15.3.1996
Friedmar Kühnert (Jena), Ordentliches Mitglied der Philologisch-historischen Klasse:


„Enkyklios paideia – Grenzen und Möglichkeiten der antiken Allgemeinbildung“

Der Bildungskanon der Septem artes liberales ist als ἐγϰύϰλιος παιδεία in Griechenland bereits in frühhellenistischer Zeit, am Ende des 4. Jhs. v. Chr., entstanden. Das ideale Ziel der ἐγϰύϰλιος παιδεία war ein allgemeinbildender höherer Unterricht in den drei Wortwissenschaften Grammatik, Rhetorik und Dialektik und den vier Zahlenwissenschaften Arithmetik, Geometrie, Astronomie und Musik. Als im Lauf der fortschreitenden Hellenisierung auch in Rom die Unterweisung in den Fächern der ἐγϰύϰλιος παιδεία das Ziel des höheren Jugendunterrichts wurde, brauchte man lateinische Handbücher, Kompendien der ἐγϰύϰλιος παιδεία die dem Studium der Artes liberales zugrunde gelegt werden konnten. Aus diesem praktischen Bedürfnis heraus entstanden die lateinischen Enzyklopädien der Artes liberales. Die früheste derartige Enzyklopädie sind die Disciplinarum libri IX des M. Terentius Varro, die in den letzten Jahren der römischen Republik entstanden sind. Aber bereits anderthalb Jahrhunderte früher hatte der ältere Cato mit seinen Libri ad filium eine Enzyklopädie von Bildungsfächern verfaßt, die im Gegensatz zur griechischen ἐγϰύϰλιος παιδεία nach Inhalt und Zielsetzung einen nationalrömischen Charakter trug. In ihr waren die vier Fächer Landwirtschaft, Heilkunde, Redekunst und Kriegswesen behandelt. Aber Cato ist mit seiner Konzeption einer national-römischen Bildung gescheitert. Die bereits erwähnte Enzyklopädie des M. Terentius Varro zeigt dies augenfällig. Varro hatte in seinen Disciplinarum libri IX in den ersten sieben Büchern die traditionellen sieben Artes liberales behandelt, denen er in den beiden letzten Büchern die beiden Fächer Medizin und Architektur folgen ließ. Aber während Cato mit seiner Enzyklopädie die griechische ἐγϰύϰλιος παιδεία noch überflüssig machen und ersetzen wollte, sicherte Varro durch die lateinische Bearbeitung der ἐγϰύϰλιος παιδεία dem griechischen Bildungssystem endgültig seinen Platz in der römischen Welt.

Die Septem artes liberales galten als die allein eines freien Mannes würdigen Disziplinen, im Gegensatz zu den Artes banausoi, d.h. der verachteten Tätigkeit desjenigen, der, wie z.B. der Handwerker, einen Beruf zur Bestreitung des Lebensunterhalts ausübt. Die traditionelle Einteilung in freie Künste und handwerksmäßige, banausische Künste wurde jedoch bald als ungenügend empfunden. Eine Reihe von angesehenen Artes, wie z.B. die Medizin, die Architektur und die Jurisprudenz, gehören nicht zu den Artes liberales, ließen sich aber auch nicht den τἐχναι ϐάνανσοι zuordnen. Indem man nun versuchte, diese Disziplinen unter die „Freien Künste“ einzureihen, wollte man ihnen vor allem zu einer höheren Bewertung und Anerkennung verhelfen. Aber alle derartigen „Anbauversuche“ an die traditionellen Artes liberales blieben auf die Dauer erfolglos.

Der Bildungskanon der „Sieben freien Künste“ hat eine erstaunliche Konstanz bewahrt. Von seiner Entstehung am Ende des 4. Jh. v. Chr. an ist er bis zum Ausgang der Antike unverändert geblieben. Sein Ziel war es, die geistigen Fähigkeiten des Menschen zu entwickeln, da der Verstand als das wesentliche Charakteristikum des Menschen angesehen wurde. Diese intellektuelle Bildung bedeutete nach antiker Auffassung zugleich eine musisch-ästhetische und eine ethische Erziehung des Menschen. Das Denken zu schulen, darüber hinaus dem Menschen eine gewisse geistige Kultur zu verleihen und somit die Bildung des Menschen zu einer Bildung zum Menschen werden zu lassen, das war das ideale und ursprüngliche Ziel der antiken Allgemeinbildung.

 

Vortrag am 9.2.1996
Dagmar Hülsenberg (Ilmenau), Ordentliches Mitglied der Mathematisch-naturwissenschaftlichen Klasse:


„Glastechnologien für Recyclingaufgaben“

Eingangs wird begründet, daß ein Kreislauf (Recycling) auch für Feststoffe eine wesentliche Voraussetzung für den Erhalt einer intakten Umwelt darstellt. Es leitet sich ab, daß zufriedenstellende Lösungen durchaus in einer sicheren Deponie auf der Basis remineralisierter Reststoffe bestehen können, das Ziel sollte jedoch die Wiederverwertung von Reststoffen in neuen, anspruchsvollen Produkten mit akzeptablen Marktchancen sein.

Im Vortrag wird begründet, daß der Einbau von Schwermetallkationen in Silikatstrukturen die gegenwärtig sicherste Methode zur Immobilisierung von Schadstoffen darstellt. Daraus resultiert das Interesse für die Verglasung von Reststoffen. Während bereits in Betrieb befindliche Anlagen zur Abfall- und Reststoffverwertung lediglich auf das Einschmelzen der Schadstoffe in silikatische Schlacken orientieren, geht die Forschung den Weg, aus der silikatischen Schmelze neue Werkstoffe zu erzeugen.

Fragen der Erreichung konstanter Zusammensetzungen der Eingangsstoffe in die Schmelzanlage stehen ebenso zur Lösung an wie die Probleme aus der geringen Wärmeleitfahigkeit der nichtmetallischen Schmelzen bei gleichzeitigem Fehlen des Wärmetransports durch Strahlung, wie er für die „normale“ Glasschmelze und -formgebung üblich ist.

Im Vortrag werden verschiedene Reststoffe mit ihren Besonderheiten und anhand konkreter Beispiele Wege zur Erzeugung neuer Werkstoffe und Erzeugnisse durch Verglasung vorgestellt. Dazu gehören u.a. strahlenabsorbierende Glasseide und Erzeugnisse daraus, Sonnenkollektorbaugruppen, spezielles Architekturglas, aber auch elektrisch gut isolierende, relativ alkali- und temperaturbeständige, schwarze Glaserzeugnisse in kompakter und Fadenform für technische Einsatzgebiete.

 

Vortrag am 9.2.1996
Bernhard Kölver (Leipzig), Ordentliches Mitglied der Philologisch-historischen Klasse:


„Hinduistische Planungen von Wohnhaus und Siedlung“

Der Vortrag greift einen Komplex aus der großen Menge typologisch unbekannter Handschriften heraus, die durch die Verfilmungsarbeiten des Nepal – German Manuscript Preservation Project der Forschung zugänglich geworden sind. Eine nicht ganz kleine Gruppe unter ihnen berührt Gebiete, für die wir bisher aus dem indischen Subkontinent praktisch keine älteren Quellen hatten. Das ist das Alltagsleben im weitesten Sinn. Natürlich: Es gibt die literarischen Quellen, weitgehend auf Sanskrit abgefaßt; wir können aber nicht so gut ermessen, ob diese in aller Regel gelehrten Traktate praktizierte Wirklichkeit spiegeln oder theoretisch-normierend die sich aus den Prinzipien des Hinduismus ergebenden Idealvorstellungen zu Papier bringen.

Was nun nach und nach ans Licht kommt, ist ungemein vielfältig: Schuldscheine, Landverkäufe, Testamente, Erbteilungen und dergleichen; dazu etliches an voluminösen Abrechnungen von Projekten des königlichen Hofs bzw. des Staates: Bauten sehr nenneswert vertreten. Damit läßt sich die Frage nach der Realität von Vorschriften erneut stellen, und sie wird sich jedenfalls für einige Aspekte des Alltagslebens mit einer gewissen Sicherheit beantworten lassen. Es versteht sich, daß die Schlüsse zunächst lediglich für diese eine Region Nepal, am nördlichen Saum des hinduistischen Kulturraums gelegen, Gültigkeit haben.

Erläutert wurden zwei bislang singuläre Handschriften, die Nutzungspläne für Baugrundstücke enthalten. In normierte Grundstücke standardisierter Größe sind mit erheblicher Akkuratesse verschiedene Hausformen als Diagramme eingezeichnet, 99 bzw. 110 Stück; jedes Diagramm ist durch einen kurzen Text in newarischer Sprache erläutert, der die jeweilige Form deutet. Dergleichen verlockt natürlich zu semantischer Untersuchung. Wesentlich sind dabei zunächst zwei Aspekte.

Erstens die Ausrichtung der Gebäude. Die geht aus von der in ihren Grundzügen bekannten hinduistischen Semiotik der Richtungen (Typ Öffnung im Norden bedeutet Reichtum, Öffnung nach Süden Tod usw.); durch ihre große Zahl und ihre Variationsbreite erlauben es die Diagramme, die Lehre von der Bedeutung der Himmelsrichtungen präziser zu fassen.

Zweitens die Bauformen selbst. Absolut dominierend das Prinzip Atrium, gebaut um den Innenhof (das einzige Beispiel für den hierzulande üblichen Kompaktbau ist unglückverheißend). Der Hausgrundriß gibt sich also als Wall, der den Lebensraum einer Familie gegenüber dem Außen abgrenzt – was sich in der Ausstattung traditioneller Bauten fortsetzt: An den Außenwänden winzige, mit hölzernem Schnitzund Gitterwerk förmlich versperrte Fenster; in den Innenhof führen niedrige, lange, dunkle Passagen; erst wenn der erreicht ist, entfaltet sich, zum Innenhof hin, Reichtum und Kunstsinn des Bauherrn. Geht man fehl, wenn man ein derartiges Arrangement als Reflex der bekannten hinduistischen Restriktionen im Umgang mit Fremden begreift?

Und nun ließe sich fortfahren, mit zahlreichen Problemen des Details: Erbteilungen, Nutzung der Freiflächen, An- und Nebenbauten usw. Weiter auszuholen, Implikationen ins Auge zu fassen scheint fast noch wichtiger. Sollte jene Semiotik, die die Nutzung eines einzelnen Grundstücks bestimmt, nicht auch auf größere Einheiten anzuwenden sein? Etwa auf Stadtteile, in denen ja bekanntlich einzelne Berufsgruppen zusammensiedeln? Und wenn dem so wäre, müßte man nicht mit großflächiger Planung rechnen; in wessen Hand hätte sie gelegen; ist das vielleicht das missing link zu den idealisierten, ein wenig papieren wirkenden Stadtplänen, wie sie in den Sanskrittexten zur Architektur überliefert sind?

Robert Heine-Geldern hat uns am Beispiel der religiösen Großbauten Südostasiens gelehrt, auf die Beziehungen zwischen Weltbild und Bauform zu achten. Die nepalischen Diagramme stammen gewissermaßen vom anderen Ende des sozialen Spektrums: sie geben Lösungen für den schlichten Alltagsbau. Die Diagramme zeigen ein Stück davon, wie auch das Haus des Normalbürgers bis ins Detail die Leitvorstellungen der Gesellschaft reflektiert.

 

Vortrag am 12.1.1996
Rudolf Růžička (Leipzig), Ordentliches Mitglied der Philologisch-historischen Klasse:


„Sprache und Sprecher“

Im Titel des Vortrags wird das „Sprache und Sprecher“ verbindende Spannungsverhältnis angekündigt, das facettenreich zur Sprache gebracht wird. Die Spannung zwischen der ruhenden Sprachkompetenz, dem Besitz einer Sprache, der Wissen darstellt, das selbst kein Wissen besitzt, und dem Gebrauch, den der Sprecher von seinem sprachlichen Wissen macht, folgt aus einem anderen Spannungsverhältnis:

Es besteht zwischen dem riesigen grammatischen Aufwand der adäquaten Beschreibung einer Sprache und der erstaunlichen Schnelligkeit des natürlichen kindlichen Spracherwerbs. Dieses Spannungsverhältnis wiederum führte zur Annahme einer Universalgrammatik, die sich überdies als genügend restriktive Theorie den vielen deskriptiven Optionen kontrollierend an die Seite stellen ließ.

Die Spannung zwischen der ruhenden Sprachfähigkeit, Chomskys I-Sprache, und den aktuellen Sprachhandlungen, der Verwendung des sprachlichen Besitztums als Versuche zur Versprachlichung von Dingen und Geschehnissen, ist der allgemeine Grund für das kritische Verhältnis von Information in natürlicher Sprache und „Rhetorik“. Subtile semiotische Verschiebungen können im selbstkritischen Verständnis und Eingeständnis als hinreichend gelten, um politische Wendungen oder Positionen glaubhaft zu machen. In gewöhnlichen kommunikativen Situationen bedient sich ein Gesprächspartner jedes verfügbaren Mittels, um die Intention des anderen zu erkennen, die das sprachliche Verstehen allein nicht preisgibt. Umgekehrt kann der bemühte Verzicht auf die der natürlichen Sprache eigenen Bereiche unscharfer aber unverzichtbarer Information am spontanen Sprachbewußtsein abgleiten, wie der Fehlschlag der 1975 autorisierten Neuübersetzung des Lutherschen Neuen Testaments demonstriert. Die intellektuellen Kräfte keiner gesellschaftlich-sozialen Strukturbildung können sich der Versuchung entziehen, Sprache für sich zu verwenden, Nuancen und Konnotationen aus dem lexikalisch-strukturellen Angebot so auszuwählen, daß Wertungen suggeriert oder insinuiert werden. Die Transparenz der „Logokratie“ (A. Besancon) totalitärer Systeme hebt sich von subtil-ingeniöser Manipulation unter freiheitlichen Bedingungen ab. Geglückte wie verfehlte Instrumentalisierung von Formulierungskunst und -künsten kann durch geschärfte sprachliche Beobachtung, durch Textanalyse durchschaut und interpretiert werden. Nach einem Wort von Werner Krauss darf man die schwer handhabbare „ … schwer berührbare Sprache nicht vorschnell zum entlastenden Anwalt für die Sprecher machen“.

 

Vortrag am 12.1.1996
Hermann Berg (Jena), Ordentliches Mitglied der Mathematisch-naturwissenschaftlichen Klasse:


„Elektrostimulation in der Zellbiologie. „Feldfenster“ und ihre Bedeutung für Umweltfelder“

Der langwellige, niederfrequente Bereich unterhalb des sichtbaren Lichtes ist nichtionisierend – im Gegensatz zu Röntgenstrahlen – und kann doch Wirkungen auf Lebewesen ausüben, wenn man von reinen Wärmeeffekten im Ultrarotgebiet absieht.Besonders häufig reagieren Zellen dabei auf elektrische und magnetische Felder der Frequenzen zwischen 3 und 300 Hz sowie im Bereich modulierter Ultrakurzwellen und Mikrowellen (MHz – GHz). Allein in der Zellbiologie wurde eine Fülle von Phänomenen beschrieben, die überwiegend Steigerungen erbrachten bei

  • Zellwachstum,
  • Enzymaktivität,
  • Membrantransport,
  • Biopolymersynthesen.

Dabei zeigten sich elektrische Feldstärken kleiner als 1 mV/em und magnetische Felder vergleichbar mit dem Erdmagnetismus (etwa 0,4 mT) noch als stimulierend oder zuweilen hemmend auf genannte Zellprozesse. Im Laboratorium werden vorzugsweise Helmholtzspulen bis zu 10 mT betrieben, wobei störende Umweltfelder abzuschirmen sind. Zunächst kommt es darauf an, die Resonanzen der Zelle, die ein eigenes elektrisches Feld produziert, aufzufinden, d.h. ihre spezifischen „Feldfenster“. Nachdem in der Vergangenheit nur stichpunktartig (z.B. mit 50 Hz bei 0,5 mT) stimuliert wurde, ist es jetzt erforderlich, die drei Parameterbereiche von

  • Frequenz (10–100 Hz),
  • Amplitude (0,1–10 mT; 0,01–1 mV/em),
  • Einwirkungsdauer (1–100 min)

reproduzierbar zu messen, abgesehen von den definierten biologischen Bedingungen (möglichst in Synchronkulturen), um ein umfasenderes Bild zu erhalten. Gleiches gilt für Versuche mit Pflanzen und Tieren, deren Melatoninausschüttung beispielsweise vermindert, die Ornithindekarboxylase-Synthese dagegen gesteigert wird, was für die Krebspromotion durch Umweltfelder in Betracht zu ziehen wäre. Die Einflüsse von Umweltfeldern, ausgehend von Hochspannungsgeneratoren bis zu Mobiltelefonen, sind teilweise in der gleichen Größenordnung wie bei Laborexperimenten. Jedoch ist eine Langzeitwirkung auf den Menschen nur aus epidemiologischen Statistiken zu ermitteln, wobei noch andere Umweltnoxen eine Rolle spielen. Trotzdem werden daraus lokale (Hochspannungsleitungen) und berufliche (Elektrizitätsarbeiter, Radarbetreiber) Risiken signifikant, weshalb in einigen Industriestaaten – schließlich auch in Deutschland – Verordnungen erlassen worden sind zu oberen Grenzwerten in Wohngebäuden und an Arbeitsplätzen.

Zusammenfassend kann gesagt werden:

  • Diesseits des sichtbaren Lichtes sind die niedrigeren Frequenzen für noninvasive Untersuchungen in den Biowissenschaften und in der Medizin – über Kernmagnetische Spektroskopie und Kernmagnetische Tomographie hinausgehend nutzbar geworden.
  • Andererseits bergen technische Feldstärken gesundheitliche Gefahren in sich.
Termine
Horst-Michael Prasser: Basisinnovation bei Kernreaktoren 16.01.2017 18:30 - 20:00 — TU Dresden, Festsaal des Rektorats, Mommsenstr. 11, 01069 Dresden
Forum "Offenes Land - offene Fragen" 08.02.2017 18:00 - 20:00 — Karl-Tauchnitz-Str. 1, 04107 Leipzig