Plenarvorträge 1991

 

Vortrag am 13.12.1991
Hermann Berg (Jena), Ordentliches Mitglied der Mathematisch-naturwissenschaftlichen Klasse:

 

„Entwicklungen der Bioelektrochemie“

Elektrische Phänomene bei Lebewesen waren schon den Ägyptern bei der Therapie von rheumatischen Erkrankungen mittels Spannungspulsen „elektrischer Fische“ bekannt, aber erst mit Johann Wilhelm Ritter (1776–1810) begann die systematische Erforschung dieser Vorgänge in Jena, angeregt durch L. Galvani und A. Volta.

Im 19. Jahrhundert bis zur Mitte des 20. Jahrhunderts entwickelte sich die Elektrophysiologie in steigendem Maße, während erst in den letzten Jahrzehnten die molekularbiologischen Grundlagen erforscht wurden, mit dem generellen Ergebnis, daß alle Lebensvorgänge ohne die drei bioelektrochemischen Fundamentalreaktionen Elektronenübergänge, Ionenverschiebungen und elektromagnetische Feldwirkungen nicht ablaufen können.Als bedeutendste Stoffwechselprozesse, beruhend auf diesen Fundamentalreaktionen, sind u.a. zu nennen: Photosynthese, Anaerobiose, Atmungskette, Nervenreizleitung. Hierbei sind zahlreiche Zellkomponenten involviert, welche bioelektrochemisch überwiegend reversibel verändert werden, und zwar im Organismus durch

  • Redoxreaktionen: bei Effektoren, Kofaktoren (z.B. NAD, Chinone),
  • Ionenbindung: bei Nukleinsäuren (z.B. Farbstoffe, Antibiotika, Schwermetallionen),
  • Katalyse: bei Enzymen (z.B. Substratkomplexe),
  • Membrantransport: bei ATPase etc. (Alkalimetallionen, Kalzium),
  • Depolarisation: Nervenreize (Aktionspotentiale).

Diese Prozesse lassen sich durch äußere elektrische und magnetische Felder modifizieren, wobei zwischen morphologischen und chemischen Veränderungen zu unterscheiden ist.Im Laboratorium Bioelektrochemie des Instituts für Molekulare Biotechnologie (Jena) werden beide Richtungen weiterentwickelt unter folgenden Bedingungen:

  1. Morphologische Beeinflussungen erfolgen durch starke Einzelimpulse (Feldstärken > 0,5 kV/cm), wobei die Zellwand lädiert wird und in der Plasmamembran zumeist reversible Poren gebildet werden, durch welche Substanzen (einschließlich genetischen Materials) leichter in beiden Richtungen penetrieren können (Elektroporation, Elektroinkorporation, Elektrotransfektion). Werden solche porierten Zellen in engen Kontakt gebracht, so kommt es zur Elektrofusion mit höchster Ausbeute, was in der modernen Genetik steigende Anwendung findet.
  2. Stoffwechselveränderungen in der Zelle können durch Wechselströme bewirkt werden, zumeist im niederfrequenten Bereich durch direkte Ankopplung mittels Elektroden in der Zellsuspension oder durch induzierte Ströme im mV-Bereich, erzeugt durch Helmholtzspulen mit magnetischen Flüssen unter 10 mT. Mittels dieser Elektrostimulation konnten bisher aktiviert werden: Biopolymersynthesen, Zellteilungen, Membranpermeationen, Enzymreaktionen, was anhand weniger Beispiele in der Tabelle gezeigt wird.

Diese verschiedenartigen Effekte können von den heutigen Modellvorstellungen leider nur ungenügend gedeutet werden. Da ähnlich schwache elektromagnetische Felder in der Nähe starker Stromquellen (Hochspannungsleitungen) auf die Gesundheit des Menschen negativ einwirken können, sollte diesem industriellen „Elektrosmog“ auf jeden Fall vorgebeugt werden. Aus diesen Ergebnissen wird deutlich, daß sich hiermit neue Möglichkeiten der Beeinflussung nicht nur von Lebensprozessen, sondern auch für die medizinische Behandlung ergeben.

Tabelle:

DNA Synthese in Lymphocyten  50 Hz, 5 mT  Steigerung +20%
 m-RNA Synthese in Lymphoma  60 Hz, 0,01 mT  Steigerung +30%
 Collagen Synthese in Fibroblasten  15 Hz, 1,6 mT  Steigerung +60%
 ATP Synthese in Hefe  80 Hz, 1,8 mT  Steigerung +108%
 Ca++ Aufnahme bei Lymphocyten  60 Hz, 22 mT  Steigerung + 170%
 Proliferation in Lymphocyten  75 Hz, 4 mV/cm  Steigerung +40%
 Proliferation in Melanoma  15 Hz, 2 mT  Hemmung -30%

         
                         

Vortrag am 13.12.1991
Eberhard Poppe (Halle-Wittenberg), Ordentliches Mitglied der Philologisch-historischen Klasse:


„Die verfassungsrechtliche Stellung des Freistaates Sachsen als Bundesland“

Auf der Grundlage des Grundgesetzes für die Bundesrepublik Deutschland wird die Stellung des 1990 wiederbegründeten Freistaates Sachsen als Mitglied der Föderation charakterisiert. Zunächst werden Wesensmerkmale einer Föderation und das Verhältnis von Bundesverfassung zur sächsischen Landesverfassung dargestellt, zu Fragen der Selbstbestimmung, des verfassungsrechtlichen Volksbegriffs und der Möglichkeit der Sezession Stellung genommen. Es werden die verfassungsrechtlichen Beziehungen zwischen Bund und Land, insbesondere die Rechte und Pflichten des Freistaates Sachsen als eigenständigen Gliedstaates des Bundes untersucht. Schwerpunkte hierbei sind die Vertretung Sachsens im Bund, die Finanzverfassung, die Instrumentarien zur Konflikt- und Streitbeilegung und der Spielraum für eine Außenpolitik Sachsens und eine eigene Landesstaatsangehörigkeit. Abschließend wird der Grundsatz der Bundestreue und des bundesfreundlichen Verhaltens gewürdigt.

 

Vortrag am 15.11.1991, Öffentliche Gesamtsitzung
Kurt Nowak (Leipzig), Ordentliches Mitglied der Philologisch-historischen Klasse:


„Der umstrittene Bürger von Genf. Zur Wirkungsgeschichte Rousseaus im deutschen Protestantismus des 18. Jahrhunderts“

Die kleine Studie möchte einen Beitrag zur Rousseaurezeption in Deutschland vom Erscheinen des ersten Discours (1749/50) bis zum Tode Rousseaus im Jahre 1778 leisten, geht aber auch auf einige Entwicklungen bis zum Ende des 18. Jahrhunderts ein. Der spezielle rezeptions geschichtliche Blick ist auf evangelische Theologen und Kirchenmänner gerichtet. Es sind drei Beispiele der Rousseaurezeption, welche im Mittelpunkt der Betrachtung stehen:

  1. Die scharfe Zurückweisung des im ersten Discours sichtbaren zivilisatorischen Paradigmenwechsels durch den damaligen Baccalaureus und nachmals sehr bekannten Aufklärungstheologen Wilhelm Abraham Teller. Teller ist 1752 im Rahmen einer von J. C. Gottsched im Philosophischen Hörsaal der Universität Leipzig anberaumten „Rednerhandlung“ gegen Rousseau in die Schranken getreten.
  2. Das zweite rezeptionsgeschichtliche Beispiel bezieht sich auf den Göttinger Theologen Gottfried Leß. Leß hat sich mit der Auffassung Rousseaus über die Wunder des Neuen Testaments auseinandergesetzt, wobei er zur Theologie und Religionsphilosophie Rousseaus eine ambivalente Position einnahm. Er rechnete ihn zwar nicht zu den „Feinden des Christentums“ wie z.B. Voltaire, wollte ihn aber auch nicht als seriösen Gesprächspartner der Theologie anerkennen. Da Rousseau zu Beginn der 1760er Jahre sowohl in Genf wie in Paris als gottlos geächtet und verfolgt worden war, bedeutete die sehr kritische, gleichwohl nicht verdammende Auseinandersetzung von Gottfried Leß mit Rousseau in gewisser Weise eine In-Schutz-Nahme des unbequemen Denkers.
  3. Einen dritten Typus der Rousseaurezeption repräsentiert der Berliner Aufklärungstheologe Johann Joachim Spalding, in dessen Werk viele direkte und indirekte Einflüsse Rousseaus spürbar sind. Die augenfälligste Spur Rousseaus findet sich bei Spalding in den „Vertrauten Briefen, die Religion betreffend“. Spalding stimmte mit Rousseau in dessen düsteren zivilisationstheoretischen Perspektiven überein und setzte das Rousseausche Thema des Widerspruchs von Sein und Schein, von Selbstfindung und Selbstverlust des Menschen im Labyrinth der Zivilisation auf überraschende Weise fort – überraschend deshalb, weil die protestantische Aufklärungstheologie sich ansonsten weithin dieser von ihr als Narrheit und Paradoxie gebrandmarkten Perspektive verweigert hat.
  4. Jean-Jacques Rousseau ist im Bewußtsein der neueren Theologie- und Kirchengeschichte mit großer Selbstverständlichkeit gegenwärtig. Eine Forschungstradition, die sich mit der Wirkungsgeschichte Rousseaus im deutschen Protestantismus des 18., dann aber auch des 19. und 20. Jahrhunderts beschäftigt, gibt es demgegenüber leider noch nicht. Der Beitrag über den „umstrittenen Bürger von Genf“ stellt den Versuch eines Anfangs in diese Richtung dar.

 

Vortrag am 11.10.1991
Herbert Krug (Freiberg), Ordentliches Mitglied der Mathematisch-naturwissenschaftlichen Klasse:


„Braunkohlenhochtemperaturkoks – seine rohstoffliche Basis und Qualität“ *

Vom Amt für Erfindungs- und Patentwesen der ehemaligen DDR ließen sich Dr. Ing. G. Bilkenroth und Prof. Dr.-Ing. E. Rammler am 8. Juli 1952 mit der Patentschrift Nr. 4630 folgendes Verfahren patentieren: „Verfahren und Vorrichtung eines stückigen Hochtemperaturkokses von hoher Druck-, Abriebs- und Sturzfestigkeit aus Braunkohlenbriketts“.

Das Patent ist die Quintessenz vieler Untersuchungen, die zum Ziele hatten, einen für metallurgische und andere Zwecke brauchbaren Koks zu erzeugen. Das war damals unter den Entwicklungsbedingungen der DDR, die über so gut wie keine Steinkohlenvorkommen, aber über große Braunkohlenvorkommen verfügte, eine nahezu zwingende Aufgabe. Um Kokse mit möglichst niedrigem Aschegehalt und geringem Schwefelgehalt herstellen zu können, wurden die Braunkohlenlagerstätten der Niederlausitz ausgewählt. Gestützt auf die umfassenden Ergebnisse geologischer, chemischer und technologischer Kohle- und Koksuntersuchungen, konnte am 14. Juni 1951 der erste Koksofen der im Bau befindlichen Großkokerei Lauchhammer angefahren werden. Der nun erstmals in der Welt im einstufigen Verkokungsverfahren großtechnisch erzeugte BHT-Koks erfüllte die von der metallurgischen Industrie und anderen Abnehmern gestellten Erwartungen. Natürlich war man sich darüber im klaren, daß wegen der stofflich gravierenden Unterschiede der Kohlen in der Inkohlungsreihe aus Braunkohlen kein Koks von der Güte eines Steinkohlenkokses herstellbar ist.

In der Abhandlung wird versucht, die Leistungen der bei den Wissenschaftler anhand ihrer wissenschaftlich-technischen Arbeiten skizzenhaft zu umreißen und Wege und Richtungen aufzuzeigen, die eingeschlagen werden mußten, um mit dem Verfahren eine hohe Koksqualität zu sichern.

Die geologischen, petrologischen, chemischen, physikochemischen und technologischen Untersuchungen der Kohlen hinsichtlich ihrer Mikrolithotypen, ihrer chemischen Struktur und ihres reaktionstechnischen Verhaltens, etwa dem Ablauf der Brikettpyrolyse, wurden an der Bergakademie Freiberg, später auch am Brennstoffinstitut Freiberg und der Forschungs- und Entwicklungsabteilung der Großkokerei Lauchhammer durchgeführt. Das betrifft auch die Güte der erzeugten Kokse, die von der Druck- und Abriebfestigkeit bestimmt wird.

Diese ganzen Untersuchungen, wie auch die älteren und neueren Theorien zur Brikettierung der Weichbraunkohlen werden im Überblick behandelt. Eingehend erläutert werden die chemische Struktur der Braunkohle und ihre Fähigkeit zur leichten Knüpfung von Wasserstoffbrücken, deren Ursache mit dem hohen Carboxyl- und Hydroxylgruppengehalt im Zusammenhang steht. Die Ausbildung von Wasserstoffbrückenbindungen mit und ohne Einschaltung von Wassermolekülen ist bei Braunkohle offensichtlich ein wesentlicher Faktor, der die bindemittellose Brikettierung begünstigt und auch die Festigkeit der Kokse beeinflußt, die aus den Briketts durch Pyrolyse gewonnen werden.

Seit Inbetriebnahme der Großkokerei Lauchhammer im Jahre 1952 hat man ständig an der Verbesserung der BHT-Koksqualität bearbeitet. So wurde in den achtziger Jahren ein Pyrolysebrikett mit der 4- bis 8fachen Festigkeit gegenüber den herkömmlichen Briketts entwickelt. Es entgast im Pyrolyseprozeß bei gleichzeitiger stofflicher Wandlung durch Schrumpfung, wobei der Preßling nicht zerstört wird, sondern als hochfestes Koksstück mit einer Druckfestigkeit von über 70 MPa erhalten erhalten bleibt.

Erich Rammler nahm noch im hohen Lebensalter regen Anteil an diesen Untersuchungen, bis er am 6. November 1986 nach einem erfüllten Leben seine Augen schloß.

* Der Vortrag faßt eine Schrift zusammen, die Herbert Krug gemeinsam mit Karl-Heinz Rentrop (Freiberg) unter folgendem Titel verfaßt hat: „Die Erzeugung eines hoch festen, grobstückigen Braunkohlenhochtemperaturkokses (BHT-Koks) im einstufigen Verfahren nach Bilkenroth-Rammler - eine komplexe Aufgabe. (Ein Beitrag. der dem Gedenken an die beiden hervorragenden Forscher auf dem Gebiet der Braunkohlenveredlung Erich Rammler (1901–1986) und Georg Bilkenroth (1898–1982) gewidmet ist)“. Sonderdruck der Bergakademie Freiberg vom März 1991, 40 S. – Herr Rentrop hat nach dem Ableben Herbert Krugs auf der Grundlage dieser Schrift die vorliegende Kurzfassung erstellt, wofür ihm hier gedankt sei.

 

Vortrag am 11.10.1991
Dieter Wittich (Leipzig), Ordentliches Mitglied der Philologisch-historischen Klasse:


„Bedeutung und Grenzen von Alltagserfahrungen“

Für das Funktionieren moderner Gesellschaften behauptet Wissenschaft einen zunehmend gewichtigeren Platz. Selbst in das Privatleben sind Produkte und Normen wissenschaftlichen Ursprungs längst eingezogen. Menschliche Alltagserfahrungen aber sind weder durch eine wissenschaftliche Methodik geleitet noch sind ihre Subjekte zumeist imstande, sie wissenschaftlich zu werten. Welchen kognitiven Wert besitzen Alltagserfahrungen dann noch für eine moderne Gesellschaft? Diese Frage ist nicht zuletzt für die Bewertung demokratischer Verhältnisse von Belang. Können durch letztere mit den Alltagserfahrungen für die Gesellschaft kognitive Potenzen erschlossen werden, die ohne solche Verhältnisse der Öffentlichkeit vorenthalten bleiben müßten?

Namentlich in der deutschen Philosophie hat Erfahrungswissen nur selten Protagonisten gefunden. Viel häufiger wurde hier auf seine kognitiven Grenzen und Mängel verwiesen. Letztere sind unbestreitbar, ebenso, daß solche Mängel für antidemokratische Zwecke genutzt werden können (z.B. bei der Erhebung des „gesunden Volksempfindens“ zur höchsten richterlichen Instanz). Dennoch ist Alltagserfahrung für jedes menschliche Handeln unverzichtbar, auch für jenes, das vorwiegend wissenschaftlichen Einsichten folgt. Der Grund hierfür wird in der Spezifik wissenschaftlichen Erkennens gesehen. Sein Absehen von Besonderheiten, Zufälligkeiten, Unregelmäßigkeiten usw. löst bei der praktischen Anwendung wissenschaftlicher Erkenntnisse stets ein kognitives Defizit aus. Wenn überhaupt, dann kann diese kognitive Lücke nur durch Erfahrungswissen geschlossen werden. Selbst hochmoderne Produktionsabläufe sind ohne die technischen Alltagserfahrungen der Produzenten nicht möglich. Die Streikform „Arbeit nach Vorschrift“ bedient sich erfolgreich dieses Umstands.

Wenn autoritäre Administrationen oder Parteien politisch relevante Alltagserfahrungen ignorieren oder unterdrücken, schwächt dies zwangsläufig die kognitive Basis der von ihnen verantworteten praktischen Aktionen. Warum aber wird dann Alltagserfahrung überhaupt unterdrückt? Eine wichtige ideologische Quelle hierfür ist der sogenannte Historizismus, wie er von K. R. Popper thematisiert worden ist. Aber auch in Gemeinwesen, die sich um ihre demokratische Gestaltung bemühen, müssen politisch relevante Alltagserfahrungen ihrer Bürger dann der Öffentlichkeit vorenthalten bleiben, wenn Menschen sie aus Frucht vor beruflichen oder sonstigen Nachteilen verschweigen oder verdrängen.

 

Vortrag am 7.6.1991
Eugen Georg Woschni (Dresden), Ordentliches Mitglied der Mathematisch-naturwissenschaftlichen Klasse:


„Signal, System, Information – Exakte Theorie und Näherungen“

Ziel des Vortrages ist es – auch an Hand konkreter Beispiele – zu zeigen, daß auch heute, im Zeitalter der Rechentechnik, Näherungsbetrachtungen und Abschätzungen unter Einsatz der physikalischen Anschauung von großer Bedeutung sind. Als Gründe hierfür sind vor allem zwei Tatsachen ausschlaggebend: Zum einen sind Fehler bei der Programmentwicklung und -abarbeitung oft nur erkennbar, wenn derartige Abschätzungen durchgeführt werden. Früher, im „Zeitalter des Rechenschiebers“, waren diese stets notwendig, da der Rechenschieber nicht die Größenordnung, d.h. Kommastelle liefert. Zum anderen sind in folge fehlender a-priori-Information die verwendeten Modelle für Signale und Systeme oft ohnehin nur approximativ. Ein typisches Beispiel liegt z.B. in der Meßtechnik vor, wo das Eingangssignal erst durch die Messung ermittelt werden soll. Die Aufgabe, ein Meßsystem zu entwickeln oder auszusuchen, das dieses unbekannte Signal mit vorgegebener Genauigkeit wiedergibt, ist daher strenggenommen nicht lösbar!

Ferner wird gezeigt, wie diese Näherungen auf der exakten Theorie basieren und oft nur bei deren Kenntnis verstanden werden können. Im einzelnen werden zunächst Signale mit ihren Kenngrößen einschließlich der modernen geometrischen Signaldarstellungen sowie die hieraus folgenden Fehlermodelle mit ihren Vor- und Nachteilen behandelt. Anschließend werden nach einem kurzen Überblick über die lineare Systemtheorie eine Reihe wichtiger Näherungsmethoden als Beispiele erläutert, wie z.B. dynamische Meßfehler, Fehlerkorrektur und Optimierungskriterien und die Parameterempfindlichkeit. Schließlich wird die gleiche Betrachtungsweise zur Erklärung der wichtigsten Begriffe der Informationstheorie, insbesondere der Kanalkapazität, benutzt.

An den entsprechenden Stellen wird auf offene, noch zu lösende Problemstellungen hingewiesen, wie z.B. Anwendung besserer Fehlermodelle als das Kriterium des mittleren quadratischen Fehlers, Maßnahmen zur Verbesserung der Fehlerkorrektur durch Verringerung der Parameterempfindlichkeit mit adaptiven Systemen bzw. Algorithmen und Erweiterung des Begriffs der Kanalkapazität auf semantische und pragmatische Aspekte.

 

Vortrag am 7.6.1991
Jürgen Werner (Leipzig), Ordentliches Mitglied der Philologisch-historischen Klasse:


„Ich fragte sie auf Thrakisch …“

In einem griechischen Drama, dem unter Euripides' Namen überlieferten „Rhesos“ (4. Jh. v. Chr.), erlebt ein Hirt vom trojanischen Ida-Gebirge folgendes: Ein ihm unbekanntes Heer rückt an, der Hirt hört „nichtgriechische Laute“, geht auf die Fremden zu und fragt sie auf thrakisch, wer sie sind. Der Hirt kann also außer „Trojanisch“ (was immer sich der „Rhesos-Dichter“ darunter vorgestellt haben mag) auch Thrakisch. Vergleichbare Beobachtungen und Reflexionen finden sich in der griechischen Literatur seit dem 5. Jahrhundert gelegentlich. Vorher sind sie selten. Daß es Völker verschiedener Sprachen gibt, ist zwar bereits Homer vertraut, aber das hat keine Konsequenzen für die Darstellung (Problematik der Verständigung zwischen Angehörigen verschiedener Sprachgemeinschaften). Hier herrscht noch die „altepische Fiktion, daß sich alle mit allen ohne weiteres verständigen können, vermutlich auf griechisch“ (Hermann Fränkel).

Daß die antiken Griechen Mythen, wissenschaftliche Erkenntnisse usw. aus dem Orient und Ägypten übernommen haben und daß zwischen Griechen und Römern vielfältiger Austausch erfolgte, ist bekannt. Wenig erforscht ist, wie die Kommunikation möglich war (Kenntnis fremder Sprachen, Dolmetscherverwendung etc.); es ist aber unabdingbare Voraussetzung für eine gültige Darstellung des multikulturellen griechisch-römischen Altertums. Nicht zuletzt ist die interdisziplinäre, zusammen mit Althistorikern, Archäologen, Indogermanisten etc. zu bewältigende Thematik imagologisch wichtig (Werturteile über fremde Sprachen usw.; die „Barbaren“-Problematik unter sprachlichem Aspekt). Die zunächst rein historisch bedeutsame, als solche hinlänglich legitimierte Thematik gewinnt zusätzliches aktuelles Interesse in unserer Epoche ständig wachsender internationaler Kommunikation bzw. des immer stärker werdenden multikulturellen Faktors moderner Gesellschaft (Zweitsprachenerwerb von Gastarbeiter[kinder]n, Touristen etc.). Wichtig ist auch die theoretischmethodologische Verallgemeinerung mit Blick auf andere relativ frühe Kulturen, in denen die Haltung gegenüber Fremdsprachen vermutlich ähnliche Entwicklungen durchmacht (interdisziplinäre typologische Vergleiche).

Die bisher vorliegenden Arbeiten bieten ein unvollständiges, undifferenziertes, in vielem falsches Bild des Gegenstandes. Vorerst arbeitete ich – auf Grund der Situation der Klassischen Philologie in der DDR und speziell auf Grund meiner persönlichen Situation in reiner „Hobbyforschung“ – etwa 30 meist griechische Autoren durch. Dabei ergaben sich bereits zahlreiche Korrekturen des oben skizzierten Bildes und ein wesentlich differenzierteres Gesamtbild. Seit 1981 publizierte ich Aufsätze dazu in Deutschland, Österreich, Georgien und Bulgarien. 1992 erschien der von C. W. Müller, Kurt Sier und mir herausgegebene Band „Zum Umgang mit fremden Sprachen in der griechisch-römischen Antike“, mit zwei Beiträgen von mir. Andere einschlägige Publikationen sind im Druck. Die weitere Arbeit am Thema in meinem Institut im Rahmen eines von einer Stiftung geförderten Projektes (Ziel: Schaffung einer Monographie) dient der Erarbeitung einer annähernd vollständigen Phänomenologie des Gegenstandes für das griechisch-römische Altertum mit möglichst weitgehender kausaler Erklärung, als unabdingbare Voraussetzung für die bereits erwähnte Darstellung der multikulturellen griechisch-römischen Antike. (Sie ist als Modell dafür, wie Kommunikation zwischen Angehörigen verschiedener Sprachgemeinschaften funktioniert, zugleich von hohem aktuellem Interesse.) Das bedeutet Durchsicht aller wichtigen profangriechischen und -lateinischen sowie möglichst vieler christlicher Texte beider Sprachen unter folgenden Aspekten: Kenntnis der Existenz fremder Sprachen, Vermutungen über ihre Zahl, ihre Eigentümlichkeiten, ihr Alter; Erkenntnisse über den Zusammenhang von Völker- und Sprachgrenzen; praktische Kenntnis fremder Sprachen bei Griechen und Römern; Probleme bei der Verständigung zwischen Griechen/Römern und Nichtgriechen/Nichtrömern; Auftreten von Dolmetschern (wieweit waren die Dolmetscher Griechen/Römer oder Angehörige anderer Völker?); Fremdsprachen als Schulfach und als Teil der Allgemeinbildung; Griechen/Römer, die ihre „Muttersprache“ verlernen bzw. ihre „Vatersprache“ (nur letztere Bezeichnung ist in Griechenland/Rom üblich – der Begriff „Muttersprache“ kommt erst in mittellateinischen sowie romanischen und germanischen Texten des Mittelalters vor; zu untersuchen sind die Gründe dafür); Sprachbarriere als Sozialbarriere; Verwendung fremder Sprachen im literarischen Bereich (lateinisch schreibende Griechen etc.); wissenschaftliche Beschreibung fremder Sprachen durch Griechen/Römer; Erkenntnis/Nichterkenntnis der Verwandtschaft des Griechisch/Lateinischen mit anderen indogermanischen Sprachen; Erklärung nichtgriechischer/nichtlateinischer Wörter bzw. Namen mit Mitteln der griechischen/lateinischen Sprache; antike Bedenken dagegen; Erklärungen für die Sprachenvielfalt; einerseits positive Wertung fremder Sprachen, negative Wertung der eigenen Sprache, andererseits negative Wertung fremder Sprachen, positive Wertung der eigenen Sprache („größerer/kleinerer Ausdrucksreichtum“ usw.; Fremdwörterfeindlichkeit; Vergleich fremder Sprachen mit Tierlauten; „sprach-los“ = „nicht griechischsprachig“; „fremdsprachig“ in griechischen Texten zur Bezeichnung von Griechen zum Zweck ihrer Diskreditierung; „die Sprache“ = Griechisch; Griechisch als Sprache aller Götter; als vermeintlich einzig wirksames Denkwerkzeug etc.); Nutzung fremdsprachiger bzw. geradebrechter Passagen zu künstlerischen Zwecken in Literaturwerken (Ziel: exotisches Kolorit und/oder komische Effekte); Übersetzungen aus anderen Sprachen (Was wird übersetzt, was nicht? Für wen? Durch wen: Griechen/Römer oder Nichtgriechen/Nichtrömer?); Übersetzungstheorie und Übersetzungskritik; Sonderstellung des Lateinischen bei den Griechen, praktisch und theoretisch (These von der Herkunft des Lateinischen aus dem Äolischen); Sonderstellung des Griechischen bei der Römern; Sprachenpolitik; Zusammenhang der Fremdsprachenproblematik mit der Barbarologie, der ethnischen Imagologie; Reaktion von Griechen/Römern und Nichtgriechen/ Nichtrömern auf gängige Wertungen des Griechischen/Lateinischen bzw. fremder Sprachen; typologische Vergleiche mit anderen relativ frühen Kulturen; Nachwirkung antiker Vorstellungen zur Fremdsprachenproblematik in Mittelalter und Neuzeit.

Der Wissenschaftsrat hat in seinen „Empfehlungen zu den Geisteswissenschaften an den Universitäten der neuen Bundesländer“ vom 3.7.1992, S. 92f., dieses Projekt ausdrücklich als zu fördernden innovativen Ansatz begrüßt.

 

Vortrag am 10.5.1991
Horst Hennig (Leipzig), Ordentliches Mitglied der Mathematisch-naturwissenschaftlichen Klasse:


„Vom Blutlaugensalz zur homogenen Komplexkatalyse“

Bezeichnungen chemischer Verbindungen sind einerseits in Regelwerken festgelegt, die ständigen Präzisierungen unterworfen sind, andererseits haben viele Trivialnamen bis heute ihre Bedeutung erhalten, und sie werden in der Umgangssprache sowie auch in der chemischen Fachliteratur nach wie vor genutzt.

Viele dieser Trivialnamen, die sich oftmals durch sehr poetische Wortschöpfungen auszeichnen (z.B. „Jungfraumilch“ für „Blei(II)-acetat“), weisen in ihrer Wortbildung auf die Herkunft bzw. Darstellung der jeweiligen Verbindungen hin. Das trifft auch auf die Blutlaugensalze zu, die man heute rationell als Hexacyanoferrat(II)/(II1) (gelbes, rotes Blutlaugensalz) bezeichnet.

Mit der Entdeckung des Berliner Blaus durch Diesbach um 1710 wird die Entdeckungsgeschichte der Konstitution der Blutlaugensalze eingeleitet, da man einerseits an der Ursache für die Farbigkeit dieser Verbindung interessiert war, deren Anwendung bis heute von hohem industriellen Interesse ist, und andererseits bestrebt war, die Konstitution dieser merkwürdigen Verbindung zu kennen. Stahl fand 1731, daß eine Mischung von „Tieröl aus Blut“ mit Alkali, die sogenannte Blutlauge, mit Eisen(II)-sulfat und Alaun zur Bildung eines roten, gut kristallisierenden Salzes führt, das er als Blutlaugensalz bezeichnete. Mit der Entdeckung und Beschreibung dieser Substanz war ein erster Vertreter von Verbindungen synthetisch zugänglich geworden, die wir heute als Koordinationsverbindungen bezeichnen.

Bis zu dieser Klassifizierung, die auf einer genaueren Kenntnis der Konstitution dieser Verbindungen von vorwiegend Übergangsmetallionen beruht, die nicht einer formalen Salzstruktur entsprechen, vergingen jedoch nahezu 170 Jahre. Zu Beginn dieses Jahrhunderts veröffentlichte A. Werner, ein Schüler des Mitglieds unserer Akademie A. Hantzsch, sein berühmtes Buch „Neuere Anschauungen der anorganischen Chemie“, das die Chemie der Koordinationsverbindungen begründete, zu denen eben auch die Blutlaugensalze gehören. Für diese Leistung wurde A. Werner 1913 mit dem Nobelpreis für Chemie geehrt.

Um 1890 machte Mond eine sehr merkwürdige Entdeckung. Er fand, daß sich metallisches Nickel unter bestimmten Reaktionsbedingungen mit Kohlenmonoxid zu einer Verbindung umsetzt, die wir heute als Nickeltetracarbonyl (Ni(CO)4) bezeichnen. Das besondere Interesse an dieser Verbindungsklasse, das sich bis heute fortsetzt, erklärt sich daraus, daß es sich hier um eine bei Zimmertemperatur flüssige Metallverbindung handelt, die sich eher wie eine organische Molekülverbindung verhält und gar nicht wie ein Salz. 1920 fand das Mitglied der Akademie, F. Hein, eine Chromverbindung, die Benzol in einer Bindungsform enthielt, die damals nicht aufgeklärt werden konnte. Erst mit der Entdeckung des Ferrocens durch Kealy und Pauson im Jahre 1951 und mit der Wiederentdeckung des Heinschen Bis(diphenyl)chroms durch E. O. Fischer (Nobelpreis für Chemie gemeinsam mit G. Wilkinson im Jahre 1973), stellte sich heraus, daß man eine weitere Klasse von Übergangsmetallverbindungen entdeckt hatte, die heute als metallorganische Verbindungen bezeichnet werden und sich dadurch auszeichnen, daß sie durch eine Metall-Kohlenstoff-Bindung gekennzeichnet sind.

Sowohl Koordinationsverbindungen als auch metallorganische Verbindungen sind dadurch gekennzeichnet, daß sie durch eine definierte Geometrie sowie durch eine vom Metallion geprägte Elektronenstruktur bestimmt sind. Unter bestimmten Bedingungen kann man sowohl die Geometrie als auch die Elektronenstruktur dieser Verbindungen stören, und man erhält dann in der Regel sehr reaktive Metallverbindungen, die sich in den letzten Jahrzehnten als äußerst attraktive Katalysatoren erwiesen haben und zur Begründung der homogenen Komplexkatalyse führten.

Diese Entwicklung hat nun längst den Bereich der Grundlagenforschung verlassen, und die homogene Komplexkatalyse wird heute in großem Maßstab in der chemischen Industrie genutzt. So werden eine Vielzahl von organischen Massenprodukten, wie Aldehyde, Ketone, Essigsäure und Polymere, aber auch eine Vielzahl hochveredelter Spezialchemikalien homogen-katalytisch durch thermische Aktivierung von Koordinationsverbindungen und organometallischen Verbindungen hergestellt, wobei in der letzten Zeit insbesondere chirale Synthesen zunehmend interessant geworden sind, die unter Nutzung der besonderen Vorzüge der homogenen Katalyse zu enantiomerenreinen (bzw. -angereicherten) Verbindungen führen, was insbesondere für die pharmazeutische Industrie von höchstem Interesse ist.

Inzwischen weiß man, daß dieses Prinzip der Katalyse, das auf die einzigartige Wirkungsvielfalt von Übergangsmetallverbindungen zurückzuführen ist, auch in der Natur weit verbreitet ist. Eine Vielzahl von Enzymen enthält als sogenannte prosthetische Gruppe Koordinationsverbindungen, die an das Enzymeiweiß gebunden sind. Ein besonders gut untersuchtes Beispiel für die Wirkung solcher Metalloenzyme ist das Hämoglobin, das aus Globin besteht, an das 4 Häm-Moleküle gebunden sind. Häm ist eine Koordinationsverbindung, die koordinativ gebunden Eisen(II) enthält und auf Grund ihrer spezifischen Komplexeigenschaften in der Lage ist, Sauerstoff zu binden und zu transportieren.

Chlorophylle sind weitere Beispiele für biologisch relevante Koordinationsverbindungen, die allerdings das Hauptgruppenmetallion Magnesium koordinativ gebunden enthalten. Diese Klasse von Koordinationsverbindungen ermöglicht in einer bis heute nicht im Detail aufgeklärten Weise die Umwandlung von Sonnenenergie in chemische Energie über den Weg der Photosynthese der grünen Pflanzen. Dieser Reaktionsweg der Natur, der für die Evolution von Organismen auf der Erde von ganz fundamentaler Bedeutung ist, ist ein attraktives Vorbild für artifizielle Systeme, die photokatalytische Reaktionen auf der Basis lichtempfindlicher Koordinationsverbindungen bzw. metallorganischer Verbindungen betreffen. Daher ist es nicht verwunderlich, daß die Photokatalyse im letzten Jahrzehnt das zunehmende Interesse der Grundlagenforschung, aber auch der angewandten Forschung gefunden hat.

Die Attraktivität der homogenen Photo-Komplexkatalyse beruht u.a. darauf, daß mittels photonischer Energie elektronische Anregungszustände von Koordinationsverbindungen erhalten werden können. Elektronisch angeregte Koordinationsverbindungen können als Isomere der jeweiligen Grundzustandsverbindungen aufgefaßt werden, die sich von diesen durch unterschiedliche Geometrie, Elektronenstruktur und damit durch ihre thermodynamischen Zustandsgrößen unterscheiden. Allerdings sind diese elektronisch angeregten Spezies zumeist durch extrem kurze Lebensdauern determiniert.

Elektronisch angeregte Koordinationsverbindungen bzw. metallorganische Verbindungen können zu längerlebigen Intermediaten desaktivieren, die mit dem Substrat unter Produktbildung wechselwirken können. Dieser spezifische photokatalytische Reaktionsweg wird von uns als photoassistierte Reaktion bezeichnet, die u.a. dadurch charakterisiert ist, daß eine gewünschte Substratumwandlungsreaktion kontinuierliche Bestrahlung erfordert. Ein anderer Reaktionsweg, der gleichfalls den photoassistierten Reaktionen zuzuordnen ist, ist auf die Bildung koordinativ ungesättigter Spezies zurückzuführen, die nach der katalytischen Substratumwandlungsreaktion zur Ausgangsverbindung rekombinieren und daher zur Aktivierung gleichfalls erneute Lichteinstrahlung erfordern. In sehr vereinfachter Weise kann die Photosynthese der grünen Pflanzen diesem Typ photokatalytischer Reaktionen zugeordnet werden.

Andererseits können durch Bindungslabilisierung von Koordinationsverbindungen im elektronisch angeregten Zustand Komplexfragmente gebildet werden, die sich durch koordinative Ungesättigtheit und/oder veränderte formale Oxidationszahlen auszeichnen. Solche Spezies sind in der Regel katalytisch aktiv und werden oftmals in der homogenen Komplexkatalyse auf thermischem Wege erzeugt. Der photochemische Weg zur Erzeugung von Katalysatoren wird von uns als photoinduziert-katalytische Reaktion bezeichnet. Solche Reaktionen sind dadurch gekennzeichnet, daß ein Photon in der Lage ist, eine Vielzahl von katalytischen Zyklen auszulösen. Ein besonders signifikantes Beispiel für eine photoinduziert katalytische Reaktion ist die klassische Silberhalogenid-Photographie.

Damit ist der Kreis dieses Vortrages geschlossen, der von einer merkwürdigen Entdeckung des 18. Jahrhunderts bis zu aktuellen Entwicklungen und Anwendungen der heutigen Zeit reicht. Von besonderem Interesse mag dabei sein, daß Mitglieder unserer Akademie an diesem Entwicklungsweg, der, wie der Vortrag zeigen sollte, keineswegs als abgeschlossen zu betrachten ist, ganz maßgeblich mitbeteiligt waren.

 

Vortrag am 10.5.1991
Hans-Joachim Diesner (Halle-Wittenberg), Ordentliches Mitglied der Philologisch-historischen Klasse:


„Aspekte des Totalitarismus (Machiavelli)“

Als Einführung in diese Analyse dient eine Kurzbiographie, die sich angesichts der für den deutschen Rezipienten immer noch etwas abgelegenen Problematik empfiehlt. Es erschien auch notwendig, die verschiedenen sozialen und bildungsmäßigen Kategorien – wie Machiavell sie sieht – zu skizzieren. Daran muß sich folgerichtig die psychologisch-anthropologische Auflistung all dessen anschließen, was nach Machiavelli den Menschen und seine Umwelt bestimmt: Mithin war auf menschliche Charakterzüge des positiven wie des negativen Bereichs einzugehen, die auf oft merkwürdige Weise in Korrelation zu „höheren Gewalten“ stehen (neben Gott selbst kommen Fortuna, Necessità, Virtù, Ambizione oder Avarizia vorrangig ins Spiel). Positiv spielen für den Florentiner und sein Menschenbild die Religion und insbesondere die Virtù eine Rolle: Letztere „wirkt“ als normale gute Eigenschaft oder als höhere charismatische Kraft, mit deren Hilfe der Mensch sich im Alltag, vor allem im politischen Leben, zu bewähren hat. Alles politische Leben gipfelt im Staat, der an sich nur zwei Ziele hat (zwei „fini“): Macht und Freiheit. Und auf den Staat wird der machiavellische Mensch voll verpflichtet; er hat diesem Vivere politico alle Kräfte zu leihen, ihn möglichst mehr zu lieben als die eigene Seele. Von hier aus ergibt sich ohne weiteres die staatliche Omnipotenzforderung, die in etwa bereits Hobbes’schen Stellenwert erreicht. Vor allem an den Staatsgründern und -reformern exemplifiziert Machiavelli die Forderung nach einer alleinigen, mithin übersteigerten Macht, die um des Staatszieles willen auch auf die unmenschlichsten Exzesse – bis hin zum Brudermord – nicht verzichten kann (Romulus-Remus). Hier vor allem ist nicht nur der absolutistische Herrscher, sondern bereits der moderne totalitäre Diktator vorgezeichnet, den insbesondere das 20. Jahrhundert produziert hat. – Ein Widerspruch bleibt beim Politiker und Staatstheoretiker Machiavelli bestehen: Der Legitimierung einer gegebenenfalls schrankenlosen Staatswillkür steht die Forderung nach einer charismatischen und damit zutiefst humanitären Virtù im Dienste des Gemeinwohls gegenüber.

 

Vortrag am 19.4.1991, Öffentliche Gesamtsitzung
Dagmar Hülsenberg (Ilmenau), Ordentliches Mitglied der Mathematisch-naturwissenschaftlichen Klasse:


„Glas in der Mikrotechnik“

Den Ausgangspunkt nahm die Mikrotechnik in der Herstellung elektronischer Bauelemente auf Siliziumbasis. Nach einer kurzen Erläuterung der Technologie (Zyklus I) der Fertigung solcher Bauelemente, deren Hauptausdehnung planar ist, folgt die kristallografische Begründung für die Herstellung dreidimensionaler Bauelemente in Si-Technik, die neben elektrischen vor allem mechanische Funktionen im Mikrobereich realisieren. In solchen Bauelementen erfüllt Glas in der Regel nur passive Aufgaben. Der Vortrag liefert die Begründung dafür, warum das eine temporäre Erscheinung darstellt und vor Glas eine große Perspektive für die Mikrotechnik liegt.

Ein erster großer Durchbruch entstand durch die Lichtleittechnik. Dabei behandelt der Vortrag nicht die Glaslichtleitfasern selbst, sondern Mikrolinsen und Fasersensoren, die in Lichtleitsystemen zum Einsatz kommen können. In jedem Fall handelt es sich um Bauelemente auf Glasbasis, die nur wenige mm oder auch nur Bruchteile davon groß sind. Für die Herstellung konkaver Mikrolinsen (ca. 0,5 mm Ø) kommt eine modifizierte Vycor-Glastechnik zum Einsatz. Die Mikrolinsen weisen eine kieselglasähnliche Zusammensetzung auf und entstehen, indem mit HCI ausgelaugtes Vycor-Glas mittels CO2-Laser punktual gesintert wird. Größe und Wölbung der Linsen lassen sich durch die Strahlparameter sowie den Brennfleck beeinflussen.

Die Basis für die Herstellung konvexer Mikrolinsen bildet ein derart modifiziertes Glas, daß es die Strahlung eines Nd-YAG-Lasers absorbiert. Die durchstrahlten Kanäle erwärmen sich, das Glas dehnt sich dort aus und beginnt, wenn es warm genug ist, durch die partiell entstehenden Thermospannungen zu fließen. Die gleichzeitige Wirkung der Oberflächenspannung bewirkt die konvexe Ausbildung der Linse, die nach plötzlicher Abkühlung erhalten bleibt. Linsen mit 200 µm Durchmesser und 75 µm Aufwölbung wurden im Vortrag gezeigt.

Eine weitere für die Nachrichtentechnik auf Lichtleitbasis interessante Linsenart stellen sogenannte Zylinderlinsen dar, die die Parallelisierung von Strahlen durch von außen nach innen ansteigende Brechzahl erreichen.Von den faseroptischen Sensoren wird im Vortrag vor allem auf Drucksensoren eingegangen.

Ein bereits in den 60er Jahren bekanntes Phänomen stellt die Fotosensibilität spezieller Gläser dar, die schon damals im sogenannten Fotoformprozeß für die Herstellung von feinen Löchern und Gräben in Glas zur Anwendung kam. Den Durchbruch brachte das von Schott/Mainz produzierte „Foturan“ mit seiner Anwendung für Bildschirmmasken. Seitdem werden für Glas in der Mikrotechnik ständig neue Anwendungsfelder gefunden.

Im Vortrag werden – ausgehend von der Glasstruktur – die Grundlagen für Keimbildung und Kristallwachstum, unterstützt durch UV –Strahlung, erläutert und eine für die Mikrostrukturierung optimierte Glaszusammensetzung abgeleitet. Es besteht die Möglichkeit, durch Variierung der Glaszusätze die Wandungen von Kanälen und Löchern mehr oder weniger zu beeinflussen. Ausführlich erfolgt die Darstellung des Strukturierprozesses, bei dem Strukturbreiten bis 10 µm reproduzierbar entstanden. Böschungswinkel von Kanälen und Löchern lassen sich gezielt von nahezu Zylinderform bis zur vorgegebenen Düsengestalt beeinflussen. Die bearbeitbare Glasdicke liegt gegenwärtig bei 3 mm. Es lassen sich Gräben und Löcher ebenso wie Kämme und schwingungsfähige Glasmembranen herstellen. Neben breitbandigen UV-Strahlern bietet sich besonders der Einsatz von Excimer-Lasern für die Glasmikrostrukturierung an. An Si bezüglich der thermischen Dehnung angepaßte mikrostrukturierbare Gläser werden eine spürbare Erweiterung der Nutzungsbreite der Mikrosystemtechnik bewirken.

 

Vortrag am 8.3.1991
Christian Hänsel (Leipzig), Ordentliches Mitglied der Mathematisch-naturwissenschaftlichen Klasse:


„Globale anthropogene Klimaveränderungen zwischen Hypothese und Wirklichkeit“

Unter Fachleuten und in der Öffentlichkeit nimmt die Diskussion einer globalen anthropogenen Klimaveränderung breiten Raum ein. Ursache hierfür ist die mögliche Veränderung im atmosphärischen Strahlungshaushalt durch Anreicherung von solchen Gasen, die besonders im Wellenlängenbereich der terrestrischen Ausstrahlung selektiv absorbieren (CO2, CH4 und weitere Spurengase) und somit über eine Verstärkung des atmosphärischen „Glashauseffektes“ einen Trend zu einem globalen Mitteltemperaturanstieg auslösen können. Die Problematik entsprechender Prozeßmodellierungen liegt vor allem in der unvollständigen Überschaubarkeit der vielfältigen Wirkfaktoren mit ihrem sehr verzweigten Netz von Rück- und Wechselwirkungen.

Der Glashauseffekt wird in der Erdatmosphäre zu etwa 2/3 durch den atmosphärischen Wasserdampf und zu 1/4 durch das Kohlendioxid bewirkt; den Rest verursachen im wesentlichen Ozon und Methan. Weitere anthropogene Spurengase werden dann bedeutungsvoll, wenn ihre Absorptionsbanden im atmosphärischen „Fensterbereich“ für langwellige terrestrische Strahlung liegen. Der Anstieg des atmosphärischen CO2-Gehaltes um ca. 25 % seit der Mitte des vorigen Jahrhunderts sowie zusätzlicher „Treibhausgase“ ist Anlaß für die Untersuchungen zukünftiger Klimabeeinflussung.

Die Klimamodellierung muß die klimabildenden Prozesse der Atmosphäre, der Hydro-, Litho- und Biosphäre mit ihren Koppelungen einschließen, wenn sie wirklichkeitsnah sein soll. Die notwendige Verwendung eines erdumspannenden Gitterpunktnetzes mit hinreichend enger Maschenweite und die Gewährleistung genügender zeitlicher Auflösung stellen außerordentlich hohe Anforderungen an die Rechentechnik zur Bewältigung dieser Prozeßsimulationen. Trotz beeindruckender Verfahren und Ergebnisse – gegenwärtig laufen an verschiedenen Klimaforschungszentren Versuche mit gekoppelten hochauflösenden Modellen mit über 15 Atmosphären- und über 10 Ozeanschichten – liegen die Unvollkommenheiten

  • in der rechentechnisch begründeten begrenzten raum-zeitlichen Auflösung,
  • in der unzulänglichen Kenntnis und Erfaßbarkeit der Rückkopplungsmechanismen,
  • in dem unzureichenden Wissen um die Stofftransportprozesse zwischen den Geosphären und um die Stoffumwandlungen in der Atmosphäre und
  • in der unsicheren Vorhersagbarkeit des Verhaltens der Menschheit, wenn es speziell um anthropogene Einflüsse geht.

Generalisiert liefern die zahlreichen und sehr unterschiedlichen Modelluntersuchungen für den Fall einer Verdopplung des präindustriellen atmosphärischen CO2-Gehaltes globale Mitteltemperaturerhöhungen im Bereich 2–5 Grad.

Mit modernen Methoden der Klimadiagnostik, die mit mathematisch-statistischen Mitteln eine Beschreibung der Wahrscheinlichkeitsverteilung und der Struktur des Klimasystems zum Inhalt hat, wird die Signifikanz von Schwankungen oder Trends untersucht. Einige Trends, die als Zeichen eines veränderten „Glashauseffekts“ interpretiert werden, liegen gegenwärtig noch innerhalb des natürlichen Schwankungsbereiches des Klimas. In einigen Merkmalen widersprechen sich auch beobachtete Trends und Simulationsergebnisse. Analogieschlüsse über Beziehungen zwischen Treibhausgasen und Klima im Wechsel zwischen Glazial- und Interglazialzeiten, wie sie aus Bohrkernen der polaren Eisschilde gewonnen werden, führen nicht zwingend zu einer Kausalaussage.

Das Dilemma einer Klimaänderungsprognose besteht gegenwärtig darin, daß ein signifikantes Signal der Natur noch fehlt, die Simulationen es aber je nach verwendetem Szenarium in einigen (oder mehreren) Jahrzehnten erwarten lassen. Die Wissenschaft steht somit vor der Aufgabe, den Komplex der klimabildenden Prozesse besser zu verstehen; hierzu gehört besonders der träge Einfluß der Ozeane und der Kryosphäre. Wirtschaft und Politik stehen in der Pflicht, den Umweltfaktor Klima – und mit ihm ein stabiles ökologisches System – mit Präventivmaßnahmen zur Verhinderung anthropogener Fehlentwicklungen zu schützen.

 

Vortrag am 8.3.1991
Siegfried Wollgast (Dresden), Ordentliches Mitglied der Philologisch-historischen Klasse:


„Zum Tod im späten Mittelalter, in der Renaissance und in der frühen Neuzeit“

Theologie und/oder Philosophie, ebenso auch religiöse wie weltliche Dichtung, Malerei und Skulptur sind vornehmlich jene Disziplinen zwischen Mittelalter und Früher Neuzeit, die sich der Frage nach dem Verhältnis von Leben und Tod stellen. Diese Zeit hat eine andere Todesauffassung als die Gegenwart. Man lebt mit dem Tod, er wird nicht ausgegrenzt.

Der Tod wird in der Familie zu bewältigen gesucht. Bei Herrscherhäusern, im Hochadel usw. werden Tod und Beisetzung zu einem öffentlichen Actus. Der „plötzliche“ Tod wird aus unterschiedlichsten Gründen in allen Schichten der Gesellschaft gefürchtet. Die Kirchen gestalteten das Geschehen um den Tod. Todeserwartung und -gewißheit kollidiert nicht mit Pflichterfüllung und Lebensfreude.

Sterberituale in den verschiedenen Schichten sowie Begräbnisriten werden geschildert. Ebenso wird eine Wertung der protestantischen Leichenpredigten vorgenommen, auf Bestattungsformen und die Rolle des Friedhofs eingegangen, auf den Charakter der Sterbevorbereitung, der Trauer, des Trostes usw. Großer Wert wurde auf die philosophische Reflexion des Todes gelegt, die sich von der des Alltags z.T. wesentlich unterscheidet. Auch in diesem Zeitraum gibt es eine „Sterbeindustrie“, aber sie hat andere Dimensionen als in der Gegenwart. Alles ist von Religiosität durchwebt – auch die Reflexion der Einheit von Gefühl und Vernunft, des universellen Harmonie-Denkens, und dies in einer antithetischen Zeit.

 

Vortrag am 8.2.1991
Heinz Penzlin (Jena), Ordentliches Mitglied der Mathematisch-naturwissenschaftlichen Klasse:


„Neuropeptide – Verarbeitung und Funktion“

Lebewesen bezeichnen wir deshalb als „Organismen“, weil sie „organisiert“ sind. Die biologische Organisation zeichnet sich dadurch aus, daß sie selbstreferentiell ist. Alle Lebewesen funktionieren, agieren und reagieren so, daß es ihrem eigenen Fortbestand dienlich ist. Deshalb gehört die Erscheinung des „Zweckmäßigen“ zum Charakteristikum des Organischen. Man kennzeichnet die Lebewesen auch gerne und mit vollem Recht als „Ganzheiten“.

Das ganzheitliche Funktionieren der Organismen setzt voraus, daß die außerordentlich vielen Zellen, Gewebe und Organe des Organismus miteinander kommunizieren können. Kommunikation bedeutet Austausch von Informationen. Von einem Sender werden Informationen verschlüsselt mit Hilfe materieller Träger über einen „Kanal“ zum Empfänger geschickt, der die im Signal vorliegende Information zu entschlüsseln vermag, um in entsprechender Weise darauf zu reagieren.

Die Kommunikation zwischen den Zellen innerhalb eines Organismus geht fast ausschließlich über den „chemischen Kanal“, d.h. mit Hilfe von „Signalstoffen“ oder ,,Mediatoren“ vor sich. Unter diesen Mediatoren spielen Peptide eine dominierende Rolle. Mit dem von de Wied und Mitarbeitern im Jahre 1974 eingeführten Begriff des „Neuropeptids“ kennzeichnet man Mediatoren, die von Nervenzellen (Neuronen) gebildet und abgegeben werden. Werden sie wie Hormone in die Zirkulation des Blutes entlassen (Endokrinie), so bezeichnet man sie als „Neurohormone“, diffundieren sie durch die Zwischenzellräume (Interstitium) zu benachbarten Empfängerzellen (Parakrinie), so nennt man sie „Neuroparamone“. Werden sie, schließlich, im Rahmen der Informationsübertragung von der Nervenzelle auf eine nachgeschaltete Zelle (z.B. Nerven-, Muskel- oder Drüsenzelle) eingesetzt, d.h. in den Synapsenspalt entlassen (Synaptokrinie), so spricht man von „Neurotransmittern“ bzw. „Neuromodulatoren“.

Zu den Neurohormonen zählen bei den Säugetieren z.B. das Vasopressin und das Oxytocin, die im Hinterlappen der Hirnanhangdrüse (Neurohypophyse) gespeichert und freigesetzt werden. Das Vasopressin hat eine blutdrucksteigernde und antidiuretische Wirkung, das Oxytocin beeinflußt verschiedene glatte Muskeln und spielt eine besondere Rolle beim Geburtsvorgang (Wehen). Eine Transmitterfunktion von Peptiden konnte z.B. für die „Substanz P“ an den Endigungen sensorischer Neuronen im dorsalen Horn des Rückenmarks, für das GRH (Gonadoliberin) in sympathischen Ganglien des Frosches und für Proctolin am Enddarm der Schaben (Insekten) nachgewiesen werden.

In zunehmendem Maße werden Fälle der Koexistenz von Neuropeptiden und „klassischen“ Transmittern in ein und derselben Nervenzelle, ja sogar in dem gleichen „Vesikel“ bekannt. Man muß heute davon ausgehen, daß solche Kolokalisationen nicht die Ausnahme, sondern die Regel an den synaptischen Endigungen der Nervenzellen sind. Das bedeutet, daß an der synaptischen Erregungsübertragung nicht ein einziger Transmitter beteiligt ist, wie bisher angenommen, sondern mehrere Substanzen, die in komplexer Weise miteinander interagieren können. Hier stehen wir erst am Anfang eines tieferen Verständnisses.

Die chemische Charakterisierung der Neuropeptide begann im Jahre 1945 mit der Identifizierung des Angiotensins, es folgte 1951 die Identifikation des Oxytocins. Ein weiterer Meilenstein auf diesem Wege war die Entdeckung der „endogenen Opiate“ Met- und Leu-Enkephalin sowie der hypothalamischen „Liberine“ und „Statine“. Im Jahre 1983 hatte sich die Zahl der bei Säugetieren bekannten Neuropeptide auf 32 erhöht, heute sind es mehr als 200. In den meisten Fällen ist jedoch die funktionelle Bedeutung der Peptide noch weitgehend unbekannt. Ein Schwerpunkt gegenwärtiger und zukünftiger Forschungen muß es sein, die biologischen Funktionen sowie die Wirkungsorte und -weisen dieser Neuropeptide genauer zu analysieren. Hier sind fundamentale Ergebnisse zu erwarten, die unser Bild von den Hirnfunktionen revolutionieren und große Bedeutung für die medizinische Praxis haben werden.

In der Regel (oder immer?) werden die Neuropeptide als Teilsequenzen eines wesentlich größeren (längeren) „Precursor“-Moleküls gebildet und erst später mit Hilfe bestimmter Enzyme (Peptidasen) „herausgeschnitten“. Die Schnittstellen liegen dort, wo zwei basische Aminosäuren (Lysin, Arginin) benachbart sind. Das Vorläufermolekül kann 90 bis 200 Aminosäurereste in einer Kette aufweisen. Viele von ihnen enthalten auch mehrere Kopien ein und desselben bzw. sehr ähnlicher Peptide. In anderen Fällen enthalten sie verschiedene biologisch aktive Neuropeptide ganz unterschiedlicher Funktion und Aminosäuresequenz. So enthält z.B. das sog. Proopiomelanocortin (POMe) gleichzeitig die Sequenzen des γ-MSH, ACTH, α-MSH, CLIP, β-MSH und des β-Endorphins.

In vielen Fällen lassen sich die Neuropeptide zu „Familien“ mit ähnlicher Primärstruktur zusammenfassen. Eine solche Familie von Neuropeptiden bei Insekten umfaßt inzwischen 21 Mitglieder, von denen das „adipokinetische Hormon“ (AKH) am längsten bekannt ist. Es mobilisiert bei den Wanderheuschrecken die Fettreserven durch Aktivierung einer Lipase. Das Fett dient ihnen während des Fluges als Energielieferant. Zu derselben Familie gehört auch das Neurohormon D, das 1984 von uns gleichzeitig mit zwei amerikanischen Forschungsgruppen in seiner chemischen Struktur aufgeklärt worden ist. Es hat bei Schaben eine herzakzelerierende Wirkung.

Während einige Peptide eine relativ begrenzte Verbreitung im Tierreich zu haben scheinen, wie z.B. das Proctolin, das wahrscheinlich nur bei Arthropoden vorkommt, dort aber sehr verbreitet ist, zeigen andere eine überraschend weite Verbreitung. Letzteres gilt z.B. für die sog. „Tachykinine“, zu denen auch die schon erwähnte „Substanz P“ zählt, und Peptide, die an ihrem C-terminalen Ende die Aminosäure-Sequenz FMRF-amid oder FLRFamid aufweisen. Vertreter dieser letzten Gruppe sind zunächst bei den Mollusken gefunden worden, fehlen aber auch bei den Arthropoden nicht. Außerdem weist das Met-Enkephalin (YGGFMRF) der Säugetiere dieselbe Sequenz auf. Manche Peptide scheinen in ihrer Struktur sehr "konservativ" zu sein, andere wiederum nicht. Es bieten sich – bei aller gebotenen Vorsicht – phylogenetische Überlegungen an.

 

Vortrag am 8.2.1991
Klaus Mylius (Leipzig), Ordentliches Mitglied der Philologisch-historischen Klasse:


„Der Veda und die Datierung des Buddha – Überlegungen zur altindischen Chronologie“

Für den den Problemen der altindischen Geschichte Fernstehenden ist es schwer faßbar, wie schwierig es ist, die historischen Ereignisse chronologisch einzuordnen. Das erste wirklich beweiskräftige Datum ist der Feldzug Alexanders d. Gr. nach Indien (327 bis 324 v. Chr.). Alle vorherigen Ereignisse sind chronologisch unsicher, und auch die folgenden Ausführungen sind nur als Überlegungen zu betrachten.

Immerhin gab es bislang für die Datierung eines bestimmten Zeitabschnittes vor dem Alexanderfeldzug weitgehend eine Communis opinio: Die Lebenszeit des Gotama Buddha wurde mit etwa 563–483 angegeben. Dieser Ansatz ist nun von einem der besten Kenner der Materie, Heinz Bechert, angezweifelt worden. Bechert kommt zu dem Resultat, daß Buddhas Tod erst Mitte des 4. Jh.s v. Chr. erfolgt sei. Gelänge es, das zu beweisen, käme dies förmlich einer Revolution unseres Bildes vom Ablauf der altindischen Geschichte gleich. Um die Problematik einer Lösung näherzuführen, bedarf es des Zusammenwirkens mehrerer altertumswissenschaftlicher und indologischer Disziplinen. Hier sollen die Sachverhalte aus dem Bereich des Veda geprüft werden, insbesondere das Verhältnis des ursprünglichen Buddhismus zur vedischen Literatur und zu Pāṇini. Dazu nutzen wir die Gegebenheiten der Taittirīya-Schule. Yāska, der deutlich älter als der Grammatiker Pāṇini ist, kannte das Taittirīya-Prātiśākhya. Er selbst wird im Ṛkprātiśākhya und in der Bṛhaddevatā erwähnt, ist also älter als Śaunaka. Dieser wiederum war ein älterer Zeitgenosse von Āśvalāyana, auf den noch zurückzukommen sein wird. Ein Zeitraum von 550 bis 500 v. Chr. für Yāska ist also eher zu niedrig als zu hoch, und die Taittirīya-Samhitā dürfte spätestens gegen 650 v. Chr. abgeschlossen worden sein.

Bezüglich der relativen Zeitstellung der alt- und mittelvedischen Literatur zum Buddhismus besteht Einmütigkeit darüber, daß die Saṁhitās, die meisten Brāhmaṇas und die ältesten Upanisaden vorbuddhistisch sind. Die Nikāyas erwähnen tevijja (traividya-) Brahmanen, vedāṅga und brahmanische Schulen; die gesellschaftlichen Verhältnisse sind in der buddhistischen Literatur im Vergleich zu den älteren Upaniṣaden weiterentwickelt. Andererseits lassen es die fortdauernde Lebendigkeit der jungvedischen Götterwelt und die Existenz des immer noch einflußreichen Opferkultes nicht zu, den Buddha zeitlich zu weit von der Hauptmasse des Veda entfernt anzusiedeln. Es ergibt sich, daß der Buddhismus vor dem Beginn des 6. Jh.s v. Chr. nicht entstanden sein kann. Für die Eingrenzung von der jüngeren Zeit her bietet sich der Grammatiker Pāṇini an.

Übereinstimmend bezeichnen buddhistische, brahmanische, griechische und chinesische Quellen den Grammatiker als Zeitgenossen eines Nanda-Königs. Bei diesem könnte es sich am ehesten um Mahānanda (Regierung 446–430 v. Chr.) gehandelt haben, so daß Pāṇini in der zweiten Hälfte des 5. Jh. gelebt hätte. In Pāṇinis Aṣṭādhyāyī gibt es nun deutliche Hinweise auf den Buddhismus (kumāraśramaṇa VIII, 2, 50; saṅgha III, 3, 42; diṣṭa IV, 4,60 deutet auf die Lehre des Makkhali Gosāla, eines Zeitgenossen des Buddha).

Indem wir also die zeitliche Priorität des originären Buddhismus gegenüber Pāṇini festhalten, erörtern wir nun die entscheidende Frage: die Zeitstellung des Śrauta-sūtras zu Buddha. Aus sprachlichen und anderen Indizien ergibt sich, daß der Beginn der Sūtra-Periode spätestens um 550 v. Chr. erfolgt sein muß und daß die ältesten Sūtras bis auf die Entstehungszeit des Buddhismus zurückzuführen sind. Hier nimmt der Sūtra-Verfasser Āśvalāyana eine chronologische Schlüsselstellung ein. Vieles spricht dafür, daß er ein jüngerer Zeitgenosse des Buddha war. So spielt im Majjhima-Nikāya X, 93 die Hauptrolle ein Priester namens Assalāyana (lautgesetzliche Umformung des sanskritischen Āśvalāyana ins Pāli). Aber auch wenn man diese Identifizierung nicht gelten lassen will, bleiben die Indizien, die den Buddha in die Zeit der älteren Śrauta sutras versetzen, stringent. Diese Sūtras waren Ausdruck des Versuchs der brahmanischen Oberschicht, ihre einstige hohe soziale Stellung gegen die Philosophen der Upaniṣaden und gegen die Häretiker des Buddhismus und Jinismus zurückzugewinnen. Eben diese Situation, ein angeschlagenes, aber noch einflußreiches Opfersystem, wird von den ältesten Teilen des Dīgha- und des Majjhima-Nikāya zum Ausdruck gebracht.

Größere Bedeutung sollte aber auch der politischen Geschichte Altindiens beigemessen werden. So stellte H. von Stietencron 1988 die Bedeutung der Purāṇas heraus und prüfte die Datierung der Könige, die während der Lebenszeit des Buddha regierten. Als Möglichkeiten für das Nirvāṇa des Buddha ergaben sich dabei die Jahre 520 bzw. 486 v. Chr. Erstere Zahl entspricht etwa der unkorrigierten Therāvada-Chronologie, letztere (die wahrscheinlichere) der korrigierten längeren singhalesischen Chronologie. Nach der Tradition der Śiśunāga-Könige starb der König Bimbisāra von Magadha 492 v. Chr.; die Thronbesteigung seines Nachfolgers Ajātaśatru fand 491 statt. Diesen Ajātaśatru aber hat der Buddha bis in die Jahre des Krieges mit der Vṛji-Konföderation hinein noch an der Macht erlebt und mit ihm sogar einen Dialog geführt. Es will somit die bisher herrschende Datierung des Buddha sich auch in die politische Geschichte besser einfügen als eine solche, die diese Datierung um fast anderthalb Jahrhunderte hinabrückt.

Als Zusammenfassung ergibt sich: Die Lebenszeit des Buddha ist beim jetzigen Stand unseres Wissens – und da hat Bechert vollständig recht – nicht das älteste feststehende Datum der indischen Geschichte. Demgegenüber ist die Epoche des Buddha, sein Zeitalter, generell bestimmbar, und es ist die korrigierte längere Chronologie der singhalesischen Therāvada-Tradition, die der Position, die Buddhas Zeit im Lichte Pāṇinis und des Veda einnimmt, am ehesten gerecht wird.

 

Vortrag am 11.1.1991
Klaus Fröhlich (Freiberg), Ordentliches Mitglied der Mathematisch-naturwissenschaftlichen Klasse:


„Beiträge der internationalen Atomenergie-Organisation, Wien, für Wasserressourcenbewertung und Umweltforschung mit kernphysikalischen und isotopenchemischen Methoden“

Zur Bewertung und Bewirtschaftung von Wasservorkommen und zur Lösung von Umweltproblemen haben sich Methoden, die auf der Nutzung von Isotopen beruhen und gemeinsam mit anderen Untersuchungsverfahren angewendet werden, als präzise und leistungsfähige Werkzeuge erwiesen. Besonders die stabilen und radioaktiven Isotope, deren Verteilung in der Umwelt durch natürliche Prozesse bestimmt wird und die man deshalb auch als Umweltisotope bezeichnet, haben eine Reihe neuer und einzigartiger Anwendungen in der Hydrologie und Umweltforschung gefunden.

Die wohl charakteristischste Anwendung der Umweltisotope ist die Datierung geologischer Vorgänge, die auch die Bestimmung des Alters von Grundwasser, Eis, Mineralen und Sedimenten einschließt. Diese Datierung beruht auf der spontanen Umwandlung radioaktiver Isotope. So erlaubt zum Beispiel Radiokohlenstoff (14C), dessen Halbwertszeit 5730 Jahre beträgt, Altersbestimmungen in einem Bereich zwischen einigen hundert bis zu ungefähr 50.000 Jahren. In jüngster Zeit konnten auch Radionuklide mit größerer Halbwertszeit und sehr geringer natürlicher Häufigkeit in die Untersuchungen einbezogen werden, da mit einem neuen Meßprinzip, der sogenannten Beschleuniger-Massenspektrometrie, extrem hohe Meßempfindlichkeiten erreichbar wurden. Mit dieser Methode läßt sich in einer Meßprobe von weniger als einem Milligramm noch etwa ein Atom des betreffenden radioaktiven Isotops (z.B. 36Cl, Halbwertszeit 301.000 Jahre) in einer Billiarde Atomen des am häufigsten vorkommenden Isotops des gleichen Elements (in diesem Beispiel ist es 35Cl) nachweisen.

Die Konzentration stabiler Isotope in Umweltmedien ist ebenfalls natürlichen Schwankungen unterworfen. Diese Schwankungen resultieren vor allem aus Isotopieeffekten, die bei Umweltvorgängen als Folge der Massenunterschiede der Isotope des betreffenden Elements auftreten können. Zu Umweltvorgängen, die mit deutlich meßbarer Isotopenfraktionierung verbunden sind, gehören Kondensation, Evaporation, Assimilation und bakterielle Redoxprozesse. Die Stärke der Isotopenfraktionierungseffekte kann auch von Umweltbedingungen wie Temperatur und Luftfeuchte abhängig sein.

Die natürlichen Variationen des Verhältnisses der Wasserstoffisotope (2H/1H) und der Sauerstoffisotope (18O/16O) in Wasser- und Eisproben können unter anderem Informationen über Klimaänderungen und über die Herkunft von Grundwasser vermitteln. Das Verhältnis der Stickstoffisotope (15N/14N) und der Schwefelisotope (34S/32S) in Nitraten bzw. Sulfaten wird zunehmend für Grundwasserschutzuntersuchungen genutzt. Das 15N/14N-Verhältnis im Nitrat ist zum Beispiel als Indikator von Denitrifikationsprozessen geeignet.

Die vielfältigen Nutzungsmöglichkeiten der Umweltisotope und anderer kernphysikalischer und isotopengeochemischer Methoden, die im Vortrag zusammenfassend dargestellt wurden, lassen sich folgenden für die Wasserressourcenbewertung und Umweltforschung relevanten Gebieten zuordnen: Wechselbeziehung zwischen Oberflächenwasser und Grundwasser, Herkunft von Grundwasser, Grundwasserneubildung, Grundwasserdatierung, Schutz von Grundwasserressourcen, Paläohydrologie, Hydrologie arider und semiarider Gebiete und Klimaforschung.

Die Internationale Atomenergie-Organisation (IAEO) in Wien unterstützt seit mehr als dreißig Jahren Mitgliedsländer bei der Anwendung von Isotopenmethoden zur Bewertung und Entwicklung von Wasserressourcen und in der Umweltforschung. Die Zusammenarbeit mit diesen Ländern umfaßt:

  1. Bearbeitung von Projekten der technischen Zusammenarbeit,
  2. Unterstützung theoretischer und angewandter Forschung im Rahmen koordinierter Forschungsprogramme,
  3. Organisation von Tagungen, Symposien und Weiterbildungskursen,
  4. Messung und Sammlung von Isotopendaten,
  5. Bereitstellung von Isotopenstandards und Durchführung internationaler Vergleichsmessungen,
  6. Publikationen.

Die Abteilung Isotopenhydrologie der IAEO bearbeitet jährlich etwa 50 Projekte der technischen Zusammenarbeit mit Mitgliedsländern. Der Hauptteil dieser Projekte dient der Anwendung von Isotopenverfahren für regionale hydrogeologische Untersuchungen, deren Ziel in Technologietransfer einschließlich Ausbildung von Experten, Einrichtung und Ausbau nationaler Untersuchungskapazitäten und Durchführung von Isotopenanalysen besteht. Darüber hinaus werden regionale Projekte realisiert, die auch die Zusammenarbeit und den Erfahrungsaustausch mehrerer Länder in der gleichen Region fördern. In den letzten Jahren waren regionale Projekte unter anderem folgenden Aufgabenstellungen gewidmet: Wasserressourcen des Niltals (Ägypten, Sudan), Isotopenhydrologie in Ländern der Sahelzone (Kamerun, Mali, Niger, Senegal), Isotopenmethoden in der Hydrologie Lateinamerikas (Argentinien, Bolivien, Brasilien, Chile, Kolumbien, Kostarika, Kuba, Ekuador, Guatemala, Mexiko, Peru, Uruguay und Venezuela) und Isotopenhydrologie des Mittleren Ostens (Iran, Jordanien, Kuweit, Saudi Arabien, Syrien, Türkei, Vereinigte Arabische Emirate).

Die Abteilung Isotopenhydrologie der IAEO unterstützt Forschungsvorhaben, indem sie Forschungsverträge und -vereinbarungen vergibt und betreut sowie internationale Forschungsprogramme koordiniert. Für den Zeitraum 1993 bis 1994 sind unter anderem folgende Forschungsprogramme vorgesehen: Isotopenvariationen des Kohlendioxids und anderer Spurengase in der Atmosphäre; kontinentale isotopische Paläoklimaindikatoren; Anwendung von Tracermethoden zur Untersuchung von Vorgängen und Kontaminationen im Schwarzen Meer; Isotopenmethoden im Grundwasserschutz; Isotopenmethoden zur Untersuchung von Wasserressourcen in ariden und semiariden Gebieten; nukleare Verfahren zur Untersuchung von Bodenerosion und von Sedimentationsprozessen; Isotopenmethoden zur Untersuchung von Wasser- und Schadstoffdynamik in Seen. Wie aus dieser Zusammenstellung hervorgeht, gehören Grundwasserschutz und Klimaforschung zu den gegenwärtigen Schwerpunktgebieten.

Seit etwa 30 Jahren werden in Zusammenarbeit mit der WMO die Umweltisotope Deuterium, Sauerstoff-18 und Tritium in monatlichen Niederschlagsproben gemessen, die über die ganze Erde verteilten meteorologischen Stationen gesammelt werden. Gegenwärtig sind 75 IAEO/MO-Stationen und 68 Stationen, die von nationalen Organisationen betrieben werden, in dieses globale Meßnetz einbezogen. Die im Rahmen dieses Programms ermittelten Daten werden weltweit für die Auswertung von Umweltisotopenuntersuchungen zur Bewertung von Wasserressourcen und zur Klimaforschung genutzt.

 

Vortrag am 11.1.1991
Werner Felix (Leipzig), Ordentliches Mitglied der Philologisch-historischen Klasse:


„Titel und Widmungen Bach’scher Werke als musikpädagogische und musikästhetische Dokumente“

Die Titel und Widmungen, die J. S. Bach einer ganzen Anzahl seiner Klavier- und Orgelwerke vorangestellt hat (Orgelbüchlein, Wohltemperiertes Klavier I, Inventionen, Klavierübung) enthalten eine Vielzahl von Hinweisen und Funktionsbestimmungen durch den Komponisten. Sie beziehen sich sowohl auf Einzelheiten der kompositorischen Eigenart als auch der Zielsetzungen, die Bach in musikpädagogischer und musikästhetischer Hinsicht verfolgt hat.

Aus ihnen ergibt sich, daß er in Sammlungen für unterrichtliche Zwecke niemals nur die Beförderung der Spieltechnik zum Ziel hatte, sondern darüber hinaus die Bildung des musikalischen Geschmacks, die Anregung der musikalischen Phantasie des Spielers und seine Unterweisung in Grundfragen des kompositorischen Umganges mit dem musikalischen Einfall und seiner Verarbeitung verfolgte. Musikpädagogisches und musikästhetisches Verständnis bildeten offenbar eine Einheit, die ihn bewog, den Unterricht am Instrument in seiner Wirkung auch stets auf die musikalische Gesamtbildung der „Lehrbegierigen“ anzulegen. Er war darin von jeglicher mechanischen Enge weit entfernt und vermochte nicht zuletzt deshalb, Werke für unterrichtliche Zwecke zu schreiben, die zugleich überragende Kunstleistungen geblieben sind.

Termine
Holzbasierte Bioökonomie - Treiber innovativer Technologien 07.12.2016 10:00 - 16:00 — Karl-Tauchnitz-Str. 1, 04107 Leipzig
Öffentliche Herbstsitzung 2016 09.12.2016 16:00 - 20:00 — Bibliotheca Albertina, Beethovenstraße 6, 04107 Leipzig
Horst-Michael Prasser: Basisinnovation bei Kernreaktoren 16.01.2017 18:30 - 20:00 — TU Dresden, Festsaal des Rektorats, Mommsenstr. 11, 01069 Dresden
Forum "Offenes Land - offene Fragen" 08.02.2017 18:00 - 20:00 — Karl-Tauchnitz-Str. 1, 04107 Leipzig