Plenarvorträge 2004

Vortrag am 10.12.2004
Albrecht Neubert (Hartenstein), Mitglied der Philologisch-historischen Klasse:

Dr. phil., Univ.-Prof. Emeritus für Englische Sprache und Übersetzungswissenschaft an der Universität Leipzig, am 18. Dezember 1972 zum Ordentlichen Mitglied der Philologisch-historischen Klasse der Sächsischen Akademie der Wissenschaften gewählt.
Hauptarbeitsgebiete: anglistische und allgemeine Sprachwissenschaft, Translatologie.

 

Das unendliche Geschäft des Übersetzens

„Das Übersetzen ist ein großes Geschäft. (Denn bei der Übersetzung der Bibel haben wir viel Mühe darauf verwendet.)” (LUTHER, Sendbrief vom Dolmetschen)

„Denn was man auch von der Unzulänglichkeit des Übersetzens sagen mag, so ist und bleibt es doch eines der wichtigsten und würdigsten Geschäfte in dem allgemeinen Weltverkehr.” (GOETHE, Brief an Carlyle)

 „…doch wie man mit eigenen Sachen selten fertig wird, so wird man es mit Übersetzen niemals.” (GOETHE, Brief an Schiller, 9.12.1795)

Begriffsbestimmungen: „Übersetzen” ist nicht immer Übersetzen

  • Ü1: Übersetzen im Fremdsprachenunterricht
  • Ü2: Übersetzen im zweisprachigen Wörterbuch
  • Ü3: mentales Übersetzen beim Lesen fremdsprachiger Texte
  • Ü4: Übersetzen eines ausgangssprachlichen Textes in einen zielsprachlichen Text für Dritte -> Translation

Brief Goethes an W. v. Humboldt (28.10.1799) anlässlich seiner Übersetzung des „Mahomet” Voltaires aus dem Französischen ins Deutsche: „Da ich das Stück nicht allein ins Deutsche, sondern womöglich für die Deutschen übersetzen möchte…” (Hervorhebung A. N.)

Die sechs Parameter der Translation
Prolegomena einer Theorie der Translation

  1. „Doublierung” des Originals – Sprachmittlung für Dritte
  2. Neuformulierung aus der räumlichen und/oder zeitlichen Distanz
  3. Disloziierte Situationalität
  4. Ersetzung ausgangssprachlicher durch zielsprachliche Textualität
  5. Abgeleitete Kreativität
  6. Veränderte Gerichtetheit – Erweiterung der Pragmatik

Schlussfolgerungen für:

  1. Übersetzungspraxis
  2. Übersetzungslehre
  3. Translatorische Forschung

 

Vortrag am 10.12.2004
Egon Franck (Zürich), Mitglied der Technikwissenschaftlichen Klasse:

Dr. oec. publ., Dr. rer. pol. habil., seit 2001 Inhaber des Lehrstuhls für Unternehmensführung und -politik und seit 2004 geschäftsführender Direktor der Instituts für Strategie und Unternehmensökonomik an der Universität Zürich; am 14. Februar 2003 zum Ordentlichen Mitglied der Technikwissenschaftlichen Klasse der Sächsischen Akademie der Wissenschaften gewählt, seit Dezember 2003 Korrespondierendes Mitglied.
Hauptarbeitsgebiete: Unternehmensstrategie, Organisations- und Personalökonomie, Sportökonomie.

 

Die deutsche Promotion als Karrieresprungbrett – Mechanismen der Talentsignalisierung im Ländervergleich

Über Jahrzehnte galt die Promotion als hilfreich für den Aufstieg in die Spitzenpositionen deutscher Großunternehmen. Eine Reihe empirischer Untersuchungen belegt die im internationalen Vergleich außergewöhnlich starke Verbreitung der Promotion unter deutschen Führungskräften und verschiedene Studien dokumentieren bessere Karriereperspektiven promovierter Universitätsabsolventen im Vergleich zu ihren nicht promovierten Studienkollegen. Anders als in den angelsächsischen Ländern oder in Frankreich wurde die Promotion in Deutschland vom Arbeitsmarkt nicht primär als Qualifikation für eine wissenschaftliche Karriere verstanden. Sie fungierte eher als ein Indikator für überlegenes Talent. Darunter verstehe ich allgemeineres Humankapital, das die Produktivität eines Kandidaten in vielen Verwendungen – eben nicht nur in der Wissenschaft, sondern auch in der Wirtschaft – erhöht.

In der letzten Zeit vertreten nun aber Personalberater und Personalmanager immer offensiver die Auffassung, die Promotion verlöre in der Zukunft als ein „Karrieresprungbrett” in die Praxis auch in Deutschland zunehmend an Bedeutung.

Im ersten Teil des Vortrages werde ich gestützt auf eine Analyse von Branchenstrukturen im Bildungssystem zeigen, warum die Promotion in Deutschland anders als in den USA und Frankreich in der Vergangenheit als Talentsignal und damit als „Karrieresprungbrett” in die Praxis gelten konnte. Meine theoretischen Argumente werde ich dabei mit Daten über Karriereverläufe deutscher, amerikanischer und französischer Topmanager unterlegen.

Soll die Promotion – wie behauptet – ihre Funktion als Karrieresprungbrett in die Praxis in Zukunft verlieren, dann müssten die Mechanismen, die diesen Effekt in der Vergangenheit erzeugten, irgendwie erodieren. Im zweiten Teil meines Vortrages möchte ich auf diese Erosionsmöglichkeiten eingehen. Es stellt sich zunächst die Frage, wie sich das Branchenumfeld, in dem die deutschen Hochschulen agieren, verändern könnte. Und es stellt sich dann die Frage nach der Positionierung der Promotion angesichts veränderter Branchenstrukturen.

 

 

Vortrag zur Öffentlichen Herbstsitzung am 12.11.2004
Jürgen Werner (Berlin), Mitglied der Philologisch-historischen Klasse:

Dr. phil., em. Professor für Klassische Philologie an der Universität Leipzig; am 11. Oktober 1985 zum Ordentlichen Mitglied der Philologisch-historischen Klasse der Sächsischen Akade¬mie der Wissenschaften gewählt; seit Februar 2003 Korrespondierendes Mitglied.
Hauptarbeitsgebiete: Antikgriechische Literatur einschließlich Übersetzungs- und sonstiger Rezeptionsgeschichte, Kenntnis und Bewertung fremder Sprachen in der Antike, vor allem bei den Griechen, altgriechische Lexik in der deutschen Gegenwartssprache, Leben und Werk von Franz Dornseiff


Frakturverbot. „Auf Anordnung des Führers soll nur noch Antiqua verwendet werden“

Jahrhundertelang herrschte in Deutschland Zweischriftigkeit. Man benutzte einerseits gebrochene, verzierte Buchstabenformen („Fraktur“, „deutsche Schrift“ u. ä.), andererseits runde, schlichte lateinische Schrift (meist: „Antiqua“). Seit Ende des 19. Jahrhunderts tobte zwischen Anhängern beider Schriften der Streit, welche Schrift leichter, schöner zu lesen, pädagogisch günstiger, für den Buchexport geeigneter sei. 1933 gewann die „deutsche Schrift“ aus politischen Gründen an Boden. 1937 wird den Juden ihre Benutzung verboten. Ab 1940 wird politisch wichtige Literatur bzw. solche, bei der im Ausland größerer Absatz zu erwarten ist, in Antiqua gedruckt, damit fraktur-ungewohnte Ausländer sie leichter zur Kenntnis nehmen können. Am 3. Januar 1941 verkündet Martin Bormann „im Auftrag des Führers“ in einem Geheimerlaß, daß sich die bisher so genannte „deutsche Schrift“ aus „Schwabacher Judenlettern“ entwickelt habe und nicht mehr verwendet werden dürfe. Die Antiqua ist jetzt die „deutsche Normalschrift“. Allerdings können in manchen Fällen Fraktur-Restbestände aufgebraucht werden: Mitten im Krieg stehen Papier- und Druckkapazität nur begrenzt zur Verfügung. Auch Bormanns Erlaß ist noch auf Papier mit „Judenletter“-Briefkopf geschrieben. Offiziell spielt die „Judenletter“-These keine Rolle. Sie ist um so befremdlicher, als die Fraktur, jahrelang gefördert, erst spät als Hervorbringung jüdischen Geistes „enttarnt“ worden ist. Soweit überhaupt über das Frakturverbot gesprochen wird, ist zutreffend gesagt, daß die Benutzung der Antiqua zur Verbreitung deutschen bzw. nazistischen Gedankengutes unter Ausländern geeigneter ist: Die Nazis sind seit der Besetzung mehrerer europäischer Länder statt an großdeutschen Zielen an der „Neuordnung Europas“ und der „Verteidigung des Abendlandes“ interessiert und darauf aus, im Ausland Sympathisanten bzw. speziell in besetzten Gebieten Kollaborateure zu gewinnen. Der Vortrag informiert über weitere Motive, Erscheinungsformen und Wirkungen des Frakturverbots, über parteiinterne Hintergründe, nicht zuletzt über Hitlers Haltung gegenüber Antiqua und Fraktur.

 

 

Vortrag am 8.10.2004
Olli Aumala (Tampere), Mitglied der Technikwissenschaftlichen Klasse:

Doktor der Technik, Professor für Mess- und Informationstechnik an der Technischen Hochschule Tampere; am 12. Februar 1999 zum Korrespondierenden Mitglied der Technikwissenschaftlichen Klasse der Sächsischen Akademie der Wissenschaften gewählt.
Hauptarbeitsgebiete: Messtechnik und Qualitätskontrolle.

 

Measurement – the basic skill and science for research and engineering

Measurement is an old discipline but a rather new branch of science. The discipline started as a method for defining pieces of soil or amount of goods to be sold or purchased. The symbol for justice is the balance, one of the older measurement devices.

It is quite amazing to note that the measurement science developed much later. The need to apply science started this development in times of Galileo Galilei, but the object was for long times more skill or art of measuring rather than a proper science. The nature and scope of measurement science was discussed in some depth by Sydenham in 1976.

The International System of Quantities SI. It is solely based on measurements. The units of various quantities are defined more and more by stable constants of the nature, in some cases by stable measurement objects (measurement standard, Messnormal).

The most practical importance of a measurement result is its information content. Therefore, every measurement should produce information about the measurand. Information theory has been applied to measurement results and to signals for some decades. Development of methods how to handle other aspects such as semantic information and pragmatic information is still to be developed.

The international confederation of measurement (IMEKO) was founded in 1958. At its present state it has 35 Member Organisations from Africa, Asia, Australia, Northern and Southern America, and Europe. IMEKO has a World Congress every three years. The next World Congress will be organized in Brazil in 2006. There are also Conferences and other events of 19 Technical Committees.

Some examples of current research work are also presented. Main topics of these examples are information processing and support for decision making, telemonitoring of human heart function, and flow and consistency measurements in industrial processes.

 

Vortrag am 8.10.2004
Rolf Gattermann (Halle), Mitglied der Mathematisch-naturwissenschaftlichen Klasse:

Dr. rer. nat. habil., Professor für Allgemeine Zoologie am Institut für Zoologie (Verhaltensbiologie) der Martin-Luther-Universität Halle-Wittenberg; am 14. Februar 2003 zum Ordentlichen Mitglied der Mathematisch-naturwissenschaftlichen Klasse der Sächsischen Akademie der Wissenschaften gewählt.
Hauptarbeitsgebiete: Verhalten von Kleinsäugern; Zeitstrukturen des Verhaltens (Chronobiologie); Biologie, Systematik und Artenschutz der Cricetinae (Hamster).

 

Verhaltensbiologie der Partnerwahl und Individualerkennung beim Goldhamster

Fortpflanzung dient der individuellen Fitnessmaximierung und erfordert ein unterschiedliches, sexualspezifisches Investment. So investieren im besonderen die Weibchen der Säugetiere durch Trächtigkeit und Laktation sehr viel mehr als die Männchen. Deshalb dominiert in der Regel Weibchenwahl (female choice). Weibchen müssen die zum eigenen Genom passenden Gene (good genes) finden und nach Möglichkeit die Männchen an der Jungenaufzucht beteiligen (kooperative Brutpflege). Männchen jedoch können am besten in polygamer Lebensweise ihre reproduktive Fitness maximieren und sollten sich nur um den Nachwuchs kümmern, wenn sie Vaterschaftsgewissheit haben. Meine Gruppe befasst sich unter anderem mit der Bewältigung des Männchen-Weibchen-Konfliktes bei Kleinsäugern mit sozialer und solitärer Lebensweise. Modellobjekte sind die solitär lebenden Hamsterspecies und die soziale Mongolische Wüstenrennmaus. Für den Vortrag habe ich den bekannten Goldhamster gewählt.

Der Goldhamster oder Syrische Hamster Mesocricetus auratus (Waterhouse, 1839) ist allgemein beliebt und als Heimtier und Versuchstier weltweit verbreitet. Seine Domestikationsgeschichte ist einzigartig, denn alle in menschlicher Obhut lebenden Goldhamster entstammen einer Geschwisterverpaarung aus dem Jahr 1930.

Die natürliche Heimat des Goldhamsters ist die fruchtbare Hochebene von Aleppo in Nord-Syrien und dem angrenzenden Südteil der Türkei. Über seine natürliche Lebensweise ist so gut wie nichts bekannt. Seit geraumer Zeit galt der Goldhamster als „verschollen” und es war zu befürchten, dass er als Spezies nur in menschlicher Obhut überlebt hat. Wir haben 1999 gemeinsam mit Zoologen der Universität von Aleppo nach wildlebenden Goldhamstern gesucht und konnten 19 Wildfänge nach Halle bringen und erfolgreich einen Zuchtstamm etablieren. Molekulargenetische Studien (Mikrosatellitenanalyse) erbrachten, dass nach über 70 Jahren getrennter Entwicklung und als Folge des „Founder”-Effekts (Geschwisterpaarung) die domestizierten Goldhamster etwa 70 % der genetischen Diversität eingebüßt haben.

Umfangreiche vergleichende Untersuchungen der Wild- und Laborgoldhamster hinsichtlich Entwicklung, Körperbau, Chronobiologie und allgemeinem Verhalten erbrachten nur geringfügige Unterschiede. Beachtliche Differenzen ergaben sich beim Fortpflanzungserfolg, der Individualerkennung und dem Partnerwahlverhalten. Nach erzwungener Kopulation mit „sperm competition” stammen etwa 85 % der Nachkommen vom Wildmännchen. Ein individuelles Erkennen ist bei beiden Stämmen gegeben. Aber im Gegensatz zu den Wildgoldhamstern können Laborgoldhamster ihre Geschwister, mit denen sie nicht zusammen aufgewachsen sind, ad hoc nicht individuell unterscheiden. Für die Paarung bevorzugen Laborweibchen erwartungsgemäß Wildmännchen, während Wildweibchen keine einheitliche Präferenz erkennen lassen.

Goldhamster können ihre Paarungspartner individuell unterscheiden und deren Verwandtschaftsgrad beurteilen. Wahrscheinlich bewerten sie nicht die genetische Qualität, sondern die genetische Distanz zum Partner.

 

Vortrag am 11.6.2004
Franz Makeschin (Dresden), Mitglied der Mathematisch-naturwissenschaftlichen Klasse:

Dr. agr., Dr. rer. silv. habil., Professor für Bodenkunde und Bodenschutz an der Technischen Universität Dresden; am 14. Februar 2003 zum Ordentlichen Mitglied der Mathematisch-naturwissenschaftlichen Klasse der Sächsischen Akademie der Wissenschaften gewählt. Präsident der Deutschen Bodenkundlichen Gesellschaft, Mitglied ad personam der Deutschen UNESCO-Kommission, Sprecher der Projektgruppe Stoffhaushalt der Forschergruppe 402 Ecuador, Koordinator des BMBF-Schwerpunkts „Zukunftsfähige Waldwirtschaft” in Sachsen.
Hauptarbeitsgebiete: a) Kohlenstoff- und Stickstoffdynamik in Böden gemäßigter, borealer und tropischer Regionen, b) Dynamik flugaschebelasteter Böden Mittel- und Osteuropas, c) Indikation und Sanierung degradierter Böden in den Tropen und Subtropen, und d) wissenschaftliche Grundlagen des Bodenschutzes.

 

Bodendynamik in natürlichen und gestörten Ökosystemen der tropischen Bergregenwaldregion Süd-Ecuadors

Ecuador ist eines der Länder mit der höchsten Biodiversität der Erde. Allerdings ist diese hohe Artenvielfalt stark durch nicht nachhaltige Landnutzung gefährdet. In Südamerika weist Ecuador derzeit die zweithöchste Entwaldungsrate auf, die vor allem zu Lasten des tropischen Bergregenwaldes geht. Der Wald wird hauptsächlich zu Weidezwecken gerodet. Nach wenigen Jahren der Nutzung verunkrauten die Flächen so stark, dass sie als Weide unbrauchbar sind. Neue Weideflächen müssen durch fortschreitende Rodung des Urwalds geschaffen werden, was zwangsläufig die Artenvielfalt dieser Flächen vermindert. Seit 2001 beschäftigt sich eine große Forschergruppe der DFG (FOR 402) mit der Diversität, der Struktur und der Dynamik von naturnahen und gestörten Ökosystemen der tropischen Bergregenwaldregion (www.bergregenwald.de). Das Untersuchungsgebiet liegt im südlichen Ecuador, im steilen Kerbtal des Rio San Francisco zwischen den Provinzhauptstädten Loja und Zamora, wo der Wald an den großen Podocarpus-Nationalpark angrenzt und sich über eine Höhendistanz von fast 2000 m erstreckt. Während die Südflanke des Rio San Francisco-Tals weitgehend Naturwald trägt, wird die Nordflanke land- und forstwirtschaftlich genutzt. Keine der derzeitigen Wirtschaftsweisen ist auf Nachhaltigkeit angelegt. Der unmittelbare Vergleich des Naturwalds mit den verschiedenen Formen und Intensitäten menschlicher Eingriffe in den noch bestehenden Wald bzw. die Bewirtschaftung der ehemaligen Waldgebiete liefert Hinweise auf das Nutzungspotential. Da ursächliche Zusammenhänge des Stoffumsatzes und des Stoffflusses in tropischen Bergregenwäldern bislang kaum untersucht sind, werden dort wichtige Kenngrößen des Wasser- und Stoffhaushalts in ihrer Abhängigkeit von der Höhenlage („Höhengradient”) und vom Grad der Unberührtheit bzw. der Nutzungsintensität („Störungsgradient”) ermittelt. Im Naturwald sollen Stoffumsatzraten und Stoffflüsse entlang des Höhengradienten systematisch und über Transferfunktionen quantifiziert und mathematisch modelliert werden, um zukünftig den Einfluss verschiedener Landnutzungsformen unter Berücksichtigung aller wichtigen Einzelprozesse vorhersagen zu können. Die Ergebnisse sollen in Empfehlungen für ein ökologisch verträgliches, flächenbezogenes Nutzungskonzept münden mit dem Ziel, den Schutz und die Wiederausbreitung von Naturwäldern zu fördern.

Im Naturwald werden entlang eines Höhengradienten Parameter der bodenmikrobiellen Aktivität gemessen. Die Ergebnisse zeigen einen abnehmenden Gradienten der Bodenatmung und der mikrobiellen Biomasse mit zunehmender Meereshöhe. Im Vergleich naturnaher mit stark gestörten Flächen zeigen sich nur geringe Unterschiede bei den bodenphysikalischen Eigenschaften. Die chemischen Bodeneigenschaften indizieren hingegen einen signifikanten Einfluss der Nutzung: Bodenreaktion und austauschbare basische Kationen unter Weide liegen signifikant höher als in den Vergleichsböden unter Sukzession und Wald. Nach Auflassen der Bewirtschaftung entwickeln sich die mineralischen Oberböden langsam wieder in Richtung des Ausgangszustands zurück. Bei den Gesamt-C-Vorräten in den Oberböden sind keine Unterschiede in Abhängigkeit von der Landnutzung erkennbar; die nach Brandrodung erheblichen C-Verluste in den organischen Auflagen unter Naturwald werden in den landwirtschaftlich genutzten Flächen langsam durch signifikante Zunahmen in den Mineralböden kompensiert. Allerdings verringern sich die Mächtigkeit und damit der Lebensraum der organischen Auflage durch die Nutzungseingriffe dramatisch. Die N-Vorräte liegen unter Weide generell höher als in den Sukzessionsflächen und unter Wald. Mittels der Gesamtvorräte, deren vertikaler Verteilung im Profil und der leicht mineralisierbaren C- und N-Verbindungen lässt sich der biologische Zustand der Oberböden indizieren und Hinweise zu einer nachhaltigen Nutzung der Böden ableiten.

 

Vortrag am 11.6.2004
Elke Blumenthal (Schöneiche/Leipzig), Philologisch-historischen Klasse:

Dr. phil., em. Professorin für Ägyptologie an der Universität Leipzig; am 8. Februar 1991 zum Ordentlichen Mitglied der Philologisch-historischen Klasse der Sächsischen Akademie der Wissenschaften gewählt; bis 1999 Leiterin des Ägyptologischen Instituts/ Ägyptischen Museums an der Universität Leipzig; 1999 Einrichtung der Arbeitsstelle Altägyptisches Wörterbuch an der SAW im Rahmen des gleichnamigen Vorhabens der deutschen Wissenschaftsakademien, bis 31. Januar 2001 Arbeitsstellenleiterin; 2000–2004 Betreuung des Projekts der Fritz Thyssen Stiftung „Bibliographische Datenbank zur altägyptischen Literatur” an der Arbeitsstelle.
Forschungsgebiete: Literatur, Religion und Kunst des pharaonischen Ägypten; Geschichte der Ägyptologie; Rezeption des alten Ägypten in der neueren Kunst und Literatur.

 

Von göttlicher und menschlicher Gerechtigkeit. Rechtserzählungen in der antiken Mittelmeerwelt

Ausgangspunkt der Untersuchung ist die sog. Geschichte vom beredten Oasenmann, die in mittelägyptischer Sprache auf mehreren Papyrushand-schriften aus dem 19. Jh. v. Chr. überliefert ist. Sie gilt als ein Hauptwerk pharaonischer Literatur, weil die neun Reden, die dem Mann vom Lande in den Mund gelegt sind, mit erlesener Stilkunst brillieren und sich ebenso souverän der Formen der zeitgenössischen Klageliteratur und weiterer Textgattungen bedienen.

Der weit schlichter erzählten Rahmenhandlung zufolge ist der Mann bestohlen worden, doch wird ihm sein Recht von dem zuständigen Richter erst zugesprochen, nachdem er seine rhetorischen Meisterstücke vorgetragen und mit ihnen den Beamten und den kunstliebenden König erfreut hat, für den sie protokolliert wurden.

Auch die Rahmengeschichte ist nach einem literarischen Vorbild gestaltet, das ich nach seinem Inhalt – einem Rechtsfall – als Rechtserzählung bezeichne und wegen der schlichten Fabel, der anspruchslosen, oft formelhaften Sprache und der Vorliebe für weltweit bezeugte Erzählmotive der Volksliteratur zuordne. Aus dem Vergleich mit anderen ägyptischen Dichtungen geht auch hervor, daß die ursprünglich mündlich tradierten Rechtserzählungen auf unterschiedlichen literarischen Niveaus und zu unterschiedlichen Zwecken verschriftet oder nachgeahmt worden sind.

Ein Blick auf Ägyptens Nachbarn scheint die Hypothese zu bestätigen. Ungeachtet der unterschiedlichen Rechtskulturen dieser Länder haben die volkstümlichen Stoffe und Erzählweisen der Rechtserzählungen Eingang in ihre Literaturen gefunden. Am häufigsten sind sie als Teil der israelitischen Geschichtsschreibung im Alten Testament, im heiligen Schrifttum also, zu finden, wo sie eingesetzt wurden, um Könige zu legitimieren, zu loben und zu tadeln, die Anwendung von Gesetzen zu relativieren oder zu begrenzen und göttliche und menschliche Rechtsausübung zu problematisieren. In der griechischen Prosaliteratur hefteten sich die Rechtsgeschichten bevor-zugt an legendäre Persönlichkeiten, im alten Rom dienten sie als Gründungsmythen für staatliche und juristische Institutionen.

Wahrscheinlich hat es Rechtserzählungen in der mündlichen Tradition aller vormodernen Kulturen gegeben, auch dort, wo sie nicht in den Rang der Schriftlichkeit gelangt sind. Im Rahmen oder neben der offiziellen Gesetzlichkeit stellten sie Lösungsmodelle für die kleinen Rechtsfragen des Alltags ebenso bereit wie für die großen Rätsel um Recht und Gerechtigkeit in der Welt und bildeten, wie alle Volksliteratur, ein unerschöpfliches Reservoir für die Dichter.

 

Vortrag am 14.5.2004
Klaus Manger (Jena), Mitglied der Philologisch-historischen Klasse:

Dr. phil. habil., Professor für Neuere deutsche Literatur an der Friedrich Schiller Universität Jena; am 14. Februar 2003 zum Ordentlichen Mitglied der Philologisch-historischen Klasse der Sächsischen Akademie der Wissenschaften gewählt; Mitglied der Vorhabenbezogenen Kommission für das Vorhaben „Edition des Briefwechsels von Johann Christoph Gottsched” der Sächsischen Akademie der Wissenschaften; Vizepräsident und Leiter der Geisteswissenschaftlichen Klasse der Akademie gemeinnütziger Wissenschaften zu Erfurt; seit 1998 Sprecher des Sonderforschungsbereichs 482: Ereignis Weimar-Jena. Kultur um 1800.
Hauptarbeitsgebiete: Neuere deutsche Literatur mit den Forschungsschwerpunkten Narrenliteratur um 1500; Kollektive Freiheitsvorstellungen im 17. Jahrhundert (DFG-Projekt); Klassizismus, Aufklärung, Romantik; Kulturelles Gedächtnis um 1800; Epochenmorphologie; Editionen der Werke Johann Karl Wezels und Christoph Martin Wielands; Lyrik des 20. Jahrhunderts (Celan-Kommentierung).

 

Das Ereignis Weimar-Jena um 1800 – literarisch

Die deutschsprachige Literatur um 1800 wird unter verschiedenen Epochenzuordnungen geführt, die als Aufklärung, Deutsche oder Weimarer Klassik, Goethezeit, Klassizismus, Deutscher Idealismus, Neuhumanismus oder Romantik nebeneinander zu liegen scheinen, sich in Wirklichkeit jedoch zeitlich und teilweise auch räumlich vielfach überschneiden. Dieser vorprägenden Zuordnung wollen die aktuellen Überlegungen unter dem Dach des „Ereignisses” entkommen.

In den vergangenen sechs Jahren intensiver Forschungen des Sonderforschungsbereichs 482: „Ereignis Weimar-Jena. Kultur um 1800” haben sich die Vorteile des Ereignisbegriffes als eines gemeinsamen Daches für die Gesamtkonstellation gezeigt, da er den beteiligten Fächern neue Perspektiven für eine innovative, fruchtbare und vor allem disziplinübergreifende Auseinandersetzung mit bisherigen Erklärungsmodellen bietet. Diese Gesamtkonstellation im Herzogtum Sachsen-Weimar-Eisenach hat mit der Residenz Weimar und der Universität Jena zwei Kristallisationskerne, die schon für die Zeitgenossen als „Doppelstadt” galten. Kultur umfaßt im Unterschied zur Natur alles, was Menschen im Lauf ihrer Geschichte hervorgebracht haben und hervorbringen. Diese Kultur um 1800, wie sie in der Kommunikationsverdichtung des Ereignisraums aufgenommen, anverwandelt und weitergegeben worden ist, bildet in ihrer Gesamtheit den Gegenstand der Untersuchungen. Die Ereigniszeit erstreckt sich etwa zwischen Wielands Berufung 1772 nach Weimar und Goethes Tod in Weimar 1832. Vor dem Hintergrund der Gesamtkonstellation sind die literarischen Werke der großen und kleinen Autoren des Ereignisraumes neu zu betrachten und trotz ihrer historischen Monumentalisierung in ihrem Entstehungskontext aufzusuchen. Dazu gehören die publikumswirksamsten Unternehmungen für Theater und Zeitschriften oder die Kontexte der Zeitschriften ebenso wie die Genese der Werkausgaben oder die Widmungsadressen der Originalwerke wie der Übersetzungen mit ihren reichen Kommentaren. Außerdem erlauben die bald annähernd vervollständigten Briefausgaben wenigstens der Weimarer Großen, in der Reihenfolge ihres Eintreffens in Weimar Wieland (1772), Goethe (1775), Herder (1776), Schiller in Jena (1789) und dann in Weimar (1799), ihr literarisches Wirken als Dichter und als Schriftsteller, soweit es darin bemerkbare Gemeinsamkeiten betrifft, schärfer zu konturieren. Frappant ist beispielsweise die Kontinuität, mit der sie ihren neuen Wirkungsort von Anfang an inszenieren, bis sie ihn dann im Xeniengewitter obendrein zentrieren, wodurch der Boden für die nochmalige Polarisierung von Aufklärern und Romantikern bereitet wird. Wenn die These gilt, dass im Ereignis Weimar-Jena die Aufklärung kulminiert, so lässt sich das aus dem Wahrnehmungs- und Darstellungswandel besonders deutlich erkennen, der nicht nur zu neuen Wissensordnungen führt, sondern auch neugestaltete literarische Werke hervorbringt, die sich wie Goethes „klassisch-romantische Phantasmagorie” als Syntheseleistungen begreifen lassen. Dass die neuen Konzeptionen auch von neuen methodischen Erwägungen begleitet werden, kommt beispielsweise in Herders wegweisendem Morphologieverständnis, in Schillers Entwurf von Universalgeschichte, in Goethes dichterischer und wissenschaftlicher Durchdringung von Metamorphose oder in Wielands den mündigen Bürger miteinbeziehendem Gesprächsangebot zum Ausdruck.

 

Vortrag am 14.5.2004
Wolfgang-Martin Boerner (Chicago), Mitglied der Technikwissenschaftlichen Klasse:

Ph.D., Professor am Department of Electrical & Computer Engineering und Direktor des Communications, Sensing and Navigation Laboratory an der University of Illinois at Chicago; Präsident der Polarimemerics Inc. in Northbrook, Illinios; am 8. Februar 2002 zum Korrespondierenden Mitglied der Technikwissenschaftlichen Klasse der Sächsischen Akademie der Wissenschaften gewählt.
Hauptarbeitsgebiete: Hauptarbeitsgebiete: Erd-Fernerkundung, Einführung und Umsetzung von Polarimetrischen Verfahren und Techniken in unterschiedliche nachrichtentechnische Systeme.

 

Die moderne Erd-Fernerkundung und ihre weltweiten Anwendungen

Vorgestellt wird eine Übersicht der bedeutendsten modernen passiven sowie aktiven Methoden der Erdfernerkundung, wobei hauptsächlich Flugzeug-, Drohnen- und Satelliten-getragene, elektromagnetische Sensoren Erwähnung finden mit einigen der bedeutendsten Anwendungen, wie z.B. in der Landwirtschaft und im Forstwesen sowie in der Katastrophenvorwarnung. Auf die Bedeutung des elektromagnetischen Spektrums, der elektrodynamischen Grundlagen wie Maxwellsche Gleichungen, die Helmholtzsche Gleichung für Vektorwellen und auf die fundamentalen Gesetze der Radiometrie wird nur kurz hingewiesen sowie auf die für die Erdfernerkundung äußerst wichtigen fundamentalen Gesetze der Polarisation, der Streumatrizen und der Radargleichungen. In jedem elektromagnetischen Frequenzbereich bestehen polarisationsabhängige Resonanzen, die wichtige Informationen für die Auswertung von elektrodynamischen Fernerkundungsdaten liefern und für die Erfassung besonderer Erscheinungen maßgebend sind. Nähere Untersuchungen zeigen, dass grundsätzlich alle Sensoren ohne Ausnahme in allen Frequenzbereichen voll polarimetrisch ausgerüstet werden müssen – wie teuer das auch im Anfang immer sei.

Dieser kurze theoretische Teil wird mit der Beschreibung einer neuen Polarimetrischen Entropie-Methode nach Cloude und Pottier sowie der Polarimetrischen SAR Interferometrie Methode nach Cloude und Papathanassiou und der Differentiellen SAR Interferometrie nach Massonnet abgeschlossen, die zusammen eine sehr genaue, dreidimensionale Beschreibung der bewachsenen Erde und ihrer zeitlichen wie örtlichen Veränderungen ermöglichen. Einer knappen Einführung der wichtigsten Prinzipien der Flugzeug-, Dronen-, Shuttle- und Satelliten-getragenen multi-modalen SAR Sensoren folgt die Vorstellung der bedeutendsten voll polarimetrischen SAR Systeme der weltweit führenden Forschungsanstalten für Luft- und Raumfahrt wobei gezeigt wird, dass diese Verfahren und Technologien sehr kostspielig und wissenschaftlich anspruchsvoll sind. Deswegen gibt es weltweit nur relativ wenige solcher Systeme. Die wichtigsten werden mit je einem Anwendungsbeispiel angeführt. Die Weiterentwicklung der multi-modalen POL-IN-SAR Satelliten Technologie wird in naher Zukunft zügig vorangehen, und in ferner Zukunft wird es eine Satelliten-Flotte mit solchen POL-IN-SAR Sensoren geben, die jeden Fleck der Erde täglich etliche Male erkunden können.

Um alle bedeutenden Resonanzen in diesem für die Geologie und die Umwelt wichtigen Spektralbereich von 1 MHz bis 100 GHz zu finden, sind die wenigen beschränkten Frequenzbänder, die derzeit für die Fernerkundung zur Verfügung stehen, nicht ausreichend. Der Zugang zum gesamten Spektralbereich ist grundsätzlich unabdingbar, was zu weiteren Kollisionen mit andern passiven wie auch aktiven Nutzern des „Elektromagnetischen Spektrums” führen wird. Das gesamte freie „Elektromagnetische Spektrum” ist eine der wichtigsten, fundamentalen Naturschätze nicht nur der Erde sondern auch des Sonnensystems und des gesamten Weltalls. Unser aller Aufgabe – ob in der Tele-Kommunikation oder Fernerkundung – muss es sein, dieses in Zukunft sauber und soweit wie nur möglich rein zu halten wobei der Erd-Fernerkundung ihre Rechte zur vollen Nutzung dieses fundamentalen „Naturschatzes” zukünftig ohne Einschränkungen gewährt werden muss.

 

Festvortrag zur Öffentliche Frühjahrssitzung 23.4.2004
Peter Paufler (Dresden), Mitglied der Technikwissenschaftlichen Klasse:

Professor Dr. rer. nat. Peter Paufler, Institut für Strukturphysik der Technischen Universität Dresden


Härter als Diamant? Suche nach dem Stein der Weisen heute

Seitdem Härte gemessen wird, steht der Diamant an erster Stelle der Rangliste harter Stoffe. Sie verleiht ihm die besondere Eignung zum Schmuckstein und zum Werkzeug für extreme Anforderungen. Wie kommt es zu dieser Sonderstellung und wie läßt sich dem steigenden Bedarf moderner Technologie an ultraharten Stoffen begegnen? Wo liegen Inseln der Härte im Ozean denkbarer neuer Feststoffe? Im Vortrag werden die für hohe Werte der Härte maßgebenden Vorgänge auf atomarer Skala und daraus folgende Suchstrategien für das Material von morgen erläutert. Ein Schlüssel zum Vordringen in dieses faszinierende Neuland liegt in der Nanostrukturierung, ein weiterer in der Modellierung unkonventioneller Atomanordnungen mit dem Computer. Die Suche nach dem goldträchtigen Stein der Weisen früherer Alchemisten wird heute abgelöst von nicht minder anspruchsvollen Zielen der Entdeckung außergewöhnlicher Stoffe, deren Wert womöglich nicht mit Gold aufgewogen werden kann.

 

Vortrag am 12.3.2004
Christian Wandrey (Jülich), Mitglied der Technikwissenschaftlichen Klasse:

Dr. rer. nat. habil., Professor für Biotechnologie an der Universität Bonn und Direktor am Institut für Biotechnologie des Forschungszentrums Jülich; am 8. Februar 2002 zum Korrespondierenden Mitglied der Technikwissenschaftlichen Klasse der Sächsischen Akademie der Wissenschaften gewählt.
Hauptarbeitsgebiete: Enzymatische und mikrobielle Biotransformationen, Fermentationstechnik, Zellkultur-Technik, Bioorganische Chemie, Aufarbeitungstechnik.

 

Technology-Transfer in der Biotechnologie

Die Biotechnologie wird als integrierte Anwendung von Mikrobiologie/ Molekularbiologie, Biochemie und Verfahrenstechnik definiert. Sie zielt also auf Anwendung. Einer Erfindung (Invention im Labor) soll also eine Umsetzung (Innovation) zu einem neuen Prozess, Produkt oder einer neuen Dienstleistung folgen.

Das Institut für Biotechnologie am Forschungszentrum Jülich hat sich seit seiner Gründung (1977) der obigen Definition verpflichtet gefühlt. Zu Beginn erfolgte ein Technologietransfer hauptsächlich zu großen etablierten Firmen (z.B. die enzymkatalysierte Herstellung der Aminosäure L-Methionin, die in Infusionslösungen eingesetzt wird). Dafür wurde im Labor der Enzym-Membran-Reaktor entwickelt und später in den industriellen Maßstab übertragen. Ein löslicher Katalysator (ein Enzym) wird über eine Ultrafiltrationsmembran im Bioreaktor zurückgehalten. Im Prinzip wird damit eine kontinuierliche Homogenkatalyse verwirklicht. Später wurde diese Technik auf die Herstellung von nicht natürlichen Aminosäuren (z.B. von L-tert Leucin) übertragen. Solche nicht natürlichen Aminosäuren haben eine Bedeutung als Bausteine in der Pharmasynthese. Anhand dieses Beispiels wurde die erste technisch einsetzbare Methode zur kontinuierlichen Coenzymregenerierung entwickelt.

Für natürliche Aminosäuren wurden später fermentative Verfahren entwickelt, die mit zur industriellen Produktion von L-Lysin geführt haben (Prof. Sahm und Mitarbeiter, Produkteinsatz bei der Tierfuttersupplementierung). Alle bisher genannten Beispiele wurden zusammen mit der Firma Degussa kommerzialisiert. Noch später wurde der Technologietransfer auch auf kleinere Firmen ausgedehnt. Hierbei ging es um Entwicklungen zur Fermentationstechnik für mikrobielle Fermentationen, aber auch für die Zellkulturtechnik. Eine wiederum andere Methode des Technologietransfers wurde durch die Gründung einer Tochterfirma eines großen holländischen Unternehmens in Jülich erreicht (DSM Biotech GmbH Jülich). Diese Zusammenarbeit war zunächst methodisch orientiert (Metabolic Engineering), führte aber auch zu Produkten (Abkömmlinge des Aromatenbiosyntheseweges).

Schließlich erfolgte auch ein sehr wirksamer Technologietransfer zu Firmen, die von früheren Doktoranden des Institutes gegründet wurden (z.B. Firma Jülich Fine Chemicals und Firma AC Biotech, Jülich). Diese Firmen übernahmen Methoden und Produktentwicklungen und führten sie schließlich zu einer kommerziellen Nutzung.

Bei den Firmenausgründungen begann der Technologietransfer mit den angehenden Firmengründern schon im Institut. Bei Gründung der Firma erfolgte ein Standortwechsel in das Technologiezentrum Jülich. Mit der Weiterentwicklung der Firmen bezogen diese eigene Gebäude in der so genannten „High Tech Mall Jülich”, einem Firmenansiedlungsgelände für technologieorientierte Unternehmen. Dort wird eine Idee verwirklicht, die man als „Fertighaussiedlung für Start up Firmen” bezeichnen könnte. In zuvor (auf Vorrat) erstellten Gebäuden haben dann junge Unternehmen die Gelegenheit ihre Wünsche bezüglich Bürofläche, Laborfläche und Produktionsräumen zu spezifizieren. Die Spezifikation kann im Allgemeinen innerhalb von 6 Monaten verwirklicht werden.

In dem Vortrag wird sowohl auf die wissenschaftlichen Grundlagen (Invention) als auch auf die technische Umsetzung (Innovation) eingegangen.

 

Vortrag am 12.3.2004
Reinhard Gaupp (Jena), Mitglied der Mathematisch-naturwissenschaftlichen Klasse:

Dr. rer. nat., Professor für Allgemeine und Historische Geologie am Institut für Geowissenschaften der Friedrich-Schiller-Universität Jena; am 14. Februar 2003 zum Ordentlichen Mitglied der Mathematisch-naturwissenschaftlichen Klasse der Sächsischen Akademie der Wissenschaften gewählt.
Hauptarbeitsgebiete: Sedimentologie von siliziklastischen Ablagerungen, Paläoklima-Rekonstruktionen aus kontinental-sedimentären Archiven; Hochdiagenese tiefversenkter Sandsteine in Beziehung zur Störungsentwicklung; Rekonstruktion von Paläotemperatur-Entwicklungen in Sedimentbecken; Tiefengas-Exploration; Verwitterung klastischer Sedimente, Oberflächen-Petrophysik.

 

Erdgas – Energie für die Zukunft?

Konventionelles Erdgas (Methan, CH4) entsteht aus kohligen Bestandteilen von Sedimenten, die durch Versenkung auf Temperaturen >70°C erhitzt werden. Nicht-konventionelles biogenes Erdgas umfasst die großen Ressourcen der Methanhydrate in den Meeresrandgebieten und Permafrostregionen sowie Gas aus Kohlelagerstätten. Abiogenes Erdgas bzw. Mantel-Methan existiert in großen Mengen, ist jedoch bislang noch nicht in wirtschaftlichen Akkumulationen nachgewiesen worden. Die fossilen Energieträger Erdöl, Erdgas und Kohle tragen mit Abstand den größten Teil der Energieversorgung in Deutschland und auch weltweit. Derzeit ist der Anteil des Erdgases am Primärenergieverbrauch in Deutschland ca. 22%. Sein Anteil stieg in den vergangenen 10 Jahren um 30%, während die Anteile von Erdöl, Steinkohle und Braunkohle gesunken sind. Erdgas erfreut sich zunehmender Beliebtheit wegen der „sauberen” Handhabbarkeit und wegen seines relativ geringen CO2-Ausstoßes bei der Verbrennung.

Die Weltgasförderung beträgt 2500 Milliarden Kubikmeter pro Jahr und zeigt steigende Tendenz. Der Anteil des Erdgases an der globalen Energieversorgung wird voraussichtlich bis etwa zum Jahr 2060 ansteigen, um dann zu sinken, sofern nur konventionelles Erdgas gefördert werden kann. Die Erdöl- und Erdgasvorräte, bzw. alle nicht erneuerbaren Energie-Ressourcen, sind endlich und die entsprechende Produktion wird von einem bestimmten Zeitpunkt an rückläufig sein müssen. Bei weiter wachsendem Energiebedarf der Welt wird in ca. 10–20 Jahren der „depletion midpoint” der globalen Erdöl-/Erdgasproduktion erreicht sein, für Erdgas später als für Erdöl.

Der steigende globale Erdgasbedarf kann nur gedeckt werden durch die Erkundung und Erschließung neuer Lagerstätten in zunehmend größeren Tiefen, auf dem Festland, vor allem aber auf den Schelfen und Kontinentalhängen. Die Gewinnung dieser Energieträger wird trotz rascher technologischer Entwicklung immer aufwändiger und kostspieliger. Die Geowissenschaften tragen mit dazu bei, daß die Risiken bei der Exploration minimiert werden. Neben der Datenerhebung am Material aus dem Untergrund (Analyse von Bohrkernen, geophysikalische Messungen etc.) haben Laborexperimente und numerische Simulationen der Entwicklung von Gas-Lagerstätten über geologische Zeiträume erheblich an Bedeutung gewonnen. Die wichtigsten Prozesse, die in der numerischen Simulation berücksichtigt werden müssen, sind die Bildung von Erdöl und Erdgas, die Lösung von Kohlenwasserstoffen in den jeweiligen Phasen Gas, Öl oder Porenwasser, die Wanderung von Öl und Gas durch den Porenraum der Gesteine (Migration) und schließlich die Ansammlung von Öl und Gas in möglichen Speichergesteinen.

Tiefe Erdgaslagerstätten haben meist komplizierte Porenraum-Systeme, wodurch die Fließfähigkeit von Gasen und Flüssigkeiten stark herabgesetzt wird. Bereits kleine Unterschiede in der Qualität der Speichergesteine, z.B. das Fehlen oder das Vorhandensein bestimmter Tonminerale oder porenraumfüllender Zemente, können entscheiden, ob eine Lagerstätte derzeit wirtschaftlich ist oder nicht. Deshalb kommt den Prognose-Modellen zu derartigen qualitätsmindernden Einflüssen im tiefen Untergrund eine gewichtige Bedeutung zu. Nur über das Verständnis der geologischen, physikalischen und chemischen prozessualen Abläufe während der Jahrmillionen umfassenden Entwicklung der Speichergesteine können solche konzeptionellen oder quantitativen Prognosemodelle verlässlich werden. Anhand von Beispielen der geowissenschaftlichen Unterstützung von Exploration auf tiefe Kohlenwasserstoff-Lagerstätten werden aktuelle Tendenzen in der anwendungsorientierten Grundlagenforschung aufgezeigt.

Trotz aller Fortschritte in der „Zielpräzision” der Exploration auf fossile Energieträger muß für Erdöl und Erdgas ein Ersatz gefunden werden. Nichtkonventionelle Lagerstätten können an der Endlichkeit der fossilen Energieträger nichts grundlegend ändern, die Erschöpfung lediglich hinauszögern. Erneuerbare Energien können helfen den Bedarf zu decken, sind aber zumindest kurzfristig nicht die Lösung des Problems. Die deutsche Steinkohleproduktion wird aus wirtschaftlichen Gründen weiterhin drastisch zurückgefahren werden müssen. Die Kernenergienutzung wird u.a. aus sicherheitstechnischen Gründen reduziert. Deutschland ist bezüglich Erdöl und Erdgas ein Importland und die Importabhängigkeit wird weiter steigen. Während die Eigenproduktion von Erdöl in Deutschland kaum eine Rolle spielt, werden immerhin z.Zt. noch ca. 18% des Erdgasbedarfs aus heimischer Produktion beigetragen. In den nächsten 10–15 Jahren werden jedoch die deutschen Erdgasfelder weitgehend erschöpft sein, die Importabhängigkeit von immer weniger Lieferländern (Gas aus Russland und Nordafrika) wird weiter zunehmen. Weder der langfristig drohende Engpass in der Energieversorgung Deutschlands noch die Gefahren und die Krisenanfälligkeit geopolitischer Abhängigkeiten scheinen von Gesellschaft, Medien und Regierung wahrgenommen zu werden.

 

Vorträge am 13.2.2004
Ortrun Riha (Leipzig), Mitglied der Mathematisch-naturwissenschaftlichen Klasse:

Dr. med. Dr. phil., Professorin für Geschichte der Medizin am Karl-Sudhoff-Institut der Medizinischen Fakultät der Universität Leipzig, am 14. Februar 2003 zum Ordentlichen Mitglied der Mathematisch-naturwissenschaftlichen Klasse der Sächsischen Akademie der Wissenschaften gewählt.
Hauptarbeitsgebiete: Mittelalterliche Medizin, Medizin und Literatur, Frau und Medizin; Ethik in der Medizin.

 

Aussatz als Metapher: Aus der Geschichte einer sozialen Krankheit

„Aussatz” ist die einzige Krankheit, deren gebräuchlichster Name auf die sozialen Folgen für die Betroffenen abhebt; sie wurden bzw. werden „ausgesetzt” und sind nicht mehr Teil der Gemeinschaft. Die alten Begriffe „feltsiech” oder „sondersiech” bringen das Gleiche zum Ausdruck. Auch weitere synonyme Bezeichnungen lassen den Schrecken erkennen, mit dem die Menschen früherer Zeiten auf die Krankheit bzw. auf die Kranken reagierten und der so weit ging, dass man gar nicht wagte, auch nur den Namen auszusprechen: Straßennamen, wie „Gutleutgasse”, die heute noch an ehemalige Leprosorien erinnern, sind Zeugen eines solchen apotropäischen Ausweichens. Die unübersehbaren körperlichen Veränderungen stigmatisieren die Befallenen aber nicht nur äußerlich; ihr grässliches Aussehen ließ die Zeitgenossen vermuten, dass parallel dazu auch innere, seelische Veränderungen vonstatten gehen, die sich in negativen Charakterveränderungen äußern. Aussätzige galten als hinterhältig, neidisch und zügellos – weitere Gründe also, ihre Ausstoßung aus der Gesellschaft zu legitimieren.

Die Organisation der Isolierung dieser Bevölkerungsgruppe stellte für das mittelalterliche Gemeinwesen eine nicht unerhebliche Herausforderung dar und war regional unterschiedlich geregelt. Das medizinische Verfahren bedurfte einer gewissen Transparenz und Dokumentation, die spirituelle Begleitung seitens der Kirche musste geordnet werden und schließlich war auch die ökonomische Ausstattung und Sicherung der Leprosorien zu gewährleisten.

Weshalb der Aussatz in Europa im Mittelalter auftrat und wieso er an der Schwelle zur Neuzeit – von kleinen Endemiegebieten an der Ostsee und in Skandinavien abgesehen – wieder verschwand, ist unklar. Umstritten ist auch, ob es tatsächlich so viele Lepröse gab, wie die Zahl der Institutionen glauben macht. Möglicherweise handelt es sich um ein Wahrnehmungsphänomen als Folge der Christianisierung. In der Frühmoderne jedenfalls hat die Syphilis den Aussatz als „Leitkrankheit” abgelöst. Dass die Lepra eine „unmoderne” Krankheit ist, zeigt sich noch heute im Bereich der medizinischen Entwicklungshilfe: Nach viel versprechenden Anfängen (z.B. seitens des Aussätzigenhilfswerks) versanden viele Initiativen nicht nur aus Geldmangel, sondern auch deshalb, weil kaum ein Land Interesse hat, durch Früherkennungsprogramme die Zahl seiner Leprösen zu steigern.

 

Vorträge am 13.2.2004
Klaus Bochmann (Leipzig), Mitglied der Philologisch-historischen Klasse:

Dr. phil. habil., Professor für romanische Sprachwissenschaft (Französisch, Italienisch) am Institut für Romanistik der Universität Leipzig; am 8. Februar 2002 zum Ordentlichen Mitglied der Philologisch-historischen Klasse der Sächsischen Akademie der Wissen-schaften gewählt.
Lehrgebiete: rumänische, italienische und französische Sprachwissenschaft, besonders Sprachgeschichte; historisch-vergleichende romanische Sprachwissenschaft; italienische Literaturgeschichte des 12. bis 16. Jahrhunderts; rumänische Literatur; Theorie der Soziolinguistik und Soziolinguistik der romanischen Sprachen.

 

Wie Sprachen gemacht werden. Zur Entstehung neuer romanischer Sprachen im 20. Jahrhundert

  1. Die romanische Sprachwissenschaft verzeichnet seit ihrer Entstehung in der ersten Hälfte des 19. Jahrhunderts einen bedeutenden Zuwachs an „neuen” romanischen Sprachen. Es handelt sich teils um neu entdeckte Sprachen (Frankoprovenzalisch, Rätoromanisch), teils um Minderheitensprachen, die im Verlaufe des 20. Jahrhunderts offizielle Anerkennung gefunden haben (Galegisch, Korsisch, Ladinisch usw.), um politisch oktroyierte Sprachen (Moldauisch), teils auch um Mehrheitssprachen, die erst in jüngster Zeit als National- oder Offizialsprachen proklamiert worden sind (Kreolisch in Haiti, auf den Seychellen, auf Réunion usw.). „Entstehung” von Sprachen bedeutet demnach entweder ihre Erfindung durch Linguisten, die Umwertung einer sozial untergeordneten Varietät zu einer mit höherem Sozialprestige oder den Octroi durch politische Mächte.
  2. Der Eintritt dieser Sprachen in die moderne Geschichte berührt eine linguistische Streitfrage, die theoretisch längst geklärt zu sein scheint, sich in der Praxis aber immer wieder neu stellt: die Frage nach der Abgrenzung von Sprache und Dialekt. Den meisten der hier zur Debatte stehenden Idiomen wird sowohl von manchen Linguisten als auch von Angehörigen der konkurrierenden und selbst der eigenen Sprechergemeinschaft die Anerkennung als Sprache verweigert. Es zeigt sich immer wieder, dass in den strittigen Fällen nicht das linguistische Urteil, sondern politische Macht- oder intellektuell-kulturelle Hegemonieverhältnisse ausschlaggebend für die Entscheidung darüber sind, ob eine Varietät als Sprache oder als Dialekt gilt.
  3. Die Ursachen für die Fragmentierung von bisher homogen scheinenden Sprachräumen durch das Auftreten der „neuen” Sprachen, die quer gegen die augenscheinliche Unifizierung des globalen Kommunikationsraumes zu verlaufen scheint, sind vielfältiger Natur. Kann man allgemein davon ausgehen, dass die Trägergemeinschaften der betreffenden Sprachen damit bisher bestehende Benachteiligungen beim Zugriff auf die sozialen, kulturellen und wirtschaftlichen Ressourcen wettzumachen suchen, so sind im konkreten Fall oftmals Interessen kleiner Eliten im Spiel, die sich nicht immer im Einklang mit denen der Sprechermehrheit befinden.
  4. Der Ausbau der Sprachen zu polyfunktional anwendbaren Standardsprachen vollzieht sich mit unterschiedlichen Schwerpunktsetzungen, unter denen die Entscheidung über das Für und Wider einheitlicher Normen am heftigsten umstritten ist. Sprachausbau ist in jedem Fall ein kostspieliges Unternehmen, bei dessen Kalkulation jedoch zu berücksichtigen ist, dass das Fortbestehen von Sprachkonflikten in der Regel wesentlich höhere soziale Kosten verursacht und unkalkulierbare Risiken in sich birgt (wie im Falle der baskischen ETA oder des korsischen Separatismus). Auf der anderen Seite werden bestimmte Sprechergemeinschaften erst durch die Anerkennung und den Ausbau ihrer Sprache zur Partizipation an Wirtschaft, Kultur und Gesellschaft befähigt; Sprache stellt somit selbst eine soziale Ressource dar.
  5. Wenn die genannten Sprachen in ihrem heutigen Status das Ergebnis intentionalen sozialen Handelns sind, dann muss der in der Linguistik allgemein akzeptierte Begriff „natürliche Sprache” in Frage gestellt werden. Selbst wenn man von dem banalen Gegensatz Kultur versus Natur abstrahiert, demzufolge Sprache selbstverständlich ein Kulturprodukt ist, lässt sich der Terminus nicht einmal im Gegensatzpaar künstliche Sprache versus natürliche Sprache rechtfertigen, da wir es in beiden Fällen mit Produkten absichtlichen Handelns zu tun haben.

 

Vortrag am 9.1.2004
Anita Steube (Leipzig), Mitglied der Philologisch-historischen Klasse:

Dr. phil., Professorin für Allgemeine Sprachwissenschaft an der Universität Leipzig, am 11. Oktober 1991 zum Ordentlichen Mitglied der Philologisch-historischen Klasse der Sächsischen Akademie der Wissenschaften gewählt; seit 8. Februar 2002 Korrespondierendes Mitglied.
Hauptarbeitsgebiete: Grammatiktheorie mit den Schwerpunkten Syntax- und Semantiktheorie und Lexikon.

 

Die Negation in der Informationsstruktur

(Der Vortrag ist Gegenstand des DFG-Projekts D1 „Intonation und Bedeutung” aus der Forschergruppe „Sprachtheoretische Grundlagen der Kognitionswissenschaft – sprachliches und konzeptuelles Wissen”)

Die Negation ist zum einen ein gutes Demonstrationsobjekt dafür, wie eng die innergrammatischen Teilbereiche Syntax (Satzbau), Semantik (Bedeutung) und Prosodie (Intonation) miteinander verzahnt sind und zum zweiten dafür, wie eng Grammatik und Textgestaltung zusammenwirken.

„Informationsstruktur” ist eine neuere Bezeichnung für die ältere „Thema-Rhema-Gliederung”. Informationsstruktur umfasst einmal die vom Textfluß abhängige Ausformung der Satzgrammatik auf allen Ebenen und zum anderen die Auswirkung der Texttypen und der Textgliederung auf die Satzanfänge. Was man heute aus der Informationsstruktur kennt, ist das erstere, die von der Textpragmatik gesteuerte „Hintergrund-Fokus-Gliederung” der Sätze: Ein Einleitungssatz soll keine Vorkenntnisse an die Höreranforderung stellen. Er enthält nur fokale oder neue Information. Ein Anschlusssatz dagegen beginnt im Deutschen normalerweise – didaktisch – mit dem, was schon eingeführt wurde oder was daraus ableitbar ist (dem Hintergrund), woran sich dann das im gegebenen Satz Neue anschließt. Was man noch weniger durchschaut, ist das zweite, die sog. „Topik-Kommentar-Gliederung”: Wie z.B. das Erstglied eines deutschen Hauptsatzes den Texttyp mitgestaltet und die Gesamtthematik in Absätze teilt.

Dieses Herangehen an Grammatik hebt ihre isolierte Stellung auf. Das Grammatikmodell ist in ein größeres pragmatisches Modell einzubauen.

Wieso benötigt nun insbesondere die Negation Erklärungen aus allen drei Gebieten der Grammatik: Von der Syntax her: Die Negation steht im Deutschen zu Beginn des Fokus (Neuinformation). In Sätzen, die in Hintergrund und Fokus geteilt sind, sind alle Hintergrund-Satzglieder an der Negation vorbei nach links bewegt. Von der Semantik her: Satzglieder, die nicht im Fokus – also Hintergrundinformation – sind, können keine unspezifische Referenz haben. Negiert zu werden oder nicht, ändert in Artikelsprachen z.B. die Artikel, einen Teil der Referenzanzeiger. Die Reichweite der Negation erstreckt sich immer auf das, was in der Fokusdomäne verbleibt oder was fokal ist und aus syntaktischen Gründen anderswo stehen muss.

Von der Prosodie her: In der Fokusdomäne befindet sich der Satzakzent, realisiert durch die „verbnächste” Konstituente. Der Akzent ist unterschiedlich gestaltet als Neuinformationsakzent, als Kontrastakzent und als sog. Hutkontur mit zwei Akzenten, einem Kontrastakzent gefolgt von einem Neuinformationsakzent. Negierte Sätze mit Kontrastakzent gibt es in 2 Arten: entweder steht die Negation (an ihrem Platz) vor dem kontrastierten Satzglied, oder sie geht mit den Konstituenten in der Kontrastdomäne an die Satzspitze und hat dort Anteil an der Texttypgestaltung. Bei der sog. Satznegation mit Neuinformationsakzent ist das Verb stets mit negiert. Bei der sog. Glied- oder Sondernegation ist nur das kontrastierte Satzglied negiert. In den Hutkonturen wird das kontrastierte Satzglied in der Reichweite des Neuinformationsakzents von „nicht” interpretiert.

 

Vortrag am 9.1.2004
Thomas Bley (Dresden), Mitglied der Technikwissenschaftlichen Klasse:

Dr. rer. nat. habil., Professor für Bioverfahrenstechnik an der Technischen Universität Dresden, Institut für Lebensmittel- und Bioverfahrenstechnik; am 8. Februar 2002 zum Ordentlichen Mitglied der Technikwissenschaftlichen Klasse der Sächsischen Akademie der Wissenschaften gewählt.
Hauptarbeitsgebiete: Biomonitoring, populationsdynamische und metabolische Modelle, heterogene Biokatalyse, Optimierung und Steuerung biotechnischer Prozesse.

 

Bioverfahrenstechnik: Zellen im Bioreaktor und Zellen im Computer

Die Bioverfahrenstechnik hat sich als eigenständiger Wissenszweig im Bereich der Verfahrenstechnik erst seit etwa dreißig Jahren etabliert. Sie befaßt sich mit der technischen Realisierung von biogenen Stoffwandlungen in der Industrie.

Für das Beherrschen dieser Prozesse spielt die Maßstabsübertragung aus dem Labor in die industrielle Dimension eine entscheidende Rolle. Voraussetzung für eine erfolgreiche Maßstabsübertragung ist die Quantifizierung der biologischen Prozesse in einem technischen Umfeld, die Beschreibung dieser Prozesse mit mathematischen Modellen. Die Variablen dieser bioverfahrenstechnischen Modelle müssen einerseits den Zustand des biologischen Systems, Mikroorganismen oder Zellen von Tieren und Pflanzen, beschreiben, andererseits den Zustand der vom technischen System, dem Bioreaktor, gegebenen abiotischen Umgebung der Zellen abbilden.

Im einfachsten Fall entspricht eine Variable der Konzentration der Zellen im System, die andere der Konzentration eines (limitierenden) Nährstoffs. Das wachsende Wissen über die Physiologie und die Regulation des Stoffwechsels wirtschaftlich interessanter „Zellfabriken” erlaubte in den letzten Jahren das Entwickeln von differenzierteren, die reale Zelle genauer abbildenden Modellen. Dabei konnten einerseits unterschiedliche Leistungen der Zellen in einer Population berücksichtigt werden (segregated modeling) und andererseits für das jeweilige Produkt relevante Elemente des Stoffwechsels, Metabolite und Enzyme, mit dem Modell beschrieben werden (structured modeling). Auf der Grundlage dieser Fortschritte im Erkenntnisprozeß wurde 1991 ein neuer Begriff eingeführt: „Metabolic Engineering”. Er beschreibt das durch vorherige Modellierung möglich gewordene gezielte gentechnische Konstruieren von Zellen mit gewünschten Leistungen.

Neben der Maßstabsübertragung sind Modelle auch für das Führen biotechnischer Prozesse von zunehmender Bedeutung. Die Komplexität und der Variationsreichtum biologischer Systeme führen nämlich bei fest vorgegebenen Prozeßführungen häufig zu großen Abweichungen vom optimalen wirtschaftlichen Ergebnis. Deshalb wird eine Steuerung und Optimierung auf der Grundlage einer Modellvorhersage angestrebt. Dafür ist es erforderlich, insbesondere die biologischen Modellparameter schnell, im besten Fall online zu bestimmen. Bisher wird diese Aufgabe indirekt durch Beobachten der Zellumgebung im Bioreaktor und Schätzung der biologischen Parameter mit statistischen Methoden gelöst. Es wird aber zunehmend möglich werden, im und am Bioreaktor direkt Informationen aus den Zellen zu gewinnen und zur Prozeßsteuerung einzusetzen. Solche Methoden wie die Online-Flow-Cytometry werden dabei zukünftig eine wichtige Rolle spielen.

Termine
Holzbasierte Bioökonomie - Treiber innovativer Technologien 07.12.2016 10:00 - 16:00 — Karl-Tauchnitz-Str. 1, 04107 Leipzig
Öffentliche Herbstsitzung 2016 09.12.2016 16:00 - 20:00 — Bibliotheca Albertina, Beethovenstraße 6, 04107 Leipzig
Horst-Michael Prasser: Basisinnovation bei Kernreaktoren 16.01.2017 18:30 - 20:00 — TU Dresden, Festsaal des Rektorats, Mommsenstr. 11, 01069 Dresden
Forum "Offenes Land - offene Fragen" 08.02.2017 18:00 - 20:00 — Karl-Tauchnitz-Str. 1, 04107 Leipzig